KI News #20

Hallo und herzlich willkommen zur zwanzigsten Ausgabe von KI News.

Heute geht es um den ersten Fall von Diskriminierung durch einen Computer-Algorithmus, eine App, die hilft, versteckte Kameras zu entdecken, Deepfakes auf gehackten Instagram-Profilen und eine neue Technik für Reinforcement Learning.

Viel Spaß beim Lesen!

Der möglicherweise erste Fall von Diskriminierung durch einen Algorithmus

London in den 1970er Jahren. An der St George’s Hospital Medical School mussten sich zukünftige Studierende zuerst schriftlich bewerben, bevor sie gegebenenfalls zu einem Gespräch eingeladen wurden. 75% der Bewerber:innen wurden aufgrund der schriftlichen Bewerbung abgelehnt, von den übrigen nochmal 30% nach dem Gespräch.

Die vielen Bewerbungen zu bewerten war natürlich eine Menge Arbeit, weshalb der stellvertretende Dekan eine Software programmierte, um die Bewerbungen automatisiert auswerten zu lassen.

Neben der Arbeitsersparnis erhoffte er sich davon, dass der Bewerbungsprozess fairer werden würde, da alle Bewerbungen vom Computer gleich behandelt werden.

1979 war die Entwicklung abgeschlossen und als Test wurden in diesem Jahr alle Bewerber sowohl von der Software als auch von Menschen bewertet - mit einer Übereinstimmung zwischen 90 und 95%.

Da der Test so erfolgreich war, wurde das Programm eingeführt und 1982 wurden alle schritflichen Bewerbungen von der Software automatisiert bearbeitet.

Nach ein paar Jahren, 1986, hatten zwei Dozent:innen den Verdacht, dass das Programm Frauen und nicht-weiße Personen benachteiligen könnte und sie wandten sich an die staatliche Kommision für Rassengleichheit.

Diese startete eine Untersuchung und fand heraus, dass der Algorithmus die Kandidat:innen nicht nur nach Faktoren bewertete, die für die Bewerbung relevant sein sollten.

So wurden die Kandidat:innen zum Beispiel anhand von Name und Geburtsort in die Kategorien weiß und nicht-weiß eingeteilt. Einen nicht-europäischen Namen zu haben konnte 15 Punkte in der Bewertung kosten, Frauen bekamen durchschnittlich 3 Punkte weniger.

Daher befand die Kommision St George's für schuldig, Bewerber:innen diskriminiert zu haben.

Der Bewertungsalgorithmus war wohl nicht diskriminierender als die vorherige Bewertung durch die Menschen, sonst wäre die Übereinstimmung in der Testphase nicht so hoch gewesen. Das Problem war aber, dass die bestehende Diskriminierung unhinterfragt übernommen und in Form eines scheinbar objektiven Algorithmus festgeschrieben wurde.

Die Ironie an der Sache ist, dass andere Medical Schools noch deutlich niedrigere Zulassungsraten von Minderheiten hatten als St George’s. Man kann also davon ausgehen, dass die Diskriminierung dort noch stärker war, aber nicht bewiesen werden konnte.

Versteckte Kameras mit KI entdecken

Wenn man den Verdacht hat, dass man eventuell von einer versteckten Kamera beobachtet wird, hat man im Moment drei Möglichkeiten, diese zu finden:

Man kann sie einfach suchen, was aber angesichts der winzigen Größe aktueller Kameras sehr schwierig werden kann.

Man kann ein spezielles Gerät benutzen, einen sogenannten Kameradetektor, und damit den Raum überprüfen, oder man kann eine Analyse der WLAN-Daten durchführen, was natürlich nur bei WLAN-Kameras funktioniert und einem außerdem nur sagt, ob eine Kamera in der Nähe ist, aber nicht wo.

Ein neuer Ansatz wurde vor kurzem bei einer Konferenz vorgestellt: Forscher:innen haben eine Smartphone-App entwickelt, die Lasersignale abschicken und mit ML-Bildverarbeitung die charakteristischen Reflexionen der Kameras erkennen kann.

Tatsächlich haben viele aktuelle Smartphones einen Laser eingebaut, im sogenannten Time-of-Flight Sensor. Dieser sendet Lasersignale aus und misst die Laufzeit des Lichts, bis die Reflexionen wieder eintreffen. Dadurch können die Geräte berechnen, wie weit etwas weg ist und so ein 3D-Bild der Umgebung erstellen.

Handys machen damit zum Beispiel auf Fotos den Hintergrund unscharf und benutzen die Sensoren für besseren Autofokus und Gesichtserkennung. Ähnliche Sensoren werden zum Beispiel auch bei selbstfahrenden Autos benutzt, dort sind sie als LiDAR bekannt.

Wenn diese Laserimpulse auf eine Kameralinse treffen, wird das Licht fast vollständig wieder zurück reflektiert, was sich von einer Software erkennen lässt.

So weit so gut, es gibt aber auch eine Reihe von Problemen. So muss zum Beispiel der oder die Benutzer:in den richtigen Abstand zu der versteckten Kamera haben. Um das zu erreichen, benutzt die App sogenannte Augmented Reality (AR) Funktionen, um den Benutzer zu leiten. Das sind Informationen, die auf dem Handybildschirm in die echte Umgebung eingeblendet werden. Ein bekanntes Beispiel für AR ist das Spiel Pokemon Go, bei dem man in der echten Welt Pokemon sammeln kann.

Ein weiteres Problem ist, dass auch andere Gegenstände das Licht stark reflektieren, und so zu falsch angezeigten Treffern führen können. Um das auszuschließen verwenden die Forscher:innen eine Reihe von Filtern in der App, unter anderem neuronale Netze.

Und schließlich ist auch ein Problem, dass das Handy nicht in einem zu großen Winkel vor die versteckte Kamera gehalten werden darf, weil sonst das Licht nicht mehr zurück reflektiert wird. Hier hat das Team aus der Not aber eine Tugend gemacht, und diese Eigenschaft ausgenutzt, um Reflexionen als Treffer auszuschließen, die außerhalb dieses Winkels liegen.

Tests der neuen Technik waren wegen Covid-Einschränkungen schwierig, deshalb sind die Ergebnisse mit Vorsicht zu betrachten.

Die Tests liefen so ab: In dreißig Objekte haben die Forscher:innen 1,5mm kleine Löcher gebohrt und Kameras dahinter platziert. Dann haben sie die Gegenstände mit ihrer App gescannt und ausgewertet, wie viele Kameras die App richtig gefunden hat.

Für die anderen Methoden im Vergleich (zwei verschieden Modi eines speziellen Kameradetektors und Suchen mit bloßem Auge) haben sie Videos von den Gegenständen gemacht und 379 Leuten über eine Internetplattform die Aufgabe gegeben, die Position der Kamera im Video zu markieren.

In diesen Tests wurden von der App 89% der Kameras richtig markiert, die Teilnehmer:innen ohne Hilfsmittel fanden 46%, mit dem Kameradetektor lag die Erfolgsquote bei ca. 60%.

Allerdings gibt ein Video natürlich einen ganz anderen Eindruck, als sich die Gegenstände selbst anzuschauen. Auch, dass die Versuche über das Internet durchgeführt wurden, statt in einer kontrollierten Umgebung und dass die Forscher:innen die App selbst bedient haben, könnte zu Verzerrungen geführt haben.

Aber auch wenn die Erfolgsquote in der Realität niedriger sein sollte, ist es trotzdem erstaunlich, was mit heutigen Smartphone-Kameras und maschinellem Lernen möglich ist.

Deepfakes auf gehackten Instagram Profilen

Auf der Plattform Hacker News berichtet ein:e Benutzer:in, dass der Instagram-Account einer Freundin, mit ca. 2000 Followern, gehackt wurde. Nur sechs Stunden, nachdem das Passwort von einer fremden E-Mail-Adresse zurückgesetzt wurde, seien Deepfake-Videos von ihr gepostet worden, in denen sie scheinbar Werbung für Betrugsmaschen mit Kryptowährungen macht.

Ein Fernsehsender aus Florida berichtet von einem weiteren Fall, der genauso abgelaufen ist: Das Instagram-Profil eines Musikers wurde gehackt und ein überzeugendes Deepfake-Video von ihm gepostet, in dem er über Bitcoin-Investments spricht.

Ganz ähnlich, aber „klassischer“, ohne Deepfakes und maschinelles Lernen, läuft eine andere Masche ab: Dabei werden ebenfalls Instagram-Accounts gehackt und die Besitzer:innen dann damit erpresst, dass sie ihren Account nur zurückbekommen, wenn sie ein Video aufnehmen, in dem sie eine Betrugsmasche bewerben.

Aber laut Bericht bekamen sie die Accounts nicht zurück, nachdem sie die Videos geschickt hatten. Stattdessen hat der oder die Erpresser:in, die Videos auf den gehackten Accounts gepostet, um so die Follower zu betrügen, die dem Accountbesitzer vertrauen und nichts von der Erpressung ahnen.

Reinforcement Learning im Pixelchaos

Das menschliche Gehirn kann sich anpassen, wenn sich die Wahrnehmung plötzlich ändert. Ein bekanntes Beispiel ist eine spezielle Brille, die den oder die Träger:in alles auf dem Kopf sehen lässt. Nach einer Weile hat sich das Gehirn daran gewöhnt, und man sieht wieder normal. Wenn man die Brille dann abnimmt, sieht man wieder eine Weile alles falschherum, bis sich das Gehirn wieder umgestellt hat.

Im Gegensatz dazu benötigen viele neuronale Netze, zum Beispiel beim Reinforcement Learning (RL), ihre Eingabedaten in einem genau vorgegebenen Format, um zu funktionieren.

Forscher:innen von Google haben jetzt aber eine Methode entwickelt, mit der RL Modelle auch mit zufällig verschobenen Eingaben umgehen können.

Dazu führen sie eine zusätzliche Schicht im neuronalen Netz ein, die die Eingaben verarbeitet. Diese Schicht besteht aus einer Reihe von kleineren neuronalen Netzen, die jeweils einen Teil der Eingaben verarbeiten (sie nennen sie „Sensory Neurons“). Die Ausgaben dieser neuronalen Netze werden dann mit einem „Attention“ genannten Mechanismus verarbeitet, durch den das Modell lernen kann, welche der Eingaben wichtig sind.

Bei einem Rennspiel zum Beispiel sind die Streckenbegrenzungen wichtiger als die Wiese neben der Strecke.

Dadurch, dass die Sensory Neurons alle unabhängig voneinander einen kleinen Teil der Eingaben verarbeiten, ist es egal, in welcher Reihenfolge bzw. an welcher Stelle welche Eingaben kommen, sie können immer verwendet werden.

Das führt zu sehr beeindruckenden Ergebnissen, wie zum Beispiel in diesem Video, in dem ein neuronales Netz ein Auto steuert. Links sieht man das Spiel in der normalen Ansicht. Das Pixelchaos rechts zeigt, wie das neuronale Netz die Daten als Eingabe bekommt.

Video, das links ein normales Autorennspiel zeigt und rechts die durcheinander gewürfelte Eingabe für das neuronale Netz

(Yujin Tang and David Ha, "The Sensory Neuron as a Transformer: Permutation-Invariant Neural Networks for Reinforcement Learning", 2021. Source: https://attentionneuron.github.io/, used under CC BY 4.0 / converted to gif)

Zusammengefasst

KI um gestohlene Kulturgüter zu entdecken

Zuverlässig zwischen Deko-Objekten, Fälschungen und echten antiken Kulurgütern zu unterscheiden kann selbst für Expert:innen eine Herausforderung sein. Umso schwieriger ist es, zum Beispiel für Zollbeamt:innen bei der Einreisekontrolle, zu erkennen, ob ein antik wirkender Gegenstand tatsächlich antik ist und ob er legal eingeführt wird oder nicht.

Kunstfahnder:innen des bayerischen Landeskriminalamts testen deshalb mit neun weiteren Dienststellen von Polizei und Zoll eine App, um Objekte mit KI-Unterstützung besser beurteilen zu können.

Die Beamt:innen fotografieren dazu den Gegenstand aus mehreren Perspektiven. Die App vergleicht diese Bilder dann mit Fotos von Kulturgütern aus mehreren Epochen und Regionen. Damit gibt sie eine Einschätzung ab, aus welcher Region und Epoche der Gegenstand stammen könnte. Außerdem kann sie auch Warnungen anzeigen, wenn sie einen gestohlenen Gegenstand erkennt.

Dadurch können die Beamt:innen schneller entscheiden, ob ein Objekt noch für weitere Überprüfungen einbehalten werden muss.

📖 Artikel bei der Süddeutschen Zeitung: https://www.sueddeutsche.de/bayern/bayern-kulturgueter-app-landeskriminalamt-fahnder-1.5460815

Was lernt eine Schach-KI beim Training?

Zuammen mit dem Schachgroß- und ehemaligen Weltmeister Wladimir Kramnik haben Forscher:innen von Deepmind und Google das Modell AlphaZero darauf untersucht, wie es Schachspielen gelernt hat. AlphaZero ist ein neuronales Netz, das drei Brettspiele spielen kann, darunter auch Schach.

Dabei haben sie einige interessante Ähnlichkeiten zu menschlichen Schachspieler:innen gefunden, zum Beispiel bei den Eröffnungszügen und wie das Modell gegnerische Positionen und Möglichkeiten für eigene Züge bewertet.

📖 Artikel bei Chessbase: https://en.chessbase.com/post/acquisition-of-chess-knowledge-in-alphazero

Außerdem

« VorherigeNächste »

Hier abonnieren und keine Ausgabe mehr verpassen: