Viel Spaß beim Lesen!
Eine Gruppe von Forscher:innen hat das erste rein ML-basierte System entwickelt, mit dem sich Roboter mit Beinen an ihre Umgebung anpassen können.
Anpassen bedeutet hier, dass sie zum Beispiel erkennen wenn der Boden plötzlich rutschiger ist oder es bergab geht und ihr Verhalten so verändern, dass sie auch mit den neuen Bedingungen zurecht kommen.
In den durchgeführten Tests hat das System besser funktioniert als von Hand programmierte Systeme. Dies erklären die Forscher:innen damit, dass es unmöglich ist, alle Eventualitäten als Regeln einzuprogrammieren. Dazu gehören neben verschiedenen Umgebungsbedingungen auch Veränderungen am Roboter selbst, z.B. durch Beschädigungen.
Das neue System besteht aus zwei Modulen, dem “Base Policy” Modul und dem “Adaption” Modul.
Beide werden im Voraus in einer komplett virtuellen, computersimulierten Umgebung trainiert. Das Base Policy Modul wird mit Reinforcement Learning darauf trainiert, den Roboter bei verschiedenen Umgebungsbedingungen zu steuern.
Das Adaption Modul lernt anhand der Bewegungen des Roboters die Umgebungsbedingungen zu erkennen. Da in der Simulation die Umgebungsbedingungen bekannt sind, kann es mit Supervised Learning trainiert werden.
In einer echten Umgebung arbeiten das Base Policy Modul und das Adaption Modul dann zusammen. Das Adaption Modul erkennt die Umgebungsbedingungen und das Base Policy Modul steuert den Roboter.
Blogeintrag: https://ai.facebook.com/blog/ai-now-enables-robots-to-adapt-rapidly-to-changing-real-world-conditions/ (englisch)
Video dazu: https://www.youtube.com/watch?v=nBy1piJrq1A (englisch)
In den letzten Jahren gab es ein paar beeindruckende Demonstrationen von KI-Fähigkeiten. Ob eine KI den besten Go Spieler schlägt, einen Roboter Saltos machen lässt oder einen Zauberwürfel in Sekundenschnelle löst, zwei Dinge haben diese Vorführungen gemeinsam: sie sehen beeindruckend aus und wären für die allermeisten Menschen sehr schwierig.
Warum das trotzdem nicht bedeutet, dass KI uns Menschen überlegen ist, erklärt ein Artikel bei IEEE Spectrum.
Zwei Faktoren sind dabei entscheidend: zum einen die Fähigkeiten der KI - denn im Gegensatz zu Menschen, die viele Dinge relativ gut können, sind heutige KIs auf eine ganz bestimmte Aufgabe spezialisiert.
Der zweite Faktor ist, wie wir die Schwierigkeit einer Aufgabe einschätzen. Dabei schließen wir von uns selbst auf andere – wir gehen bei der Beurteilung davon aus, wie schwierig eine Aufgabe für uns selbst wäre.
Für einen Salto z.B. braucht ein Mensch eine gewisse Sportlichkeit und Kontrolle über den Körper. Diese beiden Eigenschaften sorgen dafür, dass ein Mensch, der einen Salto schafft, wahrscheinlich auch in einer Reihe von anderen Dingen gut ist.
Wenn wir einen KI-gesteuerten Roboter sehen der einen Salto kann, dann schließen wir unbewusst daraus, dass er auch diese weiteren Fähigkeiten hat, genauso wie ein Mensch sie hätte.
Das ist aber bei einer KI ein Trugschluss, weil sie eben immer nur auf eine Aufgabe spezialisiert ist.
Zusammengefasst: Wir Menschen bewerten KIs genauso wie uns selbst, obwohl unsere Art zu lernen und unsere Fähigkeiten völlig anders sind. Dadurch überschätzen wir, was KIs können.
Der Artikel: https://spectrum.ieee.org/humans-cognitive-biases-facing-ai (englisch)
Bei einer Siegerehrung stehen drei glückliche Sieger:innen auf dem Treppchen.
Aber wie glücklich sind sie wirklich? Das haben amerikanische Forscher:innen mithilfe von Gesichterkennungssoftware untersucht.
Sie sind zu dem Ergebnis gekommen, dass die Goldmedaillengewinner:innen am glücklichsten sind, gefolgt von den Bronzegewinner:innen und die Zweitplatzierten sind am wenigsten glücklich mit ihrem Erfolg.
Das Ergebnis erklären die Forscher:innen damit, dass die Dritten wahrscheinlich froh waren noch eine Medaille gewonnen zu haben, während die Zweiten sich über den verpassten Sieg ärgerten.
Dazu haben sie die Gesichtsausdrücke von 413 Athlet:innen aus 67 Ländern bei 142 Siegerehrungen bei Olympischen Spielen zwischen 2000 und 2016 mit einer Software analysiert.
Die aus den Ergebnissen gezogene Schlussfolgerung wirkt logisch und die Forschung ist sicher gut gemacht (aber leider hinter einer Bezahlschranke).
Aber mit dem dazu veröffentlichten Artikel habe ich mehrere Probleme. Er schreibt der Software Fähigkeiten zu, die sie gar nicht hat und zeichnet außerdem das problematische Bild einer unfehlbaren KI.
Das beginnt schon beim Titel: “Facial expression software knows which Olympic medal makes you happier and why”. Weiß die Gesichterkennungssoftware wirklich warum? Nein – die Antwort auf das “warum” war die Schlussfolgerung der Forscher:innen, die sie aus den Ergebnissen der Software gezogen haben.
Am problematischsten finde ich aber diesen Halbsatz: “[...] facial expression software – which nearly eliminates possible bias – […]“.
Wer sich in letzter Zeit mit Gesichterkennung beschäftigt hat, weiß, dass es gerade in diesem Bereich sehr große Probleme mit Bias gibt.
Die Probleme sind so groß, dass Amazon und Microsoft Strafverfolgungsbehörden verboten haben, ihre Gesichtserkennungssoftware einzusetzen und IBM die Arbeit an Gesichterkennung sogar komplett eingestellt hat.
Dass die Benutzer denken, die Ergebnisse von KI wären objektiv, weil sie von einem Computer kommen, ist eins der größten Probleme beim Einsatz von KI. Einige Beispiele dafür finden sich in diesem Artikel: https://www.newscientist.com/article/2166207-discriminating-algorithms-5-times-ai-showed-prejudice/
Artikel über die Forschung: https://twin-cities.umn.edu/news-events/facial-expression-software-knows-which-olympic-medal-makes-you-happier-and-why (englisch)