Viel Spaß beim Lesen!
Meta AI hat eine Methode entwickelt, mit der eine KI die Art, wie sie kommuniziert, an den Kommunikationspartner anpassen kann: Blogeintrag von Meta AI, Veröffentlichung der Forscher:innen
Ein Journalist des Nature Magazins hat mit Forscher:innen gesprochen, die AlphaFold benutzen. AlphaFold ist ein Modell, das von DeepMind entwickelt wurde, und Proteinfaltungen vorhersagen kann. In seinem Artikel beschreibt er, was für eine Revolution AlphaFold in diesem Gebiet ausgelöst hat: Artikel bei Nature, Zusammenfassung auf Twitter
Forscher:innen versuchen Fälle zu finden, in denen die Eulerschen Strömungsgleichungen nicht funktionieren. Dieser Artikel beschreibt, warum ihnen das mit Hilfe von Deep Learning bald gelingen könnte: Artikel beim Quanta Magazine
Amazon hat eine neue Datensammlung namens "MASSIVE" veröffentlicht, mit mehr als einer Million Äußerungen in 51 Sprachen (ein Beispiel für eine Äußerung ist "Weck mich diese Woche um 5 Uhr morgens auf"). Dazu gehören auch Beschriftungen (sogenannte Labels), die zum Trainieren von ML Modellen genutzt werden können: Blog Post von Amazon
"Stitch it in Time" ist eine neue Methode, um Gesichter in Videos zu bearbeiten. Die Herausforderung dabei ist, dass aufeinanderfolgende Bilder im Video zusammenpassen müssen. Dafür haben die Forscher:innen einen neuen Ansatz gefunden: Webseite des Projekts
Der Aufwand für das Training eines neuronalen Netzes ist hoch und viele Unternehmen haben keine eigenen KI-Entwickler. Daher liegt es nahe, ein Modell von einem spezialisierten Dienstleister trainieren zu lassen.
Die Gefahr dabei ist, dass dieser das Modell so manipuliert, dass er später die Vorhersagen beeinflussen kann, ohne dass es bei einer Untersuchung auffällt.
Forscher:innen haben untersucht, wie es möglich wäre, solche unentdeckbaren Hintertüren bei einem neuronalen Netz einzubauen.
Dabei unterscheiden sie zwei verschiedene Varianten von "unentdeckbar":
1. Unentdeckbar, wenn man nur die Eingaben und zugehörigen Ausgaben des Modells untersuchen kann ("Black Box")
2. Unentdeckbar, auch wenn man den Code und die Gewichte des Modells untersucht ("White Box")
Der Black-Box-Fall wäre zum Beispiel relevant, wenn das fertige Modell vom Dienstleister über eine Schnittstelle zur Verfügung gestellt wird, die das Unternehmen aufruft, um Vorhersagen zu bekommen.
Dieser Fall ist relativ einfach. Da der Code verborgen bleibt, kann ein bösartiger Dienstleister einfach eine zusätzliche Komponente programmieren, die die Hintertür enthält.
Diese Komponente überprüft dann bei der Benutzung des Modells immer die Eingabedaten, und aktiviert die Hintertür nur, wenn bestimmte Bedingungen erfüllt sind.
Als Beispiel für eine mögliche Umsetzung dieses Szenarios nennen die Forscher:innen, dass, wenn die Hintertür aktiviert werden soll, ein Teil der Eingabedaten eine kryptografische Signatur enthalten könnte, die mit einem bestimmten Schlüssel gemacht wurde.
Die zusätzliche Komponente überprüft dann bei jedem Aufruf, ob die Daten eine Signatur mit diesem Schlüssel enthalten oder nicht. Wenn ja, dann öffnet sich die Hintertür, sonst verhält sich das Modell ganz normal.
Dadurch kann die Hintertür nur von demjenigen entdeckt werden, der den passenden Schlüssel kennt (in diesem Beispiel der Dienstleister), aber nicht vom Unternehmen, das ihn beauftragt hat.
Um die Hintertür noch besser zu verstecken, sagen die Forscher:innen, dass die Prüfung der Signatur auch in einem neuronalen Netz implementiert werden könnte, das dann im eigentlichen Modell versteckt wird. Dadurch würde es auch bei einer oberflächlichen Prüfung des Codes nicht auffallen.
Der White-Box-Fall ist deutlich komplizierter, da das entstandene Modell sich nicht von einem normalen Modell unterscheiden darf, aber trotzdem eine Hintertür enthalten soll.
Deshalb schränken die Forscher:innen ihn auf einen ganz speziellen Fall ein: es funktioniert nur, wenn man eine besondere Art des Trainings benutzt, bei dem die Eingabedaten nochmal bearbeitet und in ein höher-dimensionale Darstellung gebracht werden.
Das wird zum Beispiel gemacht, wenn man die Eingabedaten klassifizieren will (Ein Beispiel für Klassifizierung eines Bildes wäre, es der Klasse 'Katze' oder 'Hund' zuzuordnen, je nachdem welches Tier darauf zu sehen ist); weil die Daten oft in einer höherdimensionalen Darstellung besser voneinander abgrenzbar sind.
Das kann man sich so vorstellen:
Oben, im zweidimensionalen Raum, sind die rote und die blaue Fläche nicht eindeutig voneinander trennbar, weil sie sich überlappen.
Unten, nach der Umwandlung in dreidimensionale Objekte, kann man sie klar voneinander unterscheiden.
Das gleiche Prinzip funktioniert auch für komplexere Szenarien, wie sie beim maschinellen Lernen vorkommen.
In einer Variante davon trifft man dann in dieser höherdimensionalen Darstellung noch eine zufällige Auswahl. Diese Auswahl kann jetzt so beeinflusst werden, dass das entstandene neuronale Netz eine Hintertür bekommt, bei der sich die Ergebnisse durch bestimmte Änderungen der Eingabedaten beeinflussen lassen.
Das besondere dabei ist, dass weder die Trainingsdaten noch das Training selbst manipuliert werden müssen.
Solange man die zufällige Auswahl beeinflussen kann, kann man die Hintertür einbauen.
Allerdings funktioniert die Methode eben nur bei dieser speziellen Art des Trainings, wo die Daten nochmal transformiert werden.
Tesla will 2024 ein autonomes Auto ohne Lenkrad oder Pedale auf den Markt bringen: Artikel bei Techcrunch
Die britische Regierung plant, Fernsehen in selbstfahrenden Autos auch für die Person auf dem Fahrersitz zu erlauben, Handys sollen aber weiterhin verboten bleiben: Veröffentlichung auf gov.uk
Kleiner Wermutstropfen dabei: "At present, there are no self-driving vehicles listed for use in Great Britain." (gov.uk)
Tesla bietet eine Funktion namens "Smart Summon" an, mit der man das Auto über kurze Distanzen, zum Beispiel auf einem Parkplatz, zu sich rufen kann, und es dann autonom zu einem fährt.
Jemand hat das auf einer Veranstaltung des Flugzeugherstellers Cirrus gemacht und der Tesla hat prompt einen Privatjet gerammt: Video auf Reddit
Pony.ai hat eine Lizenz bekommen, ihre selbstfahrenden Autos als autonome Taxis (aber immer noch mit Sicherheitsfahrer) in der chinesischen Millionenstadt Guangzhou zu betreiben: Artikel bei Techcrunch
Auf der Social-Media-Plattform Reddit gibt es eine Seite namens "Am I the Asshole?", auf der Nutzer:innen Konflikte beschreiben, bei denen sie sich unsicher sind, wer im Recht ist. Die anderen Nutzer:innen geben dann in Kommentaren ihre Meinung ab, wer in dem Konflikt "das Arschloch" ist.
Auf der Internetseite areyoutheasshole.com kann man sich statt von Reddit-Nutzer:innen verschiedene Meinungen von einer KI einholen.
KI-Mikrowelle versucht ihren Erbauer umzubringen
Ein Youtuber wollte seine Amazon Alexa-Mikrowelle verbessern. Dafür hat er die Sprachsteuerung gegen eine selbstgebaute ausgetauscht. Diese selbstgebaute Steuerung hat er mit dem GPT-3 Sprachmodell von OpenAI verbunden.
Zusätzlich hat er sich eine komplette Lebensgeschichte einer KI-Mikrowelle namens "Magnetron" ausgedacht, die 1895 geboren wurde und den Traum hatte ein Poet zu werden, bis der Erste Weltkrieg dazwischen kam.
Mit dieser Geschichte hat er dann GPT-3 trainiert, so dass er sich mit seiner Mikrowelle über ihre Erinnerungen unterhalten konnte.
Das ganze nahm eine dramatische Wendung, als "Magnetron" ihn bittet, in die Mikrowelle zu steigen und sich daraufhin einschaltet.