KI News #60

Hallo und herzlich willkommen zur sechzigsten Ausgabe von KI News. Wie letztes Mal versprochen, mit einem Überblick über die Neuigkeiten von Google aus den letzten Monaten. Außerdem hat Apple eine Reihe von KI-Ankündigungen gemacht, bei OpenAI und xAI sind Dinge passiert und Meta beschreibt die KI Infrastruktur für Llama 3.

Es gibt einen neuen Fall, wo jemand ChatGPT als Informationsquelle benutzt hat und damit sehr öffentlich auf die Nase gefallen ist.

Zu guter Letzt gibt es ein Update zum autonomen Fahren (Waymo hatte ein Hup-Problem und Cruise ist auf dem Weg zurück in den Normalbetrieb) - und noch mehr.

Viel Spaß beim Lesen!

Inhalt

Nobelpreise für KI-Forscher

Sowohl der Physik- als auch der Chemie-Nobelpreis gingen in diesem Jahr an KI-Forscher.

Der Nobelpreis für Physik wurde je zur Hälfte an John Hopfield und Geoffrey Hinton verliehen, für ihre Beiträge zur Entwicklung von künstlichen neuronalen Netzen. Diese sind die Grundlage für quasi alles, worüber ich in diesem Newsletter schreibe: 📖 nobelprize.org

Der Nobelpreis für Chemie wurde an drei Personen vergeben: zur Hälfte an David Baker und zu je einem Viertel an Demis Hassabis und John Jumper. Alle drei haben Methoden entwickelt, um die Struktur von Proteinen mithilfe von Computern vorherzusagen.

Demis Hassabis und John Jumper haben dafür ein KI-Modell entwickelt (zusammen mit vielen weiteren Forscher:innen) und bekommen den Nobelpreis explizit für die zweite Version davon, AlphaFold2 (nature.com): 📖 nobelprize.org

Neuigkeiten von Google

Apple Intelligence, Siri und ChatGPT Integration

Neuigkeiten von OpenAI

Neuigkeiten von xAI

Metas KI Infrastruktur

KI Fehler und Halluzinationen

Als "Halluzinationen" werden meistens Ausgaben von Sprachmodellen bezeichnet, die keinen Sinn ergeben oder falsch sind.

Bei einem Chatbot wie ChatGPT kann das noch harmlos sein - kann aber trotzdem schon unangenehme Folgen haben, wie bei dem Anwalt, der von ChatGPT erfundene Fälle in einem Gerichtsverfahren eingebracht hat (📖 apnews.com) oder bei den falschen Zitaten, die vor kurzem im Trailer des Films "Megalopolis" gezeigt wurden (📖 deadline.com).

Bei einigen anderen Fällen ist es noch wichtiger, dass die Informationen, die von dem KI Modell kommen, stimmen, zum Beispiel beim Projekt "AKIRA", bei dem KI Richter:innen in Baden-Württemberg helfen soll Akten zu strukturieren und zusammenzufassen (📖 justiz-bw.de).

Ist es also möglich, für solche Anwendungen in der Justiz, Sprachmodelle ohne Halluzinationen zu entwickeln?

Dazu haben Forscher:innen der Universität Stanford drei kommerzielle Programme untersucht, die für rechtliche Anwendungsfälle angeboten werden.

Ergebnis: Zwei der Programme halluzinierten bei jeder sechsten Anfrage, das andere sogar bei jeder dritten. Zählt man auch die unvollständigen Antworten als fehlerhaft, dann waren sogar beim besten der drei untersuchten Programme mehr als ein Drittel falsch (35%), beim schlechtesten sogar 80%.

Die Schlussfolgerung der Forscher:innen: als Hilfe, um einen guten Ausgangspunkt für eine eigene Recherche zu bekommen, können KI-Anwendungen hilfreich sein, aber man sollte sich nicht auf sie verlassen: 📖 arxiv.org

Das zeigen auch andere Fälle, bei denen Menschen irrtümlich als Kriminelle identifiziert wurden (bbc.com) oder fälschlicherweise beschuldigt wurden KI-Tools zu verwenden, ironischerweise von einem KI-Tool (gizmodo.com).

Autonomes Fahren, Oktober Update

Außerdem

« VorherigeNächste »

Hier abonnieren und keine Ausgabe mehr verpassen: