KI News #61

Hallo und herzlich willkommen zur einundsechzigsten Ausgabe von KI News. Diesmal geht es um die Auswirkungen von ChatGPT, die Entwicklungen bei Artificial General Intelligence (AGI), Wasserzeichen für KI-generierte Inhalte, Radiologen und Deepfakes.

Viel Spaß beim Lesen!

Inhalt

Auswirkungen der ChatGPT-Nutzung

Dass Schüler:innen und Student:innen ChatGPT gerne benutzen ist bekannt. Sogar so bekannt, dass OpenAI selbst eine Richtlinie zum Schreiben mit ChatGPT für Student:innen veröffentlicht hat. Die darin genannten Ratschläge, zum Beispiel ChatGPT nach möglichen Quellen zu fragen und diese dann selbst zu prüfen, können auch für alle anderen Nutzer:innen nützlich sein.

Dazu gehören auch Wissenschaftler:innen, von denen sich scheinbar einige die Schreibarbeit bei ihren Veröffentlichungen teilweise von ChatGPT abnehmen lassen.

Darauf deutet jedenfalls eine Untersuchung von Forscher:innen aus Tübingen hin. Darin haben sie zuerst Wörter identifiziert, die von ChatGPT überdurchschnittlich häufig genutzt werden und dann wissenschaftliche Artikel auf der Plattform PubMed auf diese Wörter überprüft. Das Ergebnis: von ungefähr 1,5 Millionen Veröffentlichungen enthielten ca. 10% solche "verdächtigen" Wörter, die auf ChatGPT hinweisen.

Auch die Professor:innen passen sich an die Änderungen durch KI-Tools wie ChatGPT an. So beschreibt ein Artikel von IEEE Spectrum, dass es beim Lehren von Programmierkenntnissen einen Wandel gibt. Die gelehrten Methoden bewegen sich weg vom reinen Programmieren und hin zu anderen Fähigkeiten, die dabei wichtig sind, wie zum Beispiel den Aufbau eines Programms zu strukturieren.

Und schließlich hinterlässt ChatGPT auch Spuren außerhalb des akademischen Umfelds, nämlich an den Finanzmärkten.

Forscher:innen der Singapore Management University haben das Handelsvolumen an der New York Stock Exchange analysiert. Dabei haben sie festgestellt, dass weniger gehandelt wurde, wenn OpenAI eine Störung von ChatGPT gemeldet hatte.

AGI, Reasoning und die Fähigkeiten von Sprachmodellen


Die Entwicklung von Artificial General Intelligence (AGI, auf Deutsch künstliche allgemeine Intelligenz oder starke künstliche Intelligenz) ist ein erklärtes Ziel von OpenAI (openai.com).

Daher wird in letzter Zeit häufiger die Frage gestellt, wann dieses Ziel erreicht werden wird und was noch fehlt oder ob es sogar schon erreicht wurde.
Die Antwort auf diese Frage wird vor allem dadurch verkompliziert, dass es weder allgemein anerkannte Tests für das Erreichen von AGI gibt, noch eine einheitliche Definition was Intelligenz oder AGI überhaupt sind.

Und so reichen auch die Einschätzungen zum Einfluss von AGI von "Niemand ist darauf vorbereitet" (theverge.com) bis zu "Es wird viel weniger wichtig sein als die meisten denken" (theverge.com).

Die vielen Unbekannten bei der Frage zeigen sehr gut der Wikipedia Artikel zu AGI (de.wikipedia.org) und ein Blogeintrag (ben-evans.com).

Ein Ansatz, um aktuelle Sprachmodelle in Richtung AGI weiterzuentwickeln, sind sogenannte "Reasoning"-Fähigkeiten. Damit ist gemeint, dass die Modelle nicht nur bestehende Muster aus den Trainingsdaten wiedergeben können sollen, sondern eigene logische Schlüsse ziehen.

Das Problem dabei ist, dass die Funktionsweise der Sprachmodelle genau darauf basiert, bestehende Muster wiederzugeben.

Da das Reasoning aber so wichtig für AGI ist, gibt es verschiedene Hoffnungen, wie Sprachmodelle diese Fähigkeit trotz des grundlegenden Widerspruchs doch erlangen könnten.

Ein Beispiel dafür ist die Hoffnung, dass Reasoning eine Fähigkeit ist, die einfach dadurch entsteht, dass man die Modelle größer macht.

Diese Hypothese haben Forscher:innen von Microsoft untersucht. Ergebnis: GPT-4 ist mit geschätzten 1,8 Billionen Parametern zwar 1.200 mal so groß wie GPT-2, aber offenbar noch nicht groß genug für Reasoning (arxiv.org).

Auch Forscher:innen von Apple sind bei einer Untersuchung zum Ergebnis gekommen, dass aktuelle Sprachmodelle kein Reasoning können (arxiv.org).

Ein anderer Ansatz um Reasoning in Sprachmodellen zu erhalten, ist die sogenannte "Chain of Thought" Technik. Die ursprüngliche Idee von Chain of Thought ist, dass ein Sprachmodell ein komplexes Problem besser lösen kann, wenn man es in kleinere Unterprobleme zerlegt.

Diesen Ansatz hat OpenAI beim o1 Modell automatisiert, indem sie es darauf trainiert haben, erst eine solche Problemzerlegung zu generieren und zu prüfen, und dann seine eigentliche Antwort zu geben (openai.com).

Das scheint relativ gut zu funktionieren. Das Nachfolger-Modell von o1, irritierenderweise o3 genannt (youtube.com, techcrunch.com), hat vor kurzem einen großen Sprung in einem Reasoning-Wettbewerb gemacht: arcprize.org

Zusammengefasst

KI Wasserzeichen von Meta

Um KI-generierte Texte, Bilder oder Videos erkennen zu können, ist es hilfreich, wenn sie beim Erstellen direkt mit einem Wasserzeichen versehen werden, das später wiedererkannt werden kann.

Meta hat eine neue Methode entwickelt, um Bilder mit solchen unsichtbaren Wasserzeichen zu versehen.

Vorteil dieser neuen Technik ist, dass mehrere kleinere Bereiche eines Bildes mit verschiedenen Wasserzeichen versehen werden können. Dadurch können KI-generierte Bildteile auch dann noch wiedererkannt werden, wenn sie beispielsweise ausgeschnitten und in ein anderes Bild kopiert wurden. 📖 arxiv.org

... und von Google

Die Wasserzeichen-Technik von Google ist speziell für das Kennzeichnen von Texten ausgelegt. Die Herausforderung dabei ist, dass bei einem Text unauffällige Änderungen sehr schwierig sind. Wenn in einem Wort plötzlich ein anderer Buchstabe ist, fällt das direkt auf, anders als bei einem Bild, wo zum Beispiel ein Farbwert eines Pixels relativ unbemerkt leicht verändert werden kann.

Die von Google entwickelte Lösung basiert darauf, dass ein Sprachmodell beim Generieren eines Texts die nächsten Wörter (bzw. Tokens) immer mit einer bestimmten Wahrscheinlichkeit auswählt. Wenn diese Wahrscheinlichkeiten leicht verändert werden, ist das für einen Menschen beim Lesen des Textes kaum oder gar nicht wahrnehmbar. Ein Computer kann aber erkennen, dass die Wörter jetzt mit genau dieser Wahrscheinlichkeit im Text vorkommen und so feststellen, ob ein Text KI-generiert ist oder nicht.

📖 nature.com, spectrum.ieee.org

Radiologen gibt's immer noch

Im Jahr 2016 hat KI-Forscher und Nobelpreisträger Geoffrey Hinton vorausgesagt, dass Radiolog:innen in den nächsten 5-10 Jahren durch KI ersetzt werden würden.

In einem Artikel beschreibt ein amerikanischer Radiologe, der 2016 gerade im Medizinstudium war, die Auswirkungen, die diese falsche Vorhersage hatte. Er berichtet, dass er persönlich mehrere Leute kennt, die sich deshalb für andere Fachrichtungen entschieden haben und sieht darin eine der Ursachen für den aktuellen Mangel an Radiologen in den USA.

Geoffrey Hinton hat seine Vorhersage letztes Jahr angepasst und rechnet jetzt damit, dass Radiologen in 10-15 Jahren nicht mehr gebraucht würden.

📖 newrepublic.com

Deepfakes

Ein hochrangiger Ferrari-Manager hat einen Deepfake-Betrugsversuch abgewehrt, bei dem sich Betrüger in Textnachrichten und einem Videoanruf als Ferrari CEO ausgegeben haben.

Nachdem er eine Frage gestellt hatte, die nur der echte Ferrarichef beantworten konnte, war der Videoanruf abrupt beendet.

📖 fortune.com

Nachdem Einwohner des US-Bundesstaats New Hampshire Anrufe bekommen haben, die angeblich von Präsident Biden stammten, in Wirklichkeit aber Deepfakes seiner Stimme waren, haben die Verantwortlichen eine Strafe von sechs Millionen US-Dollar bekommen. Der Telefon-Provider, dessen Dienste sie dafür genutzt haben, bekam eine zusätzliche Strafe von einer Million Dollar.

📖 techcrunch.com

Außerdem

« VorherigeNächste »

Hier abonnieren und keine Ausgabe mehr verpassen: