KI News #43
Hallo und herzlich willkommen zur dreiundvierzigsten Ausgabe von KI News. ChatGPT, und die ganzen Diskussionen, die dadurch entstanden sind, sind in den letzten Wochen noch größer geworden. Daher habe ich mich entschieden, in dieser Ausgabe nochmal im Detail darauf einzugehen, was ChatGPT kann, was alles passiert ist und was noch passieren wird.
Viel Spaß beim Lesen!
Inhalt
Was ist alles passiert, seitdem ChatGPT das letzte Mal im Newsletter war?
In der Ausgabe vom 30. Dezember habe ich ChatGPT beschrieben, und wie es sich von anderen Sprachmodellen unterscheidet. Damals war es schon ein großes Thema, aber seither ist noch viel passiert:
- Microsoft hat mehrere Milliarden Dollar in OpenAI investiert, um die bestehende Partnerschaft zu erweitern.
- Besonders große Aufregung gab es im Bildungsbereich - vor allem wegen der Befürchtung, dass die Schüler:innen in Zukunft keine Mühe mehr mit ihren Hausaufgaben haben könnten. OpenAI hat deshalb sogar eine eigene Seite mit Hinweisen zum Umgang mit ChatGPT im Bildungsbereich erstellt.
- Möglicherweise auch als Reaktion darauf, hat OpenAI hat ein Erkennungstool für KI-generierte Texte veröffentlicht. Es erkennt KI-generierte Texte aber nur zu 26% richtig, während es 9% von menschen-geschriebenen Texten als KI-generiert einstuft. Auch eine Gruppe von Forscher:innen der Stanford University hat an einem ähnlichen Tool gearbeitet, das sie DetectGPT nennen.
- OpenAI hat eine kostenpflichtige Version von ChatGPT eingeführt ($20 im Monat) und man kann sich jetzt auf einer Warteliste für API-Zugriff eintragen, um ChatGPT in Zukunft auch in eigenen Anwendungen nutzen zu können, statt nur über die OpenAI Webseite.
- Eine Gruppe von Forscher:innen arbeitet daran, ChatGPT als open source Software nachzubauen. Dafür sammeln sie gerade Daten. Im zugehörigen Youtube-Video kann man auch gut sehen, was für eine Art von Daten man braucht, um einen Chatbot zu trainieren.
Wie funktioniert die Technik hinter ChatGPT?
Um eine Vorhersage zu machen, braucht man ein Modell, also eine vereinfachte Version der Realität, mithilfe dessen man berechnen kann, wie etwas in der Zukunft sein wird.
Ein bekanntes Beispiel dafür sind Klimamodelle. Damit simulieren Forscher:innen eine vereinfachte Version der Erde, um Vorhersagen über das zukünftige Klima zu machen.
Ein anderes Beispiel sind Sprachmodelle. Wie der Name sagt, handelt es sich dabei um Modelle der menschlichen Sprache. Ein Sprachmodell ist im Prinzip nichts anderes als eine Darstellung, mit welcher Wahrscheinlichkeit ein Wort auf ein anderes folgt. So kann ein Sprachmodell zum Beispiel vorhersagen, wie ein angefangener Satz weitergehen wird, indem es ihn mit einem der wahrscheinlichsten Wörter vervollständigt.
Das Sprachmodell hinter ChatGPT basiert auf einem neuronalen Netz mit Transformer-Architektur. Es gehört aktuell zu fortschrittlichsten seiner Art und vermutlich auch zu den größten. OpenAI hat nicht genau angegeben, welches ihrer Modelle für ChatGPT verwendet wird, nur, dass es zu einer Gruppe („Modellfamilie“) gehört, die GPT 3.5 heißt.
Im Gegensatz zu anderen Sprachmodellen kann ChatGPT auch auf die Nachrichten von Benutzer:innen antworten, und nicht nur vorhersagen, wie ihre Eingaben weitergehen. Damit das funktioniert, wurde das Modell zusätzlich mit Beispielen von Chatnachrichten trainiert.
Dadurch ist das Sprachmodell von ChatGPT jetzt auf die Vorhersage von Chatnachrichten spezialisiert, statt nur allgemein von Wörtern.
Was kann ChatGPT – und was nicht?
Da hinter ChatGPT ein auf Chatnachrichten spezialisiertes Sprachmodell steht, kann es Texte für Chatnachrichten schreiben, die statistisch wahrscheinlich sind.
Das ist tatsächlich auch schon alles.
Aber da es das so gut macht, hat man unwillkürlich das Gefühl, dass es doch noch mehr kann.
Daher hier eine Liste mit Dingen, die ChatGPT nicht kann:
- Auf das Internet zugreifen und Informationen suchen, nachschlagen oder ähnliches ("it cannot access the internet, search engines, databases, or any other sources of information") 📖 Education-Seite von OpenAI
- Fragen wahrheitsgemäß beantworten. ChatGPT kann nur statistisch wahrscheinliche Chatnachrichten schreiben. Dabei kommt oft etwas heraus, das wir als richtig oder wahr empfinden, aber das ist mehr oder weniger Zufall.
Dazu kommt, dass es nur mit Daten bis 2021 trainiert wurde. Das bedeutet, wenn man es um eine Vorhersage zu etwas bittet, das 2022 oder später passiert ist, dann wird dabei wahrscheinlich Unsinn herauskommen 📖 Education-Seite von OpenAI
- Neutral sein. OpenAI schreibt selbst: „ChatGPT kann Inhalte produzieren, die schädliche Vorurteile und Stereotypen aufrechterhalten, manchmal auf subtile Weise. […] Das Modell ist im Allgemeinen auf Inhalte ausgerichtet, die westliche Perspektiven und Menschen widerspiegeln.“ („ChatGPT may produce content that perpetuates harmful biases and stereotypes, sometimes in subtle ways. […] The model is generally skewed towards content that reflects Western perspectives and people.“) 📖 Education-Seite von OpenAI
- Etwas wissen. Viele Leute gehen davon aus, dass ChatGPT beim Training das Wissen aus den Trainingsdaten lernt und dadurch ihre Fragen zu allen möglichen Themen beantworten kann. Es hat ja schließlich alles Wissen der Welt, oder?
Tatsächlich lernt ChatGPT aus den Trainingsdaten aber nur, mit welcher Wahrscheinlichkeit welche Wörter aufeinander folgen. Denn es ist nur ein Sprachmodell. Es hat kein Wissen und kein Verständnis für die Welt, die diese Wörter beschreiben.
- Rechnen. Auch hier trauen viele Leute ChatGPT mehr zu, als es tatsächlich kann. Ich vermute, weil wir gewohnt sind, dass Computer sehr gut rechnen können. ChatGPT ist ein extrem fortschrittliches Computerprogramm, also kann es auch rechnen, oder?
Leider nicht. Als Sprachmodell kann es nur vorhersagen, welche Wörter wahrscheinlich als nächstes kommen. Genauso geht es auch mit Rechnungen um. Statt tatsächlich etwas zu berechnen, versucht es, das Ergebnis vorherzusagen. Das ist natürlich keine zuverlässige Methode, denn dabei kann zwar das richtige herauskommen, aber genauso gut auch etwas falsches. 📖 Education-Seite von OpenAI
Allerdings hat OpenAI am 30. Januar ein Update veröffentlicht, mit „verbesserten mathematischen Fähigkeiten“, was auch immer das genau bedeutet. 📖 ChatGPT Release Notes
Was hat ChatGPT schon verändert?
- Ganz klar, die Aufmerksamkeit, die große Sprachmodelle, und was man mit ihnen machen kann, außerhalb der Fachkreise bekommen.
- Schulen, Universitäten, Verlage und Webseiten auf der ganzen Welt haben Regeln für den Umgang mit KI-generierten Texten eingeführt.
- Google hat scheinbar Angst bekommen, dass Microsoft durch die Partnerschaft mit OpenAI ChatGPT in die Bing Suchmaschine integrieren könnte und dass die Google-Suche dann daneben alt aussieht. Laut New York Times hat die Google-Führung deshalb einen „Code Red“ ausgerufen und die Gründer Larry Page und Sergey Brin für Beratungen zurückgeholt. Außerdem hat Google einen Livestream für den 8. Februar angekündigt, in dem sie eine neue Art zu suchen zeigen wollen, „natürlicher und intuitiver als jemals zuvor“ – etwa mit einem Chatbot?.
Was wird ChatGPT noch verändern?
- Wenn man sich die Pläne von Microsoft und Google anschaut, wohl die Internetsuche. Einige Bing-Nutzer:innen haben für kurze Zeit schon einen Blick auf eine neue Version der Suchmaschine werfen können, die so aussah, als wäre ein Chatbot integriert worden
- Wenn man den Aufruhr unter Lehrer:innen sieht, dann wohl die Schule und die Aufgaben, die Schüler:innen gestellt werden
- Viele vermuten außerdem, dass sich die Qualität der Informationen im Internet weiter verschlechtern wird, weil es mithilfe von ChatGPT so einfach ist, sehr viele Texte generieren zu lassen und ungeprüft ins Internet zu stellen
- Den Journalismus?
- Buzzfeed hat angekündigt, in Zukunft KI-Tools zum Schreiben der Texte zu benutzen, woraufhin der Aktienkurs sich vervierfacht hat ($0,95 am Tag vor und $3,87 am Tag nach der Ankündigung).
📖 Ankündigung von Buzzfeed
- CNET wurde dabei ertappt, schon seit einiger Zeit heimlich manche Texte nicht mehr von Menschen schreiben zu lassen. Nachdem andere Journalist:innen das bemerkt haben und teilweise Fehler in den Artikeln fanden, hat CNET den Einsatz der Software pausiert.
📖 Artikel von CNN über CNET
- Allerdings gibt zum Beispiel die Nachrichtenagentur AP an, bereits seit 2014 KI einzusetzen, ohne dass das bisher groß aufgefallen wäre
📖 AP über ihren Einsatz von KI-Tools
Außerdem
- Ein Richter in Kolumbien hat ChatGPT zur Rechtslage befragt, bevor er sein Urteil gesprochen hat: 📖 Artikel von Vice
- Google hat $300 Millionen in ein Startup investiert, das einen ChatGPT-ähnlichen Chatbot entwickelt hat. Allerdings könnte es dabei eher darum gegangen sein, einen Kunden für die Google Cloud-Plattform zu sichern, als um die KI-Technologie: 📖 Artikel von The Verge
- CatGPT: Ein Chatbot, der immer nur „Meow, meow, meow“ antwortet: 📖 CatGPT Webseite
- Ein amerikanischer Abgeordneter hat seine Rede von ChatGPT schreiben lassen: 📖 Artikel von The Verge
« VorherigeNächste »