KI News #51

Hallo und herzlich willkommen zur einundfünfzigsten Ausgabe von KI News.

Wie funktioniert der Algorithmus von Instagram und Facebook? Kann KI Kriminelle daran erkennen, wie sie Auto fahren? Was macht OpenAI eigentlich gerade?

Antworten darauf gibt es hier!

Außerdem Informationen über das neue Sprachmodell von Meta, Neuigkeiten von Google und noch mehr.

Viel Spaß beim Lesen!

Inhalt

Llama 2 - das neue Sprachmodell von Meta

Es gibt ein neues Sprachmodell von Meta: Llama 2. Im Gegensatz zu OpenAI und Google veröffentlicht Meta das Modell und Informationen darüber wirklich.

Außerdem haben sie auch eine Unterstützungserklärung für diese offenere Herangehensweise veröffentlicht, die von KI-Expert:innen und anderen Leuten aus dem Tech-Sektor unterschrieben wurde.

Zu Llama 2 selbst: Die Forscher:innen haben drei verschiedene Varianten des Modells in unterschiedlichen Größen veröffentlicht, mit 7, 13 und 70 Milliarden Parametern, und damit ähnlich wie bei Llama 1.

Zusätzlich gibt es noch ein Modell mit 34 Milliarden Parametern, das später veröffentlicht werden soll.

Die Kontextlänge der Llama 2 Modelle beträgt bei allen Varianten 4.096 Tokens.

Trainiert wurden die Modelle auf 2 Billionen Tokens die aus öffentlichen Quellen stammen, aber nicht aus den sozialen Netzwerken von Meta.

Es gibt auch jeweils eine Chat-Version der Modelle, die noch speziell dafür weiter trainiert wurde, Chatnachrichten zu beantworten, ähnlich wie ChatGPT.

Das Training der Modelle auf Nvidia A100-80GB Grafikkarten hat insgesamt 3,3 Millionen Stunden gedauert und einen Treibhausgasausstoß von ingesamt 539t CO₂e verursacht (CO₂e oderCO₂ Äquivalentbedeutet, dass man andere klimaschädliche Gase, die ausgestoßen werden, auf die Klimawirkung von CO₂ umrechnet, um den Vergleich einfacher zu machen).

Das entspricht etwa den Emissionen von 48 Deutschen im Jahr 2021 (📖 umweltbundesamt.de).

Interessant finde ich, dass Microsoft trotz der großen Investitionen in OpenAI zusätzlich auch eine Partnerschaft mit Meta eingegangen ist und jetzt als "preferred Partner" für Llama 2 gilt.

Wie funktioniert der Algorithmus von Instagram und Facebook?


Sowohl bei Instagram als auch bei Facebook gibt es vier grundsätzliche Schritte, mit denen der Algorithmus die angezeigten Beiträge auswählt und die Reihenfolge bestimmt:

  1. Alle Beiträge finden, die angezeigt werden können
     
  2. Mit einem einfachen Modell die ca. 500 für dich relevantesten Beiträge davon auswählen
     
  3. Genauere Vorhersagen, wie relevant die ausgewählten Beiträge für dich sind
     
  4. Ranking der Beiträge nach der vorhergesagten Relevanz - je höher der Wert, desto höher werden die Beiträge angezeigt.
    Bei der genauen Reihenfolge wird auch noch berücksichtigt, dass verschiedene Arten von Beiträgen gemischt werden und z.B. bei Facebook nicht mehrere Videos nacheinander kommen.

Welche Faktoren für die Vorhersage der Relevanz berücksichtigt werden, unterscheidet sich je nach Plattform.

Instagram:

Um zu bestimmen, wie relevant ein Beitrag für dich ist, macht Instagram eine Reihe von weiteren Vorhersagen über dein Verhalten, wenn du den Beitrag siehst.
Viele davon hängen damit zusammen, wie lange du voraussichtlich etwas machen wirst:
Wie lange du die nächsten beiden Beiträge anschauen wirst, wie lange du allgemein Beiträge anschauen wirst, die nicht ganz oben im Feed angezeigt werden und auch, wie groß die Wahrscheinlichkeit ist, dass du überhaupt mehr als 15 Sekunden in der App verbringen wirst.

Interessanterweise ist ein Faktor für die Vorhersage, ob man mehr als 15 Sekunden auf Instagram verbringt, welche Plattform (iPhone, Android oder Browser) man verwendet. Offenbar verhalten sich Leute unterschiedlich, je nachdem was für ein Gerät sie benutzen.

Ein weiterer großer Teil der Faktoren bei Instagram behandelt die Wahrscheinlichkeit, dass du einen Beitrag teilen wirst. Außerdem gibt es noch Vorhersagen dafür, wie wahrscheinlich du auf "mehr" klicken wirst, um die gesamte Bildunterschrift zu lesen, das Profil der Person besuchst oder einen Kommentar schreibst.
 

Facebook:

Auch bei Facebook werden mehrere Vorhersagen dazu gemacht, wie lange du wahrscheinlich etwas tun wirst: z.B. ob du an dem Beitrag nur vorbeiscrollst oder ihn anschaust und wenn ja, wie lange, oder wie lange du dir die Fotos in einem Beitrag anschauen wirst.

Daneben gibt es Vorhersagen dafür, wie wahrscheinlich du mit einer Seite oder Gruppe interagieren wirst, die den Beitrag gepostet hat, wie wahrscheinlich du dir die Kommentare zu einem Beitrag anschauen wirst, wie viele Kommentare ein Beitrag, den du selbst kommentiert hast, insgesamt bekommen wird, und auch wie wahrscheinlich es ist, dass du dir ein Foto nochmal anschauen wirst.

Noch mehr Details und welche Daten für die einzelnen Vorhersagen benutzt werden, findest du hier:

Kann KI Kriminelle daran erkennen wie sie Auto fahren?


Das schreibt zumindest Forbes in einem aktuellen Artikel. Die Überschrift lautet "Diese KI beobachtet Millionen Autos täglich und sagt der Polizei ob Sie fahren wie ein Krimineller" ("This AI Watches Millions Of Cars Daily And Tells Cops If You’re Driving Like A Criminal").

Aber stimmt das überhaupt?

Konkret geht es um den Fall eines Drogemschmugglers, der von dessen Anwalt bekannt gemacht wurde.
Die Polizei von Westchester (New York) betreibt 480 Kameras, die jeden Tag 16 Millionen Nummernschilder von vorbeifahrenden Autos aufzeichnen.
Dazu verwenden sie die Scout Software des Unternehmens Rekor aus Maryland. Diese kann nicht nur die Nummernschilder erkennen, sondern auch den Bundesstaat, Automarke und Modell, Farbe des Autos und die Fahrtrichtung.

Diese Daten hat die Polizei ausgewertet und auf Routen überprüft, wie sie erfahrungsgemäß Drogenschmuggler oft nehmen.
Dabei sind sie auf das verdächtige Auto gestoßen.

Was ist jetzt der KI-Anteil dabei?

Die Nummernschilderkennung selbst.
Alles andere - Feststellen der verdächtigen Routen und das Durchsuchen der Daten nach möglichen Verdächtigen - wurde laut den Gerichtsdokumenten von Menschen gemacht.

Der zweite Teil der Überschrift ist also falsch - und auch der erste Satz des Artikels stimmt nicht. Dort heißt es, dass KI dabei helfen würde, verdächtige Muster in großen Datenbanken mit Nummernschilddaten zu erkennen ("Artificial intelligence is helping American cops look for “suspicious” patterns of movement, digging through license plate databases with billions of records.").
Dabei ist das Gegenteil richtig: Das KI-System befüllt die Datenbanken, Menschen versuchen die Muster darin zu erkennen.
Artikel wie dieser tragen dazu bei, dass viele Menschen die Fähigkeiten von KI-Systemen überschätzen.

Neben der Polizei testen laut Forbes übrigens auch Unternehmen wie McDonald's Nummernschilderkennung, um Kunden zu verfolg... äh das Erlebnis zu verbessern.

Was macht OpenAI eigentlich gerade?

Bard ist jetzt auch in der EU verfügbar und andere Neuigkeiten von Google

Außerdem

« VorherigeNächste »

Hier abonnieren und keine Ausgabe mehr verpassen: