KI News #26

Hallo und herzlich willkommen zur sechsundzwanzigsten Ausgabe von KI News. Heute zeige ich, wie Uber die Fahrtdauer berechnet, wie Google neuronale Netze schneller macht, wie maschinelles Lernen für Kernfusion eingesetzt werden kann und noch mehr.

Viel Spaß beim Lesen!

So berechnet Uber die Fahrtdauer mit Deep Learning

Der Fahrdienstleister Uber ist vor allem als Taxi-App bekannt, bietet aber bereits seit 2014 auch einen Lieferdienst für Essen an. Bei beiden Geschäftsmodellen ist es wichtig, genau abschätzen zu können, wie lange eine Fahrt dauern wird. Nur dadurch kann man einem Kunden oder einer Kundin verlässlich sagen, wie lange die Wartezeit auf das Auto oder das bestellte Essen sein wird.

Für diese Abschätzung hat Uber bisher auch schon ein ML Modell benutzt, das auf einer Variante von Entscheidungsbäumen (Gradient-boosted Trees) basierte. Wegen der immer größeren Datenmengen entschied sich das Team schließlich dazu, das Modell durch ein neuronales Netz zu ersetzen.

Um den Aufwand zu rechtfertigen, muss das System mit dem neuronalen Netz in verschiedenen Bereichen besser sein als bisher: Es soll eine Vorhersage innerhalb von Millisekunden machen können, dabei genauer sein als bisher, und es soll sowohl für den Lieferdienst als auch den Taxidienst funktionieren.

Das neue System funktioniert so: Ein Navigationsalgorithmus, basierend auf Karten und Echtzeit-Verkehrsdaten, berechnet, wie lange eine Fahrt dauern wird (Lies hier wie Google Maps deine Route berechnet). Danach kommt das neuronale Netz zum Einsatz, das unter anderem mithilfe von Start- und Zielort, Zeit der Anfrage und aktueller Verkehrslage die Abweichung der Berechnung des Navigationsalgorithmus von der Wirklichkeit vorhersagt. Es funktioniert quasi wie ein erfahrener Berater, der sich die Planung des Algorithmus anschaut und sagt "Um 17:30 Uhr über die Autobahn? Da brauchst du mindestens 10 Minuten länger."

Die Entwickler:innen haben sieben verschiedene Architekturen für das neuronale Netz getestet. Eine Variante der Transformer-Architektur (Linear Transformer) stellte sich dabei als am besten geeignet heraus, weil sie relativ schnell Vorhersagen machen kann, was ja eine der Anforderungen an das neue System war.

Nach dem Transformer-basierten Teil kommt noch eine weitere Schicht im neuronalen Netz, die die Vorhersage speziell für verschiedene Arten von Fahrten (z.B. lang/kurz, Lieferdienst/Taxi) anpassen kann.

Beim Training des Modells wird außerdem eine besondere Loss-Funktion verwendet, um zum Beispiel berücksichtigen zu können, dass es oft besser ist eine Minute zu früh zu sein als eine Minute zu spät.

Das System konnte die Erwartungen erfüllen und wird bereits produktiv eingesetzt.

So optimiert Google die Performance von neuronalen Netzen

Beim Training von neuronalen Netzen kommen manche mathematische Operationen deutlich häufiger vor als andere. Daher läuft es auf spezieller Hardware, die für diese Operationen optimiert ist, deutlich schneller als auf normalen Prozessoren.

Da für 3D-Darstellungen ähnliche Berechnungen gemacht werden müssen, sind Grafikkarten (GPUs) gut geeignet und werden oft benutzt. Es gibt aber auch extra entwickelte Prozessoren, zum Beispiel die Tensor Processing Units (TPUs) von Google.

Je nachdem wie ein neuronales Netz implementiert ist, kann es sein, dass es Operationen erfordert, für die die eine oder die andere Art von Prozessor besser geeignet ist.

Da es sehr aufwändig ist, ein großes neuronales Netz zu trainieren, werden oft erst kleinere "Basismodelle" entwickelt, und diese dann vergrößert, wenn man mit der Architektur an sich zufrieden ist.

Für die Vergrößerung gibt es verschiedene Möglichkeiten. Man kann zum Beispiel die Anzahl oder die Größe der Schichten des neuronalen Netzes erhöhen. Eine Methode namens Neural Architecture Search (NAS) kann verschiedene Kombinationen von Änderungen testen, um so die Architektur zu finden, mit der das NAS die besten Ergebnisse liefert.

Diesen Ansatz haben Forscher:innen von Google erweitert, um die Eigenschaften der genutzten Hardware zu berücksichtigen.

Sie haben dazu das Wissen, welche Art von Operationen auf welchen Prozessoren besonders schnell ausgeführt werden kann, in die NAS integriert. Dann haben sie der NAS als weiteres Ziel, neben möglichst guten Ergebnissen, gegeben, die Architekturen zu bevorzugen, deren Operationen auf einer vorgegebenen Prozessorart am schnellsten sind.

Dadurch haben sie es geschafft eine Gruppe von Modellen namens EfficientNet-X zu entwickeln, deren Ergebnisse ähnlich gut sind wie die der bereits existierenden EfficientNet-Gruppe. EfficientNet-X ist aber auf GPUs und TPUs doppelt so schnell wie EfficientNet.

So hilft Reinforcement Learning bei Kernfusion

Kernfusion wird als eine mögliche Energiequelle der Zukunft erforscht. Bei Kernfusion werden Wasserstoffatome zu Heliumatomen verschmolzen, wobei Energie freigesetzt wird.

Das Problem dabei: damit die Atome fusionieren müssen extreme Bedingungen herrschen (Beim Iter-Projekt sind zum Beispiel Temperaturen von 150 Millionen °C geplant, zehn Mal so heiß wie der Kern der Sonne). Bei diesen Bedingungen wird aus dem Wasserstoffgas ein Plasma und gegeneinander stoßende Atomkerne können verschmelzen.

Damit das Plasma die nötigen Temperaturen erreichen kann, darf es nicht an die Außenwände stoßen, da es sonst zu stark auskühlt.

Deshalb sind Kernfusionsreaktoren ringförmig gebaut und es werden starke Magnetfelder eingesetzt, die das Plasma in der Mitte der Ringbahn halten. Damit das funktioniert, dürfen die Magnetfelder allerdings nicht genau ringförmig sein. Dafür gibt es zwei verschiedene Ansätze: Stellaratoren, die komplex verdrehte Magnete einsetzen, und Tokamaks, bei denen die nötige Verdrehung durch einen Strom im Plasma selbst erzeugt wird.

Damit das Magnetfeld stark genug wird, sind viele Magneten nötig, die sehr präzise zusammen gesteuert werden müssen.

Forscher:innen von Deepmind und der Universität von Lausanne (EPFL) haben ein neuronales Netz darauf trainiert, die Magnetfelder eines Tokamaks so zu steuern, dass sie das Plasma damit gezielt kontrollieren können.

Obwohl die EPFL selbst einen funktionierenden Fusionsreaktor (TCV) besitzt, ist der Zugang dazu natürlich sehr begrenzt und muss mit anderen Forschungsteams geteilt werden. Daher haben die Forscher:innen der EPFL zuerst eine Simulation des TCV entwickelt, in der das neuronale Netz mithilfe von Reinforcement Learning trainiert wurde, die 48 Magnetspulen des Reaktors zu steuern.

Das trainierte Modell haben die Forscher:innen dann im echten Tokamak eingesetzt, um das Plasma in bestimmte Formen zu bringen und deren Eigenschaften zu untersuchen. Damit konnte zum Beispiel zum ersten Mal im TCV das Plasma in zwei Hälften geteilt werden. Außerdem wurden Plasma-Formen untersucht, die denen des im Bau befindlichen Reaktors ITER ähneln, um Erkenntnisse über das zukünftige Verhalten von Plasma in ITER zu gewinnen.

Zusammengefasst

Warum Journalisten bei KI-Apps vorsichtig sein sollten

Im November hat ein Journalist mit einem Angehörigen der verfolgten chinesischen Minderheit der Uiguren am Telefon gesprochen. Weil er sich bewusst war, wie sensibel das Gespräch sein könnte, hat er extra ein verschlüsseltes Telefonat über die Signal App gemacht.

Am nächsten Tag bekam er eine Nachricht von Otter.ai, der App, die er zum automatischen Mitschreiben benutzt hatte: "Was war der Zweck der Aufnahme mit dem Titel 'Mustafa Aksu'?".

Da wurde ihm bewusst, dass sein Telefonat möglicherweise doch nicht so privat war, wie er dachte. Die ganze Geschichte kannst du bei Politico lesen:

So benutzt Tinder KI

Bei der Datingapp Tinder analysiert eine KI die Nachrichten der Benutzer:innen, um unangebrachte Nachrichten entweder ganz zu verhindern oder wenigstens dafür zu sorgen, dass sie einfacher gemeldet werden können.

Wenn sie eine Nachricht erkennt, die beim Empfänger möglicherweise nicht gut ankommen würde, fragt die App nochmal extra nach, ob die Nachricht wirklich verschickt werden soll. In Tests hat das zu einem Rückgang der unangemessenen Nachrichten um 10% geführt.

Bei der oder dem Empfänger:in werden als unangemessen eingestufte Nachrichten dann markiert. Das hat zu einem Anstieg der gemeldeten Nachrichten um 46% geführt.


So verbessert KI den S-Bahn-Verkehr
Die Bahn setzt KI in einem Pilotprojekt bei der S-Bahn Stuttgart ein, das jetzt auch auf die S-Bahnen Rhein-Main und München ausgweitet werden soll.
Im Störungsfall konnte die Pünktlichkeit durch das System um bis zu 3 Prozentpunkte erhöht werden.
Dafür werden den Mitarbeiter:innen zum Beispiel Empfehlungen gegeben, welcher Zug einen Bahnhof zuerst verlassen sollte, damit die folgenden Verzögerungen möglichst gering bleiben.
Eine laufende Simulation des Beriebs kann außerdem frühzeitig auf sich anbahnende Probleme hinweisen und zeigen, wie sich Entscheidungen auf den Betrieb auswirken würden.
In Stuttgart können so laut Bahn Verspätungen von bis zu 8 Minuten ausgeglichen werden.

Außerdem

« VorherigeNächste »

Hier abonnieren und keine Ausgabe mehr verpassen: