KI News #2

Hallo und herzlich willkommen zur zweiten Ausgabe meines Newsletters KI News. Hier fasse ich alle zwei Wochen interessante Meldungen zusammen, die mit Themen der künstlicher Intelligenz und maschinellem Lernen zu tun haben.

Diesmal lassen sich die Nachrichten unter die Überschrift  Anwendungen von KI Technologien stellen. Die nächste Ausgabe wird sich dafür mit den Folgen und Auswirkungen von KI Entwicklungen beschäftigen.

Für hilfreiche Rückmeldungen, konstruktives Feedback und Verbesserungsvorschläge an kinews@tobiasfraenzel.de bin ich dankbar.

Viel Spaß beim Lesen der heutigen Ausgabe!

So nutzt Instacart ML Modelle im täglichen Betrieb

Der amerikanische Supermarkt-Lieferdienst Instacart hat vor kurzem eine ausführliche Beschreibung veröffentlicht, welche Schwierigkeiten in ihrem Tagesgeschäft sie mit ML Modellen zu lösen versuchen.

Das Prinzip hinter Instacart ist das folgende: die Kunden bestellen über Instacart die Waren, die sie sonst im Supermarkt gekauft hätten. Instacart gibt die Bestellungen gebündelt an Einkäufer weiter, die in die Läden gehen, einkaufen und die Produkte dann den Kunden nach Hause bringen.

Die wichtigsten Modelle bei Instacart sind laut dem Artikel die folgenden (eine komplette Übersicht findet ihr im verlinkten Artikel):

Das Item Availability Model wird genutzt, um die Verfügbarkeit von beliebten Produkten in einer bestimmten Filiale zu einer bestimmten Zeit vorherzugsagen. Dabei werden Produkte in "active" (werden regelmäßig bestellt) und "non-active" (saisonale Produkte und Auslaufmodelle) unterschieden. Die Vorhersagen des Modells können außerdem durch Informationen von den Einkäufern des Unternehmens ergänzt werden, wenn sie zum Beispiel sehen, dass ein bestimmtes Produkt in einem Supermarkt ausverkauft ist.

Die Vorhersagen zur Verfügbarkeit haben unter anderem Einfluss auf die Reihenfolge der Produkte in den Suchergebnissen, wo Produkte mit geringer vorhergesagter Verfügbarkeit niedriger eingestuft werden.

Wenn ein Kunde ein Produkt in den Warenkorb legt, das laut Vorhersage wahrscheinlich nicht verfügbar sein wird, kommt das nächste Modell zum Zug: das Item Replacement Recommendation Model. Dieses schlägt eine Reihe von Alternativen vor, aus denen der Kunde wählen kann was statt des Wunschprodukts gekauft werden soll, wenn das ausverkauft ist.

Der Matching Algorithm und das Capacity Model werden benutzt, um die Anzahl der Einkäufer und die Anzahl der Kunden vorherzusagen und anzupassen.

Dazu kommen noch weitere Modelle die bei der Vorhersage der Lieferzeit helfen sollen, z.B. das Drive Time Model, das die Fahrtzeit vorhersagt und das Parking Model, das vorhersagt wie lange die Suche nach einem Parkplatz dauern wird.

Der Artikel hat auch noch viele weitere Details darüber wie Instacart "hinter den Kulissen" funktioniert:

https://spectrum.ieee.org/artificial-intelligence/machine-learning/the-algorithms-that-make-instacart-roll (englisch)

Neuronales Netz spielt GeoGuessr

GeoGuessr ist ein Spiel, bei dem man in Google StreetView an einen zufälligen Ort gesetzt wird und, durch Umschauen in der Umgebung, erraten muss wo man ist. Beim Spielen kam einem britischen Informatiker der Gedanke, dass Computer mithilfe von maschinellem Lernen heute viele Dinge tun können, die Menschen können. Bei der Nachforschung, ob das auch für GeoGuessr gilt, fand er ein pretrained (bereits trainiertes) neuronales Netz des TIB Hannover (Code auf Github). Dieses Netz kann für ein Foto die wahrscheinlichen Koordinaten des Ortes vorhersagen wo es aufgenommen wurde.

Um dieses Modell für GeoGuessr nutzen zu können, hat er ein Skript geschrieben, das in GeoGuessr mehrere Screenshots macht und diese zur Bestimmung der Koordinaten an das Modell weitergibt.

Doch wie gut ist das System im GeoGuessen? Um diese Frage zu beantworten, lies er es in drei Runden gegen seine Frau antreten, die auch nur anhand der Screenshots die richtige Position erraten sollte. Am Ende stand es 2:1 für das neuronale Netz!

https://healeycodes.com/geoguessing-with-deep-learning/ (englisch)

Balancierung von Spielmechaniken mithilfe von KI-Spielern

In einem Blogeintrag beschreiben Mitarbeiter von Google Stadia, wie sie KIs gegeneinander spielen lassen, um in ihrem Spiel Chimera die Kraftverhältnisse zwischen den Karten auszubalancieren.

Chimera ist ein Prototyp eines virtuellen Kartenspiels, das schon in der Vergangenheit für Versuche mit maschinellem Lernen genutzt wurde. Im aktuellen Test wurde die Stärke von zwei verschiedenen Kartendecks des Spiels verglichen. Mit CNN-basierten Spielern wurden Millionen von Spielen simuliert, um möglichst aussagekräftige statistische Daten über die Stärke der Karten zu bekommen. Durch die Auswertung konnten sie feststellen, dass eine Kreatur im Spiel, der T-Rex 🦖, zu stark war und seine Eigenschaften entsprechend anpassen.

Zwei Eigenschaften der genutzten CNN-Modelle könnten sie auch für die Anwendung bei anderen Spielen, außerhalb von internen Tests bei Google, machen: Zum einen ist die Architektur laut des Blogeintrags klein genug um auf einer CPU zu laufen, das Modell scheint also keine Unmengen an Ressourcen zu erfordern. Zum anderen wurden einfach Screenshots genutzt, um das Modell über den aktuellen Stand des Spiels zu informieren. Das ist offensichtlich eine sehr flexible Methode, die leicht auf andere Spiele übertragbar sein sollte.

https://ai.googleblog.com/2021/03/leveraging-machine-learning-for-game.html (englisch)

Transformer-Netze in der Bildverarbeitung

Seit der Vorstellung der Architektur 2017 haben sich Transformer im Bereich der Sprachverarbeitung (Natural Language Processing, NLP) immer mehr durchgesetzt und die bis dahin genutzten Architekturen wie LSTMs verdrängt. Bekannte Sprachmodelle, die auf der Transformer-Architektur basieren, sind zum Beispiel BERT und GPT.

Transformer können jedoch nicht nur für Sprachmodelle eingesetzt werden, sondern auch zur Bildverarbeitung. Dabei haben sie ähnliche Vorteile wie im Sprachbereich: sie können Zusammenhänge auch über eine Distanz hinweg herstellen.

Das ist ein Pluspunkt gegenüber der aktuell für Bilder meistgenutzten Architektur, den Convolutional Neural Networks (CNNs). CNNs sind absichtlich so ausgelegt, dass sie nur einen kleinen Bereich des Bildes auf einmal betrachten. Dadurch sind sie gegenüber klassischen fully connected-Netzen sehr ressourcensparend, aber verlieren sozusagen das große Ganze aus den "Augen".

Transformer-basierte neuronale Netze können durch das Training Convolution-ähnliche Eigenschaften entwickeln, aber gleichzeitig die größeren Zusammenhänge behalten.

Dieser Blogeintrag gibt einen guten Überblick über die Grundlagen und die Anwendungen von Transformern in der Bildverarbeitung: https://techblog.ezra.com/transformers-in-medical-computer-vision-643b0af8fc41 (englisch)

« VorherigeNächste »

Hier abonnieren und keine Ausgabe mehr verpassen: