KI News #21

Hallo und herzlich willkommen zur Weihnachtsausgabe von KI News. Heute geht es unter anderem um ✈️ KI im Cockpit, 🎄Weihnachtsbaum-Empfehlungen und 🎞️ Deepfake-Technologie für Filme. Außerdem gibt es einige Neuigkeiten zu 🚗 autonomem Fahren.

Viel Spaß beim Lesen!

✈️ KI im Cockpit

Der Gründer einer Firma, die KI-Software entwickelt, um Piloten im Cockpit zu ersetzen, hat Ende November vor der European Cockpit Association, einer Pilotenvereinigung mit mehr als 40.000 Mitgliedern, eine Rede über die Frage gehalten, warum und wie Piloten ersetzt werden können. Diese habe ich hier kurz zusammengefasst.

Da wir heute schon sicher und billig fliegen können, ist die Frage, warum man Piloten überhaupt ersetzen sollte. Seine Antwort auf diese Frage ist, um die Dichte des Flugverkehrs steigern zu können. Das könnte nötig werden, um Kapazitäten für mögliche zukünftige Transportmittel wie Flugtaxis zu schaffen. Dazu braucht man Steuerungssysteme, die besser sind als heutige Piloten, um mehr Fluggeräte sicher im gleichen Luftraum fliegen lassen zu können.

Um Piloten zu ersetzen, muss man zuerst herausfinden was ihre Aufgabe im Cockpit ist. Piloten sind dort nicht, um während eines normalen Flugs bestimmte Knöpfe zu drücken. Ihre Aufgabe ist es, mit Unsicherheit und Risiken umzugehen, also im Notfall die richtigen Entscheidungen zu treffen.

Deshalb kann man Piloten nicht durch höhere Automatisierung der aktuellen Flugsysteme ersetzen: das eigentliche Fliegen ist gar nicht ihre Hauptaufgabe, sondern der Umgang mit unerwarteten Ergeignissen, wie dem Ausfall eines Triebwerks.

Seine weitere Argumentation ist, dass man daher, um möglichst sichere Systeme zu bekommen, nicht versuchen sollte, sie aus Komponenten zu bauen, die fast nie ausfallen. Sondern, dass man Systeme bauen sollte, die mit dem Ausfall von Komponenten umgehen können, so wie ein Pilot es tut.

Wie das funktionieren soll, bleibt in der Rede leider unklar. Die Argumentation, warum Computer dazu eines Tages fähig sein sollten, basiert vor allem darauf, dass Computer in den letzten Jahren immer mehr Aufgaben im Cockpit übernommen haben und so beispielsweise schon Navigator und Flugingenieur ersetzen konnten. Daher könnten sie das bei den Piloten auch noch schaffen.

Was mich an dieser Argumentation irritiert ist, dass er zuerst einige Zeit damit verbringt, zu argumentieren, dass die Aufgaben der Piloten inhaltlich nicht mit den heutigen Flugzeug-Systemen vergleichbar sind (Umgang mit unerwarteten Vorfällen und Bewertung von Risiken vs Automatisierung von Handgriffen).

Und dann aber sagt, dass man die Piloten auch noch ersetzen können wird, weil durch die heutigen Systeme auch schon Besatzungsmitglieder ersetzt wurden.

Das Problem, dass ein Navigationssystem eben nicht mit unvorhergesehenen Situationen umgehen können muss, aber ein System, das die Piloten ersetzen soll, schon, wird so leider nicht aufgelöst.

🎞️ Disney arbeitet an Deepfakes für Filme

Für die Darstellung von Gesichtern in Animationsfilmen muss zuerst ein Modell des Gesichts erzeugt werden. Mit diesem wird dann das Aussehen des Gesichts in der jeweiligen Szene, abhängig von Beleuchtung, Blickwinkel etc., berechnet. Sowohl diesen Vorgang als auch dessen Ergebnis nennt man Rendering.

In der Forschung zur Modellierung von Gesichtern konzentrierte sich bisher die meiste Arbeit auf die Darstellung der Haut im Gesicht und der Gesichtsausdrücke.

Daher können Modellierer heute diesen Teil des Gesichts relativ einfach erstellen und verbringen ihre meiste Zeit damit, die anderen Teile des Kopfes, wie Augen und Haare, realistisch wirken zu lassen.

Gleichzeitig gibt es neuronale Netze, die realistisch wirkende Bilder von Gesichtern mitsamt Augen und Haaren generieren können.

Forscher:innen von Disney und der ETH Zürich haben jetzt einen Ansatz gefunden beide Technologien miteinander zu verbinden.

Dazu erstellen sie zuerst ein normales Rendering der Gesichtshaut mit dem gewünschten Gesichtsausdruck und der passenden Beleuchtung.

Danach benutzen sie ein neuronales Netz (StyleGAN2), um realistisch aussehende Gesichter generieren zu lassen, deren Gesichtshaut der des Renderings ähnelt.

Von diesen Gesichtsbildern wählen sie dann die Teile aus, die im Rendering noch fehlen.

Zum Schluss verbinden sie dann die Teile, die vom neuronalen Netz erstellt wurden, mit dem Rendering und sorgen mit einem Gauss-Weichzeichner für einen sanften und unauffälligen Übergang.

Die Technik sorgt für beeindruckende Ergebnisse, aber hat auch noch Einschränkungen. So wurde StyleGAN2 vor allem auf gerade und von vorne fotografierten Gesichtern trainiert und hat daher Probleme mit anderen Blickwinkeln. Außerdem kann es im Moment nur 1024x1024 Pixel große Bilder erzeugen, was im Vergleich zu den 4K-Renderings sehr wenig ist.

🚗 Autonomes Fahren, Dezember Update

Die schwedische Automarke Polestar hat neue Informationen zum geplanten Modell Polestar 3 veröffentlicht, das nächstes Jahr auf den Markt kommen soll. Dieses soll mit LiDAR Sensoren ausgestattet sein und damit autonom auf Autobahnen fahren können.

📖 Pressemeldung von Polestar

Während Polestar noch plant, hat Mercedes als weltweit erster Autohersteller eine Genehmigung für ein System zum autonomen Fahren bekommen. Bei dem System mit dem Namen Drive Pilot handelt es sich um ein sogenanntes Level-3-System. Das bedeutet, dass das Auto unter bestimmten Bedingungen vollständig autonom fahren kann, ohne dass der oder die Fahrer:in auf den Verkehr achten muss.

Bei Mercedes bedeutet das, dass das Auto auf der Autobahn bis zur Geschwindigkeit von 60 km/h selbstständig fahren kann. Das Drive Pilot System ist als Sonderausstattung für S Klasse und EQS verfügbar.

📖 Mitteilung von Daimler

Bei Teslas „Full Self Driving“ (FSD) System handelt es sich dagegen trotz des Namens bisher nur um ein Level-2-System, also ein Assistenzsystem, das den oder die Fahrer:in unterstützt.

Ein Jura-Professor der Universität von South Carolina argumentiert in einem Blogeintrag, dass Tesla damit gegen kalifornische Gesetze für das Testen von autonomen Fahrzeugen verstößt. Grob zusammengefasst ist seine Argumentation wie folgt: Das FSD System soll, wenn es fertig ist, autonomes Fahren ermöglichen. Aktuell ist es noch eine Beta-Version, also eine Testversion, die von Kund:innen getestet werden kann.

Damit testet Tesla eine unfertige Version eines Systems zum autonomen Fahren auf öffentlichen Straßen, ohne sich an die Vorschriften dafür zu halten.

📖 Blogeintrag bei der Universität Stanford

Auch die amerikanisch-chinesische Firma Pony.ai hat Probleme mit der Genehmigung für Tests von autonomen Autos in Kalifornien, sie hat diese nach einem Unfall gerade verloren.

Darunter fallen allerdings nur Fahrten ohne Sicherheitsfahrer:in, also mit komplett selbstständig fahrenden Autos. Mit Sicherheitsfahrer:in darf Pony.ai weiter testen.

📖 Artikel bei Reuters

Um Unfälle mit Radfahrer:innen zu vermeiden, haben Argo AI, eine weitere Firma die Technologie für autonomes Fahren entwickelt, und eine amerikanische Radfahr-Organisation Richtlinien veröffentlich, um die Begegnungen zwischen selbstfahrenden Autos und Radfahrer:innen sicherer zu machen. Dazu gehören zum Beispiel, dass die Autos so fahren sollten, dass ihr Verhalten für Radfahrer:innen vorhersehbar ist und dass die Systeme mit dem besonderen Verhalten von Radfahrer:innen, wie nebeneinander zu fahren, speziell umgehen sollen.

📖 Mitteilung von Argo AI

Zusammengefasst

🎄 Weihnachtsbaum-Empfehlungen mit KI

Einige Roomba-Staubsaugerroboter können jetzt „holiday tree recommendations“ abgeben. Damit ist nicht Hilfe bei der Baum-Auswahl gemeint, sondern dass sie aufgestellte Weihnachtsbäume mithilfe von KI erkennen können. Dann schlagen sie automatisch vor, unter den Ästen eine Reinigungszone einzurichten, um die Nadeln aufzusaugen,  und in der Mitte eine "Keep Out" Zone, um den Baum nicht ausversehen umzustoßen.

📖 Artikel bei The Verge: https://www.theverge.com/2021/11/30/22809454/

🤓 Github Copilot Labs

Die Vorstellung von Github Copilot hat vor ein paar Monaten für einige Aufregung gesorgt. Nun hat Github die Funktionalität erweitert und die „Labs Sidebar“ eingeführt, wo mit verschiedenen Anwendungen experimentiert werden soll, die auf der gleichen Technologie basieren wie Copilot.

Die erste Anwendung, die dort veröffentlicht wurde, hat den Namen „Explain“. Damit kann man sich in normalem Englisch erklären lassen, was ein Code-Block eigentlich tut.

📖 Ankündigung von Github: https://github.com/github/feedback/discussions/8308

📽️ KI-generierte Filmtrailer

Eine Gruppe von Forscher:innen der Universität Edinburgh hat ein System entwickelt, das automatisch Trailer erstellen kann.

Dazu wandeln sie den Film in einen Graph um, bei dem die Filmszenen die Knoten bilden und die Verbindungen zwischen den Knoten die Beziehungen der Szenen zueinander darstellen. Den Knoten wird außerdem ein „Sentiment Score“ zugeordnet, also eine Bewertung ob die Szene positiv oder negativ ist. Die Entwicklung dieser Bewertungen zwischen den Szenen wird unter anderem benutzt, um so die Szenen auszuwählen, die für die Handlung wichtig sind.

💾 Untersuchung der Datensätze für maschinelles Lernen

Forscher:innen von Google und der Universität von Kalifornien, Los Angeles haben untersucht, wie sich die Benutzung von Datensätzen durch KI-Forscher:innen in den letzten Jahren verändert hat.

Dabei haben sie herausgefunden, dass der Fokus immer stärker auf einige wenige Datensätze gelegt wird, die als Bezugspunkt zum Vergleich mit bisherigen Ergebnissen dienen.

Viele ML Forschungsergebnisse werden auf der Plattform Papers with Code veröffentlicht. Mehr als 50% der dort verwendeten Datensätze stammen von nur 12 Institutionen. Darunter übrigens nach Stanford, Microsoft und Princeton auch das Max Planck Institut.

Außerdem

« VorherigeNächste »

Hier abonnieren und keine Ausgabe mehr verpassen: