Video: MIT-Wissenschaftler machen den Autopiloten menschenähnlicher

Die Entwicklung selbstfahrender Autos, die menschenähnliche Entscheidungen treffen können, ist ein langjähriges Ziel von Unternehmen wie Waymo, GM Cruise, Uber und anderen. Intel Mobileye bietet ein mathematisches Modell für Responsibility-Sensitive Safety (RSS), das das Unternehmen als „gesunden Menschenverstand“-Ansatz beschreibt, der dadurch gekennzeichnet ist, dass der Autopilot so programmiert wird, dass er sich „gut“ verhält, beispielsweise anderen Autos Vorfahrt gewährt . Andererseits entwickelt NVIDIA aktiv Safety Force Field, eine systembasierte Entscheidungstechnologie, die unsichere Handlungen umliegender Verkehrsteilnehmer überwacht, indem sie Daten von Fahrzeugsensoren in Echtzeit analysiert. Jetzt hat sich eine Gruppe von Wissenschaftlern des Massachusetts Institute of Technology (MIT) dieser Forschung angeschlossen und einen neuen Ansatz vorgeschlagen, der auf der Verwendung von GPS-ähnlichen Karten und visuellen Daten basiert, die von im Auto installierten Kameras erhalten werden, damit der Autopilot auf unbekannten Gebieten navigieren kann Straßen ähnlich einer Person. Weg.

Video: MIT-Wissenschaftler machen den Autopiloten menschenähnlicher

Menschen sind außergewöhnlich gut darin, Autos auf Straßen zu fahren, auf denen sie noch nie zuvor gefahren sind. Wir vergleichen einfach das, was wir um uns herum sehen, mit dem, was wir auf unseren GPS-Geräten sehen, um festzustellen, wo wir sind und wohin wir gehen müssen. Selbstfahrende Autos hingegen haben große Schwierigkeiten, sich auf unbekannten Straßenabschnitten zurechtzufinden. Für jeden neuen Standort muss der Autopilot die neue Route sorgfältig analysieren, und häufig stützen sich automatische Steuerungssysteme auf komplexe 3D-Karten, die Lieferanten im Voraus für sie erstellen.

In einem Artikel, der diese Woche auf der Internationalen Konferenz für Robotik und Automatisierung vorgestellt wurde, beschreiben MIT-Forscher ein autonomes Fahrsystem, das die Entscheidungsmuster eines menschlichen Fahrers „lernt“ und sich daran erinnert, während er durch Straßen in einem kleinen Stadtgebiet navigiert, und dabei ausschließlich Daten verwendet. aus Video Kameras und eine einfache GPS-ähnliche Karte. Der trainierte Autopilot kann das fahrerlose Auto dann an einen völlig neuen Ort fahren und so das menschliche Fahren simulieren.

Ebenso wie ein Mensch erkennt auch der Autopilot etwaige Abweichungen zwischen seiner Karte und den Straßenmerkmalen. Dadurch kann das System feststellen, ob die Position auf der Straße, die Sensoren oder die Karte falsch sind, und den Kurs des Fahrzeugs korrigieren.

Um das System zunächst zu trainieren, fuhr ein menschlicher Bediener einen automatisierten Toyota Prius, der mit mehreren Kameras und einem einfachen GPS-Navigationssystem ausgestattet war, um Daten von örtlichen Vorstadtstraßen, einschließlich verschiedener Straßenstrukturen und Hindernisse, zu sammeln. Anschließend fuhr das System das Auto erfolgreich entlang einer vorgeplanten Route in ein anderes Waldgebiet, in dem autonome Fahrzeuge getestet werden sollten.

„Mit unserem System müssen Sie nicht auf jeder Straße im Voraus trainieren“, sagt Studienautor Alexander Amini, ein MIT-Doktorand. „Sie können eine neue Karte für Ihr Auto herunterladen, um auf unbekannten Straßen zu navigieren.“

„Unser Ziel ist es, eine autonome Navigation zu schaffen, die dem Fahren in neuen Umgebungen standhält“, fügt Co-Autorin Daniela Rus, Direktorin des Computer Science and Artificial Intelligence Laboratory (CSAIL), hinzu. „Wenn wir beispielsweise einem autonomen Fahrzeug beibringen, in einer städtischen Umgebung wie den Straßen von Cambridge zu fahren, muss das System auch in der Lage sein, reibungslos in einem Wald zu fahren, selbst wenn es eine solche Umgebung noch nie zuvor gesehen hat.“

Herkömmliche Navigationssysteme verarbeiten Sensordaten über mehrere Module, die für Aufgaben wie Lokalisierung, Kartierung, Objekterkennung, Bewegungsplanung und Lenkung konfiguriert sind. Seit Jahren entwickelt Danielas Gruppe End-to-End-Navigationssysteme, die Sensordaten verarbeiten und das Auto steuern, ohne dass spezielle Module erforderlich sind. Bisher dienten diese Modelle jedoch ausschließlich der sicheren Fortbewegung im Straßenverkehr und hatten keinen wirklichen Zweck. In der neuen Arbeit verfeinerten die Forscher ihr End-to-End-System für die Bewegung vom Ziel zum Ziel in einer bisher unbekannten Umgebung. Dazu haben Wissenschaftler ihren Autopiloten darauf trainiert, während der Fahrt zu jedem Zeitpunkt die vollständige Wahrscheinlichkeitsverteilung für alle möglichen Steuerbefehle vorherzusagen.

Das System verwendet ein maschinelles Lernmodell namens Convolutional Neural Network (CNN), das üblicherweise zur Bilderkennung verwendet wird. Während des Trainings beobachtet das System das Fahrverhalten eines menschlichen Fahrers. CNN korreliert die Lenkraddrehungen mit der Krümmung der Straße, die es über Kameras und auf seiner kleinen Karte beobachtet. Dadurch lernt das System die wahrscheinlichsten Lenkbefehle für verschiedene Fahrsituationen, etwa gerade Straßen, Kreuzungen oder T-Kreuzungen, Gabelungen und Kurven.

„An einer T-Kreuzung gibt es zunächst viele verschiedene Richtungen, in die ein Auto abbiegen kann“, sagt Rus. „Das Modell beginnt damit, über all diese Richtungen nachzudenken, und da CNN immer mehr Daten darüber erhält, was Menschen in bestimmten Situationen auf der Straße tun, wird es erkennen, dass einige Fahrer nach links und andere nach rechts abbiegen, aber niemand fährt direkt.“ . Geradeaus scheidet als mögliche Richtung aus und das Modell kommt zu dem Schluss, dass es an T-Kreuzungen nur nach links oder rechts gehen kann.“

Während der Fahrt extrahiert das CNN auch visuelle Straßenmerkmale von Kameras und ermöglicht so die Vorhersage möglicher Routenänderungen. Es erkennt beispielsweise ein rotes Stoppschild oder eine gestrichelte Linie am Straßenrand als Hinweis auf eine bevorstehende Kreuzung. Es nutzt zu jedem Zeitpunkt die vorhergesagte Wahrscheinlichkeitsverteilung der Steuerbefehle, um den korrektesten Befehl auszuwählen.

Es ist wichtig zu beachten, dass der Autopilot den Forschern zufolge Karten verwendet, die äußerst einfach zu speichern und zu verarbeiten sind. Autonome Steuerungssysteme verwenden typischerweise Lidar-Karten, die allein zur Speicherung der Stadt San Francisco etwa 4000 GB Daten beanspruchen. Für jedes neue Ziel muss das Auto neue Karten verwenden und erstellen, was sehr viel Speicher erfordert. Andererseits deckt die vom neuen Autopiloten verwendete Karte die ganze Welt ab und belegt dabei nur 40 Gigabyte an Daten.

Während des autonomen Fahrens vergleicht das System außerdem ständig seine visuellen Daten mit den Kartendaten und meldet etwaige Unstimmigkeiten. Dadurch kann das autonome Fahrzeug besser erkennen, wo es sich auf der Straße befindet. Dadurch wird sichergestellt, dass das Auto auf dem sichersten Weg bleibt, selbst wenn es widersprüchliche Eingabeinformationen erhält: Wenn das Auto beispielsweise auf einer geraden Straße ohne Kurven fährt und das GPS anzeigt, dass das Auto rechts abbiegen soll, wird das Auto dies tun wissen, dass man geradeaus fahren oder anhalten muss.

„In der realen Welt versagen Sensoren“, sagt Amini. „Wir möchten sicherstellen, dass unser Autopilot gegenüber verschiedenen Sensorausfällen resistent ist, indem wir ein System schaffen, das alle Geräuschsignale empfangen und dennoch korrekt auf der Straße navigieren kann.“



Source: 3dnews.ru

Kommentar hinzufügen