Sensoren fürs autonome Fahren

Das Start-Up Aurora, das Technologie für selbstfahrende Autos entwickelt, hat in einem Blog einen Einblick in die Herausforderungen gegeben, die sich beim Maschinenlernen des Systems und den Fähigkeiten der eingesetzten Sensoren ergeben.

Generell arbeitet Aurora an Level 4 Autonomie und überspringt Level 2 und Level 3.  Speziell Mitgründer Chris Urmson, der jahrelang bei Waymo gearbeitet hat, ist ein Vertreter dieses Ansatzes. Er meint, dass Level 3 nichts anderes ist als die metaphorische Verbesserung der Kerze, und glaubt damit die Glühbirne entwickeln zu können.

Bei der Entwicklung von autonomen Autos kommt heute eine Sensorensuite zum Einsatz, die mehrere Kameras, Radar und LiDARs umfasst. Diese sollen die unterschiedlichen Vorteile und Nachteile ausgleichen. Einige Unternehmen fokussieren sich sehr stark auf Kameras (AutoX, Tesla), die meisten aber meinen ohne LiDAR nicht auskommen zu können. Und beim aktuellen Stand der Technologie scheint das auch so zu sein, kann sich beim rasanten Fortschritt der Sensortechnologie in wenigen Jahren ändern.

Im Blog geht das Aurora-Team auf die unterschiedlichen Schwächen der einzelnen Sensoren ein, und zeigen auch Beispiele. Kameras beispielsweise kämpfen mit den Lichtbedingungen. Bei Dunkelheit ist der dynamische Erfassungsbereich stark eingeschränkt. Kameras haben eine verzögerte Reaktion, wenn große Lichtschwankungen auftreten, ähnlich wie wir uns geblendet fühlen, wenn wir aus einem dunklen Flur plötzlich ins grelle Sonnenlicht kommen. Hier ein Beispielvideo, das das demonstriert:

Kamera-Dynamik

Radar hat dieses Problem nicht, dafür kommen unter anderen Fahrbedingungen Probleme hoch. So beispielsweise bei Tunnelfahrten, die zu Reflexionen führen und das zurückkommende Radarsignal falsch interpretiert wird. Auch Doppler-Effekte – also wie schnell sich ein anderes Objekt bewegt – und die geringe Auflösung sind beim Radar problematisch.

Radar im Tunnel

LiDAR – Lasersysteme – können zwar ein dreidimensionales Abbild der Umgebung machen, aber kleine Objekte wie Regentropfen, Schnee, Staub, können zu Störungen des Signals führen.

LiDAR im Schneegestöber

Die Entwickler arbeiten an Algorithmen und anderen Techniken, um den Effekt dieser Nachteile zu verringern, aktuell aber ergänzen sich die einzelnen Sensortypen in ihren Schwächen und Stärken. Trotzdem arbeiten Forscher und Autobauer daran, dass selbst im Fall des Ausfalles eines Sensortyps andere Sensoren kompensieren können.

Während Daten und viel Fahrten in der realen Welt sinnvoll sind, möchte Aurora zuerst mal die Grundlagen schaffen. Bevor eine Maschine lernen kann, müssen dafür die sprichwörtliche Rohre und Infrastruktur gebaut werden. Zuerst werden auch die Szenarien simuliert und die Algorithmen auf diese Weise getestet, denn was schon hier nicht funktioniert, funktioniert auch in der realen Welt nicht. Auch die Methode wie sie das machen erinnert stark an die Silicon-Valley-übliche Herangehensweise, zuerst einen schnellfunktionierenden Prototypen zu testen, anzupassen, zu verbessern, und dann in die Testumgebung rauszuschicken. Simulationen sind deshalb eine Kernkomponente auf die sich das Aurora-Team konzentriert.

Im Blog (auf Englisch) wird noch mehr auf Beispiele und Herangehensweisen eingegangen und das ist unbedingt lesenswert, wenn man mehr dazu verstehen will.

Dieser Beitrag ist auch auf Englisch erschienen.

1 Kommentar

Hinterlasse eine Antwort

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit deinem WordPress.com-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s