Vor knapp eineinhalb Jahren erhielt ich ein Video zu einem Tesla, der mit LiDAR-Aufsätzen in Leuven in Belgien gesichtet worden war. Wer dahinter steckte, war bis vor kurzem nicht klar, doch nun meldete sich das Unternehmen.
IVEX.ai testet die Sicherheit von Fahrerassistenz- und autonomen Fahrsystemen mit seiner eigenen Testplattform namens Carvex. Mit Fahrzeugen wie einem Tesla Model 3 werden dann Daten gesammelt, um in diesem Fall die Reaktionen des Tesla Autopilot zu überprüfen. Das Ergebnis solcher Tests hat das Unternehmen vor ein paar Tagen auf ihrem Blog veröffentlicht.
Insgesamt sammelte IVEX.ai 40 Gigabyte von über 15.000 Kilometern an Fahrdaten. Ein spezieller Fokus lag auf Vollbremsungen beziehungsweise den spontanen Bremsereignissen (‚hard brake events‘), die immer wieder von Tesla-Besitzern gemeldet werden. Ohne ersichtlichen Grund bremsen Tesla laut ihren Besitzern bei hoher Geschwindigkeit stark ab, deshalb nennen das viele auch Phantom- oder Geisterbremsen. Dabei versteht IVEX unter hartem Bremsen, wenn eine Entschleunigung von 4.0 m/s² (13.12 ft/s²) und mehr eintritt.
Die Beobachtung von solchen spontanen Bremsereignissen ist aus zwei Gründen interessant. Erstens könnte es sein, dass der Fahrer den Autopiloten nach einer Vollbremsung ausschaltet, was bedeuten würde, dass der Autopilot eine Situation nicht bewältigen kann, weil sie möglicherweise außerhalb seines operativen Entwurfsbereich (Operational Design Domain ODD) liegt. Zweitens könnte es sich bei der Vollbremsung um ein falsch-positives Ereignis handeln (Vollbremsung in einer Situation, in der eine Vollbremsung nicht gerechtfertigt ist), was gefährlich ist, da eine unerwartete, falsch-positive Vollbremsung zu einem Auffahrunfall führen kann.
Das Testsystem Carvex für den Tesla umfasste dabei an Sensoren RTK GNSS, LiDAR, Radar, und Kameras, sowie eine im Innenraum angebracht Kamera, die das Tesla-Dashboard filmte. IVEX.ai führte dabei drei Beispiele von Vollbremsungen.
Im ersten Beispiel überschreitet ein LKW auf der rechten Seite des Teslas die Fahrbahnmarkierung, was das Fahrzeug zu einer harten Bremsung veranlasst.

Im zweiten Beispiel bremst der Tesla vor einer Kreuzung stark ab, bei der die Ampel von auf gelb umspringt. Diese Situation ist insofern problematisch, da in dieser Situation Verkehr hinter dem Tesla nicht auf diesen starken Bremsung vorbereitet sein könnte. Wie sich aber herausstellte, übernahm der Fahrer vom Autopiloten, um eine Bremsung vorzunehmen, da die verwendete Autopilotversion keine Ampeln erkannte.

Im dritten Beispiel bremst das Fahrzeug stark vor der Einfahrt in einen Kreisverkehr. Ein Kreisverkehr scheint nicht im operativen Entwurfsbereich des getesteten Autopilots zu liegen, kann aber vom durchschnittlichen Teslabesitzer als Phantombremsung interpretiert werden.

Aus diesen Beispielen sind zumindest zwei Schlussfolgerungen zu erkennen:
- Bei Ereignissen, die nicht Teil des Tesla Autopilot ODD sind, schaltet sich der Autopilot aus, wodurch der Fahrer gezwungen sein kann, scharf zu bremsen;
- Es gibt Ereignisse, die der Autopilot als riskant wahrnimmt, wie z. B. ein potenzielles Hindernis, das sich nähert, und er bremst stark ab, auch wenn die Wahrnehmung nicht den tatsächlichen Ereignissen entspricht.
Mehr Details zu dem Test gibt es auf dem IVEX.ai-Blog.
Dieser Beitrag ist auch auf Englisch erschienen.
1 Kommentar