Was wird uns in die Zukunft fahren? Die rechtliche Seite von selbstfahrenden Autos

Selbstfahrende Autos reagieren in Sekundenbruchteilen: schneller als selbst der aufmerksamste Fahrer. Autonome Aut os werden nicht müde, die verlieren nicht die Konzentration oder werden aggressiv; sie werden nicht von Alltagssorgen geplagt; sie sind nicht hungrig oder haben Kopfweh. Selbstfahrende Autos trinken keinen Alkohol oder stehen unter Einfluss von Drogen.

Kurz: menschliche Fehler, der Hauptgrund von Verkehrsunfällen, könnten mit einem Schlag der Vergangenheit angehören, wenn menschliche Fahrer von den Straßen sofort verbannt würden. Stimmt das? Es wäre so, wären da nicht kürzliche Berichte von zwei Todesfällen bekannt geworden. Einer geschah während einer Testfahrt eines selbstfahrenden Autos (UBER), ein anderer mit einem automatisierten Fahrzeug im Autopilotmodus (Tesla). Beide Unfälle geschahen innerhalb von wenigen Märztagen 2018 in den USA. Im Teslafall sieht es so aus als ob der Autopilot zum Zeitpunkt des Unfalls abgeschalten war.

Jeden Tag sterben auf der Erde Menschen bei Unfällen, wobei 90 Prozent durch menschliche Fehler verursacht werden, nur ein kleiner Teil durch technische Gebrechen. Trotz des menschlichen Versagens haben wir Autofahren nicht verboten. Zwei Unfälle mit Todesfolgen die selbstfahrende Autos involvierten haben die öffentliche Aufmerksamkeit auf sich gezogen, und Fragen über die Geschwindigkeit der technischen Entwicklung in dieser Industrie. Sind selbstfahrende Autos nun nur ein Hype, oder ein Trend der nicht mehr aufgehalten werden kann, trotz jedes Todesfalls mit dieser Technologie?

Die rechtliche Seite

Für viele ist der Gedanke, dass vollständig selbstfahrende Autos (ohne Fahrer) die Zukunft bestimmen, beunruhigend. Die zwei jüngsten Todesfälle in den USA durch (teil-) autonome Autos haben, oder genauer, könnten Angst hervorrufen. Aus rechtlicher Sicht macht es keinen Unterschied für die geschädigte Partei ob der Unfall durch einen unvorsichtigen Menschen oder einen Fehler der Technologie verursacht worden war. Dort wo der Unterschied liegt, ist dass jeder Fehler durch einen Menschen einen separaten Unfall bedeutet, aber bei einer Technologiefehlfunktion das nicht als Einzelfall betrachtet werden kann. Solche Fehler werden als systemische oder Serienfehler bei einer bestimmten Technologie zu einem bestimmten Zeitpunkt gesehen.

Aus rechtlicher Sicht bedeutet ein technischer Defekt auch einen Designdefekt, der die ganze Produktionsserie betrifft. Tote die durch Softwarefehler hervorgerufen werden lassen die Menschen rasch das Vertrauen in alle Fahrzeuge verlieren, die mit derselben Technologie ausgestattet sind. Umgekehrt, wenn ein betrunkener Fahrer einen anderen Verkehrsteilnehmer tötet wird nicht angenommen, dass die Mehrheit der anderen Fahrer (oder alle) auch möglicherweise Unfälle wegen Alkoholeinfluss verursachen könnten.

Die Nachfrageseite

Die grundlegende Frage bei allen technischen Entwicklungen lautet: wollen die Menschen selbstfahrende Autos?

Wenn wir von selbstfahrenden/autonomen Autos sprechen, meinen wir Maschinen die von Computern gesteuert werden. Onboard-Computer sind eine zunehmend normale Praxis bei Flugzeugen, ohne dass der Pilot das Flugzeug steuert – und aus statistischer Sicht sind Flugzeuge die sicherste Transportform. Könnten Autos nicht auch so sicher werden? Wie auch immer, ein Vergleich zwischen Flugzeugen und Autos ist nicht gerechtfertigt, aufgrund der unterschiedlichen Benutzergruppen, der Anzahl an Autos die jeden Tag auf den Straßen fahren, und wegen der allgegenwärtigen Gefahr mit einem anderen Straßenbenutzer zu kollidieren, inklusive Fußgängern.

Während Fahrerassistenzsysteme, wie Spurhalteassistent, Parkassistent, oder Adaptive Cruise Control in vielen neuen Automodellen vorhanden sind und generell in Europa erlaubt sind, erlaubt die aktuelle Gesetzgebung in Europa und Österreich (halb-)autonome Autos nur für Testzwecke. Weiters sind in Österreich diese Testfahrten nur auf Autobahnen und mit Minibussen in städtischem Umfeld auf speziell markierten Straßenzügen erlaubt (beispielsweise die Testfahrten mit Minibussen in Salzburg und Velden). Testfahrten wurden auf österreichischen Straßen mit entsprechenden rechtlichen Anforderungen vor etwas mehr als einem Jahr begonnen, und es ist auch vorgeschrieben, dass zu jedem Zeitpunkt eine Person im Fahrzeug sein muss. Diese Person muss jederzeit eingreifen können, wenn ein Unfall droht, oder inkorrekte Fahrweisen des Computers auftreten und das Fahrzeug unter menschliche Kontrolle gebracht werden muss.

Tatsächlich erfordert die amerikanische Rechtsprechung Testfahrten momentan auch noch Menschen im Fahrzeug (auch wenn schon vor den beiden tödlichen Unfällen) Kalifornien Gesetzesänderungen angekündigt hat, die auch das nicht mehr erforderlich machen. Als Ergebnis des UBER-Unfalls mit einer Radfahrerin ergeben sich drei Fragen:

1. Hätte die Person im Fahrzeug rechtzeitig bremsen und die Kollision mit der die Straße kreuzenden Radfahrerin vermeiden können?

2. Warum erkannten die eingebauten Sensoren die Radfahrerin nicht rechtzeitig?

3. Warum hielt sich das Fahrzeug nicht an die Geschwindigkeitsbeschränkung?

Aktuell werden solche Systeme in Europa und den USA getestet. In den USA findet das auf Autobahnen statt, und im Gegensatz zu Europa, auch auf städtischen Straßen. So lange wir nur in der Testphase sind können wir nicht von einem technisch erprobten System reden, geschweige denn von offizieller Zulassung. Die technische Entwicklung von selbstfahrenden Autos macht allerdings klar, dass sich die rechtliche Verantwortung vom Fahrer zum Fahrzeugproduzenten und den Softwareentwicklern verschiebt.

Zusammenfassung

Ob und wann selbstfahrende Autos ein Alltagsbestandteil werden hängen stark von einigen (zukünftigen) Fragen ab:

  • Können wir zurecht absolute Sicherheit von selbstfahrenden Autos erwarten?
  • Welche Entscheidungen sollten selbstfahrende Autos treffen, bei der ein Leben nur gegen das eines anderen gerettet werden kann?
  • Wie soll dieses Dilemma gelöst werden?

Wenn künstliche Intelligenz (KI) und selbstlernende Systeme auch in der Technologie fur selbstfahrende Autos integriert wird, dann werden Fahrzeuge dieser Art „menschliche Roboter auf vier Rädern“, aber sie können nicht mit menschlichen Vorstellungen von Werten und Moral verglichen werden. Wenn jedes Individuum Verantwortlichkeit für ihr intuitives Verhalten in einer spezifischen Situation trägt, dann werden die Grenzen unseres Rechtssystems offen gelegt, sobald Algorithmen mit Unmengen an Daten diese Entscheidungen bereits im Vorfeld treffen können: diese Entscheidungen können nicht länger durch eine bestimmte Person oder einem Softwareentwickler zugeschrieben werden wenn ein selbstfahrendes Auto involviert ist. Es wird die Aufgabe von Anwälten sein dem Gesetzgeber rechtlichen Beistand bei der Beherrschung dieser Aufgabe zu leisten.

Über den Autor

Dr. Andreas Eustacchio LL.M. (London LSE), Rechtsanwalt in Österreich; geboren in Zambia; Partner bei EUSTACCHIO Attorneys-at-law, einer Wien-basierten und international tätigen Rechtsanwaltskanzlei mit einem Schwerpunkt auf Wirtschaftsrecht; er berät global tätige Unternehmen in der Digital- und Automatisierungsindustrie; Seit 2016 ist er Rechtspartner des ‘Virtual Vehicle’ Research Centre for Autonomous Driving in Graz; Autor und Lektor auf mehreren österreichischen Universitäten und Gastprofessor auf den Universitäten Hanoi (Vietnam) und Sanya (China); Cavaliere (Order of Merit of the Italian Republic).

 

Dieser Beitrag ist auch auf Englisch erschienen.

3 Kommentare

  1. ad 1.) Ja, die Kollision hätte vermieden werden können, wenn die Fahrerin aufmerksam gewesen wäre. Das weitläufig bekannte Video vom Unfall ist irreführend, weil es sehr dunkel ist (entweder die Kontrollkamera hat einfach eine schlechte Qualität, oder das Video wurde nachträglich verdunkelt). Hier gibt es alternative Bildaufnahmen.
    https://arstechnica.com/cars/2018/03/police-chief-said-uber-victim-came-from-the-shadows-dont-believe-it/?comments=1

    ad 2.) Leider fehlt mir jetzt hier die Quelle, aber ich habe gelesen sowohl die Serien-Funktionen von Volvo als auch das Erkennungssystem von Nvidia waren zum Zeitpunkt deaktiviert, weil Uber bei diesem Fahrzeug ein eigenes kamerabasiertes System getestet hat.

    Gefällt mir

Hinterlasse eine Antwort

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

w

Verbinde mit %s