Haftungsfrage als Nebelgranate

Wann immer sich eine Diskussion dem Thema autonome Autos in Deutschland zuwendet, kommt unweigerlich der Hinweis, dass „zuerst die Haftungsfrage geklärt werden müsse“. Und das mit einer Bestimmtheit, als ob bei der Entwicklung von autonomen Fahren nicht die Technologie selbst die große Herausforderung darstellen würde, sondern der rechtliche Rahmen das Äquivalent von einer Raketentechnologie wäre.

Was gerne übersehen, ist, dass diese Frage eigentlich längst – und damit meine ich seit Jahrzehnten – geklärt ist. So hat der Abschlussbericht der deutschen Ethikkommission zum Thema autonomes Fahren bereits 2017 unter Richtlinie 11 auf die gültigen Grundsätze der Produkthaftung verweisen

11. Für die Haftung für Schäden durch aktivierte automatisierte Fahrsysteme gelten die gleichen Grundsätze wie in der übrigen Produkthaftung.

Mit anderen Worten:

  1. Wird ein Schaden durch beispielsweise einen Algorithmenfehler verursacht, weil das Selbstfahrsystem eine Person, einen Gegenstand oder eine Fahrsituation falsch eingeschätzt hat und das System das unter den Bedingungen hätte richtig handhaben sollen, dann haftet der Hersteller. Wie eben durch eine fehlerhafte Bremse oder Airbagauslösung vom Hersteller zu tragen ist.
  2. Wird ein Schaden durch beispielsweise einen schlecht gewarteten, verschmutzten oder schlecht kalibrierten Sensor verursacht, dann haftet der Betreiber des autonomen Autos.
  3. Wird ein Schaden durch einen beispielsweise nicht autorisierten Eingriff eines Passagiers verursacht, dann haftet der Passagier.

Tatsächlich sind heute schon etwa 95% aller Schadensfälle mit autonomen Autos durch die menschlichen Unfallgegner verursacht. So verpflichtet die kalifornische Verkehrsbehörde DMV alle Betreiber von autonomen Testfahrzeugen und Robotertaxis umgehend alle Zwischenfälle in einem eigenen Formular an die Behörde zu melden und öffentlich einsehbar zu machen.

Bereits in der Vergangenheit – und damit meine ich vor hunderten Jahren – gab es Gesetze, die ebenso die Frage lösten, wer für den Schaden haftet, den andere „autonome Systeme“, in diesem Fall „Sklaven“. Hier ein Exzerpt aus meinem 2017 erschienenen Buch Der letzte Führerscheinneuling…:

Tatsächlich können wir bereits beschriebene Ansätze heranziehen, auch wenn sie im ersten Moment abstoßend und völlig fehl am Platz wirken. Jerry Kaplan, der Autor des Buchs Humans Need Not Apply (frei übersetzt: „Menschen brauchen sich gar nicht erst bewerben“), kramt die (dankenswerterweise abgeschafften) Sklavengesetze hervor, die vor dem amerikanischen Bürgerkrieg vergleichbare Fragen behandelten. Sklaven waren (Sach-)Eigentum und hatten Eigentümer. Die Bestimmungen, wer für den durch einen Sklaven angerichteten Schaden aufzukommen habe oder bestraft werden müsse, wurde in den „Slave Codes“ festgelegt (neben vielen anderen Regelungen, die sich meist gegen Sklaven wandten). Die Eigentümer wurden darin nur in bestimmten Fällen haftbar gemacht, in vielen anderen wurden die Sklaven bestraft. Die Ermittlung von Schuld hatte jedoch weniger Recht und Gesetz im Sinn als das Wohlergehen des Sklavenhalters: Bedeutete eine Bestrafung des Sklaven eventuell zu große Nachteile für den Eigentümer?

Und nur um das zu ergänzen: Selbst im 17. und 18. Jahrhundert waren die Slave Codes nicht so unumstritten, wie das heute erscheinen mag. Doch wie bestraft man Roboter und Unternehmen im Falle von Fehlverhalten oder eines von ihnen angerichteten Schadens, wenn man es nicht mit einer „Einzelperson“ zu tun hat? Bestraft man nur die Verantwortlichen, bestraft man die Ausführenden oder die Anweiser oder gleich die ganze Firma? Bezieht man das Motiv, die Absicht und die Auswirkungen auf die Gesellschaft mit ein?

Natürlich kann man einen Roboter nicht ins Gefängnis stecken. Aber es gibt Ansätze, die uns ein Äquivalent ermöglichen. Sowohl ein Roboter als auch ein Unternehmen erfüllen einen Zweck. Ihre ganze Existenz zielt darauf ab, diesen Zweck zu erfüllen. Werden sie zu Geldstrafen verurteilt, werden Gewerbescheine oder Unternehmenslizenzen entzogen, kann es den Zweck für einen bestimmten Zeitraum nicht erfüllen. Ein Richter kann auch die Schließung eines Unternehmens veranlassen. All diese Maßnahmen entziehen dem Unternehmen die Grundlage für eine Fortführung des Geschäftsbetriebs. Das kann einem Todesurteil gleichkommen. Als Beispiel sei hier der Unfall der Deepwater Horizon im Golf von Mexiko im Jahr 2010 erwähnt, nach dem die Behörden BP zur Kostenübernahme der kostspieligen Aufräumarbeiten zwangen und Strafen in Milliardenhöhe verhängten.

Ein selbstfahrendes Fahrzeug soll uns und unsere Güter transportieren. Wird eine Strafe verhängt, kann es die Aufgabe, für die es geschaffen wurde, nicht mehr erfüllen. Jerry Kaplan argumentiert, dass Betreiber von Flotten selbstfahrender Autos dazu gezwungen werden könnten, nicht ein Unternehmen für alle Autos zu formen, sondern jedes Auto als eigenes Unternehmen anzumelden. Damit werde vermieden, dass bei einem möglichen Schadensfall die daraus resultierenden Klagen die ganze Flotte aus dem Verkehr zögen, zum Beispiel die eines Taxiunternehmens, sondern nur das eine Fahrzeug und das damit verbundene Unternehmen.

Dieselbe Frage stellt sich übrigens auch bei einem neuen Thema, das gerade aktuell wird: Humanoide Roboter. Und diese Frage ist dort ebenso zu behandeln, wie bei autonomen Autos.In meinem im Frühjahr 2026 erscheinenden Buch Homo Syntheticus: Wie Mensch und Maschine verschmelzen spreche ich natürlich auch über diese Frage.

Mit anderen Worten: Die Haftungsfrage ist längst geklärt und durch bereits vorhandene rechtlich Rahmen ausreichend abgedeckt.

Dieser Beitrag ist auch auf Englisch erschienen.

1 Kommentar

Hinterlasse eine Antwort