Sobald die Rede auf fahrerlose Autos kommt, kommt unweigerlich die Frage nach dem ethischen Dilemma. Dieses auch als Trolley-Problem bekannte ethische Dilemma, wird seit Jahrzehnten von Psychologen, Philosophen und Verhaltensforschern in unterschiedlichen Varianten erforscht.
Trolley-Problem
Das ursprüngliche Trolley-Problem fragt, wie man sich verhalten würde, wenn ein Waggon ungebremst eine Strecke hinab rollt, an deren Ende sich mehrere Arbeiter aufhalten. Diese können aus der Position des Befragten nicht rechtzeitig gewarnt werden. Allerdings hat man einen Weichenschalter vor sich, der es erlauben würde den Waggon auf eine andere Schiene von den Arbeitern weg zu lenken. Leider befindet sich auf der anderen Strecke auch eine Person. Die Frage lautet: würde man die Weiche umschalten und damit riskieren nur einen Menschen zu töten, oder doch nicht, und damit mehrere Menschen töten?
Matthias Müller, seines Zeichens ehemaliger Vorstandschef von Porsche, und nun von Volkswagen wurde dazu bereits einmal im ‚auto motor und sport’-Magazin zitiert. „Ich frage mich immer“, sagte er, „wie ein Programmierer mit seiner Arbeit entscheiden können soll, ob ein autonom fahrendes Auto im Zweifelsfall nach rechts in den Lkw schießt oder nach links in einen Kleinwagen.”
Und jetzt kommt dieselbe Frage im Spiegel vom Januar 2016 gleich in der Einleitung Schlagzeilen trächtig mit dem Titel Lotterie des Sterbens versehenen Artikels auf:
“Eines Tages wird es geschehen, so oder ähnlich: Ein selbstfahrendes Auto saust übers Land, der Computer lenkt. Der Fahrer hat es gemütlich, er liest Zeitung. Da hüpfen drei Kinder auf die Straße, links und rechts stehen Bäume. In diesem Augenblick muss der Computer entscheiden. Wird er das Richtige tun? Drei Menschenleben hängen davon ab.”
Genau! Wer wird, wer muss sterben? Sehen wir uns diese Frage und das Dilemma mal genauer an und warum es vor allem zwei Dinge über den Fragestellenden aussagt. Nämlich: er weiß entweder sehr wenig über selbstfahrende Fahrzeuge und Unfallstatistiken, oder er kennt die Fakten und meint es mit der Frage nicht aufrichtig.
Gegenfragen
Deshalb zuallererst ein paar Gegenfragen:
- Fährst du selbst Auto?
- Wenn ja, wie lange schon?
- Hast du schon einmal die Entscheidung zu treffen gehabt, eine Person mit dem Auto zu töten? Wie oft bist du selbst als Autofahrer vor diesem Dilemma gestanden? Kennst du irgendjemanden der vor diesem Dilemma stand, entweder über die Kinder zu fahren oder dich selbst gegen den Baum zu fahren?
- Wem vertraust du mehr, die richtige – sofern das überhaupt möglich ist – Entscheidung zu treffen? Einem Fahrer, der solch eine ethische Entscheidung in Sekundenbruchteilen treffen soll, oder einem Softwareentwickler, der Stunden, Tage, Wochen oder Monate dieser Frage nachgehen und Algorithmen ausarbeiten konnte?
- Wusstest Du, dass nicht der Programmierer die Entscheidung trifft, sondern das Auto, das durch Maschinenlernen sich die Entscheidung beigebracht hat?
Das Dilemma tatsächlich kommt so selten auf, dass es eine reine Hypothese für die meisten von uns ist. Es wird aber regelmäßig von Kritikern und Besorgten als Beispiel angeführt und gerne als Argument gegen diese unausgereifte Technologie verwendet. Dieses hypothetische Problem ist unter dem Namen ‚Trolley-Problem’, beziehungsweise spielt in den Bereich des‚Utilitarismus’, und wird seit Jahrzehnten von Forschern in verschiedensten Varianten durchgespielt, um ethische Konflikte aufzuzeigen und Verhaltensmuster zu finden.

Eine intellektuell stimulierende und ethisch sicherlich interessante Fragestellung, die aber in der Praxis (fast) nie vorkommen wird. Hingegen aber Unfälle mit Straßenbahnen oder Eisenbahnen, wo Menschen versagen, die Strecke überqueren, auch wenn die Warnschilder alle blinken und die Bahnschranken geschlossen sind, oder zumindest der Fahrer oder Zugführer unaufmerksam war.
Utilitarismus
Beim Utilitarismus wird eine Handlung nach ihrem größten Nutzen für die Gesellschaft bewertet. Ist es beispielsweise von größerem Nutzen für die Gesellschaft, wenn sich das Auto entscheiden muss entweder über die Großmutter zu fahren oder das Kleinkind? Utilitaristisch betrachtet könnte man so argumentieren, dass die Oma den Großteil ihres Lebens schon hinter sich hat und nur mehr eine Bürde für die Gesellschaft ist, während das Kleinkind noch vieles für die Gesellschaft leisten wird können. Oder doch nicht? Was, wenn das Kleinkind an einer Krankheit frühzeitig sterben wird und nur Krankenhauskosten verursacht, und die Oma eine Schriftstellerin ist, die gerade ihren erfolgreichen Debütroman fertigstellt?
Varianten des Trolley-Problems experimentieren mit der Verfügbarkeit von anderen Objekten oder Personen, die einen direkten oder indirekten Eingriff erlauben. Der dicke Mann, den man vor den Waggon schubsen kann, um das Unglück zu verhindern? Oder doch lieber die Stange, mit der man dem dicken Mann ein Bein stellen kann, damit er vor den Waggon stürzt und ihn abbremst? Dabei stellt sich heraus, dass erstere Variante unterlassen wird. Wenn man nichts macht ist man zumindest nicht schuld. Bei der letzteren Variante tendieren die Probanden aber dazu etwas zu unternehmen, weil man durch die Stange eine Stufe von der Aktion separiert ist. Nicht ich, sondern die Stange hat den dicken Mann vor den Waggon geschubst. Das Resultat ist das gleiche: der dicke Mann stürzt vor den Waggon. Einmal durch Handauflegen, einmal unter Zuhilfenahme einer Stange. Aus der Sicht der Probanden besteht aber ein großer Unterschied. Einmal war man direkt verantwortlich, das andere Mal nur indirekt. Das eine Mal tötet man, das andere Mal lässt man sterben.
Und das bringt uns dem moralischen Dilemma näher. Das Trolley-Problem und die Anwendung auf autonome Fahrzeuge unterschlagen uns zumeist den Kontext. Sie erlauben keine dritte Alternative, kein Erkennen einer weiteren Option. Und selbst wenn wir theoretisch unsere (moralische) Entscheidung durchdenken ist das keine Garantie, dass wir uns im Moment der Wahrheit wirklich so entscheiden würden. Was aber wenn wir realisieren, dass wir ohne eigene Schuld und unser Zutun unser eigenes Leben geopfert wird um das anderer zu schützen? Soll ein autonomes Fahrzeug die Passagiere töten, um die Fußgänger zu retten?
Chris Urmson, der ehemalige Leiter der Google X Selbstfahrtechnologiegruppe, sagte dazu, dass Google das Auto mit einem sehr defensiven Fahrverhalten ausgestattet hat. Dabei versucht es zuallererst die verletzlichsten Teilnehmer zu vermeiden, und das sind Fußgänger und Radfahrer. Dann andere bewegliche größere Objekte, wie beispielsweise andere Autos und Lastwagen. Und dann versucht es stehende Objekte zu vermeiden.
Maschinenlernen
Hinzu kommt, dass es nicht so einfach ist wie es erscheint, das Fahrzeug für solch eine Entscheidung zu programmieren. Vor allem auch weil viele der Verhaltensweisen vom Fahrzeug selbst erfahren werden. Und das ist eines der Missverständnisse, dem wir aufsitzen. Nicht der Ingenieur trifft die Entscheidung und programmiert das System entsprechend, das System trifft sie aus dem Maschinengelernten. Die Ingenieure geben dem Fahrzeug anfänglich ein Regelwerk mit, helfen dem System bei Situationen mit denen es Schwierigkeiten hat, und mit den Millionen an gefahrenen Kilometern baut die Künstliche Intelligenz sich selbst ein Verhalten auf. Wer meint ein Ingenieur trifft da eine klare Entscheidung, missversteht künstliche Intelligenz und autonome Autos.
Wie häufig sind Unfälle?
Sieht man sich Verkehrsunfallstatistiken mit Personenkraftwagen an, dann erkannt man dass vor allem menschliche Fehler die Hauptursache für Unfälle sind. 94 Prozent aller Unfälle werden durch menschliche Fehler verursacht und kosten weltweit 500 Milliarden Dollar an wirtschaftlichem Schaden. Bei über 3.000 Verkehrstoten in Deutschland sind gerade mal 200 durch technische Gebrechen oder andere Ursachen hervorgerufen. Immer noch 200 zu viel, aber dem stehen über 2.800 Tote durch menschliches Versagen gegenüber. Dabei sind da noch nicht alle Zwischenfälle drinnen enthalten. Es wird geschätzt dass zwischen 55 und 80 Prozent der Unfälle gar nicht gemeldet werden. Indien hat generell die schlimmsten Statistiken im Straßenverkehr. Vierhundert Menschen sterben pro Tag in Indien, pro Jahr somit über 140.000. Und mehr als 11.000 pro Jahr sterben dort nur aufgrund von oftmals übel ausgeführten Bremsschwellen, die Unfälle eigentlich verhindern sollten.
In Europa ist die Anzahl der Verkehrsopfer ungleich verteilt. Rußland alleine ist für zwei Drittel aller Verkehrstoten verantwortlich. Unfälle sind dabei auch ein Ergebnis von Korruption. Polizisten und andere für Verkehrsicherheit Verantwortliche schauen nur zu gerne weg, wenn der Preis der richtige ist. Das hat in Mexico City zu einer drastischen Maßnahme geführt. 2007 wurde der letzte männliche Verkehrspolizist abgezogen und durch einen weiblichen ersetzt. Die Unfallzahlen gingen zurück, gleichzeitig stieg die Anzahl der ausgestellten Strafen um 300 Prozent.
All diese Fakten sind echt, und nicht nur hypothetisch. Viele Menschen sterben heute auf den Straßen durch Verkehrsunfälle, und das vor allem durch menschliche Fehler.
Das ethische Problem des ethischen Dilemmas
Und wie viele Szenarien davon enthalten nun wirklich das Dilemma, bei dem sich ein Fahrer entscheiden muss, Kinder auf der Straße zu töten oder selbst im Crash gegen den Baum zu sterben? So verschwindend gering, dass man sich fragt, warum diese Fragestellung so populär ist und aufgeblasen wird? Der Technologie-Experte und ehemaliger Berater im Google X Self-Driving Car-Projekt, Brad Templeton, hat ausführlich beschrieben, warum diese Frage überbewertet ist, und welche Fragen man eigentlich stellen sollte, wenn man es ehrlich mit den Möglichkeiten dieser neuen Technologie meint.
Hier kommt unser Unwohlsein zum Ausdruck, dass Maschinen Entscheidungen über Leben und Tod treffen. Diese Entscheidung wollen wir uns vorbehalten. So verständlich das erscheint, so vergeblich ist dieser Wunsch bereits heute. Schon heute geben wir Maschinen die Entscheidungsgewalt über Leben und Tod zu entscheiden. Fahrerlose U-Bahnen, Autopiloten im Flugzeug, Verkehrsleitsystem in der Luft erlauben eine engere Staffelung der Flugzeuge als Menschen das könnten. Und selbst etwas uns heute so selbstverständlich erscheinendes wie ein Airbag entscheiden selbst, wann sie auslösen und wann nicht, und damit ob wir sterben, schwer verletzt werden, oder unbeschadet aus dem Wrack aussteigen. Wie Professor Dudenhöffer in seinem Buch Wer kriegt die Kurve schlussfolgert:
„Die Frage, ob ein Computer über unser Leben entscheiden darf, haben wir, wenn wir ehrlich sind, schon millionenfach mit Ja entschieden.“
Das eigentliche ethische Problem ist woanders: die Verliebtheit in diese Frage mit dem so selten vorkommenden Fall verstellt uns die Sicht auf die Chancen, die uns selbstfahrende Autos bieten. Wenn die Selbstfahrtechnologie nur einen Teil von dem hält, was wir uns davon versprechen, dann retten wir jährlich alleine in Deutschland bis zu 3.200 Menschenleben und haben über 300.000 weniger Verkehrsverletzte. Nur weil wir das Ethische Dilemma des Trolley-Problems so aufblasen und uns vorgeblich um vielleicht nicht mal zehn mögliche Todesfälle aufregen, verhindern wir (beinahe) eine Technologie, die imstande ist 3.200 Menschenleben zu retten.
Und das ist das größere ethische Problem. Die Diskussion wird unehrlich geführt, wo die gewaltigen Chancen einem Fall mit so geringer Auftrittshäufigkeit gegenüber gestellt wird, weil sich die Vorbringer des Trolley-Problems intellektuell so überlegen fühlen. Aus Eitelkeit machen wir aus einer Mücke einen Elefanten. Und machen uns damit mitschuldig am Tod von tausenden Menschen.
Dieser Artikel ist auch auf Englisch erschienen.
a.) Gegenfrage 4 und 5 am Anfang des Artikels widersprechen sich
b.) Folgt man dem Link, so findet sich kein Hinweis auf „94%“ sondern nur „more than 90%“ – warum wird hier der Eindruck von Genauigkeit erweckt?
c.) Folgt man dem Link zu „55-80% der Unfälle“, so findet sich dort die Zahl 15-16% – warum die Abweichung?
d.) Die Virginia Tech Studie zeigt recht deutlich, dass die so oft zitierte Unfallsicherheit autonomer Autos gar nicht so riesig ist, speziell wenn man die schwereren Unfälle betrachtet. Zudem erlaubt die im Vergleich zu normalen Autos geringe Meilenanzahl keinen klare Aussage. Zu guter letzt ist unklar, wie viele der 1.3 Mio Meilen der autonomen Autos bei welchen Geschwindigkeiten aufgetreten sind. Wer nur im Schrittempo oder nur Autobahn fährt, macht weniger Unfälle.
LikeLike