Wann immer die Diskussion sich um selbstfahrende Fahrzeuge dreht, kommen meistens früher denn später die Fragen nach der Schuld bei Unfällen und das Dilemma, wie denn die Software entscheidet, wer überfahren oder getötet wird.
Matthias Müller, seines Zeichens ehemaliger Vorstandschef von Porsche, und nun von Volkswagen wurde dazu bereits einmal im ‚auto motor und sport’-Magazin zitiert. „Ich frage mich immer“, sagte er, „wie ein Programmierer mit seiner Arbeit entscheiden können soll, ob ein autonom fahrendes Auto im Zweifelsfall nach rechts in den Lkw schießt oder nach links in einen Kleinwagen.”
Und jetzt kommt dieselbe Frage im Spiegel vom Januar 2016 gleich in der Einleitung eines Schlagzeilen trächtig mit dem Titel Lotterie des Sterbens versehenen Artikels auf:
„Eines Tages wird es geschehen, so oder ähnlich: Ein selbstfahrendes Auto saust übers Land, der Computer lenkt. Der Fahrer hat es gemütlich, er liest Zeitung. Da hüpfen drei Kinder auf die Straße, links und rechts stehen Bäume. In diesem Augenblick muss der Computer entscheiden. Wird er das Richtige tun? Drei Menschenleben hängen davon ab.“
Genau! Wer wird, wer muss sterben? Sehen wir uns diese Frage und das Dilemma mal genauer an und warum es vor allem zwei Dinge über den Fragestellenden aussagt. Nämlich: er weiß entweder sehr wenig über selbstfahrende Fahrzeuge und Unfallstatistiken, oder er kennt die Fakten und meint es mit der Frage nicht aufrichtig.
Deshalb zuallererst ein paar Gegenfragen:
- Fährst du selbst Auto?
- Wenn ja, wie lange schon?
- Wenn du wie lange mit mehreren Jahren oder Jahrzehnten beantwortet hast: Wie oft bist Du selbst als Autofahrer vor diesem Dilemma gestanden? Kennst Du irgendjemanden der vor diesem Dilemma stand, entweder über die Kinder zu fahren oder dich selbst gegen den Baum zu fahren?
Das Dilemma tatsächlich kommt so selten auf, dass es eine reine Hypothese für die meisten von uns ist. Es wird aber regelmäßig von Kritikern und Besorgten als Beispiel angeführt und gerne als Argument gegen diese unausgereifte Technologie verwendet. Dieses hypothetische Problem ist unter dem Namen Trolley-Problem bekannt und wird seit Jahrzehnten von Forschern in verschiedensten Varianten durchgespielt, um ethische Konflikte aufzuzeigen und Verhaltensmuster zu finden.
Das Trolley-Problem fragt, wie man sich verhalten würde, wenn ein Waggon ungebremst eine Strecke hinab rollt, an deren Ende sich mehrere Arbeiter aufhalten. Diese können aus der Position des Befragten nicht rechtzeitig gewarnt werden. Allerdings hat man einen Weichenschalter vor sich, der es erlauben würde den Waggon auf eine andere Schiene von den Arbeitern weg zu lenken. Leider befindet sich auf der anderen Strecke auch eine Person. Die Frage lautet: würde man die Weiche umschalten und damit riskieren nur einen Menschen zu töten, oder doch nicht, und damit mehrere Menschen töten?
Eine intellektuell stimulierende und ethisch sicherlich interessante Fragestellung, die aber in der Praxis (fast) nie vorkommen wird. Hingegen aber Unfälle mit Straßenbahnen oder Eisenbahnen, wo Menschen versagen, die Strecke überqueren auch wenn die Warnschilder alle blinken und die Bahnschranken geschlossen sind, oder der Fahrer unaufmerksam war.
Sieht man sich Verkehrsunfallstatistiken mit Personenkraftwagen an, dann erkannt man dass vor allem menschliche Fehler die Hauptursache für Unfälle sind. 94 Prozent aller Unfälle werden durch menschliche Fehler verursacht. Bei über 3.000 Verkehrstoten in Deutschland sind gerade mal 200 durch technische Gebrechen oder andere Ursachen hervorgerufen. Immer noch 200 zu viel, aber dem stehen über 2.800 Tote durch menschliches Versagen gegenüber.
Und wie viele davon enthalten das Dilemma wo sich ein Fahrer entscheiden muss, die Kinder zu töten oder selbst im Crash gegen den Baum zu sterben? So verschwindend gering, dass man sich fragt, warum diese Fragestellung so populär ist und aufgeblasen wird? Der Technologie-Experte und ehemaliger Berater im Google X Self-Driving Car-Projekt Brad Templeton hat ausführlich beschrieben, warum diese Frage überbewertet ist, und welche Fragen man eigentlich stellen sollte, wenn man es ehrlich mit den Möglichkeiten dieser neuen Technologie meint.
Ein Grund für die Popularität dieser Frage ist sicherlich, dass sie eben intellektuell stimulierend und ethisch interessant ist. Was ist die „richtige“ Entscheidung und warum? So interessant das ist, so wenig trägt es dazu bei, sich mit dem positiven Potenzial von selbstfahrenden Fahrzeugen auseinanderzusetzen. Weniger Verkehrsunfälle die es geben wird, Personengruppen werden mobil, die es bisher nicht sein konnten, weniger Fahrzeuge auf der Straße und damit eine einhergehende Reduktion der Verkehrsinfrastruktur sind nur einige der Auswirkungen die uns selbstfahrende Fahrzeuge bringen können.
Und diese Faszination mit den negativen Seiten einer Technologie ist nicht auf selbstfahrende Fahrzeuge beschränkt. Ein Artikel auf Spiegel Online zum Thema Künstliche Intelligenz, der den Experten zuerst fragte, ob wir uns fürchten müssen, dass KI uns an den Kragen will, fokussierte sich ebenso auf mögliche negative Auswirkungen. Die Antwort von KI-Forscher Jürgen Schmidhuber wies darauf sofort hin:
“Ich merke schon, Sie wollen mit mir heute nicht darüber reden, wie unsere KIs und künstlichen neuronalen Netze aktuell bereits Milliarden Menschen helfen können, etwa durch klügere Smartphones und automatische Krebsfrüherkennung; Sie interessieren sich mehr für mögliche Gefahren der ferneren Zukunft.“
Diese Tendenz vorrangig auf negative Aspekte und potenzielle Gefahren in der Berichterstattung einzugehen hat aber durchaus System. Eine von mir betreute Facebook-Seite mit einer Sammlung an Artikeln und Argumenten aus der deutschsprachigen Presse zeigt eindrücklich wie sich der Fokus auf diese negative Seite konzentriert und Gefahren und Risiken hochgespielt werden.
Sieht man sich nun die technischen Daten eines selbstfahrenden Fahrzeuges wie sie Google heute verwendet an, dann erkennt man wie an den Haaren herbeigezogen die Trolley-Problem-Frage scheint. Dank der Kombination an Lidar, Radar und Kamerasensoren kann ein selbstfahrendes Auto bis zu 300m weit „sehen“. Und das 360 Grad. Es kann also viel umfassender und detaillierter die Umgebung betrachten und schneller darauf reagieren als ein Mensch. Ein Mensch, der vielleicht gerade durch sein Handy, Radioeinstellung, Gespräch mit Passagieren und ähnlichem abgelenkt ist oder gar besoffen durch die Gegend fährt, stellt eine viel größere Gefahr da. Diese Themen werden aber nicht in der Ausführlichkeit diskutiert, wie man den Eindruck beim Trolley-Problem bekommen möchte.
Und genau das macht Deutschland mit Innovation so zu schaffen. Und genau darauf gehe ich auch in meinem neuesten Buch Das Silicon Valley Mindset ein, wie wir uns da selbst blockieren indem wir vor allem die Gefahren, nicht aber die Potenziale diskutieren. Oft stellt sich heraus, dass die Gefahren und Risiken ohnehin irrelevant sind oder gar nicht zutreffen, weil die Idee ohnehin anders umgesetzt oder benutzt wird. Als Kritiker/Warner/Negativler erscheinen wir intelligenter, als die Naivlinge, die die Welt ändern wollen, Ideen haben und sie umsetzen wollen. Und das ist sogar wissenschaftlich untersucht. Harvard Professorin Teresa Amabile hat diese Verhaltensweise in Experimenten belegt. Sie legte Studenten zwei Buchrezensionen vor. Eine war eher positiv formuliert, die andere kritisch. Anschließend sollten die Studenten die Intelligenz der Rezensenten einschätzen. Die Studenten bewerteten die Intelligenz des Verfassers der kritischen Rezension höher. Was die Studenten aber nicht wussten: beide Buchkritiken waren von Amabile selbst verfasst worden. [1]
Natürlich muss man schauen, dass man solche Fälle wie das Trolley-Problem durchdenkt und entsprechende Maßnahmen setzt, dass sie hoffentlich nie eintreten werden. Sie aber zum Hauptargument gegen selbstfahrende Autos zu machen ist gefährlich und verantwortungslos. Eine solche Diskussion zum jetzigen Zeitpunkt ist wenig aufrichtig und einfach unehrlich.
[1] Teresa M. Amabile; Brilliant but cruel: Perceptions of negative evaluators; Journal of Experimental Social Psychology, March 1983
Dieser Beitrag erschien zuerst auf Das Silicon-Valley-Mindset.
2 Kommentare