Studie

Unfälle mit autonomen Autos – Wer soll überfahren werden?

Ein selbstfahrendes Auto bei einer Testfahrt.

Ein selbstfahrendes Auto bei einer Testfahrt.

Foto: Sebastian Gollnow / dpa

Forscher haben in einer Studie untersucht, wie autonome Autos in Konfliktsituationen entscheiden sollen: Stirbt das Kind oder der Mann?

Cambridge.  Eine rote Ampel, die Bremsen des Autos versagen. Es könnten drei ältere Menschen überfahren werden oder der Wagen wird gegen eine Betonwand gelenkt, wobei dann ein Junge stirbt. Was soll das Auto tun?

In solch ein Entscheidungsdilemma können autonome Fahrzeuge kommen. Für die Entwickler stellt sich die Frage: Wie sollen die Fahrzeuge vor einem Unfall lenken, wenn es auf jeden Fall zu einem Schaden kommt? Antworten haben Forscher um Iyad Rahwan vom Massachusetts Institute of Technology in Cambridge im Journal „Nature“ veröffentlicht.

Die Internet-Umfrage mit dem Titel „Moral Machine“ sorgte weltweit für Schlagzeilen. Die große Beteiligung machte es den Forschern möglich, fast 40 Millionen Entscheidungen in Dilemma-Situationen zu analysieren.

Studienteilnehmer schützen eher Jüngere

Insgesamt mussten die Teilnehmer neun Entscheidungen in unterschiedlichen Situationen treffen, darunter: Fahrzeuginsassen oder Fußgänger, Männer oder Frauen, Jüngere oder Ältere, Sportliche oder Unsportliche, Menschen mit höherem oder niedrigerem sozialen Status. Allerdings war die Befragung nicht repräsentativ; so waren etwa junge Männer überproportional vertreten.

Laut der Studie gibt es mehrere Tendenzen:

• Wenn sich die Befragten zwischen dem Überleben von Menschen und Tieren entscheiden müssen, wählen die meisten die Menschen

• Die Mehrzahl entschied sich dazu, eher möglichst viele Leben zu retten

• Die meisten Testpersonen retteten im Schnitt mehr Kinder als ältere Menschen

• Menschen, die über eine rote Ampel liefen, wurden seltener gerettet als Personen, die bei einer grünen Ampel die Straße überquerten

Bei der Auswertung nach Ländern ergaben sich drei große Gruppen: westliches, östliches und südliches Cluster. Die Entscheidungen in vielen asiatischen Ländern (östliches Cluster) weichen von den anderen Gruppen dadurch ab, dass sie nicht die jüngeren Menschen verschonen würden.

Unterschiede zwischen den Ländern

Stattdessen gilt in diesen Ländern der Respekt vor den älteren Mitgliedern der Gemeinschaft. Das südliche Cluster (Mittel- und Südamerika) unterscheidet sich vom westlichen Cluster (Europa, Nordamerika) unter anderem dadurch, dass die Mittel- und Südamerikaner sehr viel öfter eingreifen würden als auf das Lenken zu verzichten.

Rahwan und Kollegen begründen ihre Befragung mit der Bedeutung für die Akzeptanz autonomer Fahrzeuge in der Bevölkerung: „Selbst wenn sich die Ethiker einig wären, wie autonome Fahrzeuge moralische Dilemmata lösen sollten, wäre ihre Arbeit nutzlos, wenn die Bürger ihrer Lösung nicht zustimmen würden.“

Die Ergebnisse der „Moral Machine“ weichen teilweise von den Regeln ab, die die deutsche Ethik-Kommission in ihrem Bericht „Autonomes und vernetztes Fahren“ im Juni 2017 niedergelegt hat.

So heißt es in Regel 9: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.“ In derselben Regel steht drei Sätze weiter: „Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.“ Den Ergebnissen der Studie zufolge hat ein Großteil der Befragten weltweit andere moralische Vorstellungen.

Warnung vor ethischer Schlussfolgerung

Grundsätzlich finde sie das Ziel der Autoren richtig, eine Debatte über die „ethische Programmierung“ von selbstfahrenden Autos anzustoßen, bevor diese auf den Straßen fahren, kommentiert Silja Vöneky von der Universität Freiburg die Studie.

„Wir sollten aber nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht.“ Dilemmasituationen habe es schon vorher gegeben und mit den Menschenrechten existierten bereits rechtlich bindende ethische Prinzipien.

Armin Grunwald vom Karlsruher Institut für Technologie warnt sogar vor den Schlussfolgerungen der Studie: „Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigkeit von Normen gelernt werden. Ansonsten könnte nach jedem schweren Verbrechen eine Umfrage gemacht werden, die mit ziemlicher Sicherheit für die Einführung der Todesstrafe ausgehen würde.“ Grunwald gehörte der Ethik-Kommission an, die den Bericht „Autonomes und vernetztes Fahren“ verfasst hat. (dpa/jha)