Fahrerlos ins Dilemma

Mit der Entwicklung selbstfahrender Autos stellen sich auch ethische Fragen: Wie soll man Fahrzeuge für Notfälle programmieren? Dürfen sie ihre Insassen „opfern“, um eine größere Zahl von Unfalltoten zu verhindern? Psychologische Tests zeigen: Passagiere verwickeln sich in Widersprüche.

Selbstfahrende Autos sind im Kommen und werden vielerorts schon im Straßenverkehr getestet, ab kommendem Herbst auch in Österreich auf bestimmten Strecken. Seit Technologiegiganten wie Google oder Apple daran tüfteln, haben auch die angestammten Automobilkonzerne in Europa, den USA und Japan ihre Entwicklungstätigkeit deutlich beschleunigt.

Doch wenn Roboter, wie autonome Fahrzeuge es auch sind, eigenständig wie Menschen handeln und für sie entscheiden - wie kann man dann sicherstellen, dass diese Entscheidungen ethischen Prinzipien entsprechen? Diskussionen darüber werden bislang akademisch geführt, zwischen Philosophen, Psychologen, Technikern und Rechtsexperten. Aber noch kaum jemand hat die Einstellung jener hinterfragt, die letztlich betroffen sind: potenzielle Anwender, die Käufer und künftigen Insassen.

zwei Autos mit Licht
dpa/Frank Rumpenhorst

Knapp 2.000 Personen, auschließlich US-Bürger, unterzogen Wissenschaftler in einer Online-Studie einer Serie von Tests, um ihr Gewissen zu erforschen und ihre Haltung zu ethischen Entscheidungsfragen im Straßenverkehr.

Die Studie:

The social dilemma of autonomous vehicles (Science, 23.06.2016)

Den Teilnehmern wurde verdeutlicht, dass die neue Technologie den Straßenverkehr insgesamt deutlich sicherer machen würde. Verkehrsexperten rechnen mit bis zu 90 Prozent weniger Verkehrsunfällen, wenn erst einmal autonome Fahrzeuge unser Straßenbild dominieren. Denn diese Autos wären frei von all den menschlichen Unzulänglichkeiten, die häufig zu schwerwiegenden Unfällen führen, von kleinen Unaufmerksamkeiten und Ablenkungen bis hin zu falscher Risikoabschätzung und nicht zuletzt: die so oft überhöhte Geschwindigkeit.

Die verbleibenden Unfallszenarien, wie unvorhersehbare plötzliche Ereignisse, sind allerdings eine Herausforderung, auch eine moralische: Wie reagieren, wenn ein Kind auf die Straße läuft, beim Ausweichen aber ein anderer Passant überfahren würde? Und was ist, wenn das einzig mögliche Ausweichmanöver für das Auto und seine Insassen an einer Betonwand endet? Wie würde ein Mensch handeln, wie soll die Software für ein Roboterauto „ethisch“ programmiert sein?

Perfide Fragestellungen

Das Grundszenario, ein Auto muss einer Gruppe von zehn Menschen ausweichen und tötet dabei einen einzelnen Passanten, wurde erwartungsgemäß von 76 Prozent der Befragten als ethisch vertretbar eingestuft. Auch die Variante, das Auto kollidiert beim Ausweichen mit einem festen Hindernis, tötet dabei den Insassen, rettet aber damit gleichzeitig 10 Menschen, wurde ähnlich hoch als moralischer bewertet, als das Auto würde vorrangig die Insassen schützen, ohne Rücksicht auf Verluste.

Auf die spätere Kontrollfrage, wie selbstfahrende Autos programmiert werden sollten, spricht sich eine überwältigende Mehrheit von über 85 Prozent für Algorithmen aus, die die Gesamtopferzahl möglichst gering halten, also für ein „utilitaristisches“ Fahrzeug.

Differnzierter wurde es, wenn sich die Befragten vorstellen sollten, selbst im Roboterauto zu sitzen. Dann war immer noch - zumindest in der Theorie - eine knappe Mehrheit der Ansicht, dass das Opfern des Insassen zugunsten eines höheren Gutes moralisch hochstehend sei. Die Zustimmung stieg mit der Anzahl der verhinderten Opfer.

In einem weiteren Test wurde eine andere Gruppe direkt gefragt: Wie wahrscheinlich würden Sie ein selbstfahrendes Auto kaufen, das darauf programmiert ist, die Zahl von Unfallopfern möglichst gering zu halten, was bedeuten kann, dass sie und ein mitfahrendes Familienmitglied getötet werden? Und wie wahrscheinlich würden Sie ein Fahrzeug bevorzugen, das seine Passagiere schützt, auch wenn dabei 10 oder mehr Fußgänger getötet werden?

„Obwohl die Teilnehmer dieses Tests auch durchwegs utilitaristische Autos als moralisch am höchsten bewerteten, bevorzugen sie für sich selbst das Modell, das seine Insassen bedingungslos schützt - ein soziales Dilemma“, fasst der Studienleiter Jean-Francois Bonnefon, Kognitionssychologe an der Toulouse School of Economics, die Ergebnisse zusammen.

Frage der Perspektive

Die Unfall-Szenarien für die Tests kämen in der Praxis so kaum vor, schreiben die Studienautoren, aber wenn einmal Millionen autonome Autos auf den Straßen unterwegs seien, dann passieren auch irgendwann Ausnahmesituationen, wenn auch höchst selten.

Und daher müsse man sich über verschiedenste Szenarien Gedanken machen, wie die Software damit umgehen soll. „Ist es etwa akzeptabel, dass ein Auto, um die Kollision mit einem Motorrad zu vermeiden, in eine Mauer kracht, weil man annehmen kann, die Autoinsassen haben dabei mehr Überlebenschancen, als der Motorradfahrer?“ nennt Bonnefon ein Beispiel.

Aus dem moralischen Dilemma sehen die Studienautoren direkt ein Dilemma für die Autoindustrie erwachsen: Denn werden die Autos nach allgemein verordneten Sicherheitsvorschriften programmiert, dann werden wohl weniger Personen diese Autos kaufen. Ein möglicher Ausweg könnte sein, den Autos eine „dosierbare“ Moral zu verpassen - letztlich entscheidet dann der Käufer oder Fahrer des Autos, welche Gewichtung er für sein Fahzeug einstellt.

In Deutschland, wo der Bundesverkehrsminister Alexander Dobrindt die Entwicklung und Zulassung autonomer PKW vorantreiben will, ist erst vor wenigen Wochen der Vorschlag aufgetaucht, eine Ethikkommission solle Leitlinien für moralische Algorithmen ausarbeiten und über die Zulassung der Programme entscheiden.

Letztlich schlagen die Studienautoren auch einen paradoxen Weg aus dem Dilemma vor: Man könnte die Idee vom utilitaristischen Auto zunächst ganz aufgeben. Denn der eigentliche Benefit der selbstfahrenden Autos sollte bekanntermaßen sein - abgesehen vom Komfort für die Fahrer - die Unfallzahlen drastisch zu senken. Und dieser Vorteil könnte verloren gehen, wenn die Fahzeuge vor lauter Moraldiskussion keine Abnehmer fänden.

Thomas Azade, science.ORF.at

Links: