Moral-Dilemma um autonome Autos

Wie soll das autonome Auto im Falle eines Unfalls entscheiden? (Grafik: : Iyad Rahw)

Autonome Autos sollen unsere Straßen künftig unfallärmer machen. Aber auch ihnen kann passieren, dass Fußgänger vor die Räder laufen. Damit jedoch beginnt ein moralisches Dilemma: Wie soll die Programmierung reagieren, wenn die Fußgänger nur gerettet werden können, indem das Auto ausweicht und dadurch den Fahrer tötet? Theoretisch wäre die Antwort klar: Die Entscheidung ist die moralisch richtige, die die wenigsten Opfer fordert. In der Praxis jedoch könnte es Probleme geben, wie eine Studie nun demonstriert.

Autos, die selbstständig fahren und auf den Verkehr achten, während wir entspannt ein Video schauen oder eine E-Mail schreiben – noch ist das Zukunftsmusik. Aber die technischen Systeme, die ein solches autonomes Fahren ermöglichen, gibt es schon. So testet Google schon seit einigen Jahren selbstfahrende Autos und auch Autohersteller experimentieren bereits mit autonomen PKWs und LKWs. Die computergesteuerten Fahrzeuge gelten als besonders effizient und sicher. Schätzungen von Forschern zufolge könnten sich durch sie künftig bis zu 90 Prozent aller Verkehrsunfälle vermeiden lassen. "Aber nicht alle Unfälle können vermieden werden und einige davon werden dem autonomen Fahrzeug schwierige ethische Entscheidungen abverlangen", erklären Jean- François Bonnefin von der Universität Toulouse und seine Kollegen. Das klassische Szenario dafür: Unmittelbar vor dem Auto läuft eine Fußgängergruppe auf die Straße. Sie zu töten lässt sich nur dann vermeiden, wenn das autonome Fahrzeug ausweicht. Dann jedoch würde das Auto gegen einen Baum oder eine Wand prallen und seinen Passagier töten.

Wohl der Mehrheit oder Wohl des Fahrers?

Bei einem autonomen Fahrzeug muss die Software von vornherein darauf programmiert werden, sich für eine der Möglichkeiten zu entscheiden. Aber welche? Soll es ausweichen und seinen Fahrer opfern? Unserem Moralkodex nach steht immerhin das Wohl der Vielen über dem eines Einzelnen. Daher müsste theoretisch immer die Wahl getroffen werden, die die wenigsten Todesopfer fordert.  Aber was wäre, wenn nur ein Fußgänger vor dem Auto auf die Straße läuft? Ist dann sein Leben mehr oder weniger wert als das des Autoinsassen?  "Auch wenn ein solches Szenario unwahrscheinlich erscheint, wird es zwangsläufig vorkommen, wenn erst einmal Millionen von autonomen Fahrzeugen auf den Straßen unterwegs sind", betonen die Forscher. Sie haben daher in mehreren Online-Experimenten untersucht, welche Lösung knapp 2.000 Testpersonen bei verschiedenen solcher Unfall-Szenarien für richtig halten. Der Clou dabei: Die Wissenschaftler fragten sowohl danach, welche Programmierung die Versuchspersonen allgemein für autonome Autos richtig fänden, als auch, welche Programmierung sie sich für ihr eigenes autonomes Fahrzeug wünschen.

Ging es um die allgemeine Regelung, fiel das Ergebnis sehr eindeutig aus: "Eine deutliche Mehrheit der Teilnehmer zeigte eine moralische Präferenz für ein Vehikel, das auf die Minimierung der Opfer programmiert ist", berichten Bonnefin und seine Kollegen. Im Szenario mit zehn Fußgängern und einem Autofahrer entschieden sich 76 Prozent dafür, den Fahrer zugunsten der Fußgänger zu opfern. Je höher die Zahl der geretteten Fußgänger, desto mehr waren für diese rationale moralische Entscheidung. Sie vertraten sie selbst dann noch, wenn sie sich vorstellen sollten, dass sie selbst im autonomen Fahrzeug sitzen und im Zweifelsfall geopfert werden würden. Sogar wenn die Teilnehmer im Szenario zusammen mit einem weiteren Familienmitglied im Auto saßen und zum Wohl der Mehrheit sterben würden, war eine knappe Mehrheit dafür, wie die Forscher berichten. Andres sah dies erwartungsgemäß nur dann aus, wenn ein Fahrer einem Fußgänger gegenüberstand: Hier fanden es nur 23 Prozent der Teilnehmer richtig, den Fahrer zu opfern.

Moral endet beim Kauf

Entlarvend waren jedoch die Antworten darauf, ob sich die Versuchspersonen ein Auto mit dieser moralischen Programmierung kaufen würden – oder doch lieber eines, das auf maximalen Schutz der Insassen programmiert war. Das Ergebnis: Selbst im Szenario mit zehn Fußgängern gaben deutlich mehr Teilnehmer an, lieber ein "Selbstschutz-Fahrzeug" erwerben zu wollen. Würde es solche "egoistischen" Autos nicht geben, beispielsweise weil die Regierungen entsprechende Vorschriften erlassen, dann wären nur noch ein Drittel der Teilnehmer bereit, ein solches Auto zu kaufen.  "Das zeigt das moralische Dilemma des autonomen Fahrens", erklären die Forscher: "Obwohl die Menschen sich darin einig sind, dass es für alle besser wäre, wenn die Fahrzeuge auf eine Minimierung der Opfer programmiert sind, ziehen sie es selbst vor, in Autos zu fahren, die sie unter allen Umständen schützen." 

Für die Autohersteller, Programmierung und nicht zuletzt Regierungen ist dies eine Zwickmühle, wie Bonnefin und seine Kollegen betonen: Bauen sie autonome Fahrzeuge, die moralisch und zum Wohl der Mehrheit reagieren, werden diese unter Umständen nicht gekauft. Das könnte die Einführung solcher Fahrzeuge verzögern und damit zu vielen unnötigen Unfällen führen. Wird dies jedoch nicht einheitlich geregelt, könnten die Straßen zu einer Zone egoistisch agierender Roboterfahrzeuge werden. "Herauszufinden, wie man am besten autonome und ethische Maschinen konstruiert, ist eine der dornigsten Herausforderungen der künstlichen Intelligenz", konstatieren Bonnefin und seine Kollegen. "Im Moment scheint es keinen einfachen Weg zu Algorithmen zu geben, die moralische Werte und das persönliche Eigeninteresse miteinander versöhnen." Nach Ansicht der Forscher ist die Lösung dieses Dilemmas daher eine der dringendsten Fragen bei der Entwicklung autonomer Fahrzeuge.

Autonome Fahrzeuge in der moralischen Zwickmühle (Video: Science)

Reload-Capcha neu laden Text der identifiziert werden soll

Bitte geben Sie zusätzlich noch den Sicherheitscode ein!

Rubriken

 


Harte Nuss
Rätsel: Berühmte Entdecker gesucht

 

Der Buchtipp

Der italienische Ökologe und Insektenforscher Gianumberto Accinelli erklärt Dominoeffekte in der Natur kindgerecht und mit einer Prise Humor. Sein Sachbuch ist Wissensbuch des Jahres 2017 in der Kategorie Perspektive.

Zu allen Buchtipps


Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der Konradin Mediengruppe