Selbstfahrende Autos

Ausgangslage und Problemstellung

Wir sind es uns so gewohnt: Die Lenkerin resp. der Lenker eines Autos ist verantwortlich für eine sichere Fahrweise. Wenn etwas passiert, ist diese Person für ihr Handeln verantwortlich. Wenn beispielsweise ein Unfall droht, kann diese Person allenfalls noch im letzten Moment entscheiden, welchen Schaden sie anrichtet … ob sie vielleicht das Auto in eine Mauer lenkt und dadurch sich selbst gefährdet, ober ob sie in eine Gruppe von Menschen fährt, die gerade die Strasse überquert. Falls in Zukunft Autos ohne das aktive Lenken einer Person unterwegs sind, stellen sich vor allem bei Unfällen viele neue Fragen – nicht nur technische, sondern auch ethische.

Die Technologie selbstfahrender Autos ist seit vielen Jahren in Entwicklung. Sie wird auch als «autonomes» oder «automatisiertes» Fahren bezeichnet. Die Assistenz-Unterstützung der lenkenden Person bis hin zur vollkommenden Automatisierung des Fahrens kann auf unterschiedlichen Stufen erfolgen.

Vollständig autonome Fahrzeuge unterscheiden sich grundlegend davon: Hier werden technische Systeme eingesetzt, die nicht nur assistieren und Teilaufgaben übernehmen. Vielmehr übernimmt es die volle Steuerung des Fahrzeugs in den gegebenen Situationen – und damit auch die Verantwortung dafür. Die Insassen können sich anderen Tätigkeiten widmen (Stufe 4), oder aber das Fahrzeug bewegt sich ganz ohne Fahrerzeugführer:in (Stufe 5). Entsprechend liegt unser Fokus für die ethische Auseinandersetzung auf diesen beiden Stufen.

Problembeschreibung

Sowohl bei traditionell gelenkten als auch bei autonom fahrenden Autos können Situationen eintreten, die einen Unfall mit Personenschäden unausweichlich machen: Beispielsweise können die Bremsen versagen. Oder eine Gruppe unaufmerksamer Menschen betritt die Fahrbahn, so dass das Auto nicht mehr rechtzeitig abgebremst werden kann.

Die Unausweichlichkeit einer Unfallsituation, in der Menschenleben gefährdet werden, wird in vielen Fällen Optionen eröffnen.

  • Soll das Fahrzeug in Fahrtrichtung in eine Menschengruppe von vier Menschen fahren und diese töten
  • oder soll es auf den gegenüberliegenden Gehsteig gelenkt werden, wo lediglich zwei Personen ihr Leben lassen müssen?
  • Soll das Fahrzeug die vier Fussgänger töten oder soll es in eine Mauer gelenkt werden, wodurch die vier Insassen des Autos ihr Leben lassen müssen?

Es ist denkbar, dass ein intelligentes Steuersystem zukünftig auf Daten zurückgreifen kann, welche bestimmte Merkmale von Menschen zugänglich macht. Angenommen, diese Informationen wären durch das Steuerungssystem autonomer Fahrzeuge tatsächlich nutzbar – beispielsweise durch eine App oder einen Chip, welcher diese Informationen in Echtzeit aussenden würde: Es könnten mit Kriterien «gefüttert», welche die «Wertigkeit» der Menschen nach einem definierten System einstufen würde. Je nach Kriteriengewichtung würde das System bei einem Unfall beispielsweise nach den folgenden Prämissen reagieren:

  • Ein Kind soll eher überleben als ein alter Mensch.
  • Eine finanzstarke Managerin, die viel Steuern bezahlt, soll eher überleben als eine Sozialhilfeempfängerin.
  • Ein sportlicher, gesunder Mann sollte eher überleben als einer mit einer chronischen Krankheit oder einer Behinderung.

Falls aus moralischen Gründen potenziell verfügbare Daten nicht genutzt werden sollten, müsste in Kauf genommen werden, dass bei einem Unfall beispielsweise eine junge Familie getötet wird, ein schwerkranker, älterer Schwerverbrecher aber verschont bleibt.

Im Jahr 2017 hat eine Ethik-Kommission im Auftrag des Bundesministeriums für Verkehr und digitale Infrastruktur einen Bericht zu dieser Thematik verfasst. Sie können den gesamten Bericht Automatisiertes und vernetztes Fahren unter diesem Stichwort im NEtz finden.

Dieser legt die ethische Problemsituation, die aufgrund der technischen Entwicklung unaufhaltsam auf uns zu kommt, ausführlich dar. Bei der entscheidenden Frage, ob bei einem Unfall mit zwingender Todesfolge gewisse Kriterien ins System eingespeist werden sollten, gibt der Bericht keine eindeutige Antwort. So widerspricht die Aussage «Eine Aufrechnung von Opfern ist untersagt» (S. 11) der Feststellung, dass es anzustreben sei, so viele Unschuldige wie möglich zu retten: «In derartigen Situationen erscheint es vertretbar zu fordern, es solle die Handlungsvariante gewählt werden, die möglichst wenige Menschenleben kostet» (S. 18).

Wir sehen: So einfach ist es nicht – wir haben es hier mit einem echten Dilemma zu tun.

Nachfolgend finden Sie Materialien, um sich im Rahmen eines Selbstexperiments und einer Reflexion in der Gruppe zu vertiefen.

Internet-Plattform «Moral Machine»

Angesichts dieser herausfordernden ethischen Fragestellung hat das renommierte Massachusetts Institute of Technology (MIT) die Internetplattform «Moral Machine» entwickelt. Auslöser war die Tatsache, dass Tätigkeiten, die bisher von Menschen durchgeführt wurden, mehr und mehr von technischen Systemen übernommen werden. Diese intelligenten Systeme entscheiden in gewissen Situationen über Leben und Tod. Die Plattform «Moral Machine» soll «(…) die Diskussion weiter vertiefen, indem sie eine Plattform bietet, die hilft

  • ein breites Meinungsbild darüber, wie Maschinen moralische Dilemmata lösen, zu ermitteln und
  • ein Forum zu bieten, in dem eine Öffentlichkeit die gesammelten, potentiell moralisch problematischen Szenarien diskutieren kann»

Auf der Internet-Plattform «Moral Machine» besteht die Möglichkeit, verschiedene Entscheidungssituationen rund um das Thema «Selbstfahrende Autos» im Rahmen eines Selbstexperiments durchzuspielen.


Artikel «Der Mensch am Lenkrad stört nur»

In einem Artikel des Tages Anzeigers im Frühling 2022 wird der baldige Abschied von Fahrzeugen vorhergesagt, welche von Menschen gelenkt werden. Denn: Ein übergeordnetes System würde den Verkehr flüssiger und sicherer werden lassen. Dass damit aber, beim Versagen des Systems, massive ethische Probleme entstehen können, wird im Artikel erwähnt. Jede helle Seite hat auch ihre Schattenseite.

Quelle