Gestern Abend diskutierten wir über ein altes, philosophisches Dilemma, das immer mehr an Aktualität gewinnt: das Trolley-Problem. Zur Einführung trug unser Redner folgenden Impulsvortrag vor:
Philosophie ist unnütz, brotlos und irgendwie unverständlich. Sie sitzt in ihrem Elfenbeinturm und erklärt sich nur noch selbst die Welt. Bei den anderen Menschen kommt davon wenig an. Das sind alles Dinge, die man immer wieder über die Philosophie zu hören bekommt. Zugegeben: Viele Philosophen bedienen sich häufig einer nur schwer verständlichen Sprache und beschäftigen sich mit Problemen, die irgendwie keine sind. In meinem Alltag spielt es beispielsweise keine Rolle, ob der Empirismus nun der einzig richtige Weg zur Wahrheitsfindung ist oder ob doch die Rationalisten Recht haben. Es ist einfach wenig hilfreich zu verstehen, was Kant mit seinem synthetischen Urteil a priori meinte, wenn ich damit beschäftigt bin ein neues Auto zu kaufen. Doch im Moment scheint es so, als ob sich mir bei meinem Autokauf in nicht allzu ferner Zukunft ein wenig Philosophie über den Weg läuft und sich mir sogar aufdrängt.
Mit dem Fortschreiten der Technologie und den immer besser funktionierenden autonom handelnden Systemen nehmen auch philosophische Fragestellungen in diesem Bereich zu. Unterschiedlichen Studien zufolge, könnte autonomes Fahren bereits ab 2030 Realität auf deutschen Straßen sein. Das bringt nicht nur rechtliche Schwierigkeiten (Stichwort: Haftbarkeit) mit sich, sondern auch moralische.
Mit der bevorstehenden Zulassung selbstfahrender Autos auf unseren Straßen müssen wir uns einem Problem stellen, das bereits 1967 von Philippa Foot formuliert wurde und in der angloamerikanischen Ethikdebatte seitdem als Trolley-Problem bekannt ist:
Stellen Sie sich vor, eine Straßenbahn rast auf fünf Menschen zu. Sie stehen daneben, hätten jedoch die Möglichkeit eine Weiche umzustellen und die Bahn umzulenken. Nun würde die Bahn umgelenkt werden. Doch wäre es kein Problem, wenn es nicht einen Haken gebe würde. Denn die Bahn würde zwar umgelenkt werden, aber auf dem anderen Gleis steht eine weitere Person. Wenn Sie die Bahn nicht umlenken, sterben fünf Menschen – tun Sie es, stirbt ein Mensch.
Würden Sie das tun, auch wenn Sie damit für diesen einen Tod verantwortlich wären?
Die meisten Menschen antworten mit Ja.
Nun gibt es eine weitere Variante: Sie stehen wieder daneben, sehen die Bahn auf die fünf Personen zurasen. Nun gibt es jedoch keine Weiche, die Sie umstellen können. Stattdessen steht neben ihnen ein stark übergewichtiger Mann, den Sie auf die Gleise stoßen könnte. Sein Gewicht würde tatsächlich ausreichen um die Bahn zu stoppen und fünf Menschen zu retten.
Würden Sie das auch tun? Die meisten Menschen lehnen dies nun interessanterweise ab, obwohl das Ergebnis dasselbe wäre. Das beweist, dass wir nicht vollkommen "konsequenzialistisch" denken - also unser moralisches Urteil über eine Handlung nicht allein an ihrem Resultat, ihren Konsequenzen ausrichten.
Die mehr oder wenige selbe Fragestellung lässt sich in verschiedenen Varianten nun auf das autonome Fahren übertragen. Um diese Fragen eben nicht nur im Elfenbeinturm zu entscheiden, läuft bereits seit dem Jahr 2016 die Online-Umfrage „Moral Machine“ am renommierten Massachusetts Institute of Technology (MIT), an der bereits mehr als 40.000 Menschen teilgenommen haben. Ihr Ziel ist es, unsere moralischen Intuitionen anhand von dramatischen Entscheidungsszenarien zu erforschen. Ein Beispiel: Bei einem selbstfahrenden Auto versagen die Bremsen und es gibt nur zwei Möglichkeiten: Soll es gegen eine Mauer fahren, wodurch die Insassen sterben, oder soll es drei Menschen zu Tode fahren, die gerade über die Straße gehen?
Nun werden die Fragen in dem Fragenkatalog immer komplexer und man muss sich immer mehr zwischen moralischer Pest und Cholera entscheiden.
Macht es zum Beispiel einen Unterschied, wenn die Menschen regelwidrig bei Rot über die Ampel gehen? Oder wenn einer oder mehrere der Menschen ein Arzt, ein Krimineller, eine Führungskraft, ein Obdachloser, eine Schwangere, ein Kind oder gar ein Baby ist.
Die Auswertungen der bisherigen Ergebnisse zeigt, dass die meisten Menschen eher den größtmöglichen Nutzen für die größtmögliche Zahl bevorzugen. Das heißt, dass im Zweifel lieber weniger Menschen sterben sollen als viele. Dies bezeichnet man in der Philosophie als Utilitarismus.
Damit liegen sie aber glücklicherweise ganz im Trend der Vorstellung, wie denn Maschinen zu handeln haben. Ein autonomes Auto würde also – nach heutigem Stand – eher freiwillig gegen eine Mauer fahren und seine Insassen als mehrere Menschen zu überfahren. Dem Auto wäre es egal, ob sich Kinder oder ältere Menschen in ihm befinden, solange es verhindert in eine Menschenmenge zu rasen.
Befragt man die Menschen jedoch, ob sie ein Auto kaufen würden, das ein solches utilitaristisches Verhalten an den Tag lege, würden die meisten dies jedoch verneinen. Denn wonach die Studie nicht fragt, ist die Frage nach meiner Entscheidung, wenn in dem Auto MEIN Kind oder MEINE Frau oder gar ICH selbst sitzen würde. Denn, wenn mein Kind die Chance hätte zu überleben, würde ich wahrscheinlich im Zweifel das Auto lieber in einer anonymen Menschenmenge zum Stehen bringen. Diese Fragen zwingen uns leider, uns mit den Abgründen unseres eigenen Handelns auseinanderzusetzen.
Würde ich mich selbst in ein Auto setzen, das meinen eigenen Tod in Kauf nimmt, wenn es andere damit rettet? Würde ich selbst so handeln, wenn ich am Steuer sitzen würde und die volle Kontrolle hätte? Was sagt mein großer SUV, mit dem ich im Zweifel mehr Menschen überrolle, über mein Sicherheitsbedürfnis aus?
Autonomes Fahren wird die Zahl der Unfälle wahrscheinlich drastisch senken. Es ließen sich die mehr als 3.000 Verkehrstoten pro Jahr um weit über die Hälfte reduzieren, denn 88% dieser Unfälle lassen sich auf menschliches Versagen zurückführen. Konsequent zu Ende gedacht, würde autonomes Fahren sehr wahrscheinlich die Umwelt entlasten, da weniger Fahrzeuge benötigt würden. Und dennoch bleibt dieser moralische Nachgeschmack. Das Problem ist nur, dass wir nicht einfach abwarten können, was passiert und die Maschinen diese Fragen für uns lösen lassen. Denn Maschinen handeln so, wie es ihnen beigebracht wurde. Wir sind also gezwungen uns diesen moralischen Finessen zu stellen und die Karten auf den Tisch zu legen. Wir können uns nicht mehr einfach verstecken, sondern müssen Stellung beziehen.
Doch diese Fragen gelten nicht nur für selbstfahrende Autos. Sie werden in nicht mehr allzu ferner Zukunft für immer mehr Maschinen gelten, die unseren Alltag leichter gestalten sollen. Daher sollten wir uns bereits jetzt Gedanken darüber machen, welche moralische Entscheidungen wir diesen Maschinen mitgeben und welche wir heute bereits für uns treffen.
Meine Fragen lauten daher für heute Abend:
- Wie entscheiden Sie sich bereits heute in gefährlichen Situationen, wenn Sie selbst betroffen sind? Retten Sie sich oder andere?
- Wenn Sie für andere entscheiden müssten, würden Sie dem utilitaristischen Prinzip des größtmöglichen Glücks für die größtmögliche Zahl folgen?
- Gilt Ihre Antwort auch für selbstfahrende Autos?
- Welche Maschinen sollten Ihrer Meinung nach über eine moralische Entscheidungsgewalt verfügen?