Case
Vorbemerkung
Bei autonom fahrenden Autos werden inskünftig keine Menschen mehr am Lenkrad sitzen (s. dazu Kapitel 09.11 Haftung in der Robotik). Damit werden Autos im Verkehr selbständig Entscheide fällen und diese selbständig ausführen. Damit ist es sogar sehr wahrscheinlich, dass ein autonom fahrendes Auto in folgender Situation wird entscheiden müssen, was es tut. Dafür werden Softwareentwickler vorab Entscheide in ethischen Dilemma treffen müssen.
Case
Ein autonom fahrendes Auto (s. vorne) fährt auf einen Fussgängerstreifen zu. In diesem Moment rennen unverhofft drei Kinder auf den Fussgängerstreifen. Das System stellt fest, dass es dem Auto unmöglich ist, so zu bremsen, dass es vor den Kindern zum Stillstand kommt. Auf der Gegenfahrbahn kommt ein grosser Lastwagen entgegen. Würde das Auto auf diese Fahrbahn ausweichen, würde es bei der Kollision komplett zerquetscht und der eine Passagier im Auto wäre sofort tot. Die andere Möglichkeit, die das autonom fahrende Auto hat, ist auf das Trottoir auszuweichen. Dort läuft jedoch eine alte Frau. Diese würde das Auto ebenfalls ungebremst überfahren und jene wäre mit grosser Wahrscheinlichkeit ebenfalls sofort tot.
Aufgabe
Die Softwareentwickler für das autonom fahrende Auto sehen sich in einem ethischen Dilemma. Sie müssen sich dafür entscheiden, wie sie das Auto in Bezug auf die Reaktion in der vorgenannten Situation programmieren sollen: Ausweichen auf Gegenfahrbahn, Crash mit Kindern oder Crash mit alter Frau.
Erörtern und diskutieren Sie die genannten Varianten und deren ethische Vertretbarkeit. Ziehen Sie die bekannten Theorien der Ethik sowie insb. die bekannten Trolley-Fälle bei.