Autonomes Fahren: Ein Chip entscheidet über Leben und Tod
Autonome Fahrzeuge versprechen mehr Sicherheit und Komfort, doch die Technik stellt uns vor eine alte Frage in neuem Gewand: Darf ein Algorithmus ...

.… über Leben und Tod entscheiden? Die Einführung autonomer Fahrzeuge verspricht eine Revolution der Mobilität – mit verbesserter Sicherheit, Effizienz und Komfort. Doch die Übertragung der Fahraufgabe auf die Maschine wirft fundamentale Fragen auf, insbesondere das Dilemma, wie ein Roboterauto in einer unausweichlichen Unfallsituation reagieren soll.
Die Kernfrage, ob ein Chip über Leben und Tod entscheiden darf, lässt sich aus Schweizer Sicht mit einem klaren «Nein» beantworten. Diese Debatte wird oft durch das populäre «Trolley-Problem» angeregt, das die Wahl zwischen zwei Übeln ins Zentrum rückt.

Die Automobilindustrie und führende Ethik-Kommissionen erachten dieses Dilemma jedoch als irreführend, da es von den eigentlichen technischen Zielen ablenkt. Der Fokus der Entwicklung liegt stattdessen primär auf der Prävention von Unfällen und der Schaffung einer defensiven Fahrstrategie.
Wertung von Menschenleben: Ein ethisches Tabu
Die deutsche Ethik-Kommission hat einen wegbereitenden Grundsatz formuliert, der international Beachtung findet: Eine Wertung von Menschenleben nach Alter, Geschlecht oder anderen persönlichen Merkmalen ist strikt untersagt.
Die Aufgabe eines Algorithmus ist es daher nicht, eine moralische Abwägung vorzunehmen. Stattdessen soll eine technisch optimierte Reaktion ausgeführt werden, die den Schaden für alle Beteiligten minimiert. Dies steht zumindest teilweise im Widerspruch zur öffentlichen Meinung und Studien wie dem «Moral Machine»-Experiment, bei dem die Rettung der grösstmöglichen Anzahl an Leben bevorzugt wird.

Diese Diskrepanz zwischen ethischen Leitlinien und intuitiven Erwartungen stellt eine grosse Herausforderung für die gesellschaftliche Akzeptanz dar.
Die juristische Falle des Level-3-Fahrens
Die Schweiz hat mit der Gesetzesrevision vom 1. März 2025 einen wichtigen Schritt unternommen, indem sie das automatisierte Fahren der Stufe 3 («Autobahnpilot») legalisiert hat. Obwohl der Fahrer die Hände vom Lenkrad nehmen darf, bleibt er weiterhin vollständig für die Fahrzeugkontrolle verantwortlich.
Dies schafft einen juristischen Widerspruch und wälzt das Risiko von der Technologie zurück auf den Menschen. Denn: Es ist physisch und kognitiv unmöglich, gleichzeitig aufmerksam und unaufmerksam zu sein, was den Fahrzeugführer in eine «strafrechtliche Falle» manövriert.
Diese unklare Regelung konterkariert das übergeordnete Ziel, die Verkehrssicherheit durch Automatisierung zu erhöhen.
Haftung und die «Black Box» der KI
Im Schweizer Recht bleibt die traditionelle Halterhaftung die Grundlage, doch die Produkthaftung des Herstellers gewinnt mit zunehmender Automatisierung an Relevanz. Eine besondere juristische Herausforderung stellt die Haftung für selbstlernende Algorithmen dar.

Das Schweizer Recht, das auf einer veralteten EU-Richtlinie aus dem Jahr 1985 basiert, ist unzureichend, um mit der «Black Box»-Natur von KI-Systemen umzugehen. Dies schafft eine «Verantwortungslücke», da die Entscheidungslogik nicht immer transparent ist.
Aus juristischer Sicht verschiebt sich die Verantwortung vom Algorithmus auf seine Schöpfer, doch die Beweisführung bei einem sich ständig weiterentwickelnden System ist schwierig.
Technisch rationale statt moralische Entscheidung
Die Antwort auf die Frage, ob ein Chip über Leben und Tod entscheiden darf, bleibt ein klares «Nein». Ein Chip wird keine moralische Abwägung vornehmen dürfen.
In einem unausweichlichen Unfallszenario wird er lediglich eine vorprogrammierte Reaktion zur Schadensminimierung ausführen, die auf physikalischen Kriterien basiert, wie der Reduktion der kinetischen Energie.
Die eigentlichen Herausforderungen für die Schweiz bestehen darin, die identifizierten Rechtslücken zu schliessen, die Haftungsfragen für KI-Systeme zu klären und eine gesellschaftliche Akzeptanz durch transparente Regulierung zu fördern.