Künstliche Intelligenz dürfte die Welt in Zukunft stark prägen. Dabei stellt sich auch die Frage der Ethik.
Bus
Ein selbstfahrender Bus im Kanton Genf. - Keystone
Ad

Das Wichtigste in Kürze

  • Laut einer Expertin hätten Roboter schon immer ethische Werte mit enthalten.
  • Es seien immer die gleichen Probleme – egal ob beim Staubsauger oder beim Militär-Roboter.
  • Für die EU hat eine Expertengruppe schon Leitlinien hinsichtlich Ethik bei KI entwickelt.

Siri oder Alexa, Rasenmäher-Roboter und selbstfahrende Autos: Künstliche Intelligenz (KI) kennen wir schon heute – und sie dürfte in Zukunft noch wichtiger werden.

Bei diesem Thema stellt sich immer wieder die Frage nach ethischen Richtlinien: «Rettet das selbstfahrende Auto das Kind auf der Strasse oder die Grossmutter auf dem Trottoir?» ist nur eines von vielen Problemen.

Für Janina Loh, Technikphilsophin und Roboterethikerin an der Universität Wien, ist klar: Roboter hätten schon immer ethische Werte mit enthalten, auch ein automatisierter Staubsauger.

Probleme mit Ethik schon bei Staubsauger

Und die Probleme mit der Ethik würden auch schon beim Staubsauger-Roboter beginnen – nicht erst beim Militär-Roboter.

Gegenüber dem Radio «Oe1» sagt sie: «Es sind letztlich immer dieselben Probleme oder Herausforderungen, die uns da begegnen beim Bau von Robotern.» Und die wurden «natürlich in manchen Fällen zu Fragen von Leben und Tod führen».

Geräte mit künstlicher Intelligenz sollen ihre Entscheidungen nicht abseits von Moral, ethischen Grundhaltungen und gesetzlichen Regeln treffen. Für die EU hat eine Expertengruppe dafür schon «Ethische Leitlinien für vertrauenswürdige KI» entwickelt.

Ad
Ad

Mehr zum Thema:

Künstliche IntelligenzTodEU