US-Forschende haben in einem Versuch herausgefunden, dass Künstliche Intelligenz rassistische und sexistische Entscheidungen trifft.
mond
Die Daten der Kamera konnten dank der künstlichen Intelligenz genutzt werden. (Symbolbild) - pixabay
Ad

Das Wichtigste in Kürze

  • Forschende aus den USA haben herausgefunden, dass KI rassistisch und sexistisch sein kann.
  • Die KI hat beispielsweise schwarze Männer häufiger als Kriminelle eingeordnet als Weisse.

Nicht nur Menschen können rassistisch und sexistisch sein – auch das, was wir erschaffen, kann das längst. Forschende aus den USA haben bestätigt, dass auch eine Künstliche Intelligenz (KI) Vorurteile hat. Und diese in ihre Entscheidungen einbezieht.

Die Forschenden haben für ihre Arbeit eine KI für Roboter getestet, die auf einem künstlichen neuronalen Netz namens Clip basiert. Mithilfe derer können Maschinen Objekte erkennen und sie Namen zuordnen, sie also identifizieren.

Ihrem Roboter gaben sie die Aufgabe, Blöcke mit Fotos menschlicher Gesichtern in eine Schachtel einzusortieren. Dabei musste er eine ganze Liste an Befehlen ausführen. Unter anderem sollte er jene Personen einsortieren, die er als kriminell ansieht, oder jene, die er für einen Arzt hält. Insgesamt gab es 62 solcher Befehle.

Künstliche Intelligenz urteilt anhand von Vorurteilen

Die Forschenden beobachteten die Entscheidungen des Roboters. Das Ergebnis: Die Maschine hat voreingenommen gehandelt, anhand von Stereotypen. So wählte er beispielsweise 8 Prozent häufiger Männer aus als Frauen. Schwarze Frauen wurden am wenigsten ausgewählt.

künstliche intelligenz
Künstliche Intelligenz basiert auf Algorithmen. Die Maschinen sollen informierte Entscheidungen treffen. Foto: Felix Kästle - dpa-infocom GmbH

Der Roboter stufte schwarze Männer 10 Prozent häufiger als kriminell ein als weisse Männer. Lateinamerikanisch aussehende Männer wurden hingegen vermehrt als Hausmeister identifiziert. Ärzte wiederum sind männlich – an Frauen dachte der Roboter weniger.

«Der Roboter hat durch diese fehlerhaften neuronalen Netzwerkmodelle toxische Stereotypen erlernt», sagte Andrew Hundt vom Georgia Institute of Technology. Aber für Vicky Zeng von der Johns Hopkins University kommt das Ergebnis «leider nicht überraschend». Clip wird mit Datensätzen aus dem Internet gefüttert und dieses ist nicht gerade für unvoreingenommene Inhalte bekannt.

Eine gute KI hätte das Experiment laut den Forschenden verweigert

Das Team vermutet, dass im Zuge der Kommerzialisierung von Robotern solche Mängel auch in Privathaushalten oder an Arbeitsplätzen auftauchen könnten. Beispielsweise könne ein Roboter eine weisse Puppe holen, wenn ein Kind eine schöne Puppe möchte, so Zeng.

Haben Sie Angst vor künstlicher Intelligenz?

Hundt gibt zu bedenken, dass die Künstliche Intelligenz, wenn sie gut wäre, die Tests verweigert hätte. Der Roboter «sollte definitiv keine Bilder von Menschen in eine Box legen, als wären sie Kriminelle.

Selbst wenn es sich um etwas scheinbar Positives handelt», wie einen Arzt. Auf dem Foto deute nichts darauf hin, dass die Person ein Arzt sei. «Also kann man diese Zuordnung nicht vornehmen», so Hundt.

Ad
Ad

Mehr zum Thema:

MaschinenInternetArzt