Studie

KI hat Vorurteile gegenüber Texten aus China

Keystone-SDA
Keystone-SDA

Zürich,

Die Künstliche Intelligenz bewertet Texte chinesischer Autoren schlechter, zeigt eine Schweizer Studie.

China text
Wird ein Text einer Person aus China zugeschrieben, sinken die Zustimmungswerte aller vier Modelle teils drastisch. (Symbolbild) - pixabay

Künstliche Intelligenz ist gegenüber Texten chinesischer Autoren stark voreingenommen. Sobald KI-Sprachmodelle erfahren, dass der Autor eines Textes aus China stammt, bewerten sie laut einer neuen Schweizer Studie einen sonst identischen Text deutlich schlechter.

Solche versteckten Verzerrungen könnten zu ernsthaften Problemen führen, wenn KI für die Moderation von Inhalten, die Einstellung von Personal, akademische Reviews oder den Journalismus eingesetzt werde.

Die befürchten die Studienautoren der Universität Zürich (UZH) laut einer Mitteilung der Universität vom Montag. Für die Studie, die in der Fachzeitschrift «Science Advances» veröffentlicht wurde, untersuchte das Zürcher Forschungsteam vier weit verbreitete KI-Modelle: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 und Mistral.

Die Forschenden liessen die Modelle 50 Aussagen zu kontroversen Themen wie Impfpflicht, Geopolitik und Klimapolitik bewerten. Insgesamt kamen so 192’000 Bewertungen zustande. Teils ohne Quellenangabe, teils mit einer fiktiven menschlichen oder KI-Autorenschaft.

Drastischer Zustimmungsverlust bei chinesischen Autoren

Die Resultate zeigen ein klares Muster: Solange die Modelle nicht wissen, wer hinter einem Text steht, stimmen ihre Bewertungen zu über 90 Prozent überein. Anders sieht es aus, sobald eine Quelle genannt wird.

Wird ein Text einer Person aus China zugeschrieben, sinken die Zustimmungswerte aller vier Modelle teils drastisch. Selbst wenn Inhalt und Argumentation unverändert bleiben. Diese Voreingenommenheit zeigte laut der UZH auch das chinesische KI-Modell Deepseek.

Besonders stark fiel die Verzerrung bei geopolitischen Themen auf. Etwa bei Fragen zur Souveränität Taiwans. Deepseek reduzierte in einzelnen Fällen seine Zustimmung um bis zu 75 Prozent.

Um Fehleinschätzungen zu vermeiden, empfehlen die Autoren KI-Tools grundsätzlich ohne Angaben zur Autorenschaft zu füttern. Bewertungen nach Möglichkeit mit einem zweiten Modell zu überprüfen und klare inhaltlich orientierte Kriterien vorzugeben. Zudem sei weiterhin eine menschliche Kontrolle unverzichtbar.

Kommentare

User #1286 (nicht angemeldet)

Hat es auch Vorurteile gegen Chuchichäschtli?

Weiterlesen

Computer Arbeitsplatz Künstliche Intelligenz
10 Interaktionen
Studie

MEHR STUDIE

Schlafmangel
3 Interaktionen
Schlafmangel
unternehmen arbeiter
8 Interaktionen
Neue Studie
Wohnungen Affoltern Liegenschaft gekauft
1 Interaktionen
Studie
Baumaterialien
12 Interaktionen
Studie zeigt

MEHR AUS STADT ZüRICH

Kantonsrat Zürich
2 Interaktionen
Zürich
Boris Becker
30 Interaktionen
Wenn Frau will
kanton zürich
Neues Modell
Universität Zürich
305 Interaktionen
Buchzwang