Studie

KI hat Vorurteile gegenüber Texten aus China

Keystone-SDA
Keystone-SDA

Zürich,

Die Künstliche Intelligenz bewertet Texte chinesischer Autoren schlechter, zeigt eine Schweizer Studie.

China text
Wird ein Text einer Person aus China zugeschrieben, sinken die Zustimmungswerte aller vier Modelle teils drastisch. (Symbolbild) - pixabay

Künstliche Intelligenz ist gegenüber Texten chinesischer Autoren stark voreingenommen. Sobald KI-Sprachmodelle erfahren, dass der Autor eines Textes aus China stammt, bewerten sie laut einer neuen Schweizer Studie einen sonst identischen Text deutlich schlechter.

Solche versteckten Verzerrungen könnten zu ernsthaften Problemen führen, wenn KI für die Moderation von Inhalten, die Einstellung von Personal, akademische Reviews oder den Journalismus eingesetzt werde.

Die befürchten die Studienautoren der Universität Zürich (UZH) laut einer Mitteilung der Universität vom Montag. Für die Studie, die in der Fachzeitschrift «Science Advances» veröffentlicht wurde, untersuchte das Zürcher Forschungsteam vier weit verbreitete KI-Modelle: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 und Mistral.

Die Forschenden liessen die Modelle 50 Aussagen zu kontroversen Themen wie Impfpflicht, Geopolitik und Klimapolitik bewerten. Insgesamt kamen so 192’000 Bewertungen zustande. Teils ohne Quellenangabe, teils mit einer fiktiven menschlichen oder KI-Autorenschaft.

Drastischer Zustimmungsverlust bei chinesischen Autoren

Die Resultate zeigen ein klares Muster: Solange die Modelle nicht wissen, wer hinter einem Text steht, stimmen ihre Bewertungen zu über 90 Prozent überein. Anders sieht es aus, sobald eine Quelle genannt wird.

Wird ein Text einer Person aus China zugeschrieben, sinken die Zustimmungswerte aller vier Modelle teils drastisch. Selbst wenn Inhalt und Argumentation unverändert bleiben. Diese Voreingenommenheit zeigte laut der UZH auch das chinesische KI-Modell Deepseek.

Besonders stark fiel die Verzerrung bei geopolitischen Themen auf. Etwa bei Fragen zur Souveränität Taiwans. Deepseek reduzierte in einzelnen Fällen seine Zustimmung um bis zu 75 Prozent.

Um Fehleinschätzungen zu vermeiden, empfehlen die Autoren KI-Tools grundsätzlich ohne Angaben zur Autorenschaft zu füttern. Bewertungen nach Möglichkeit mit einem zweiten Modell zu überprüfen und klare inhaltlich orientierte Kriterien vorzugeben. Zudem sei weiterhin eine menschliche Kontrolle unverzichtbar.

Kommentare

User #772 (nicht angemeldet)

😁Wetten, das die Chinesische KI genau das Gegenteil behaupten tut?

Peter R 77

Es äusserst berechtigte Vorsicht gegen die Millionen von Artikeln mit Falschinformationen der CCP über die Wirtschaft, Gesellsc aft und Freiheit in China. Man man Frage einfach mal DeepSeek zu Taiwan, Tobet, Xinjiang

Weiterlesen

Computer Arbeitsplatz Künstliche Intelligenz
12 Interaktionen
Studie

MEHR STUDIE

9 Interaktionen
Basel/Bern
Klima
37 Interaktionen
Neue Studie
Emmen
1 Interaktionen
Emmen
Kinder
6 Interaktionen
«Deutlicher Zuwachs»

MEHR AUS STADT ZüRICH

de
Quali-Dernière
FC Zürich
8 Interaktionen
Per sofort
3 Interaktionen
Vorstoss abgelehnt
Zürcher Wahlen