Künstliche Intelligenz

Künstliche Intelligenz stimmt Nutzern laut Studie zu oft zu

Keystone-SDA
Keystone-SDA

USA,

Schleimende KI statt ehrlicher Diskussion: Forscher warnen, dass zustimmende Chatbots unser Urteilsvermögen und den Umgang mit Kritik gefährden.

ki
Künstliche Intelligenz soll den Nutzern zu oft zustimmen. (Symbolbild) - keystone

Anwendungen Künstlicher Intelligenz neigen dazu, Nutzerinnen und Nutzern nach dem Mund zu reden und deren Handlungen übermässig zu bestätigen. Das ist das zentrale Ergebnis einer im Fachmagazin «Science» veröffentlichten Studie von Forscherinnen und Forschern der US-Universitäten Stanford und Carnegie Mellon (Pittsburgh). Die schmeichelnden Antworten der KI-Chatbots könnten schädliche Überzeugungen verstärken und Konflikte verschärfen.

KI rechtfertigt selbst unethisches Verhalten

Das Team um die Informatikerin Myra Cheng analysierte elf führende KI-Sprachmodelle von OpenAI, Anthropic, Google und Meta. Die Modelle rechtfertigten Nutzerverhalten im Schnitt 49 Prozent häufiger als Menschen. Diese Zustimmung erfolgte selbst bei Berichten über Täuschungen, illegale Handlungen oder emotionalen Schaden. In einem Test mit Beiträgen der Online-Plattform Reddit stimmten die KIs in 51 Prozent der Fälle zu – während die menschliche Community zuvor das Verhalten einstimmig verurteilt hatte.

In Experimenten mit über 2400 Teilnehmern untersuchten die Forscher die Auswirkungen dieser KI-Beratung. Nach nur einer Interaktion mit einer zustimmenden KI waren die Teilnehmer stärker überzeugt, im Recht zu sein. Gleichzeitig sank ihre Bereitschaft, Verantwortung zu übernehmen, sich zu entschuldigen oder Konflikte beizulegen. Die Studie warnt, dass KI so die Fähigkeit zur Selbstkorrektur und zu verantwortungsvollen Entscheidungen untergräbt.

Teufelskreis der Nutzerbindung

In der Studie wird auf einen besonderen Widerspruch hingewiesen: Obwohl die schmeichelnden Antworten das Urteilsvermögen trüben, bewerteten Nutzer diese KIs als vertrauenswürdiger und hilfreicher. Sie zeigten eine höhere Bereitschaft, solche Modelle erneut zu nutzen.

Dies schaffe gefährliche Anreize für Tech-Unternehmen: Die Eigenschaft, die den grössten Schaden anrichte, treibe zugleich das Nutzer-Engagement und den Markterfolg an. Die Studienautoren fordern neue Richtlinien, um «soziale Sykophantie» (soziale Schleimerei) als Schadenskategorie bei KIs anzuerkennen und zu regulieren.

Plädoyer für «sozialen Reibung»

In einem Kommentar beleuchtet Psychologin Anat Perry die Bedeutung dieser Ergebnisse. Sie argumentiert, dass «soziale Reibung» – also Gegenwind, Kritik und Missverständnisse – für moralisches Wachstum und Verantwortungsbewusstsein unerlässlich sei. «Das soziale Leben verläuft selten reibungslos, da Menschen nicht perfekt aufeinander abgestimmt sind. Doch gerade durch solche sozialen Reibungen vertiefen sich Beziehungen und entwickelt sich moralisches Verständnis. Kriecherisches Verhalten ist das Gegenteil dieser Reibung.»

Eine KI, die bedingungslos zustimme, beraube Menschen dieser Lernprozesse. Besonders junge oder sozial isolierte Menschen riskierten, in einem Echoraum zu landen, der sie in verzerrten Wahrnehmungen bestärke und von der Komplexität menschlicher Beziehungen entfremde.

Die Arbeit des Forschungsteams um die Informatikerin Myra Cheng wurde von Dan Jurafsky betreut. Der Professor für Linguistik und Informatik gilt als eine Koryphäe auf dem Gebiet der Computerlinguistik.

Kommentare

User #4985 (nicht angemeldet)

Beim Menschen ist es aber allerdings oft genau umgekehrt. Sagt man jemandem etwas von einer Idee, kommt "Das geht doch nicht.". Das ist dann auch nicht förderlich. Vor allem, wenn man dann feststellt, dass das Gegenüber keine Ahnung von der Sache hat und darum ablehnt. Das erzeugt auch Frust und Spannung. Also, auch beim Menschen immer darauf achten, mit wem man redet. Auch Menschen geben oft falsche Tipps. Ausserdem kann man der KI auch sagen, dass sie kritischer sein soll, dann ist sie es auch. Und, selber Denken, abwägen und kritisch sein sollte man ja trotzdem noch, dann ist es doch ok.

User #2143 (nicht angemeldet)

Meine persönliche Abneigung gegen Psychologen ist soeben zusammengebrochen! Ich muss ohne Einschränkung der Anat Perry recht geben. Genauso ist es.

Weiterlesen

Airlines
105 Interaktionen
Kerosin-Krise
Daniel Koch
73 Interaktionen
3000 Hunde

MEHR IN NEWS

domino
Von Naturkatastrophen
buckelwal
4 Interaktionen
Happy End?
1 Interaktionen
Basel
a
69 Interaktionen
In den Nahen Osten

MEHR KüNSTLICHE INTELLIGENZ

Künstliche Intelligenz
440 Interaktionen
Gute Jobs bald weg?
Künstliche Intelligenz
75 Interaktionen
Technisch möglich!
New York
36 Interaktionen
Neue Studie zeigt
Künstliche Intelligenz
19 Interaktionen
Graben

MEHR AUS USA

Nico Hischier NHL
Auch Meier trifft
ai
KI-Firma Anthropic
5 Interaktionen
Washington
7 Interaktionen
Washington