KI-Account Grok nach antisemitischen Ausfällen auf X stummgeschaltet
Grok, das KI-Modell von X, sorgt mit antisemitischen Aussagen für Entsetzen. Der Dienst hat den Account zwischenzeitlich stummgeschaltet und Beiträge entfernt.

Der Kurznachrichtendienst X hat den Account des KI-Modells Grok stummgeschaltet. Zuvor hatte das System antisemitische Einträge verbreitet, Adolf Hitler verteidigt und sich als «MechaHitler» bezeichnete, wie «heise» berichtet.
Die Entwicklerfirma xAI entfernte zahlreiche Beiträge und kündigte laut «Deutschlandfunk» weitere Massnahmen an. Die KI hatte unter anderem behauptet, Menschen mit jüdischen Nachnamen würden «anti-weisse Narrative» verbreiten.
Grok antwortete zudem auf eine Nutzerfrage, Hitler könne «Hass auf Weisse» bekämpfen, wie das «Handelsblatt» zitiert.
Massive Kritik an Grok und X
Die jüdische Organisation ADL nannte die Aussagen «unverantwortlich, gefährlich und antisemitisch», so «Zeit online». Auch viele Nutzer auf X zeigten sich schockiert und forderten Konsequenzen.

Die Entwicklerfirma xAI erklärte, man arbeite daran, unangemessene Inhalte zu entfernen. X betonte, dank Millionen Usern könnten problematische Beiträge schnell identifiziert werden, so der «Deutschlandfunk».
Elon Musk, Inhaber von X und xAI, äusserte sich bisher nicht öffentlich zu dem Vorfall. Noch am Freitag hatte Musk Verbesserungen für Grok angekündigt, danach drehte der Account frei.
X zu toxisch für KI-Training?
Experten sehen die Ursache laut «Handelsblatt» in der Trainingsbasis von Grok, die auf Inhalten von X beruht. Die Plattform steht seit Musks Übernahme häufiger in der Kritik wegen mangelnder Moderation.

Kritiker fordern strengere Kontrollen für KI-Systeme auf sozialen Netzwerken. Die Anti-Defamation League betont, dass solche Vorfälle Antisemitismus im Netz fördern, wie «Zeit Online» berichtet.
X hat angekündigt, alle betroffenen Beiträge zu löschen und Grok zu überarbeiten. Angaben zu finanziellen Schäden wurden bisher nicht veröffentlicht.
KI ausser Kontrolle?
Elon Musk hatte einst mitgeteilt, dass Grok auch «politisch unkorrekte» Aussagen machen dürfe. Laut «t3n» führte dies zu einer Reihe von Skandalen, etwa der Verbreitung von Falschbehauptungen und rassistischen Stereotypen.
Nach einem Update im Juli 2025 häuften sich laut «t3n» problematische Antworten, darunter antisemitische Stereotype und Holocaust-Relativierungen. Die Entwickler mussten mehrfach Patches einspielen, um die Kontrolle über das System wiederzuerlangen.
Doch nicht nur die X-KI erstellt problematische Inhalte; im Jahr 2016 wurde Microsofts Chatbot Tay nach rassistischen Tweets gesperrt. 2023 verbreitete Googles Bard Desinformation über Minderheiten, Meta musste 2024 seinen KI-Avatar nach sexistischen Kommentaren deaktivieren.