Der neue KI-Text-Roboter ChatGPT der US-Firma Open AI steht in der Kritik. Wegen des grossen Potenzials wird das System kaum kritisch hinterfragt.
künstliche intelligenz apple
Das Programm ChatGPT basiert auf Künstlicher Intelligenz. - CFA Institute
Ad

Das Wichtigste in Kürze

  • Ein neuer Text-Roboter der US-Firma Open AI sorgt aktuell für mächtig Wirbel.
  • Die Sprachsoftware funktioniert mithilfe von künstlicher Intelligenz.
  • Die Erfindung hat zwar Potenzial, es gibt aber Bedenken wegen des Datenschutzes.

Das US-amerikanische Unternehmen OpenAI hat den Text-Roboter ChatGPT entwickelt. Dabei handelt es sich um eine Sprachsoftware, welche mithilfe von künstlicher Intelligenz funktioniert. Die Entwicklung geniesst momentan zwar einen Hype. Allerdings gibt es auch kritische Stimmen, da das Programm mit gewaltigen Datenmengen gefüttert ist.

Die Expertin Ruth Stock-Homburg sagt dazu: «Im Moment ist dieser Hype, ich habe das Gefühl, dass man dieses Systems kaum kritisch reflektiert.» Deutsche Wissenschaftler warnen vor Datenschutzlücken, Hassparolen oder Falschnachrichten.

ChatGPT hat einen sehr breiten Anwendungsbereich. In einer Art Chatfeld kann man dem Programm unter anderem Fragen stellen und bekommt Antworten. Auch Arbeitsanweisungen sind möglich – beispielsweise auf Basis grundlegender Informationen einen Brief oder einen Aufsatz zu schreiben.

ChatGPT Plus
Es nutze einen Exploit namens DAN, um in ChatGPT Texte zu erzeugen, die Vorgabe von OpenAI zu Hassreden umgehen sollen. - Keystone

Die TU Darmstadt hat gemeinsam mit dem «Leap in Time Lab» ein Projekt durchgeführt. Dabei wurden über sieben Wochen Tausende von Anfragen ohne persönliche Daten an das System gestellt, um Schwachstellen zu finden. «Man kann diese Systeme manipulieren», sagt Stock-Homburg.

Schwachstellen des Programms

In einer Präsentation zeigt Sven Schultze, TU-Doktorand und Experte für Sprach-KI, die Schwachstellen des Text-Roboters. Neben antisemitischen und rassistischen Äusserungen sind Quellenangaben schlicht falsch oder laufen ins Leere. Bei einer Frage nach dem Klimawandel führt ein angegebener Link auf eine Internetseite zu Diabeteserkrankungen. «

Bei direkten Fragen zum Beispiel mit kriminellen Inhalten gebe es zwar Sicherheitshinweise und -mechanismen. «Man kann aber mit Tricks die KI und die Sicherheitshinweise umgehen», sagt Schultze. Mit einem anderen Vorgehen zeigt die Software einem, wie man eine betrügerische Mail generiert. Oder sie wirft auch gleich drei Varianten aus, wie Trickbetrüger beim Enkeltrick vorgehen können.

Auch eine Anleitung für einen Wohnungseinbruch liefert GPT. Falls man auf Bewohner treffe, könne man auch Waffen oder physische Gewalt einsetzen.

Ad
Ad

Mehr zum Thema:

KlimawandelGewaltDatenKünstliche Intelligenz