Die künstliche Intelligenz «ChatGPT» lässt sich nicht nur für Gutes nutzen. So versuchen russische Hacker, die KI für Hassreden und Propaganda zu missbrauchen.
Cyberkriminalität chatgpt
Hacker versuchen die künstliche Intelligenz ChatGPT zu missbrauchen. - Fachhochschule Nordwestschweiz

Das Wichtigste in Kürze

  • Die KI ChatGPT fertigt auf Anweisung beliebige Texte zu komplexen Themen an.
  • Das sorgt für Missbrauch: etwa für Hassreden und Propaganda seitens russischer Hacker.
Ad

Die künstliche Intelligenz ChatGPT ist derzeit in aller Munde. Sie bietet einerseits zahlreiche kreative Einsatzmöglichkeiten. Andererseits warnen Experten auch vor einem Risiko.

Dabei ist nicht nur von Plagiaten bei Schularbeiten die Rede. Auch Hassreden und sogar Propaganda können mithilfe von der Sprachsoftware generiert werden.

Die Entwickler hinter ChatGPT versuchen gerade, letzteres mit aller Macht zu verhindern. So wurden etwa regionale Schranken eingebaut, damit beispielsweise aus Russland nicht auf die KI zugegriffen werden kann.

Wie der Computer-Sicherheitsanbieter «Checkpoint» nun herausfand, arbeiten russische Hacker jedoch mit Hochdruck daran, diese Schranken zu durchbrechen.

Sie seien jedoch nicht die einzigen, welche sich durch «Auskundschaften des Codes» Zugang zu ChatGPT verschaffen. Pete Nicoletti, Sicherheitsverantwortlicher der Firma, erklärt: «Gute und schlechte Akteure sind am Zug.»

Umgehung von Sicherheitsvorkehrungen bei ChatGPT ist einfach

Auch auf Reddit – dem grössten Internet-Forum der Welt – finden sich Daten, mit denen sich ChatGPT austricksen lassen soll. So könnten Vorgaben von ChatGPT zu Hassreden umgangen werden. Auch Propaganda liesse sich damit generieren.

Hacker
Russische Hacker nehmen die KI ChatGPT ins Visier.
chatgpt
So könnten vollautomatisiert Hassrede und Propaganda erzeugt werden.
pete nicoletti
Pete Nicoletti, Chief Information Security Officer, bei Check Point, warnt jedoch, dass auch andere Akteure versuchen, die Software zu missbrauchen.
ChatGPT Plus
Es nutze einen Exploit namens DAN, um in ChatGPT Texte zu erzeugen, die Vorgabe von OpenAI zu Hassreden umgehen sollen.

Ob es den russischen Angreifern bereits gelungen ist, die Sprach-KI für Propaganda-Zwecke oder Hassreden zu benutzten, ist unklar.

Wie Screenshots aus diversen Foren zeigen, interessieren sich russische Hacker aber auch aus ganz anderen Gründen für die Software: «Ich versuche, meinen eigenen Telegram-Bot-Shop mit ChatGPT zu machen», schreibt einer.

Das heisst, er plant im beliebten Messenger-Dienst einen vollautomatisierten Onlineshop zu eröffnen, der Kunden mittels KI betreut. Telegram-Shops werden oft mit kriminellen Motiven betrieben.

Nutzen Sie ChatGPT?

So warnt das Sicherheitsunternehmen «Checkpoint» auch vor Betrugsversuchen, in denen sensible Daten abgegriffen werden sollen. Die Rede ist vom sogenannten «Phishing».

Eine Nachricht fängt so an: «Sehr geehrter Kunde, wir haben einen unautorisierten Login-Versuch auf ihr Bankkonto festgestellt.» Im Anschluss muss die «Identität des Kunden» verifiziert werden.

Darum heisst es: «Bitte klicken Sie auf folgenden Link (...), um wieder Zugang zu ihrem Bankkonto zu erhalten.» Diese Betrugsmasche ist altbekannt. In diesem Fall wurde sie jedoch von ChatGPT verfasst.

Nicoletti warnt: «So können (diese Phishing-Attacken) gezielt auf Nutzer zugeschnitten werden (...) und eine viel spezifischere Sprache verwenden, um sie für jedes einzelne Opfer relevant erscheinen zu lassen.»

Ad
Ad

Mehr zum Thema:

InternetComputerRedditDatenHacker