Künstliche Intelligenz: «News»-Videos gehen viral – Experten warnen
Menschen verwandeln sich in Tiere, Senioren legen Kopfsprünge hin – durch Künstliche Intelligenz lassen sich kuriose «News» generieren. Das birgt Risiken.
00:00 / 00:00
Das Wichtigste in Kürze
- KI-Videos von Nachrichtensendungen sind auf Instagram der letzte Schrei.
- Was zuerst aussieht wie ein Live-Beitrag, nimmt eine unrealistische Wendung.
- Eine Expertin warnt: Solche Videos können der Realitätswahrnehmung schaden.
Huch! Was ist denn hier los? Eine Moderatorin spricht auf Portugiesisch, während hinter ihr eine Horde Seniorinnen und Senioren in eine riesige Pfütze plumpst.
Solche Videos nehmen zurzeit die Social-Media-Plattform Instagram ein. Das Prinzip ist immer das gleiche: Eine scheinbar normale Szene wird schlagartig in eine Richtung verändert, die man nicht erwartet.
Ein Gesicht verwandelt sich in Kuchen, ein Mann wird zu einer riesigen Gottesanbeterin und so weiter.
KI-News werden «bestimmt bald missbraucht»
Und: Wer einmal so ein Video teilt, dem werden nur noch mehr angespült – es scheint unendlich viele zu geben. Doch was steckt hinter dem Trend?
Kurz: Künstliche Intelligenz. «Aktuell entstehen diese Videos meistens mit Veo3», erklärt Mike Schwede bei Nau.ch. Er ist Digital-Marketing- und KI-Experte.
Veo3 ist die neueste Künstliche Intelligenz von Google, die auf Videogeneration ausgerichtet ist. Sie generiere besonders realistische Bilder, bei denen auch Ton und Hintergrundgeräusche funktionieren.
Hinter den Videos stünden jetzt noch «irgendwelche Leute mit kreativen Ideen», sagt Schwede.
Doch er warnt: «Je nachdem bestimmt auch Organisationen, die das bald missbrauchen werden.»
Wie weit die Einschränkungen von Google gehen, wisse er nicht genau. Aber: «Es ist bestimmt mehr möglich als einem lieb ist.»
Verdrehte Gliedmassen und Co. verraten Künstliche Intelligenz
Die Künstliche Intelligenz hat sich in den letzten Jahren rasant verbessert. Oft muss zweimal hingeschaut werden, um zu erkennen, ob etwas mit KI erstellt wurde.
Es gibt ein paar Tricks, KI-Videos schnell zu erkennen, verrät Mike Schwede bei Nau.ch: «Die Beleuchtungen sind immer sehr ähnlich. Und Interviewstimmen haben immer eine sehr ähnliche Tonlage, sie sind leicht komprimiert.»
00:00 / 00:00
Habe man ein paar Videos gesehen, könne das Gehirn diese entsprechend erkennen.
«Häufig weisen KI-generierte Personen Merkmale wie zu viele Finger oder verdrehte Gliedmassen auf», erklärt Franziska Oehmer-Pedrazzi bei Nau.ch.
Sie ist Dozentin für Medien- und Kommunikationswissenschaft an der Fachhochschule Graubünden. Zusätzlich hat sie das Mileva Institut für Digitales und Gesellschaft Schweiz mitgegründet.
Nicht nur zum Spass – so problematisch können die Videos sein
Sie sieht grosse Problematiken in diesen «Deep-Fakes».
Denn: «Sie können Menschen mit geringer Medienkompetenz – etwa ältere Personen oder sehr junge Nutzende – leicht täuschen.» Das könne das Verständnis der Wirklichkeit verzerren.
Viele Videos würden bewusst die Ästhetik von Nachrichtensendungen aufgreifen, sagt Oehmer-Pedrazzi. Statt einer Journalistin spricht darin aber eine Künstliche Intelligenz.
«Dadurch verschwimmt die Grenze zwischen echter Berichterstattung und künstlich erzeugtem Inhalt. Das kann langfristig das Vertrauen in seriöse, journalistische Formate untergraben.»
KI-«News»-Flut dürfte bald abnehmen
Auch das plötzliche Auftauchen der Videos kann Oehmer-Pedrazzi erklären: «Die Algorithmen der Plattformen sind in der Regel darauf ausgelegt, Inhalte zu priorisieren, die bereits hohe Interaktionsraten erzielt haben: etwa durch Likes, Shares oder Kommentare.»
00:00 / 00:00
Besonders häufig treffe das auf überraschende, extreme oder humorvolle Videos zu. Also auch auf die lustigen KI-«Nachrichtensendungen».
«Mithilfe von KI lassen sich solche Inhalte vergleichsweise leicht erzeugen», erklärt sie.
Immerhin: Die Flut an Deepfake-KI-News dürfte bald wieder Abnehmen.
«Es ist anzunehmen, dass hier ein Gewöhnungseffekt eintreten wird. Dann werden die Videos nicht mehr so starke Aufmerksamkeit generieren», sagt Oehmer-Pedrazzi.