Franziska Giffey führte ein Interview mit einem falschen Vitali Klitschko. Handelte es sich dabei tatsächlich um ein Deep Fake, oder doch um ein Cheap Fake?
franziska giffey
Ein von der Senatskanzlei in Berlin zur Verfügung gestelltes Foto zeigt das Fake-Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD). - -/Senatskanzlei Berlin/dpa
Ad

Das Wichtigste in Kürze

  • Franziska Giffey brach ein Gespräch mit Vitali Klitschko ab.
  • Ihre Theorie, es habe sich um einen Deep Fake gehandelt, wird angezweifelt.
  • Wahrscheinlicher ist, dass alte Videoschnipsel neu zusammengesetzt worden waren.

Franziska Giffey, die Bürgermeisterin von Berlin, sprach mit ihrem Amtskollegen Vitali Klitschko aus Kiew. Nach einer halben Stunde brach Franziska Giffey das Videogespräch aber ab: Es wurde daran gezweifelt, dass der Gesprächspartner in der Tat Vitali Klitschko gewesen sei. «Allem Anschein nach handelt es sich um Deep Fake», mutmasste die Berliner Staatskanzlei auf Twitter.

Deep Fake bezeichnet realistisch wirkende Medieninhalte, die durch künstliche Intelligenz erzeugt werden. Eine Software lernt, die Mimik, die Stimme und die Körpersprache einer Person zu verfälschen. Franziska Giffey sprach der Deep-Fake-These zufolge also mit einem von einem Computer erzeugten Vitali Klitschko.

franziska giffey
Kiews Bürgermeister Vitali Klitschko spricht bei einer Beerdigung in Kiew. - Keystone

Doch an der These gibt es Zweifel. Ein Investigativjournalist des Rundfunks Berlin-Brandenburg (rbb) listet auf Twitter einige Gründe auf, die gegen die Deep-Fake-These sprechen. Daniel Laufer hat die von der Berliner Regierung veröffentlichten Screenshots des Gesprächs analysiert. Alle fünf lassen sich in einem Video von Anfang April wiederfinden, eines sogar zweimal.

Bei einem Deep-Fake-Video werden Bilder nicht kopiert, sondern basierend auf dem Trainingsmaterial neu erstellt. Solche Übereinstimmungen mit dem Video auf Youtube seien deshalb ein sehr grosser Zufall.

Zudem befinden sich im Hintergrund eine Flagge und ein Emblem. Dort konnten aber keine Fehler entdeckt werden, der Hintergrund war stabil. Wären die Bilder aber in Echtzeit generiert worden, wären Verwackler oder Dellen fast unumgänglich. In einem Deep-Fake-Video wäre deshalb ein weisser Hintergrund wahrscheinlicher, so Laufer.

Laufers These: Es hat sich nicht um einen Deep Fake gehandelt, sondern um einen sogenannten Cheap Fake. Das Youtube-Video vom April wurde in Schnipsel geschnitten und während des Gesprächs in Echtzeit neu zusammengesetzt. Kleine Ruckler bei den Übergängen hätten mit einer schlechten Internet-Verbindung erklärt werden können.

Falscher Vitali Klitschko wollte Russisch sprechen

Das Problem der Lippen, die nicht synchron mit der Stimme waren, lösten die Betrüger mit der Sprachwahl: Obwohl der echte Vitali Klitschko Deutsch beherrscht, sprach er Russisch, eine Sprache, die Franziska Giffey nicht kann. Dadurch waren Unstimmigkeiten schwieriger zu erkennen und leichter mit der Internet-Verbindung zu begründen. Eine Person im Hintergrund übersetzte dann jeweils das Gesagte. Bei einem Deep Fake hätte es das nicht gebraucht: Die Software lässt die Lippen synchron mit der erzeugten Stimme bewegen.

Denken Sie, dass Russland den Krieg verliert?

Vitali Klitschko schien allem Anschein nach nicht Opfer von Deep Fake geworden zu sein. Ganz anders sein Präsident Wolodymyr Selenskyj. Er rief im März in einem Video die Ukrainer zur Kapitulation auf. Youtube und Facebook enttarnten es aber als Deep Fake und entfernten es.

Ad
Ad

Mehr zum Thema:

Vitali KlitschkoRegierungInternetComputerFacebookTwitterYoutubeFranziska Giffey