Fake-Fotos vom Papst: Warum es immer mehr Deepfakes gibt
Stand: 28.03.2023, 15:04 Uhr
Derzeit kursieren Fotos, die den Papst in einer hippen weißen Daunenjacke zeigen. Oder Donald Trump, wie er vor der Polizei flüchtet. Der WDR-Digitalexperte erklärt, wie solche mit KI erzeugte Fake-Fotos entstehen – und warum sie gefährlich sein können.
Von Jörg Schieb
Der Papst, unterwegs in einer stylischen weißen Daunenjacke und mit unverwechselbarem päpstlichem Kruzifix bestückt: Dieses Foto – es gibt sogar gleich mehrere davon – geht gerade viral im Netz. Die Aufnahme sorgt für Lacher und provoziert hämische Kommentare, da das geistliche Oberhaupt der Katholischen Kirche wie ein Rapper daherkommt. Oder zumindest doch wie ein hipper Influencer.
KI-Systeme wie Midjourney erstellen Deepfakes
Aber: Das Foto ist nachweislich Fake, eine Fälschung. Entstanden mit Hilfe von Künstlicher Intelligenz (KI). Das KI-System „Midjourney“, das darauf spezialisiert ist, auf Anweisung durch einen Benutzer („Prompt“ genannt) praktisch jedes beliebige Foto oder Bild zu erzeugen – und sei es auch noch so abenteuerlich –, hat die viral gehenden Aufnahmen mit nur wenigen Sekunden Rechenaufwand generiert.
Keineswegs einfach so und von allein, sondern weil jemand der KI den Befehl gegeben hat. Etwa in der Art: „Erzeuge ein fotorealistisches Bild, das den aktuellen Papst in weißer Daunenjacke zeigt“. Midjourney ist ein „Text-to-Image“-System. Es erzeugt aufgrund von Anweisungen Bilder.
Etwas komplexer sind die nötigen Anweisungen schon, um Aufnahmen dieser Qualität zu erzeugen. Aber die Ergebnisse, die Midjourney und andere vergleichbare auf Bilderstellung spezialisierte KI-Systeme heute innerhalb von Sekunden erstellen, sind – technisch betrachtet – durchaus beeindruckend. Gerade erst ist die neue Version 5 von Midjourney an den Start gegangen, die spezialisiert ist auf fotorealistische Aufnahmen – und KI-Fotos in nie dagewesener Qualität bietet. Wie eben das vom Papst in weißer Daunenjacke.
Solche Aufnahmen, die komplett von KI erzeugt werden und niemals fotografiert wurden, werden „Deepfakes“ genannt: Weil sie durch „Deep Learning“ entstehen, eine Form von Künstlicher Intelligenz – und weil sie eben „Fake“ sind, eine Fälschung.
Weiterer Deepfake: Festnahme von Donald Trump
Ein Künstler hat Deepfakes erzeugt, die eine Verhaftung von Ex-Präsident Donald Trump zeigen: Als Mahnung, dass solche Aufnahmen Verwirrung stiften können.
Derzeit kursieren zahlreiche weitere Deepfakes, die Verwirrung stiften. Etwa ein Donald Trump, der vor diversen Polizeibeamten flüchtet – und dann doch gefasst wird. In einer anderen Aufnahme widersetzt sich der Ex-Präsident mit aller Kraft der Verhaftung. Eine Szene, die es nie gegeben hat.
Die einen betrachten es als Satire, doch es steckt auch Sprengkraft darin: Ein Putin, der von Xi Jinping kniet.
Genau darin liegt die Brisanz solcher Deepfakes: Sie sehen auf den ersten Blick täuschend echt aus, haben aber das Potenzial, die Gemüter zu erhitzen. Es muss nur jemand behaupten, es wäre passiert. Einen durch Polizisten verhafteten Trump ebenso wie ein Wladimir Putin, der vor dem chinesischen Regierungschef Xi Jinping auf die Knie fällt und ihm die Hand küsst – ein weiterer Deepfake, der im Netz kursiert.
Deepfakes enthalten zweifellos Sprengstoff – und je besser die Bildqualität, desto höher die Sprengkraft. Sie könnten den Eindruck erwecken, prominente Personen wären irgendwo gewesen, hätten bestimmte Personen getroffen, etwas getan – oder gesagt. Denn Deepfakes sind längst nicht mehr nur auf Fotos beschränkt. Vergleichbare KI-Systeme wie „Dreamix“ von Google erzeugen auf ähnliche Art und Weise und ebenso mühelos auch Videos. Es reicht, ein Foto hochzuladen und den Befehl zu geben: „Lass diese Person eine verbotene Substanz konsumieren.“ Fertig ist der Skandal.
Deepfake Video – mit Fake-Stimme
Andere KI-Systeme sind in der Lage, mit der Stimme jedes Menschen zu sprechen. Es reichen wenige Sekunden Audiomaterial, und die KI analysiert den Sprachstil und kann dann jeden beliebigen Text „sprechen“. Werden diese Technologien kombiniert, entstehen nicht nur Deepfake-Fotos, sondern auch Videos, die alles Mögliche zeigen können. Auf diese Weise wurde zum Beispiel Berlins damals regierender Bürgermeistern Franziska Giffey ein Fake-Klitchko untergejubelt.
Einzelne Deepfakes können unterhaltsam sein, doch durch die immer bessere Bild- und Tonqualität sind sie vor allem gefährlich. Politische Gruppierungen oder Regierungen könnten solche Deepfakes einsetzen, um Personen, Parteien, Gruppierungen oder Institutionen zu diskreditieren. Das gelingt durch das enorme Tempo in Social Media heute schnell. Das kann zu politischen Verwerfungen führen – oder zu unruhigen Börsen.
Deepfakes immer schwieriger zu enttarnen
Noch gibt es Auffälligkeiten in solchen Deepfakes, etwa merkwürdig unnatürlich aussehende Hände – oder „Artefakte“ genannte Störungen im Bild. Aber die Künstliche Intelligenz entwickelt sich derzeit rasant. Es ist nur eine Frage der Zeit, bis Deepfakes mit natürlichem Auge nicht mehr von echten Aufnahmen zu unterscheiden sind. Zwar gibt es bereits Werkzeuge, die solche Aufnahmen untersuchen und eine Einschätzung vornehmen, wie wahrscheinlich es ist, dass sie mit Hilfe von KI erzeugt wurde. Aber Verwirrung erzeugen können solche Aufnahmen dann dennoch.
Über den Autor
WDR-Digitalexperte Jörg Schieb
Jörg Schieb, Jahrgang 1964, ist WDR-Digitalexperte und Autor von 130 Fachbüchern und Ratgebern. Er beschäftigt sich seit vielen Jahren mit der Digitalisierung und deren Auswirkungen auf unseren Alltag.