Seiteninhalt
02.03.2022

Deepfakes

Die Gefahren durch die Fälschung von digitalen Medien

In der Vergangenheit war es sehr aufwändig, dynamische Medien, wie Videos oder Audiomitschnitte qualitativ hochwertig zu manipulieren. Durch Methoden aus dem Bereich der Künstlichen Intelligenz (KI) ist dies heute jedoch deutlich einfacher und Fälschungen von Bildern, Tonaufnahmen, Videos oder auch Texten können mit vergleichsweise wenig Aufwand und Expertise in einer hohen Qualität erstellt werden. Da diese tiefe neuronale Netze (englisch: deep neural networks) einsetzen, werden solche Verfahren umgangssprachlich als „Deepfakes“ bezeichnet.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) informiert ausführlich zu diesem Phänomen, denn durch die Manipulation medialer Identitäten ergeben sich zahlreiche Bedrohungsszenarien:

  • Überwindung biometrischer Systeme: Da es mittels Deepfake-Verfahren möglich ist, mediale Inhalte mit den Charakteristika einer Zielperson zu erstellen und diese Verfahren teilweise bereits in Echtzeit lauffähig sind, stellen sie eine hohe Gefahr für biometrische Systeme dar. Insbesondere bei Fernidentifikationsverfahren (z.B. der Sprechererkennung über das Telefon oder der Videoidentifikation) scheinen solche Angriffe erfolgversprechend.
  • Social Engineering: Deepfake-Verfahren können außerdem dazu verwendet werden, gezielte Phishing-Angriffe („Spear-Phishing“) durchzuführen, um Informationen und Daten zu gewinnen, oder Geldtransaktionen auszulösen in dem die Angreifer vorgeben eine berechtigte Führungskraft zu sein („CEO-Fraud“).
  • Desinformationskampagnen: Mittels Deepfake-Verfahren ist es potentiell möglich, glaubwürdige Desinformationskampagnen durchzuführen, indem manipulierte Medieninhalte von Schlüsselpersonen erzeugt und verbreitet werden.
  • Verleumdung: Durch die Möglichkeit Medieninhalte zu generieren, die Personen beliebige Aussagen treffen lassen und sie in beliebigen Situationen darstellen, kann der Ruf einer Person durch die Verbreitung von Unwahrheiten nachhaltig geschädigt werden.

Fälschung von Gesichtern
Hier wurden in den letzten Jahren mehrere Verfahren entwickelt, bei denen Gesichter in einem Video getauscht werden („Face Swapping“), die Mimik/ Kopfbewegungen einer Person kontrolliert werden („Face Reenactment“), oder neue (Pseudo-)Identitäten erschaffen werden.

Beim „Face Swapping“ Verfahren besteht das Ziel darin, aus der Eingabe eines Gesichts einer Person, ein Gesichtsbild einer anderen Person mit derselben Mimik, Gesichtsbeleuchtung und Blickrichtung zu erzeugen. Dafür werden Autoencoder-Verfahren verwendet, um die besagten Informationen aus einem Gesichtsbild kodiert zu extrahieren und daraus ein entsprechendes Gesichtsbild zu erzeugen. So kann das Gesicht einer Zielperson mit geringem Aufwand und nur ein paar Minuten einer hochauflösenden Videoaufnahme ausgetauscht werden.

Beim „Face Reenactment“ hingegen werden die Kopfbewegung, Mimik oder Lippenbewegung einer Person manipuliert. Dies ermöglicht es, visuell täuschend echte Videos zu erstellen, bei denen eine Person Aussagen trifft, die sie in der Realität nie getätigt hat. 

Fälschung von Stimmen
Ebenso, wenn auch mit mehr Aufwand, können Stimmen manipuliert werden. Dafür sind „Text-to-Speech (TTS)“- und „Voice Conversion (VC)“-Verfahren von großer Bedeutung. Hier wird entweder aus einem geschriebenen oder einem gesprochenen Text eine Audiodatei erstellt, welches sich sowohl für den Menschen als auch für eine automatische Sprechererkennung wie eine Zielperson anhört. Zurzeit werden Verfahren entwickelt, welche lediglich wenige Sekunden Audiomaterial der Zielperson benötigen.

Fälschung von Texten

Auch Verfahren zur Generierung von Texten basieren auf tiefen neuronalen Netzen. Durch neue KI-Modelle, große Textdatenbanken und eine hohe Rechenleistung schaffen sie es, lange und zusammenhängende Texte zu schreiben, die auf den ersten Blick nicht von den geschriebenen Texten eines Menschen unterschieden werden können. So werden Nachrichten verfasst, Blog-Einträge erzeugt, oder Chat-Antworten generiert.

Um sich trotz der qualitativ hochwertigen Fälschungen zu schützen, ist es notwendig, die verdächtigen Dateien genau zu beobachten, denn selbst bei guten Fälschungen sind häufig kleinere Fehler zu erkennen (siehe Grafik). Entscheidend ist vor allem jedoch auch eine hohe Aufmerksamkeit und eine kritische Beurteilung der Quellen.