Partner von
Partner von
Social Media

Warum wir nicht glauben sollten, was wir sehen

Gefälscht wurde schon immer. Sogenannte Deepfakes aber weisen in eine neue Dimension der Manipulation.




• Es sind erstaunliche Worte von Barack Obama, die im April vergangenen Jahres durch ein vom Nachrichtenportal »Buzzfeed« getwittertes Video öffentlich wurden und schnell Verbreitung fanden. Er sitzt am Schreibtisch neben einer US-Flagge, ganz so wie bei einer Rede an die Nation, und sagt, dass sein Nachfolger Donald Trump, „a total complete dippshit“ sei, ein Vollidiot. Die Stimme, der Habitus, alles so, wie man den Ex-Präsidenten kennt. Doch das Video ist eine Fälschung. Produziert hat es der amerikanische Schauspieler Jordan Peele, der sich mit »Buzzfeed« zusammengetan hat, um der Welt mahnend die neuen Möglichkeiten der Manipulation aufzuzeigen.

Gefälscht wurde schon immer. Techniken der Bildmanipulation sind seit mehr als 100 Jahren bekannt. Videos wie das von Obama zeugen jedoch von einer neuen Dimension. Man spricht von Deep-fakes. Mit maschineller Intelligenz erstellt, nehmen sie uns endgültig die Gewissheit, das glauben zu dürfen, was man mit eigenen Augen gesehen hat.

Bei der Produktion von Deepfakes dienen echte Fotos und Videos als Ausgangsmaterial. Zudem braucht man Aufnahmen von einem Double, das die gewünschten Falschaussagen macht. Ein Computer wird mit den Bild- und Stimmdaten beider Personen gefüttert, die Daten werden von einer Software analysiert, sodass die spezifischen Charakteristika beider Personen erkannt und miteinander verknüpft werden können.

Die ersten Deepfakes waren Pornofilme, die ein Unbekannter im Herbst 2017 auf der Plattform »Reddit« online stellte. Die Filme zeigten Schauspielerinnen wie Emma Watson und Sängerinnen wie Taylor Swift vermeintlich beim Sex.

Deepfakes können von privaten Akteuren mit wenig Geld produziert werden. Für schlichte Ausführungen reichen gängige Face-Swap-Apps auf dem Smartphone. Bessere Fakes, die auch bei genauerem Hinsehen nicht als Täuschung entlarvt werden können, erfordern größeren Aufwand.

Sicherheitsexperten sind ob dieser neuen Möglichkeiten alarmiert. Deepfakes könnten Politiker Dinge sagen lassen, die das Potenzial haben, Wahlen zu beeinflussen. Oder Vorstandsvorsitzenden in den Mund legen, dass das Unternehmen kurz vor der Insolvenz steht – mit Folgen für den Börsenkurs.

Wie fast jedes Problem eröffnet auch dieses neue Geschäftsfelder. Es gibt bereits zahlreiche Unternehmen, die an der Enttarnung von Fälschungen arbeiten. Dabei lassen sich zwei unterschiedliche Herangehensweisen erkennen: Die erste setzt auf die Entwicklung von Programmen, die manipulierte Inhalte nach der Veröffentlichung identifizieren sollen. Sie sind etwa auf sogenannte Artefakte spezialisiert, also auf mit dem Auge kaum erkennbare Störungen, die durch die Verfälschung erzeugt wurden. Zudem können physikalische Fehler, wie zum Beispiel die wechselnde Richtung des Lichteinfalls innerhalb eines Videos, mit mathematischen Methoden aufgedeckt werden.

Andere Anbieter wollen die Echtheit von Fotos und Filmen garantieren. Dazu zählt Truepic aus Kalifornien. Die App des Start-ups sorgt dafür, dass Foto- und Video-Aufnahmen mit Angaben zu Ort und Zeit ihrer Entstehung versehen werden, zudem überträgt sie die Aufnahme mittels Blockchain-Technik, sodass der Prozess des Hochladens transparent ist.

Produzenten von Bildmaterial, die diese App verwenden, geben sich damit eine Art Echtheitssiegel. Zuspruch findet diese Methode bei Menschenrechtsaktivisten, die Kriegsverbrechen dokumentieren. Auch mit Nachrichten-Medien und Social-Media-Plattformen ist Truepic im Gespräch. Die Idee: Nur verifiziertes Material soll in Umlauf geraten.

Laut Hany Farid, Professor für Informatik und Berater von Truepic, reichen technische Lösungen allerdings nicht, denn die Erzeuger von Fakes seien den Bekämpfern immer einen Schritt voraus. Darum sei es wichtig, dass die Menschen lernen, mit der neuen Medienwelt umzugehen. Genauer hinzusehen. Es brauche Bildungsangebote für Medienkompetenz.

Möglicherweise müssten wir uns also mit einer Umkehr der Beweislast anfreunden: Bislang galten Videos und Fotos als glaubwürdig, solange sie nicht als Täuschung identifiziert wurden. Künftig könnte alles verdächtig sein, was nicht seine Echtheit bezeugen kann. ---

Martin Fehrensen ist Autor des »Social Media Watchblogs« – eines Newsletters, der zweimal wöchentlich erscheint.