Welt der Wunder

Nicht glauben, sondern wissen

Vorsicht vor Fake-Videos im Krieg

Foto: Envato / twenty20photos

Deepfakes im Ukraine-Krieg: Wie gefährlich manipulierte Bilder sind

Im Informationskrieg zwischen Russland und der Ukraine wurden erste Deepfake Videos veröffentlicht. Wie funktioniert die Videomanipulation?

Inhalt

Deepfakes werden vermehrt genutzt, um Politikerinnen und Politiker auf Videoportalen oder Imageboards falsch darzustellen.

Sie sehen den ukrainischen Präsidenten Wolodymyr Selenskyi vor der Kamera. Er trägt seine neue Uniform, ein olivgrünes Shirt. In einer Ansprache an die Nation, ruft er die Bürgerinnen und Bürger der Ukraine auf, die Waffen niederzulegen und zu ihren Familien zurückzukehren. Die Videobotschaft erscheint auf der Website eines ukrainischen Nachrichtensenders.

Kurz darauf erscheint auf Selenskyis eigenem Account ein zweites Video, in dem er kontert: „Wenn ich jemandem raten kann, die Waffen niederzulegen, dann ist es dem russischen Militär […] wir sind Zuhause. Wir verteidigen unser Land.“

Der Grund für die widersprüchlichen Botschaften? Das erste Video erschien auf der Website des Nachrichtensenders Ukraine 24, nachdem diese gehackt wurde. Der Clip mit Selenskyis Aufruf zur Kapitulation ist nicht nur unscharf, er wirkt wie eingefroren. Sein Kopf wirft keinen Schatten, sein Gesicht hat eine andere Farbe als der Hals und sein bekanntes, olivfarbenes T-Shirt hat auf einmal lange Ärmel. Es handelt sich um ein Deepfake.

Doch auch vom russischen Präsidenten erscheint ein verpixeltes Video. Darin verkündet Putin, in den Verhandlungen mit der Ukraine einen Friedensschluss erreicht zu haben. Auch in diesem Fall handelt es sich nicht um die Worte Wladimir Putins, sondern ebenfalls um ein Deepfake.

„Präsident Trump ist ein totaler Vollidiot“

Es ist nicht das erste Mal, dass Deepfakes von Staatsoberhäuptern kursieren. 2018 zeigt ein mittlerweile bekanntes Video Barack Obama im Oval Office. Er spricht gewohnt langsam, blickt in die Kamera und sagt: „Präsident Trump ist ein totaler Vollidiot.“ Beinahe wäre ein politischer Skandal ausgebrochen.

Fast. Denn das Video geht weiter. Der ehemalige Präsident erklärt: „Ich würde sowas niemals sagen, zumindest nicht in einer Ansprache. Aber jemand anderes würde das tun.“

Das Bild teilt sich in zwei Hälften und rechts erscheint der Comedian, Jordan Peele, der hinter den Aussagen steckt. Die Ansprache hat nie stattgefunden, sondern wurde durch eine Künstliche Intelligenz (KI) erstellt. Wer genauer hinsieht, erkennt, dass das Video unscharf ist und Obamas Gesicht ein wenig eingefroren wirkt.

Die Fälschung wurde damals zur Aufklärung erstellt.  Im militärischen Konflikt zwischen Russland und der Ukraine geht es aber um mehr: Propaganda und die Übermacht im Informationskrieg.

Die meisten Deepfakes kommen in Pornos vor

In Deepfakes werden Videos, Bilder oder Töne so gut gefälscht, dass der Eindruck einer echten Aufnahme entsteht. Der Name leitet sich von „Fake“, also einer Fälschung, und „Deep Learning“ ab. Das beschreibt den Prozess, bei dem eine KI die Gesichtszüge, Bewegungen und Haltung einer Person durch selbstlernende Algorithmen erlernt. Das Video von Barack Obama stammt aus dem Jahr 2018.

Seitdem hat sich die Technik enorm weiterentwickelt. Fakes, für die IT-Fachpersonen früher einen leistungsfähigen Computer brauchten, erstellen Amateure heute mit einem Smartphone. Mit der einfacheren Technik kamen auch mehr Deepfakes. In einem hält die Queen ihre alljährliche Weihnachtsansprache. Darin macht sie sich über die Klopapierknappheit durch die Pandemie lustig und tanzt für TikTok.

Bereits 2020 erschien ein Deepfake von Präsident Wladimir Putin. Mit einem mehr oder weniger russischen Akzent wendet er sich an das amerikanische Volk: „Liebes Amerika, ihr beschuldigt mich, eure Demokratie zu zerstören, aber das macht ihr bereits selbst.“ Auch dieses Video diente der Aufklärung über manipulierte Medieninhalte.

Allerdings zeigen die meisten Deepfakes keine Politikerinnen und Politiker in Anzügen. Am häufigsten kommen Deepfakes in der Pornowelt vor und zeigen überwiegend weibliche Berühmtheiten, die sich privat sehr ungehemmt zu geben scheinen. Dabei handelt es sich aber nicht um gehackte Videos, sondern um künstlich hergestellte Inhalte, die so nie passiert sind. Durch die niedrige Qualität der Videos, erkennen die Zuschauer nicht auf Anhieb, dass es sich um Deepfakes handelt.

Die Opfer, also die Frauen, deren Gesichter gestohlen und auf Pornodarstellerinnen platziert wurden, können sich meist nicht wehren. In einigen wenigen Ländern wie Australien, China und Südkorea, verbieten Gesetze zwar die Produktion von Deepfake-Pornos ohne Erlaubnis der Dargestellten. Doch deren Urheber sind schwer zu ermitteln. Gleichzeitig bestraft das Gesetz nur die Produzenten der Videos, nicht aber die Plattformen, die diese zeigen.

Sind Deepfakes gefährlich?

Die schockierenden Videos von Obama oder der britischen Queen sollten als abschreckende und lehrreiche Beispiele dienen. Es geht in diesen explizit um die Gefahren, die von Bewegtbildmanipulationen durch Deepfakes ausgehen. Die Videos demonstrieren klar, dass sie gefälscht sind.

Bereits vor den Fällen von Selenskyi und Putin warnten Fachleute, dass diese zur Gefahr werden könnten. Nicht nur die Erstellung von Deepfakes birgt Risiken, auch deren Bekanntheit hat eine Wirkung. So argumentierte Donald Trump 2017, dass das berühmte „Access Hollywood“ Video, in dem er sich abfällig über Frauen äußerte, ein Fake sei. Dabei war das Video  echt. Dennoch gab die Verbreitung von Deepfakes Trump und seinen Befürwortern die Chance einer Ausrede.

2019 sorgte ein verdeckt aufgenommenes Video auf Ibiza für das Zerbrechen der damaligen österreichischen Regierung. Ein Jahr später zeichnete eine Passantin in Minneapolis, USA, auf, wie ein Polizist den unbewaffneten Afroamerikaner, George Floyd, erstickte. Folge waren weltweite Proteste, öffentliche Debatten über Rassismus und mancherorts strengere Auflagen für die Polizei.

Zweifellos können Clips von wenigen Sekunden die Welt langfristig ändern. Seit der Entwicklung von Ton- und Bildaufnahmen galten diese als Fundament für die Wahrheitsfindung. Wenn es für die Authentizität von Videos keine Garantie mehr gibt, könnte das dramatische Auswirkungen auf das Weltgeschehen haben.

Aufgrund einer befürchteten Einflussnahme auf die Demokratie, arbeitet das EU-Parlament an Gesetzen zur Eindämmung von Deepfakes. Auch das amerikanische Pentagon entwickelt Technologien, um Deepfakes zu entlarven.

Die Queen tanzt auf dem Tisch

Der Name Deepfake beschreibt alle Medieninhalte, die mithilfe einer KI verfälscht oder verändert wurden. Deepfakes zählen zu den synthetischen Medien, da sie durch automatisierte Prozesse entstehen. Am häufigsten treten Deepfakes als Face-Swappings, als Austausch zweier Gesichter, auf. Fans können sich beispielsweise ganze Filme ansehen, in denen Nicolas Cage in allen Rollen als Face-Swapping auftritt.  Eine andere Form ist Voice-Swapping, wo die Stimmen zweier Personen vertauscht werden.

Weitaus komplizierterer sind Deepfakes in der Form von Body-Puppetry, bei der fremde Bewegungen auf einen Körper übertragen werden. Beispielsweise könnten wir eine Person ohne deren Zutun tanzen lassen. Da Body-Puppetry mehr Knowhow verlangt, ist es noch nicht so weit verbreitet.

Das Prinzip hinter Deepfakes lässt sich am leichtesten anhand eines Face-Swappings erklären. Wir nehmen Person A, zum Beispiel eine Schauspielerin, und wollen ihr Gesicht mit dem von Person B, Queen Elizabeth II, austauschen. Dafür benötigt das System viel Bildmaterial von Person A und B, was bei der Queen leicht sein sollte. Die KI lernt aus hunderten Bildern der Queen und der Schauspielerin ihre Gesichtsausdrücke und Mimik. Das KI-System für Deepfakes besteht aus einem Encoder, der die Originalaufnahmen beider Personen liest und daraus lernt, also Deep-Learning betreibt. Aus der erlernten Information erzeugt der Encoder eine Vorversion der Gesichter mit allen notwendigen Informationen.

Der zweite Teil ist ein Decoder, der ein Gesicht aus der Vorversion erstellt und dieses immer wieder mit dem Original abgleicht. Diesen Vorgang wiederholt die KI so lange, bis sich das Original und das künstlich erstellte Gesicht kaum unterscheiden. Mit der Vorversion des Gesichts der Queen spielt der Decoder dieses auf das Gesicht der Schauspielerin. Und schon tanzt die gefälschte Queen im Konfettiregen auf dem Tisch.

Deepfakes erfassen und blockieren

Wer jetzt an der Realität zweifelt, sollte nicht verzagen. Mit dem Aufbau von Deepfake-Technologien vermehren sich auch Möglichkeiten, diese zu erkennen. Meta, die Gesellschaft hinter Facebook, Instagram und WhatsApp, gab im Jahr 2020 an, Deepfakes zu blockieren. Twitter und TikTok folgten mit ähnlichen Versprechen. Unternehmen, wie Microsoft und Meta, wollen KI-generierte Videos durch eigene KI-Systeme abfangen.

Das „Microsoft Video Authenticator Tool“ scannt Videos nach winzigen Unebenheiten, zum Beispiel an den Gesichtsrändern. Auf der anderen Seite bietet Microsoft einen digitalen Fingerabdruck, in der Form eines sogenannten „Hash“ an, das Videos von serösen Quellen authentifizieren soll. Somit überprüft das Tool die Quelle des Videos und ermittelt, ob Dritte das Material verfälscht haben.

Bei Meta scannt das Deepfake-Erkennungssystem Videos systematisch nach Algorithmen, die hinter Deepfakes stecken.

Wie erkennen Sie ein Deepfake?

Allerdings lassen sich Deepfakes in vielen Fällen auch mit freiem Auge erkennen. Der Softwarehersteller Norton gibt Verbraucher:innen Tipps, um Deepfakes zu entdecken.

  • Unnatürliche Augenbewegungen: Zuallererst sollten Sie auf die Augenbewegungen der sprechenden Person achten. Wenn die Person wenig blinzelt und kaum die Augen bewegt, könnte das ein Zeichen für ein Deepfake sein.
  • Merkwürdige Gesichtszüge: Wenn ein Gesicht nach links blickt, aber die Nase nach rechts zeigt, sollten Sie die Authentizität des Videos hinterfragen.
  • Emotionslosigkeit: Wenn die Emotionen des Gesagten nicht mit den Ausdrücken in der Stimme oder im Gesicht übereinstimmen, könnte das an einer Bildmanipulation liegen.
  • Unechte Zähne: Deepfake-Software kann oft noch keine einzelnen Zähne darstellen. Die Grenzen zwischen einzelnen Zähnen verschwimmen.
  • Merkwürdige Farben und Schatten: Passen Farben, Schatten und Lichter nicht zusammen, könnte das an einer Fälschung liegen.
  • Verschwommene Aufnahme: Ist das Video eines Staatsoberhauptes nur in schlechter Qualität zu finden? Sind darin die Ränder verschwommen? Bei einem offiziellen Video einer Person hohen Ranges müsste an der Qualität nicht gespart werden.

Auch die Website Deepware.Ai bietet die Möglichkeit, Videos hochzuladen und eine Einschätzung zu deren Authentizität zu erhalten.

Welt der Wunder

FREE
VIEW