Welt der Wunder

Nicht glauben, sondern wissen

So erkennen Sie Deepfakes

Foto: Envato / mstandret

So erkennen Sie Deepfakes

Deepfakes erlauben es, Gesichter, Bewegungen und Stimmen so realistisch nachzuahmen, dass sie kaum von echten Aufnahmen zu unterscheiden sind. Wie Sie manipulierte Inhalte von echten unterscheiden.

Was sind Deepfakes?

Deepfake-Videos können praktisch jeden Menschen in Videos, Bildern oder Audioaufnahmen beliebige Dinge tun oder sagen lassen. Gleichzeitig werden Tools zur Erstellung von Deepfakes immer kostengünstiger, immer leichter bedienbar und immer leichter zugänglich. Oft genügt nur ein einziges Foto als Grundlage für ein realistisches Deepfake-Video.

Heute kommen Deepfakes zunehmend für kriminelle Zwecke zum Einsatz, darunter Betrug, Erpressung, Identitätsdiebstahl und die Verbreitung von Falschinformationen. Auch mithilfe von Deepfake-Tools erstellte Pornografie – erneut mit beliebigen Bildern als Grundlage – gewinnt inzwischen an Verbreitung. Der Name Deepfake selbst setzt sich aus „Deep Learning“ (einer Technik, mit der KI-Systeme selbstständig lernen können) und „Fake“ (Fälschung) zusammen.

Video-Deepfakes erkennen

Die Deepfake-Technik entwickelt sich ständig weiter, hat jedoch nach wie vor Schwächen. Diese Erkennungsmerkmale sind die gängigsten. Tipp: In Zeitlupe abgespielt fallen Schwächen an Deepfake-Videos besonders auf.

Darstellungsfehler bei Augen und Mund von Personen

Unnatürlich blinzelnde Augen oder andere ungewöhnliche Augenbewegungen können ein Indiz für ein Fake-Video sein. Auch bei Lippenbewegungen kommt es hier häufig zu leichten Verzögerungen oder sonstigen Unstimmigkeiten.

Darstellungsfehler bei Licht und Schatten

Achten Sie auf die Beleuchtung von Gesichtern und Hintergründen. Ungereimtheiten, wie etwa Schatten, die nicht zur Lichtquelle passen, können Hinweise auf ein Deepfake sein.

Darstellungsfehler bei Kanten und Übergängen

Untersuchen Sie die Ränder von Gesichtern. Verwischte Kanten, erkennbare Pixel oder unscharfe Übergänge sind häufige Darstellungsfehler in Deepfakes.

Akustische Deepfakes erkennen

  • Achten Sie auf ungewöhnliche Betonungen, Pausen oder Verzerrungen.
  • Fehlende oder unpassende Umgebungsgeräusche können ein Indiz für eine manipulierte Aufnahme sein. Echte Aufnahmen enthalten in der Regel Hintergrundgeräusche, die zur Situation passen.
  • Audio-Deepfakes weisen oft eine ungewöhnlich monotone oder übertrieben betonte Sprechweise auf, die nicht zum Sprecher zu passen scheint.

Tools und Methoden zur Überprüfung Videos, Bildern und Tonaufnahmen

Wenn Sie den Verdacht haben, dass Videos, Bilder oder Audioaufnahmen im Netz manipuliert sind, können Sie auf verschiedene Tools zurückgreifen. „Deepware Scanner“, „Sensity AI“ und weitere Deepfake-Checker helfen dabei, gefälschte Mediendateien zu erkennen.

Eine durchgängig zuverlässige Erkennung jeder Form von Deepfakes ist mit solchen Tools allerdings noch nicht möglich. Allerdings kann auch eine Analyse des Absenders und des Inhalts eines potenziellen Deepfakes wertvolle Hinweise liefern.

Quellen und die Motivation des Erstellers prüfen

Einer der häufigsten Einsatzzwecke für Deepfakes ist die Verbreitung politisch motivierter Falschinformationen in sozialen Medien. Solche Manipulationen können öffentliche Meinungen beeinflussen, das Vertrauen in Institutionen untergraben und sogar das Ergebnis von Wahlen beeinflussen.

Dabei werden Deepfakes gezielt eingesetzt, um beim Empfänger starke Emotionen wie Empörung, Angst oder Wut zu erzeugen. Dadurch steigt die Wahrscheinlichkeit, dass der Empfänger mit dem Deepfake interagiert, beispielsweise durch einen Klick, ein „Like“ oder einen Kommentar.

Durch die Funktionsweise von Social-Media-Algorithmen erhöhen solche Interaktionen die Reichweite von Deepfakes, sodass diese an noch mehr Nutzer weiterverbreitet werden.

Deepfake-Check in sechs Fragen

Wenn Sie sich nicht sicher sind, ob ein Deepfake vorliegt, beantworten Sie folgende Fragen:

  • Könnten bestimmte politische Akteure oder Strömungen davon profitieren, wenn der Inhalt möglichst viele Menschen erreicht?
  • Bezieht sich der Inhalt auf ein Thema, über das momentan viel diskutiert wird oder das stark polarisiert?
  • Erweckt der Inhalt den Eindruck, gezielt bestimmte Emotionen zu erzeugen?

Ist die Antwort auf diese Fragen „ja“, liegt höchstwahrscheinlich ein Deepfake vor. Beenden Sie den Deepfake-Check mit folgenden Fragen:

  • Gibt es andere Berichte über das gezeigte Ereignis?
  • Wird das Ereignis von unabhängigen Nachrichtenportalen bestätigt?
  • Wird über das Ereignis auch außerhalb von Social Media berichtet?

Ist die Antwort auf die letzten drei Fragen größtenteils „nein“, liegt höchstwahrscheinlich ein Deepfake vor.

Wie entstehen Deepfakes?

Generative Adversarial Network liefern die realistischsten Ergebnisse

Die meisten Deepfakes basieren auf einer Technologie namens Generative Adversarial Networks (GANs). Bei GANs arbeiten zwei Algorithmen eng zusammen: ein „Generator“ und ein „Diskriminator“.

Der „Generator“ hat die Aufgabe, eine Fälschung zu erstellen – etwa ein Video, in dem eine Person etwas sagt, das sie in Wirklichkeit nie gesagt hat. Der „Diskriminator“ hingegen prüft, ob diese Fälschung echt wirkt oder nicht. Durch dieses ständige Wechselspiel verbessern sich beide Algorithmen kontinuierlich.

Der Generator lernt hierdurch, immer realistischere Fälschungen zu erstellen, während der Diskriminator immer besser darin wird, diese zu erkennen. Das Ergebnis sind Deepfakes, die für den Betrachter zunehmend schwerer von echten Aufnahmen zu unterscheiden sind.

Generative Adversarial Networks (GANs) wurden 2014 zuerst von dem Computerwissenschaftler Ian Goodfellow und seinen Kollegen vorgestellt. Ende 2018 erlangten sie weltweite Bekanntheit, als ein KI-generiertes Gemälde bei Christie’s – einem der traditionsreichsten Auktionshäuser auf dem Kunst- und Antiquitätenmarkt – verkauft wurde.

Autoencoder sind weniger leistungsfähig und einfacher zu bedienen

Eine weitere Methode zur Erstellung von Deepfakes sind sogenannte Autoencoder. Diese komprimieren die wesentlichen Merkmale eines Gesichts und übertragen sie auf ein anderes. Diese Technik wird häufig für das Austauschen von Gesichtern in Videos oder Bildern eingesetzt. Obwohl Autoencoder weniger komplex sind als GANs, können sie dennoch überzeugende Fälschungen erzeugen.

Deepfakes als Erpressungsmittel

Neben politischer Meinungsmache werden Deepfakes zunehmend für kriminelle Aktivitäten eingesetzt. Kriminelle nutzen sie beispielsweise, um Geld zu erpressen oder an sensible Informationen zu gelangen.

Ein bekanntes Beispiel ist der Fall des britischen Ingenieurunternehmens Arup, das durch eine gefälschte Videokonferenz 25 Millionen Dollar verlor. Hier nutzten Betrüger Deepfake-Technologie, um sich als Führungskräfte auszugeben und so die Freigabe von Zahlungen zu erschleichen.

Auch als Empfehlungen ausgegebene Deepfakes von Prominenten werden immer häufiger eingesetzt, um gängigen Online-Betrugsmaschen Glaubwürdigkeit zu verleihen. Solche Deepfakes werden überwiegend auf Werbenetzwerken und in den sozialen Medien veröffentlicht – Plattformen, deren Betreiber oft nicht konsequent genug gegen betrügerische Inhalte vorgehen.

So schützen Sie sich vor Deepfakes

1. Persönliche Medien nicht öffentlich teilen

Je weniger Bilder, Videos oder Audioaufnahmen von Ihnen im Internet vorhanden sind, desto schwieriger wird es für Kriminelle, überzeugende Deepfakes von Ihnen zu erstellen. Überprüfen Sie deshalb Ihre Privatsphäre-Einstellungen in den sozialen Medien und beschränken Sie den Zugriff auf Ihre Inhalte auf vertrauenswürdige Personen.

2. Zwei-Faktor-Authentifizierung (2FA) aktivieren

Sichern Sie Ihre Konten in sozialen Medien, bei E-Mail-Diensten etc. mit einer Zwei-Faktor-Authentifizierung. Auf diese Weise erschweren Sie es Angreifern, an persönliche Daten zu gelangen, die diese für Deepfakes nutzen könnten. Eine Zwei-Faktor-Authentifizierung (2FA) ist ein Sicherheitsverfahren, bei dem ein Nutzer zwei verschiedene Nachweise (z. B. Passwort und SMS-Code) liefern muss, um sich zu authentifizieren und Zugriff auf ein Konto zu erhalten.

3. Verifizierungscodes für sensible Kommunikation vereinbaren

Vorher abgestimmte Codewörter oder Sicherheitsfragen können besonders in beruflichen oder finanziellen Situationen dabei helfen, die Identität des Gegenübers zu bestätigen. Dies ist besonders wichtig bei Videokonferenzen oder Telefonaten, bei denen Deepfakes eingesetzt werden könnten, um Geld oder andere Leistungen zu erschleichen.

So schützen Sie Kinder und Jugendliche vor Deepfakes

Kinder und Jugendliche sind besonders anfällig für den Einfluss von Deepfakes, da sie oft nur schwer zwischen Fiktion und Realität unterscheiden können. Sie verbringen jedoch generell viel Zeit in den sozialen Medien und sind daher häufig manipulierten Inhalten ausgesetzt.

Deepfakes können nicht nur für Verunsicherung sorgen, sondern junge Menschen auch emotional belasten. Beispielsweise dann, wenn ein Deepfake vortäuscht, ein ihnen nahestehender Mensch habe etwas Erschütterndes gesagt oder getan. Zudem besteht die Gefahr, dass Kinder selbst zu Betrugsopfern werden, wenn Kriminelle Deepfakes einsetzen, um ihr Vertrauen zu erschleichen.

Kinder kindgerecht, aber ernsthaft für Deepfakes sensibilisieren

Eltern sollten die Gefahr, die von Deepfakes ausgeht, daher frühzeitig und verständlich ansprechen. Einfache Analogien, wie der Vergleich mit einem täuschend echt aussehenden, von KI erstellten Gemälde, können Kindern dabei helfen, das Konzept zu begreifen.

Gemeinsames Üben für die Praxis ist ebenfalls wichtig: Eltern können mit ihren Kindern erwiesene Deepfakes analysieren und auf Unstimmigkeiten wie unnatürliche Bewegungen oder Lichtfehler hinweisen. Ebenso ist es lehrreich, gängige Deepfake-Detektoren zusammen mit jungen Internetnutzern auszuprobieren.

Zudem sollten Eltern ihrem Nachwuchs vermitteln, bei verdächtigen Inhalten nachzufragen, nichts ungeprüft weiterzuleiten, Quellen zu prüfen und verdächtige Inhalte zu melden. Insgesamt sollten Eltern vor allem Vorbilder sein, die selbst kritisch mit Medien umgehen.

Diese Regeln sollten Eltern ihren Kindern auf den Weg geben:

  • Selbst, wenn Videos oder Fotos extrem realistisch wirken, können sie dennoch manipuliert sein.
  • Wenn ein Inhalt verdächtig oder unrealistisch erscheint, sollten Kinder sich an vertraute Personen wenden.
  • Je weniger Bilder oder Videos sie von sich online veröffentlichen, desto schwerer ist es für Betrüger, Deepfakes zu erstellen.

Häufig gestellte Fragen

Was sind Deepfakes?

Deepfakes sind KI-generierte Medieninhalte, die reale Personen in fiktiven Situationen zeigen. Mithilfe von Technologien wie Generative Adversarial Networks (GANs) oder Autoencodern werden Bilder, Videos oder Stimmen so manipuliert, dass sie für den Betrachter kaum von echten Aufnahmen zu unterscheiden sind. Ursprünglich wurden Deepfakes für Unterhaltungszwecke entwickelt, doch heute werden sie zunehmend für kriminelle Aktivitäten wie Betrug oder Desinformation eingesetzt.

Was sind Generative Adversarial Networks (GANs)?

GANs bestehen aus zwei Algorithmen: dem „Generator“, der Fälschungen erstellt, und dem „Diskriminator“, der diese auf ihre Echtheit überprüft. Durch dieses Wechselspiel verbessern sich beide Systeme kontinuierlich, sodass Deepfakes immer realistischer werden. GANs zählen zu den wichtigsten Technologien bei der Erstellung von Deepfakes.

Was sind Autoencoder?

Autoencoder sind KI-Modelle, die Gesichter oder andere Merkmale komprimieren und dann auf andere Inhalte übertragen. Im Gegensatz zu GANs arbeiten sie nicht mit einem Generator-Diskriminator-System, sondern führen die Transformation direkt durch. Autoencoder werden häufig für Face-Swapping oder andere einfache Manipulationen eingesetzt und können ebenfalls überzeugende Fälschungen erzeugen.

Wie erkenne ich Deepfakes?

Achten Sie auf unnatürliche Augenbewegungen, Lichtfehler oder asynchrone Lippenbewegungen. Nutzen Sie Tools wie Deepware Scanner oder Sensity AI, um verdächtige Inhalte zu überprüfen.

Warum sind Deepfakes gefährlich?

Deepfakes werden für Betrug, Erpressung und politische Manipulation eingesetzt. Sie können Vertrauen untergraben, Falschinformationen verbreiten und emotionale oder finanzielle Schäden verursachen.

Kann jeder Deepfakes erstellen?

Ja, mithilfe kostenloser Tools wie DeepFaceLab oder Apps wie Reface können auch Laien Deepfakes erstellen. Hochwertige Fälschungen erfordern allerdings oft fortgeschrittene Kenntnisse und leistungsstarke Hardware.

Sind Deepfakes illegal?

Deepfakes sind nicht grundsätzlich illegal, können aber strafrechtliche Konsequenzen haben, wenn sie zur Täuschung, Erpressung oder Diffamierung eingesetzt werden. Die rechtliche Bewertung hängt dabei vom Kontext und der Absicht ab.

Wie schütze ich mein Kind vor Deepfakes?

Stärken Sie die Medienkompetenz Ihres Kindes, nutzen Sie Tools zur Erkennung von Deepfakes und führen Sie offene Gespräche über die Risiken manipulierter Inhalte.

Was tun bei Deepfake-Verdacht?

Teilen Sie den verdächtigen Inhalt auf keinen Fall, nutzen Sie Tools zur Überprüfung und melden Sie verdächtige Inhalte ggf. an die Plattform, auf der sie veröffentlicht wurden. Sind Sie der Meinung, dass durch das Deepfake finanzielle oder persönliche Risiken bestehen, kontaktieren Sie die Behörden.

Welt der Wunder - Die App

Kostenfrei
Ansehen