Warenkorb
Warenkorb
×
Der Warenkorb ist leer.
einmalig monatlich
{{position.qty}} {{position.title}} {{position.total_fix|price_ndash}} leihweise geschenkt {{position.total_rec|price_ndash}}

Total CHF {{$store.getters.total_price_fix|price_ndash}} {{$store.getters.total_price_rec|price_ndash}}

Jetzt bestellen
Warenkorb leeren Warenkorb bearbeiten

Was sind Deepfakes?

Blog| 20. Februar 2024 | Lesezeit: 5 Minuten

Deepfakes, also gefälschte Medieninhalte, verbreiten sich immer stärker in unserem Alltag. Wir erklären, was man darunter versteht, was alles manipuliert und gefälscht werden kann und woran man Deepfakes erkennen kann.

Dass Medieninhalte wie Tonaufnahmen, Fotos oder Filme verändert werden, ist nichts Neues. So wurden beispielsweise schon sehr früh Schwarzweiss-Fotos und -Filme koloriert oder Tonfilme nachträglich mit Geräuschen unterlegt. Heute gibt es wohl keine Spielfilme oder Serien mehr, die ohne digitale Nachbearbeitung, Spezialeffekte und andere Bild- und Tontricks auskommen.

Das Neue an Deepfakes ist allerdings, dass für die Fälschungen künstliche Intelligenz (KI) zum Einsatz kommt, die immer weniger technische Vorkenntnisse voraussetzt. Gemäss Wikipedia bezeichnete der Begriff (ein englisches Kofferwort aus «Deep Learning» und «Fake») zunächst nur durch Deepfake-KI erzeugte Inhalte. Heute hingegen sind mit Deepfakes mehrheitlich Medienwerke gemeint, die offensichtlich oder mutmasslich mit KI verfälscht wurden.

Die Methode dahinter heisst Deep Learning (tiefes Lernen), ein Teilgebiet des Machine Learning (maschinelles Lernen). Deepfakes bedienen sich dem Modell der neuronalen Netze. Vereinfacht gesagt wird ein solches Modell mit Daten, zum Beispiel Bildern einer Person, gefüttert und «trainiert», um aus den Informationen neue Inhalte zu kreieren, die es im Ausgangsmaterial nicht gegeben hat. Dass dafür immer weniger Daten und nur noch bedingt technisches Vorwissen nötig ist, hat innert weniger Jahre zu einer rasanten Entwicklung mit teilweise beunruhigenden Auswirkungen geführt.

Was kann alles gefälscht werden?

Grundsätzlich lassen sich sowohl Texte, Bilder, Audioaufnahmen und Videos mit künstlicher Intelligenz verändern und fälschen.

Gesichter

Die wohl häufigste Form von Deepfakes betrifft die Fälschung von Gesichtern. Dabei wird zum Beispiel ein Gesicht in einem Video durch ein anderes ausgetauscht, um ein Bild einer Person mit der Mimik, Blickrichtung und Beleuchtung einer anderen Person zu erzeugen. Oder die Kopf- und Lippenbewegungen und Mimik einer Person können so manipuliert werden, dass der Eindruck entsteht, die Person treffe Aussagen, die sie selbst nie getätigt hat. Des Weiteren können aus Bildern künstliche Fotos von Personen entstehen, die gar nicht existieren.

Stimmen

Darüber hinaus lassen sich natürlich auch nur Stimmen ohne Bilder verfälschen oder fälschen. Mit Text-zu-Sprache-Software ist es möglich, aus einem vorgegebenen Text eine Zielperson sprechen zu lassen, die sich wie sie selbst anhört. Ausserdem lassen sich bestehende Stimmaufnahmen so manipulieren, dass sie sich wie Aufnahmen einer anderen Person anhören.

Texte

Schliesslich lassen sich auch Texte künstlich erzeugen. Cloud-Dienste wie ChatGPT nutzen Texte aus tiefen neuronalen Netzen, um kombiniert mit hoher Rechenleistung neue Texte entstehen zu lassen. Diese lassen sich nicht ohne weiteres von tatsächlich von Menschenhand geschriebenen Inhalten unterscheiden. Solche KI-Roboter werden für die Erzeugung von Nachrichten, Blog-Einträgen oder auch für Chat-Antworten verwendet. Fortgeschrittene Systeme sind dabei so konfiguriert, dass sie zum Beispiel als Chat Bots fiktive Gesprächspartner simulieren oder in sozialen Medien Beiträge automatisch liken oder kommentieren.

Newsletter abonnieren

Sie möchten keine Beiträge mehr verpassen? Dann abonnieren Sie unseren monatlichen Newsletter!

 
 

Anwendungsbereiche von Deepfakes

Deepfakes gibt es in vielen Bereichen:

Politik

In der Politik werden Politikerinnen und Politiker Worte in den Mund gelegt, die sie nie gesagt haben. Es sollen sogar Videoanrufe erfolgt sein, bei denen sich Anrufer als Politiker ausgegeben haben. Deepfake-Kampagnen in der Politik werden damit zu Desinformations- und Propagandazwecken eingesetzt. So hatte beispielsweise der Schweizer SVP-Nationalrat Andreas Glarner im Herbst 2023 ein Deepfake-Video von Sibel Arslan in Umlauf gebracht, in welchem die Grünen-Nationalrätin scheinbar dazu aufruft, türkische Straftäter auszuschaffen.

Gängiges Mittel neben Videos sind dafür auch die automatische Erstellung und vorsätzliche Verbreitung von Falschmeldungen.

Pornografie

Bereits im Jahr 2017 sind auf der Plattform Reddit angebliche Pornovideos von bekannten Schauspielerinnen und Sängerinnen aufgetaucht. Dabei wurden Pornofilme mit den Daten von Spielfilmen verknüpft. Es dauerte nur wenige Wochen, bis die Reddit-Gemeinschaft die Algorithmen so verbessert hat, dass sich die gefälschten Videos nicht mehr von echten unterscheiden liessen.

Neben Berühmtheiten werden immer mehr auch Menschen jeglicher Herkunft Opfer von Rachepornos. Bei Deepfake-Rachepornos werden anders als bei den üblichen Racheaktionen mit echten Filmen von Personen in verfänglichen Situationen, die unerlaubterweise veröffentlicht werden, mit KI-Szenen hergestellt, die gar nie passiert sind.

Betrug

Mit Deepfakes von Stimmen und Bildern lassen sich beispielsweise biometrische Authentifizierungssysteme überwinden. Mithilfe von Social Engineering können Deepfakes Personen dazu bringen, sich selbst oder anderen zu schaden. Die Folgen können Transaktionsbetrug etwa zu Geldwäschezwecken oder zur illegalen Aneignung oder Verwendung von Kapital, der Verlust von geistigem Eigentum und vieles mehr sein.

Betrugsbekämpfung

Künstlich erzeugte Bilder werden aber auch verwendet, um KI-Videoidentifikationssysteme besser zu trainieren respektive Betrugsversuche derselben automatisiert zu erkennen. Denn aus Datenschutzgründen ist dafür die Verwendung von echten Personenbildern nur eingeschränkt erlaubt. So lassen sich Gesichter etwa entfremden und für maschinelles Lernen wie Originaldaten verwenden, ohne dabei die Privatsphäre zu verletzen. Damit wird es möglich, KI-Betrügereien effizienter mit KI zu bekämpfen.

Ziel ist es, die Betrugserkennung robuster zu machen. Denn es gibt zwar diverse Hersteller, die für sich sehr hohe oder gar einhundertprozentige Erkennungsraten beanspruchen. In der Realität ist es aber so, dass Deepfakes meistens nur in experimentellen Situationen mit hoher Wahrscheinlichkeit erkannt werden. Das hat mit der fehlenden Varianz der Daten zu tun. Das Phänomen ist in der künstlichen Intelligenz keine Ausnahme: KI funktionieren in dem Umfeld am besten, aus dem die Daten stammen, mit denen die Software trainiert wird.

Mannigfache Auswirkungen

Auch wenn es durchaus Anwendungsgebiete wie in der Forschung, in Kreativberufen oder der Kunst gibt, bei denen Deepfakes eine Bereicherung darstellen, sind doch die möglichen Gefahren, die von ihnen ausgehen, vielschichtig und weitreichend. Verliert eine Gesellschaft das Vertrauen in die Echtheit von Informationen, so kann das das Funktionieren einer digitalen Welt negativ massiv beeinflussen.

So könnten etwa Identifikationsprozesse, die digital mittels KI und Videoauthentifizierung an Effizienz gewonnen haben, mit einer Rückkehr zu Papierprozessen und physischer Präsenz technologische Rückschläge erfahren und ganz allgemein Innovationen ins Stocken geraten. Und nicht zuletzt sind Deepfakes zum Zwecke der Desinformation und Verbreitung von Verschwörungstheorien eine Gefahr für die Grundwerte von Demokratie und Rechtsstaatlichkeit. 

Daran erkennen Sie Deepfakes

Deepfakes sind zwar immer einfacher herzustellen. Man kann Fälschungen aber auch mit einem geübten Auge erkennen:

  1. Vertrauenswürdige Quelle: Achten Sie auf die Quelle. Wer hat das Foto oder Video als erstes veröffentlicht? Findet man es auch auf seriösen Newsportalen? Stellen Sie sich auch die Frage, ob die im Video gezeigte Person sich auch wirklich so äussern würde.
  2. Unnatürliche Mimik: Menschen blinzeln von Natur aus. Tut die Person das im Film nicht, könnte es sich um einen Deepfake handeln. Auch wenn die Stimme nicht synchron zur Lippenbewegung ist, deutet das auf eine Fälschung hin.
  3. Hintergrund und Übergänge: Treten am Rand oder im Hintergrund des Gesichts seltsame Ränder oder unnatürliche Lichtverhältnisse oder Farben im Gesicht auf, ist es mit hoher Wahrscheinlichkeit ein Deepfake. Schauen Sie deshalb im Zweifelsfall Videos und Bilder immer auf einem grossen Bildschirm und nicht bloss auf dem Smartphone an.
Markus Häfliger
PR-Fachmann

Markus Häfliger ist PR-Fachmann und schreibt seit 2018 für iWay. Als ehemaliger IT-Journalist liest er sich in jedes Thema ein. Ihn fasziniert, wie IT unser Leben durchdringt und stets spannend bleibt.

Internet

ab CHF

pro Monat

ab CHF

29.–

pro Monat