Deep Fakes: Die Welt auf der falschen Fährte

Deep Fakes Fink & Fuchs
Lesedauer: 3 Minuten

Was Franziska Giffey passiert ist, könnte jeden Menschen treffen: Die Bürgermeisterin Berlins ist auf eine Fälschung hereingefallen: In einem Videotelefonat mit Vitali Klitschko hat sie nicht gemerkt, dass sie nicht mit dem echten Klitschko sprach – sondern mit einer Fälschung. Auch wenn Expert:innen uneins sind, ob das Video tatsächlich ein Deep Fake war oder einfach nur handwerklich sehr geschickt geschnittenes Bildmaterial des echten Klitschko: Es zeigt, wie gefälschte Videos zum Einsatz kommen können. Deep Fakes erstellen mithilfe von Software sowie Künstlicher Intelligenz echt wirkende Bilder und Videos – und oft ist dafür gar kein großes handwerkliches Geschick nötig, eine App kann reichen.

Herausforderungen für Medienschaffende

Deep Fakes sind eine Gefahr für Gesellschaft,Wirtschaft, Politik – und die Medien.Blogbeitrag Deepfake Grafik 03 Mit ihnen lassen sich politische Prozesse beeinflussen und die Richtung der öffentlichen Meinung lenken: Stimmen und Gesichter können beliebig manipuliert und Personen in anderen Zusammenhängen dargestellt werden. Mit steigender Rechenleistung und Künstlicher Intelligenz als Basistechnologie, die immer besser wird, lässt sich gefälschtes Material zunehmend schwieriger von echtem unterscheiden. Das Tempo, in dem Bilder und Videos in den sozialen Medien verbreitet und als wahr akzeptiert werden, potenziert das Problem. Auch deshalb fällt Medienschaffenden an dieser Stelle eine zunehmende Verantwortung zu, es sorgfältig zu prüfen und zu klassifizieren. Nur: Leider ist das nicht immer so leicht möglich.

Content-Authentizität schützt vor Manipulation

Deep Fakes sind ein gutes Beispiel dafür, wie die gleiche Technologie, die genutzt wird, um die Erstellung und Bearbeitung von Inhalten zu verbessern, effizienter und einfacher zu machen, missbraucht werden kann. Denn letztlich basiert der automatische Austausch von Hintergründen oder aufwendige CGI-Effekte in Filmen auf den gleichen Grundlagen. Deep Fakes stellen Tech-Unternehmen, Social-Media-Plattformen, Medien und die Gesellschaft vor Herausforderungen. Einen interessanten Ansatz, wie Unternehmen darauf reagieren, stellt die Content Authenticity Initiative dar: Adobe hat sie 2019 zusammen mit Twitter und der New York Times gegründet. Inzwischen gehören ihr über 750 Mitglieder an, darunter auch die dpa oder der Stern. Ziel ist es, Menschen die Chance zu geben, die Herkunft und Bearbeitung von Bildern und Videos einfach nachprüfen zu können – transparent und fälschungssicher. Der Hebel dafür: Ein Echtheitsnachweis, der Bildern und Videos hinzugefügt wird, der alle Bearbeitungen und Veränderungen dokumentiert.

 

Blogbeitrag Deepfake Grafik 02Medienkompetenz ist Aufgabe aller Nutzer:innen

Langfristig will die Initiative einen offenen Standard schaffen, mit dem Medien, Journalist:innen, Künstler:innen und andere Kreative ihre audiovisuellen Arbeiten authentifizieren können. Deren Herkunft soll dabei zweifelsfrei nachweisbar werden: Geklärt werden soll, wer das Bild oder das Video wann und wo aufgenommen hat – und wie es im Zweifel verändert wurde. Ein Nachweis, der nur dann richtig funktioniert, wenn dessen Informationen überall ausgewiesen werden – also auch auf der Medien-Website, auch im sozialen Netzwerk. Und wenn sich Nutzer:innen damit beschäftigen. Adobes CEO Shantanu Narayen nimmt auch sie im Gespräch mit Forbes in die Pflicht. Auch sie müssten sich informieren wollen und verfügbare Tools nutzen, um zu prüfen, ob denn echt ist, was sie sehen. Das erfordert Medienkompetenz – und kritisches Denken.

Gemeinsam gegen Desinformation

Die Content Authenticity Initiative ist damit ein gutes Beispiel dafür, wie sich Branchenfelder zusammenschließen und zur Lösung von Problemen einbringen können – und auch dafür, wen es dafür alles braucht. Von Software über Hardware bis hin zu Medien, Social-Media-Plattformen und eben auch den Nutzer:innen. Deep Fakes zur Desinformation sind ein Problem, für das es zum einen technische Lösungen braucht, ob nun Erkennungstools oder einen fälschungssicheren Echtheitsnachweis, zum anderen Distributionskanäle und Plattformen ihren Teil schultern müssen. Verlagshäusern und deren Medien kommt immer stärker die Aufgabe zu, nicht nur selbst in der Lage zu sein, Inhalte zu prüfen, sondern auch, Desinformationsmechanismen und Kampagnen als Gegenstand der Berichterstattung aufzugreifen. Und mündige Nutzer:innen sind ebenfalls gefragt – um Desinformation gemeinsam zu bekämpfen.

 

Bilderursprung: iStock.com/VectorMine


< Zurück zur Übersicht

2 thoughts on “Deep Fakes: Die Welt auf der falschen Fährte

  1. Liebe Fink & Fuchs Redaktion,

    ich finde es großartig, dass ihr über »Deep Fakes« berichtet und dadurch dafür sorgt, dass weniger Menschen darauf hereinfallen und betrogen werden. Erstaunlich finde ich, dass ich tatsächlich vor eurem Beitrag noch nie davon gehört habe, dass Betrüger nun auch die Künstliche Intelligenz zu ihrem Vorteil nutzen.

    Wäre es möglich, dass ihr eine Liste veröffentlicht mit Tipps zur Erkennung von Deep Fakes?

    Ich freue mich auf weitere interessante Beitrage von euch!

    Beste Grüße
    Graffitiartist

    • Hallo Graffitiartist,
      uns freut es sehr, dass der Beitrag auf Interesse stößt. Danke für die Anregung, wir werden einige Tipps zur Erkennung von Deep Fakes sammeln und demnächst etwas dazu posten.
      Liebe Grüße
      das Fink & Fuchs-Team

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

*

Time limit is exhausted. Please reload CAPTCHA.