Was tun gegen Deep-Fakes?

https://blog.wdr.de/digitalistan/was-tun-gegen-deep-fakes/

Was tun gegen Deep-Fakes?

Kommentare zum Artikel: 2

Von Fake-News haben wir mittlerweile reichlich gehört. Die meisten sind verunsichert, da sie gar nicht genau wissen, was nun Fake-News sind und was nicht. Es gibt auch kein geeignetes Werkzeug, um das bei einer konkreten Nachricht herauszufinden: Fake – oder echt? Genau das soll es aber bei Deep-Fakes künftig geben. Eine App, die einem verrät, ob eine Manipulation vorliegt.

Fake: In Fotos oder Videos teilweise nur schwer zu erkennen; Rechte: Pixabay

Fake: In Fotos oder Videos teilweise nur schwer zu erkennen

Deep-Fakes werden ein immer größeres Problem

Die meisten werden nun fragen: Deep-Fakes – was ist das denn schon wieder? Als Deep-Fakes werden Fotos oder Videos bezeichnet, die manipuliert wurden. Wie einfach es ist, mit Photoshop oder anderen Programmen ein Gesicht zu verändern, ist mittlerweile bekannt. Die Zahl der Spaß-Apps, die so etwas erlauben, ist riesig. Aber auch Videos lassen sich heute kinderleicht fälschen und manipulieren.

So ist es längst kein Problem mehr, Ex-US-Präsident Barack Obama oder US-Präsident Donald Trump etwas in den Mund zu legen – und es täuschend echt Aussehen zu lassen. Weil bei diesen Täuschungen KI-Software (Deep Learning) zum Einsatz kommt, die schnell “lernt”, wie sich eine Person bewegt und mimisch ausdrückt, wird diese Methode Deep-Fake genannt. Ein zunehmendes Problem, weil nun auch Videos nicht mehr als Beleg taugen. Sie könnten gefälscht sein.

https://vimeo.com/301803531

Per App lassen sich sogar Fotos zum Leben erwecken

Aufnahmen müssen versiegelt werden

Doch nun arbeiten unterschiedliche Firmen an Apps für iOS und Android, die es leichter machen sollen, solche Fälschungen zu enttarnen. Eine Art Lackmustest für Fotos und Videos. Truepic und Serely heißen die Verfahren, die gerade entwickelt werden. Sie setzen allerdings voraus, dass schon beim Fotografieren oder Filmen diese Technik eingesetzt wird, um die Aufnahmen zu “versiegeln”. So lassen sich dann spätere Manipulationen erkennen. Schon ein Pixel reicht, und der Algorithmus schlägt an.

Ein erster Schritt in die richtige Richtung. So ließen sich zum Beispiel offizielle Pressekonferenzen oder Aufnahmen aus Krisengebieten absichern, damit spätere Manipulationen erkannt werden können. Werkzeuge, die in Zukunft öfter zum Einsatz kommen könnten – und sollten.

Über den Autor

Jörg Schieb ist Internetexperte und Netzkenner der ARD. Im WDR arbeitet er trimedial: für WDR Fernsehen, WDR Hörfunk und WDR.de. In seiner Sendung "Angeklickt" in der Aktuellen Stunde berichtet er seit 20 Jahren jede Woche über Netzthemen – immer mit Leidenschaft und leicht verständlich.

2 Kommentare

  1. Macht ein solches Tool, das manipulierte/falsche Videos entlarvt, denn überhaupt (noch) Sinn?
    In Zeiten, in denen die (politische) “Wahrheit” scheinbar durch Mehrheitsbeschlüsse (vgl. z. B. den Fall Skripal oder das, inzwischen als völkerrechtswidrig eingestufte, Bombardement auf syrische Chemieanlagen – wo blieben Mays und Macrons angeblich vorliegende Belege?) definiert, beängstigenderweise eben nicht mehr durch Belege gesichert (= “Filterblase”!) und selbst von vielen sog. “Qualitätsmedien” vielfach kritiklos (Chemnitzer “Hetzjagd”/Maaßen!?) respektiert wird, stelle ich mir die Frage, ob “handfeste”, manipulationssichere Belege audiovisueller Machart nicht eher hinderlich sind, um eine politisch vorgegebene Marschrichtung mit Nachdruck zu etablieren?
    Sofern zutreffend sowie bewusst gewollt bzw. gesteuert, wäre das ein erschreckender Beleg für eine sich allmählich zersetzende Demokratie – eine fatale Entwicklung! Oder, frei nach Tilo Jung, als “Verständnisfrage” formuliert: gibt es “gute” (politisch/ideologisch verwertbare) und “böse” DeepFakes?

  2. Ich finde es echt traurig, dass es soweit gekommen ist.
    Was haben die Menschen davon, irgendwelche Fakes zu verbreiten? Das macht keinen Sinn….!

Einen Kommentar schicken

Die mit * gekennzeichneten Felder müssen ausgefüllt werden.

Rechenaufgabe: 21 ⁄ 7 =


Top