In den Siebzigern waren sie ein Partyknüller: Sogenannte “Röntgenbrillen”, die angeblich einen lüsternen Blick durch die Textilien hindurch gewähren. Das hat zwar nie wirklich funktioniert – aber wohl zumindest die Phantasie der Brillenträger beflügelt.
DeepNude wurde mit Tausenden Aufnahmen “trainiert”
Tatsächlich ist die Technik heute in der Lage, genau das zu ermöglichen, was mit der Röntgenbrille versprochen wurde: Es gibt eine Software, DeepNude genannt, die aus ganz gewöhnlichen Porträtaufnahmen im Handumdrehen Nacktbilder macht. Das Versprechen diesmal: DeepNude zeigt Menschen unbekleidet. Die Textilien werden durch realistisch aussehende nackte Haut ersetzt.
Das Ganze gab es kurzzeitig mal als App. Die wurde nach Protesten aber entfernt. Heute geht es anders: Auf Telegram können User Fotos an einen Bot schicken – und der macht innerhalb kürzester Zeit ein künstlich erzeugtes Nacktbild daraus und sendet es zurück. Kostenpunkt: etwas mehr als ein Euro.
DeepNude wurde mit Tausenden Aufnahmen “trainiert”
DeepNude ist ein KI-System, das mit Zehntausenden von Nacktaufnahmen “trainiert” wurde. Auf diese Weise hat DeepNude die Anatomie unbekleideter weiblicher Körper “gelernt”. Entsprechend trainiert, retuschiert DeepNude nun in Aufnahmen von jungen Frauen blitzschnell die Bekleidung weg.
Für den Betrachter sieht es aus wie eine Nacktaufnahme. Wichtig zu wissen: DeepNude zeigt das Opfer solcher Deep-Fake-Attacken nicht wirklich nackt, sondern präsentiert lediglich eine Annahme, wie die Person aussehen könnte. Aber das ist schlimm genug.
Bei Männern versagt DeepNude völlig. Denn es wurde ausschließlich mit Nacktaufnahmen von Frauen gefüttert – wie ein nackter Mann aussieht, “weiß” DeepNude nicht.
Deep-Fakes: Es wird immer einfacher – und die Qualität immer besser
Fatale gesellschaftliche Folgen
Die möglichen Folgen sind fatal. Es ist abzusehen: Schon bald kursieren in Klassen-Chats vermeintliche Nacktaufnahmen von Mädchen aus der Klasse. Oder von Kolleginnen. Promis müssen sowieso damit leben, dass Irre ihre Köpfe auf Pornos “photoshoppen”. Aber mit KI-Systemen wie DeepNude kann es jede(r) – und das blitzschnell.
Es hat schon Fälle gegeben, da wurden Frauen mit solchen Fake-Aufnahmen erpresst.
Wir als Gesellschaft werden mit immer mehr Fake-Medien geflutet: Fake-Fotos, Fake-Videos, Fake-Audios. Es gibt immer mehr Fake-Medien – und dadurch immer mehr Verunsicherung. Echt oder unecht, was wir da sehen oder hören? So etwas kann nicht nur Existenzen vernichten, sondern auch Gerichtsprozesse beeinflussen, Skandale verursachen oder Staatskrisen erzeugen.
Ein Kommentar
Kommentar Funktionen
Womit wir beim Thema “Ethik und Moral im Web” wären.
Wenn unsere Gesellschaft doch so weit und mitdenkend ist, warum “erkennt” sie dann solcherlei Fakes nicht als diese? Oder anders ausgedrückt, warum nimmt der Mensch gerne zuallererst das Schlechte vom anderen an bevor er an das Gute glaubt? Nun sind Nacktaufnahmen ja grundsätzlich nichts schlechtes. Was damit dann aber in der Masse gemacht werden kann, da stimme ich Ihren Bedenken ganz und gar zu. Weil der Mensch doch gerne sich seiner Urtriebe und Urinstinkte bedient. Aus Unsicherheit heraus, weil die Gesellschaft wie eine Feder im Wind ihr Ansinnen ändert und einen nicht immer mit dem Mantel der Liebe umhüllend Geborgenheit gibt.
In 1.000 Jahren wird die dann existirende Gesellschaft über uns lächeln und als Kleingeistig und sehr kursichtig denkend abtun…da möchte man kein Archeologe dann sein!