Gedacht als Scherzartikel-App, hat sich Deepnude, das es ermöglicht, aus Bildern bekleideter Frauen Nacktbilder zu fabrizieren, verselbständigt und stellt nun eine ernstzunehmende Bedrohung der Privatsphäre dar.
Durchschnittliche Lesezeit: ca. 2 Minuten
Inspiration Röntgenbrille
Aus Jux und Tollerei entstand 2019 die App Deepnude. Die Inspiration dazu kam vom artverwandten Deepfake (s. Künstliche Intelligenz und Singularität – was uns nach Web 4.0 erwartet), das mithilfe von künstlicher Intelligenz verfälschte, aber realistisch wirkende Medieninhalte darzustellen vermag. Weiter stand die «Röntgenbrille», ein alberner Scherzartikel aus den 70er-Jahren, der die Illusion vorgibt, durch Kleidung sehen zu können, Pate. Neben ein Paar Lachern dürften sich die Träger solcher Brillen wohl auch die ein oder andere Backpfeife eingefangen haben.
Open-Source-Technik
Hinter Deepnude selbst steckt die frei zugängliche Technik von pix2pix, das, vereinfacht gesagt, Bilddaten entgegennimmt und diese in andere Bilddaten übersetzt. Wird die künstliche Intelligenz dahinter mit ausreichend Daten gefüttert, ist sie zum Beispiel in der Lage, aus Kritzeleien Bilder realistisch wirkender Gegenstände zu erzeugen.
Oder im Fall von Deepnude Nacktbilder aus Bilddateien von Frauen, die idealerweise nur mit Unterwäsche oder Bademode bekleidet sind. Warum das nur für Frauen funktioniert, ist einfach erklärt: Laut Entwickler liessen sich schlichtweg mehr (pornografische) Nacktfotos von Frauen für den Algorithmus auftreiben (s. Diskriminierende KI – das Problem mit der Blackbox).
Übler Scherz
Weitaus brisanter als die dümmliche Röntgenbrille, ersetzt der Deepnude-Algorithmus Textilien durch nackte Tatsachen. Dass die Blossstellung nicht auf wahren Tatsachen, sondern auf Manipulation beruht, ist dabei unerheblich. Der Tatbestand der Objektifizierung wird dadurch nur umso schwerwiegender.
Auch der Entwickler von Deepnude erkannte dies im Nachhinein und nahm seine App, als sie viral wurde, wieder vom Netz. Doch da war es schon zu spät. Noch immer befindet sich die Anwendung frei zugänglich im Web.
Rasante Verbreitung über Messenger-App
Eine neue Version erfährt derzeit über die Textnachrichten-App Telegram regen Zuspruch. Innerhalb weniger Monate wurden dort von einem Bot, an den sich die Bilder schicken liessen, über 100 000 Fotos von Frauen manipuliert. Die Fotos wurden grösstenteils aus sozialen Netzwerken gestohlen.
Die Geister, die ich rief …
Ein übler Schabernack – das Schadenspotential, das hinter Deepnude steckt, ist enorm. Sextortion (wir berichteten) ist nur eine hässliche Facette der mannigfaltigen Möglichkeiten des Missbrauchs.
Zwar lassen sich ähnliche Ergebnisse auch mit einem Bildbearbeitungsprogramm und etwas Übung erzielen. Das Bedrohliche an Deepnude aber ist, dass damit solche Manipulationen auf Knopfdruck in Massenproduktion erzeugt werden können, und das ganz ohne Vorkenntnisse.
Es zeigt sich abermals, das Bildmaterial, das in sozialen Netzwerken publiziert wird, sollte mit Bedacht gewählt werden.