Gedacht als Scherzartikel-App, hat sich Deepnude, das es ermöglicht, aus Bildern bekleideter Frauen Nacktbilder zu fabrizieren, verselbständigt und stellt nun eine ernstzunehmende Bedrohung der Privatsphäre dar.
Durchschnittliche Lesezeit: ca. 4 Minuten
Inspiration Röntgenbrille
Aus Jux und Tollerei entstand 2019 die App Deepnude. Die Inspiration dazu kam vom artverwandten Deepfake, das mithilfe von künstlicher Intelligenz verfälschte, aber realistisch wirkende Medieninhalte darzustellen vermag. Weiter stand die «Röntgenbrille», ein alberner Scherzartikel aus den 70er-Jahren, der die Illusion vorgibt, durch Kleidung sehen zu können, Pate. Neben ein Paar Lachern dürften sich die Träger solcher Brillen wohl auch die ein oder andere Backpfeife eingefangen haben.
[Weiterlesen: Künstliche Intelligenz und Singularität – was uns nach Web 4.0 erwartet]
Open-Source-Technik
Hinter Deepnude selbst steckt die frei zugängliche Technik von pix2pix, das, vereinfacht gesagt, Bilddaten entgegennimmt und diese in andere Bilddaten übersetzt. Wird die künstliche Intelligenz dahinter mit ausreichend Daten gefüttert, ist sie zum Beispiel in der Lage, aus Kritzeleien Bilder realistisch wirkender Gegenstände zu erzeugen.
Oder im Fall von Deepnude Nacktbilder aus Bilddateien von Frauen, die idealerweise nur mit Unterwäsche oder Bademode bekleidet sind. Warum das nur für Frauen funktioniert, ist einfach erklärt: Laut Entwickler liessen sich schlichtweg mehr (pornografische) Nacktfotos von Frauen für den Algorithmus auftreiben.
[Weiterlesen: Diskriminierende KI – das Problem mit der Blackbox]
Übler Scherz
Weitaus brisanter als die dümmliche Röntgenbrille, ersetzt der Deepnude-Algorithmus Textilien durch nackte Tatsachen. Dass die Blossstellung nicht auf wahren Tatsachen, sondern auf Manipulation beruht, ist dabei unerheblich. Der Tatbestand der Objektifizierung wird dadurch nur umso schwerwiegender.
Auch der Entwickler von Deepnude erkannte dies im Nachhinein und nahm seine App, als sie viral wurde, wieder vom Netz. Doch da war es schon zu spät. Noch immer befindet sich die Anwendung frei zugänglich im Web.

Rasante Verbreitung über Messenger-App
Eine neue Version erfährt derzeit über die Textnachrichten-App Telegram regen Zuspruch. Innerhalb weniger Monate wurden dort von einem Bot, an den sich die Bilder schicken liessen, über 100 000 Fotos von Frauen manipuliert. Die Fotos wurden grösstenteils aus sozialen Netzwerken gestohlen.
Die Geister, die ich rief …
Ein übler Schabernack – das Schadenspotential, das hinter Deepnude steckt, ist enorm. Sextortion ist nur eine hässliche Facette der mannigfaltigen Möglichkeiten des Missbrauchs.
[Weiterlesen: Serie Bedrohungen im Internet, Teil 3: Sextortion]
Zwar lassen sich ähnliche Ergebnisse auch mit einem Bildbearbeitungsprogramm und etwas Übung erzielen. Das Bedrohliche an Deepnude aber ist, dass damit solche Manipulationen auf Knopfdruck in Massenproduktion erzeugt werden können, und das ganz ohne Vorkenntnisse.
Es zeigt sich abermals, das Bildmaterial, das in sozialen Netzwerken publiziert wird, sollte mit Bedacht gewählt werden.
[Weiterlesen: Die unheimliche Rückkehr von Deepnude: eine Gefahr für die Privatsphäre]

Checkliste: Digitale Röntgenbrille und Deepnude
Was ist Deepnude und warum ist es problematisch?
Deepnude ist eine App, die mithilfe künstlicher Intelligenz realistisch wirkende Nacktbilder aus Fotos bekleideter Frauen generiert. Obwohl sie ursprünglich als Scherzartikel entwickelt wurde, wird sie inzwischen für gezielte Manipulation und Belästigung eingesetzt.
Wie funktioniert Deepnude technisch?
Die App basiert auf der Open-Source-Technologie pix2pix, die Bildinhalte verändert oder ergänzt. Sie wurde mit grossen Mengen an Bilddaten trainiert, um Kleidung durch generierte Haut zu ersetzen.
Warum sind hauptsächlich Frauen betroffen?
Der Algorithmus wurde fast ausschliesslich mit Nacktbildern von Frauen trainiert, da solche Bilder leichter verfügbar waren. Dadurch funktioniert die Manipulation überwiegend bei weiblichen Körpern.
Ist Deepnude noch verfügbar?
Die Original-App wurde vom Entwickler entfernt, aber die Technologie ist weiterhin im Umlauf. Besonders über Messenger-Dienste wie Telegram werden täglich Tausende Bilder manipuliert – und mittlerweile hat die dritte Welle dieser Deepfake-Technologie auch TikTok erreicht.
Welche Risiken ergeben sich daraus?
Die Verbreitung manipulierter Bilder kann für Betroffene zu Rufschädigung, Erpressung (Sextortion) oder anderen Formen des Missbrauchs führen. Da die Fälschungen oft täuschend echt wirken, ist der Schaden enorm.
Wie kann ich mich schützen?
Es gibt keine absolute Sicherheit, aber einige Massnahmen können helfen:
- Überlege, welche Bilder du online teilst. Je weniger freizügig, desto besser.
- Nutze Privatsphäre-Einstellungen. Begrenze, wer Zugriff auf deine Fotos hat.
- Sei skeptisch gegenüber fragwürdigen Apps. Manche Dienste versprechen harmlosen Spass, haben aber versteckte Risiken.
- Melde Missbrauch. Falls du betroffen bist, wende dich an Plattformbetreiber oder juristische Stellen.
Gibt es rechtliche Konsequenzen für die Täter?
Ja, in vielen Ländern können verschiedene bestehende Gesetze auf solche Fälle angewendet werden. Dazu gehören unter anderem Verleumdung, Identitätsmissbrauch, Verletzung der Persönlichkeitsrechte oder sogar Erpressung, je nach Kontext und Nutzung der manipulierten Bilder. Allerdings bleibt die Durchsetzung schwierig, insbesondere wenn die Täter anonym agieren oder sich in Ländern ohne klare Regelungen befinden.
Fazit: Die alte Scherzartikel-Röntgenbrille war harmlos, doch Deepnude ist es nicht. Künstliche Intelligenz bringt faszinierende, aber auch beunruhigende Möglichkeiten – und manchmal ruft man Geister, die man nicht mehr loswird.
Weiterlesen: [Die unheimliche Rückkehr von Deepnude: eine Gefahr für die Privatsphäre] – Welle Nr. 3 hat längst nicht nur Telegram, sondern jetzt auch TikTok erreicht.