Gedacht als Scherzartikel‑App, hat sich Deepnude, welches ermöglicht, aus Bildern bekleideter Frauen Nacktbilder zu fabrizieren, verselbstständigt und stellt nun eine ernst zu nehmende Deepnude‑Privatsphäre‑Gefahr dar.
Durchschnittliche Lesezeit: ca. 3 Minuten
Inspiration Röntgenbrille
Aus Jux und Tollerei entstand 2019 die App Deepnude. Die Inspiration dazu kam vom artverwandten Deepfake, das mithilfe künstlicher Intelligenz verfälschte, aber realistisch wirkende Medieninhalte darzustellen vermag. Weiter stand die «Röntgenbrille», ein alberner Scherzartikel aus den 70er-Jahren, der die Illusion vorgibt, durch Kleidung sehen zu können, Pate. Neben ein paar Lachern dürften sich die Träger solcher Brillen wohl auch die eine oder andere Abreibung eingefangen haben. Andere Zeiten, andere Sitten.
Open-Source-Technik
Hinter Deepnude steckte ursprünglich eine frei zugängliche Technik, die aus Bildern von Frauen in Unterwäsche oder Bademode Nacktbilder erstellen konnte – der frühe Kern der heutigen Deepnude‑Privatsphäre‑Gefahr.
Heutzutage sind Deepnude und ähnliche Algorithmen durch vielfältige KI‑Methoden so ausgefeilt, dass sie längst nicht mehr auf Bademoden‑Fotos allein angewiesen sind. Dadurch hat sich die Deepnude‑Privatsphäre‑Gefahr massiv ausgeweitet.
Selbst normal bekleidete Personen beiderlei Geschlechts können entblösst werden, was eine Bedrohung für sämtliche Lifestyle-Konten auf Instagram oder TikTok darstellt. Auch private Konten können betroffen sein. Das neue Deepnude eröffnet potenziellen Stalkern neue Dimensionen. Die möglichen Szenarien umfassen Erpressung (Sextortion), Rufschädigung und vieles mehr.
Rasante Verbreitung über Messenger‑Apps und soziale Medien – und die wachsende Gefahr für die Privatsphäre
Ursprünglich wurden Deepnudes über Textnachrichten-Apps wie Telegram verbreitet. Dort manipulierten Bots innerhalb weniger Monate Fotos von über 100 000 Frauen, die grösstenteils aus sozialen Netzwerken gestohlen wurden.
Neuerdings wird illegale Werbung für Deepnude‑Apps auch in TikTok‑Feeds eingeschleust, was die Reichweite und damit die Deepnude‑Privatsphäre‑Gefahr weiter erhöht.
Eskalation auf X: Grok als Beschleuniger der Deepnude‑Privatsphäre‑Gefahr
Während sich Deepnude‑Varianten bereits über Telegram und TikTok verbreitet haben, zeigt sich auf X eine neue Dimension des Missbrauchs. Der KI‑Chatbot Grok, ursprünglich als humorvoller Assistent eingeführt, kann auf Anfrage täuschend echte Nacktaufnahmen realer Personen erzeugen – oft aus harmlosen Profilfotos und in Sekundenbruchteilen.
Recherchen belegen, dass Grok nicht nur Kleidung entfernt, sondern ganze Körperhaltungen, Lichtstimmungen und Hintergründe synthetisch neu generiert. Die Ergebnisse wirken oft glaubwürdiger als klassische Deepnudes. Trotz öffentlicher Kritik und angekündigter Einschränkungen bleibt die Funktion missbrauchbar. Tests zeigen, dass Schutzmechanismen leicht zu umgehen sind.
Ermittlungsbehörden in mehreren Ländern prüfen inzwischen Fälle, in denen Grok‑basierte Deepfakes für Erpressung, Rufschädigung oder gezielte Belästigung eingesetzt wurden. Die Werkzeuge werden nicht nur einfacher, sondern auch schneller und schwerer nachzuverfolgen. Die Verantwortung bleibt diffus – und die Risiken für die Privatsphäre steigen weiter.
Erpressung mit Sexvideos – wenn KI‑Missbrauch zur Gefahr für die Privatsphäre wird
In den letzten Jahren hat die Verbreitung von Deepfake-Porno-Videos stark zugenommen. Kriminelle nutzen dabei frei verfügbare KI-Tools, um Fotos und Videos aus sozialen Medien zu manipulieren und in gefälschte Amateur-Pornovideos umzuwandeln.
Besonders besorgniserregend ist, dass viele der Opfer minderjährige Schülerinnen und Schüler sind – ein drastisches Beispiel dafür, wie weit die Deepnude‑Privatsphäre‑Gefahr inzwischen reicht.
Schurken haben mittlerweile leichtes Spiel. KI-Tools zur Bildmanipulation sind leicht zugänglich und einfach zu bedienen. Fotos oder Filme zur Bearbeitung sind schnell gefunden und in erotische Videos oder Bilder umgewandelt, die dann auf verschiedenen Plattformen verbreitet werden. Die Motive hinter diesen Taten sind vielfältig, reichen von Rache bis zur Erpressung von Lösegeld.
Die Identifikation der Täterinnen und Täter bleibt in vielen Fällen schwierig. Viele operieren anonym, nutzen Wegwerf‑Accounts oder verschlüsselte Plattformen. Selbst wenn Deepfakes öffentlich auftauchen, ist oft unklar, wer sie erstellt oder verbreitet hat. Das erschwert die strafrechtliche Verfolgung erheblich und führt dazu, dass Betroffene häufig nur gegen Unbekannt Anzeige erstatten können.
Flucht nach vorne: Botschaft an die Opfer
Wenn du Opfer von Bildmanipulation geworden bist, sprich darüber. Sich den Mut dazu zu nehmen, ist leichter gesagt als getan, aber lass dich nicht von Angst oder Scham überwältigen. Du hast keinen Grund, dich zu schämen – die Schuld liegt bei den Täterinnen und Tätern. Als nächsten Schritt erstatte eine Anzeige. Die schweizerischen Gesetze haben klare Bestimmungen, um die Privatsphäre und Würde der Menschen zu schützen. Unbefugte Manipulation und Verbreitung von Bildern kann sowohl zivilrechtliche als auch strafrechtliche Konsequenzen nach sich ziehen. Im Falle der Manipulation und Verbreitung von Videos und Bildern mit Deepfake-Technologie handelt es sich um unbefugtes Aufnehmen und Verbreiten von Bildmaterial, Verletzung der Persönlichkeitsrechte und Verletzung der Ehre.
Melde den Vorfall sofort der Plattform. Die meisten sozialen Netzwerke bieten Meldewege für missbräuchliche Inhalte. Je schneller du reagierst, desto eher können die Bilder entfernt werden.
Falls die Täterschaft bekannt ist, kontaktiere sie direkt. In manchen Fällen lassen sich Inhalte so schneller löschen – auch wenn dies aufgrund der Anonymität im Netz oft nicht möglich ist.
Erwäge eine Strafanzeige gegen Unbekannt. Auch wenn die Täter nicht identifizierbar sind, kann eine Anzeige wichtig sein, um Spuren zu sichern und weitere Schritte einzuleiten.
Behalte im Hinterkopf, dass die internationale Durchsetzbarkeit begrenzt ist. Viele Plattformen sitzen im Ausland, was rechtliche Verfahren erschwert. Dennoch lohnt sich der Schritt, weil er dokumentiert, dass du dich wehrst.
Schütze deine Privatsphäre: Tipps zur Vermeidung von Bildmanipulation und Deepnude‑Missbrauch
Achte auf deine Privatsphäre-Einstellungen: Überprüfe regelmässig die Datenschutzeinstellungen deiner Social-Media-Konten und beschränke den Zugriff auf deine Bilder und Videos auf vertrauenswürdige Kontakte. Vermeide es, sensible Inhalte öffentlich zu teilen.
Verwende Wasserzeichen: Wenn du Bilder oder Videos online teilst, füge Wasserzeichen hinzu, um deine Kreationen zu kennzeichnen. Dadurch wird es schwieriger, deine Inhalte ohne deine Erlaubnis zu manipulieren oder zu verwenden.
Sei wachsam bei verdächtigen Aktivitäten: Halte Ausschau nach unerwarteter Verwendung deiner Bilder oder Videos. Wenn du bemerkst, dass deine Inhalte ohne deine Erlaubnis manipuliert oder missbraucht werden, handle sofort.
Reagiere umgehend bei Verdacht: Wenn du den Verdacht hast, Opfer von Bildmanipulation zu sein, zögere nicht, Massnahmen zu ergreifen. Informiere die entsprechenden Plattformen über den Missbrauch deiner Inhalte und erwäge rechtliche Schritte, um deine Rechte zu schützen.
Moderne KI benötigt kaum noch Ausgangsmaterial. Ein einziges Portraitfoto reicht oft aus, um daraus ein vollständiges Ganzkörperbild oder sogar ein synthetisches Video zu generieren. Die Vorstellung, dass nur Bikini‑ oder Ganzkörperfotos gefährlich seien, ist längst überholt.
Nutze Tools zur Selbstrecherche. Dienste wie TinEye oder FaceSeek können helfen, manipulierte oder gestohlene Bilder im Netz aufzuspüren. Sie ersetzen keine rechtlichen Schritte, geben aber einen ersten Überblick.
Durch proaktive Massnahmen und ein Bewusstsein für Datenschutz und Sicherheit kannst du deine Privatsphäre online besser schützen und das Risiko der Deepnude‑Privatsphäre‑Gefahr deutlich reduzieren.
Falls du tiefer in die Geschichte von Deepnude eintauchen möchtest, zeigt der erste Artikel, wie alles begann – und warum die heutige Eskalation keine Überraschung ist.
[Weiterlesen: Digitale Röntgenbrille – Deepnude ist mehr als ein harmloser Partygag]