22. Juli 2025 Lilli Messer
Ein muskelbepackter Olaf Scholz beim Bankdrücken oder Angela Merkel beim Rapbattle – KI-generierte Videos mit prominenten Persönlichkeiten fluten inzwischen unsere Social-Media Feeds und wirken skurril, manchmal amüsant. Doch der Spaß endet, wenn plötzlich das eigene Gesicht in einem Porno auftaucht – täuschend echt animiert, aber völlig fiktiv.
Mit einem Klick zum Deepfake
Die Rede ist von einem sogenannten Deepfake, eine mittels künstlicher Intelligenz (KI) manipulierte oder synthetisierte Video- oder Tonaufnahme, die echte Aussagen oder Handlungen vortäuscht (Vogler et al. 2024, S. 15). Seitdem 2017 erstmals auf Reddit pornografische Deepfake-Videos hochgeladen wurden, hat der Begriff einen festen Platz in der politischen und medialen Debatte eingenommen (ebd. S. 70).
Ein Klick zur Altersbestätigung genügt – schon sind auf einschlägigen Pornoseiten Hunderte solcher Videos zugänglich: Schauspielerinnen, Moderatorinnen, Journalistinnen – Frauen, die nie nackt vor der Kamera standen, deren Gesicht aber in einem täuschend echt wirkenden Porno verwendet wurde.
Doch Deepfake-Pornografie betrifft längst nicht nur Prominente. In Almendralejo, Spanien, wurden mehr als 20 minderjährige Mädchen Opfer von KI-generierten Nacktbildern, die sich in den sozialen Medien verbreitet haben – einige der Mädchen waren erst elf Jahre alt (Illinger 2025). Die Mutter eines Opfers meldete sich auf Instagram zu Wort: Wenn sie den Körper ihrer Tochter nicht kennen würde, hätte sie geglaubt, das Deepfake-Foto sei echt (Viejo 2023). Die Täter waren offenbar allesamt Mitschüler der betroffenen Mädchen.
Sexuelle Gewalt in neuem Gewand
Aus einem Bericht des niederländischen Unternehmens Deeptrace geht hervor, dass 96 % solcher KI generierten Videos pornografisch sind. Dabei sind 99 % der Opfer von Deepfake-Pornografie weiblich und wiederum 94 % davon stammen aus der Unterhaltungsbranche – besonders betroffen sind südkoreanische Prominente (Deeptrace 2019).
Diese Zahlen sind kein Zufall – sie spiegeln tief verankerte strukturelle Machtverhältnisse wider: Deepfake-Pornografie reproduziert eine digitale Form sexualisierter Gewalt. Sie beansprucht Kontrolle über den weiblichen Körper, entzieht Frauen ihre Selbstbestimmung und reduziert sie auf visuelle Verfügbarkeit – auch wenn sie faktisch nie beteiligt waren. Diese digitale Form sexualisierter Gewalt reproduziert alte patriarchale Muster in einem neuen technischen Gewand. Frauen werden objektifiziert und nach Belieben manipuliert und distribuiert. Letztlich handelt es sich damit um einen weiteren Angriff, der zur sexuellen Stigmatisierung von Frauen beiträgt.
KI-Pornos in wenigen Minuten
Besonders beunruhigend ist, dass es dazu keiner komplizierten Software und keines besonderen Know-hows bedarf. Ein Bericht von Home Security Heroes zeigt, wie erschreckend einfach die Erstellung solcher Videos geworden ist: Ein einziges klares Gesichtsbild genügt, um in weniger als 25 Minuten ein einminütiges Deepfake-Pornovideo zu generieren – kostenlos und ohne jegliche Fachkenntnisse (Home Security Hero 2023). Zudem ist ein rasantes Wachstum von Deepfake-Videos durch die zunehmende Verfügbarkeit von Tools und Dienstleistungen zu verzeichnen, die es auch technisch weniger versierten Personen ermöglichen, Deepfakes zu erstellen – es entsteht ein regelrechter Schwarzmarkt für virtuelle Übergriffe (Deeptrace 2019).
„Das Schlimme ist, die haben das als Tatsache genommen“
Auch Moderatorin und Journalistin Mareile Höppner wurde Opfer eines Deepfakes. Sie stieß vor einigen Jahren erstmals auf ein pornografisches Video, in dem ihr Gesicht täuschend echt animiert war. „Es fühlte sich an wie ein gewaltsamer Eingriff“, erzählt sie. Dass es sich um einen Fake handelte, war ihr selbst sofort klar – doch das hielt weder die Täter davon ab, das Video zu teilen, noch die User:innen, sich herabsetzend dazu zu äußern und den Content für bare Münze zu nehmen: „In den Foren wurde ich mit ekelhaften Kommentaren erniedrigt und das Schlimme ist, die haben das als Tatsache genommen.“
Inzwischen ist die Technik noch ausgefeilter. Täuschend echte KI-Videos lassen sich mit wenigen Klicks erstellen – und oft ist für Außenstehende nicht mehr zu erkennen, ob das Gezeigte real ist oder nicht. Höppner spricht offen über die Belastung, stellt aber vor allem eines klar: „Ja, es tut weh, das eigene Gesicht in so einem Kontext zu sehen – aber ich halte das aus. Mir geht es vor allem um die Menschen, die keinen Schutz haben, die nicht in der Öffentlichkeit stehen.“
Hilflose und unwillige Justiz?
Doch was tun, wenn das eigene Gesicht plötzlich missbraucht wird? Als Höppner versuchte, die Videos entfernen zu lassen, stieß sie auf eine Mauer des Schweigens. Plattformen reagieren oft zögerlich oder gar nicht, während der Täter anonym bleibt.
Ein eigener Straftatbestand für Deepfake-Pornografie fehlt in Deutschland bislang – anders als seit kurzem in den USA. Theoretisch können sich Betroffene auf das allgemeine Persönlichkeitsrecht und das Recht am eigenen Bild berufen, wie Medienrechtler Frank Fischer erklärt – doch die Durchsetzung sei schwierig: „Die Täter agieren anonym und nutzen Server im Ausland“. Obwohl die EU ihre Mitgliedstaaten aufgefordert hat, bis 2027 entsprechende gesetzliche Regelungen für Deepfakes zu schaffen, bleibt Fischer skeptisch: „Deepfake-Videos verbreiten sich rasend schnell. Wenn ein solches Video einmal online ist, ist es fast unmöglich, es vollständig zu löschen.“
Lukrative Geschäfte mit den Körpern
Ein Bericht des Analyseunternehmens Graphika zeigt, dass sich die Verbreitung von KI-generierten, nicht einvernehmlichen Nacktbildern längst zu einem skalierbaren und kommerzialisierten Online-Geschäft entwickelt hat. Demnach verzeichnen allein 34 Anbieter sogenannter Deepnudes innerhalb eines Monats rund 24 Millionen Besucher:innen. In Telegram-Gruppen mit insgesamt über einer Million Mitgliedern werden offenbar täglich neue Inhalte ausgetauscht (Graphika 2023).
Auch der SPIEGEL deckte Ende vergangenen Jahres ein umfassendes Netzwerk solcher Deepfake-Dienste auf. Im Fokus der Recherche stand unter anderem die inzwischen offline genommene Plattform „MrDeepFakes“, die als eine der größten Anbieter in diesem Bereich galt. Die Seite wurde monatlich über sechs Millionen Mal aufgerufen und die darauf hochgeladenen Videos erzielten innerhalb von sieben Jahren mehrere Milliarden Aufrufe. Laut Recherchen konnten 300 der aktivsten Nutzer:innen in diesem Zeitraum mehr als 2000 Geldeingänge in ihre hinterlegten Krypto-Wallets verzeichnen – mit einem Gesamtvolumen von deutlich über 100.000 Euro (Hoppenstedt et al. 2024).
Ein Kampf gegen Windmühlen
Für Höppner steht fest: KI-Technologien entwickeln sich schneller, als Gesetze mithalten können. „Wir haben da etwas entfesselt, dessen Konsequenzen wir noch gar nicht absehen können“, warnt sie. „KI wird nicht mehr nur als Werkzeug genutzt – sie wird zur Realität. Was passiert, wenn die Nähe zu KI immer größer wird? Wenn Menschen nicht mehr zwischen Fake und echt entscheiden können? Geht es dann überhaupt noch um Wahrheit?“
Deepfake-Pornografie ist keine technische Spielerei, sondern eine Form von digitaler Gewalt, ein Ausdruck tief verwurzelter Misogynie und ein Angriff auf die sexuelle Selbstbestimmung. Solange Täter unsichtbar bleiben, Plattformen sich ihrer Verantwortung entziehen und der rechtliche Schutz unzureichend ist, bleibt der Kampf gegen Deepfakes ein Kampf gegen Windmühlen. Jede einzelne betroffene Person ist somit in diesem Kampf auf Unterstützer:innen angewiesen, bis klare gesetzliche Regelungen diese Form von digitaler Gewalt unterbinden.
Literatur
Ajder, Henry / Patrini, Giorgio / Cavalli, Francesco / Cullen, Laurence (2019): The State of Deepfakes: Landscape, Threats, and Impact. Deeptrace, September 2019. Zugriff am 20.05.2025 unter: https://regmedia.co.uk/2019/10/08/deepfake_report.pdf.
Graphika (2023): A Revealing Picture. Zugriff am 23.05.2025 unter: https://graphika.com/reports/a-revealing-picture#download-form.
Home Security Hero (2023): State of Deepfakes. Zugriff am 23.05.2025 unter: https://www.securityhero.io/state-of-deepfakes/.
Hoppensteadt, Max / Höfner, Roman / Milatz, Marvin / Buschek, Christo / Böhm, Markus (2024): Wo KI zur Waffe Gegen Frauen und Mädchen wird. Zugriff am 30.05.2025 unter: https://www.spiegel.de/netzwelt/web/deepfake-pornos-das-perfide-geschaeft-mit-gefaelschten-sexvideos-a-ddf22e79-c2ef-47d0-8b5d-6934e4397b17.
Illinger, Patrick (2025): Plötzlich ploppt man als Porno auf dem Handy auf. In: Süddeutsche Zeitung. Zugriff am 23.05.2025 unter: https://www.sueddeutsche.de/panorama/spanien-deepfakes-strafe-porno-li.3226094.
Viejo, María (2023): In Spain, dozens of girls are reporting AI-generated nude photos of them being circulated at school: ‘My heart skipped a beat’. In: El País. Zugriff am 23.05.2025 unter: https://english.elpais.com/international/2023-09-18/in-spain-dozens-of-girls-are-reporting-ai-generated-nude-photos-of-them-being-circulated-at-school-my-heart-skipped-a-beat.html.
Vogler, Daniel / rauchfleisch, Adrian / de Sata, Gabriele (2024): Wahrnehmung von Deepfkaes in der Schweizer Bevölkerung. In: Karaboga, M. et al (Hrsg.): Deepfakes und manipulierte Realitäten. Technologiefolgenabschätzung und Handlungsempfehlungen für die Schweiz. TA-SWISS Publikationsreihe: TA 81/2024. Zollikon: vdf, S. 125–151. https://doi.org/10.5167/uzh-261189
Zitation: Lilli Messer: Visuelle Verfügbarkeit über Deepfake – eine digitale Form sexualisierter Gewalt, in: blog interdisziplinäre geschlechterforschung, 22.07.2025, www.gender-blog.de/beitrag/deepfake-sexualisierte-gewalt/, DOI: https://doi.org/10.17185/gender/20250722
Beitrag (ohne Headergrafik) lizensiert unter einer Creative
Commons Namensnennung 4.0 International Lizenz