The collage shows 4 archival images of women. In these of the images, the women are nude. There is also one portrait of a woman with yellow shapes and bounding boxes on her face.

Künstliche Intelligenz verstärkt digitale Gewalt – neue Strategien gefordert

03/31/2026

Künstliche Intelligenz erleichtert nicht nur die Erstellung von Bildern, Texten und Videos, sondern auch die gezielte Verbreitung von Falschinformationen.

Das kann digitale Gewalt verstärken und demokratische Meinungsprozesse gefährden. Besonders betroffen sind dabei Frauen und LGBTQI*-Personen. Das zeigt etwa die aktuelle Forschung des Weizenbaum-Instituts.

„KI-generierte Desinformation bedroht zunehmend demokratische Diskurse und die Sicherheit der Betroffenen“, erklärt Martha Stolze, Wissenschaftlerin in der Forschungsgruppe „Plattform-Algorithmen und Digitale Propaganda“ am Weizenbaum-Institut. „Diese Form digitaler Gewalt richtet sich nicht nur verstärkt gegen Frauen, sondern in erheblichem Maße auch gegen LGBTQI*, insbesondere gegen trans Personen.“

Der öffentliche Fokus auf sogenannte Deepfakes greife jedoch zu kurz, so Stolze weiter. Auch textbasierte Falschinformationen, etwa gezielte Gerüchte oder herabsetzende Behauptungen, ließen sich leicht erstellen und verbreiteten sich in sozialen Netzwerken sehr schnell. Sie könnten erheblichen Schaden anrichten und zur Verunsicherung und Ausgrenzung von Betroffenen beitragen.

Eine zentrale Rolle spielen hierbei Plattformen, da ihre Algorithmen die Reichweite emotional aufgeladener oder spaltender Inhalte verstärkten. Forschende sehen deshalb auch die Betreiber sozialer Netzwerke stärker in der Verantwortung, aktiv gegen geschlechtsspezifische und gruppenbezogene digitale Angriffe vorzugehen. Dies muss konsequent über den Digital Services Act (DSA) durchgesetzt werden.

Der DSA befasst sich insbesondere mit der Haftung von Online-Plattformen. Es ist wichtig, dass Nutzende ihre Rechte auch stärker vor Gericht wahrnehmen können. Im geplanten digitalen Gewaltschutzgesetz, dessen Entwurf derzeit im BMJV entworfen wird, sollten alle Formen KI-gestützter Falschinformationen, visuell wie textbasiert, einbezogen werden. Zudem müsse der Schutz von trans Personen und anderen besonders gefährdeten Gruppen systematisch verankert werden.

Aus Sicht von Stolze braucht es einen umfassenden Ansatz, der neben Frauen auch LGBTQI-Personen berücksichtigt, auf Text- und Bild-/Videoformate abstellt und Plattformen stärker in die Pflicht nimmt, um die missbräuchliche Nutzung von KI-Technologien wirksam zu begrenzen. Nur so lasse sich verhindern, dass misogyne und queerphobe digitale Gewalt und Falschinformationen die Grundlagen einer offenen, demokratischen Gesellschaft weiter untergraben.