Javascript is disabled or not supported. Please enable JavaScript to display the website correctly.
If there are any problems, please contact us!

Sexualität, sexualisierte Gewalt und Künstliche Intelligenz

pexels-thisisengineering-3861969

BEARBEITUNGSDAUER 15-30 MINUTEN

 

Künstliche Intelligenz (KI) ist längst Teil unseres Alltags geworden und begegnet uns in immer mehr Lebensbereichen. Dabei ist Künstliche Intelligenz ebenso vielfältig wie komplex. Als spannende und schnell wachsende Technologie begegnet sie auch Kindern und Jugendlichen in digitalen Räumen an vielen und immer mehr Stellen. KI kann dabei sowohl eine faszinierende als auch eine abschreckende Wirkung auslösen. Eine Auseinandersetzung mit Künstlicher Intelligenz wird daher auch in der pädagogischen Arbeit mit Kindern und Jugendlichen immer wichtiger.

KI-generierte sexualisierte Gewalt (Deepnudes, Deepfake-Pornos) im Kontext bildbasierter sexualisierter Gewalt, aber auch die KI-gestützte Wissens- und Informationsvermittlung stellen Sexualpädagogik, Medienpädagogik und Prävention sexualisierter Gewalt vor neue Herausforderungen.

Das Modul

  • vermittelt ein grundlegendes Verständnis von Künstlicher Intelligenz und
  • zeigt die Möglichkeiten und Herausforderungen von Künstlicher Intelligenz in Bezug auf Sexualität und sexualisierte Gewalt auf.

Zum Einstieg möchten wir Ihnen in der folgenden Aufgabe einen Raum bieten, Ihre eigenen Assoziationen und Erfahrungen zu Künstlicher Intelligenz zu reflektieren. Denken Sie über die folgenden Fragen nach und verschriftlichen Sie Ihre Antworten. Alles, was Sie hier ausfüllen ist nur für Sie. Ihre Daten werden nicht gespeichert.

Was ist eigentlich Künstliche Intelligenz?

Wenn von KI gesprochen wird, wird schnell klar, dass es unterschiedliche Definitionen und nicht „die“ KI gibt. Hinter dem Begriff „Künstliche Intelligenz“ verbergen sich verschiedene Technologien und Methoden. Ziel von KI-Technologien (im Englischen AI für ‚Artifical Intelligence‘) ist es, menschliche Wahrnehmung und intelligentes Handeln durch Maschinen nachzubilden. Daher gilt das menschliche Gehirn als Vorbild für KI-Technologien. KI-Systeme werden dabei für verschiedene Aufgaben und Anforderungen mit unterschiedlichen Funktionen und Ansätzen programmiert.

Künstliche Intelligenz wird in starke und schwache KI unterteilt. Bei einer sogenannten „starken“ KI geht es darum, Systeme zu entwickeln, die die intellektuellen Fähigkeiten des Menschen erreichen oder sogar übertreffen. Eine solche KI könnte komplexe Sachverhalte in unterschiedlichen Aufgabenbereichen verstehen und selbstständig bewältigen. Bislang gibt es eine solche Künstliche Intelligenz nicht.

„Schwache“ KIs hingegen sind in unserem Alltag sehr präsent und haben starken Einfluss auf digitale Lebenswelten. Systeme, die auf schwacher KI basieren, werden für klar definierte Aufgabenbereiche entwickelt, um spezifische Aufgaben zu lösen. Zum Beispiel um Sprachen oder Bilder zu erkennen.

Wenn heute von Künstlicher Intelligenz gesprochen wird, sind meist „lernende“ Systeme bzw. „maschinelles Lernen“ gemeint. Maschinelles Lernen ist eine der am häufigsten eingesetzten KI-Methoden und stellt einen wichtigen Teilbereich dar. Anhand von Beispielen lernt das Computersystem, Muster und Zusammenhänge in Daten zu erkennen und diese in einem statistischen Modell festzuhalten.

Sollen komplexe Muster und Zusammenhänge in Daten erkannt werden, kommt eine Methode des maschinellen Lernens, das Deep Learning (tiefes Lernen), zum Einsatz. Um Informationen besser verarbeiten und einordnen zu können, wird dafür eine neuronale Struktur erzeugt. Die Methode des Deep Learning erfordert große Rechenleistungen und Datenmengen. Die Idee ist der Struktur der Nervenzellen im menschlichen Gehirn nachempfunden.

Bei der sogenannten generativen KI handelt es sich um eine Technologie, bei der Computersysteme darauf trainiert werden, „neue“ Inhalte synthetisch zu erzeugen. Das können zum Beispiel Bilder, Video- oder Audioinhalte sein. Dabei wird auf vorhandene Trainingsdaten zurückgegriffen und Ansätze des maschinellen Lernens bzw. Deep Learning genutzt. Eine textgenerierende KI ist z. B. ChatGPT, im Bereich der bildgenerierenden KI ist Midjourney sehr bekannt (Facciorusso/Woldemichael 2023).

Forschung im Blick: Erfahrungen von Kindern und Jugendlichen mit Künstlicher Intelligenz

Eine aktuelle Studie der Bayerischen Landeszentrale für neue Medien (BLM 2024) beleuchtet die Perspektiven von 14- bis 17-Jährigen auf Künstliche Intelligenz. Jugendliche stehen KI eher positiv und offen gegenüber. Allerdings können sie das Konzept bzw. die Logik von KI oft nicht definieren. Die Nutzung von KI findet sowohl im schulischen Kontext als auch in der Freizeit statt. Die Ergebnisse zeigen, dass wenig Wissen über KI vermittelt wird, die Jugendlichen sich aber mehr Aufklärung wünschen (Wendt et al. 2024).

Häufig werden Inhalte mit Hilfe von KI zum Spaß generiert, ernsthafte Konsequenzen werden jedoch nicht gesehen. Die Cyberlife V-Befragung zeigt, dass Betroffene von Cybermobbing in 10 % der Fälle mit Inhalten angegriffen wurden, die mit Künstlicher Intelligenz erstellt wurden. In 9 % der Fälle wurden Bilder, Sprachaufnahmen oder Videos von Betroffenen mit Hilfe Künstlicher Intelligenz ge- oder verfälscht. Die Studie hat auch die Täter*innen von Cybermobbing untersucht. Hierbei gaben 28 % der befragten Täter*innen an, dass sie Inhalte mit Hilfe von Künstlicher Intelligenz bearbeitet, erstellt oder verbreitet haben (Cyberlife V 2024).

KI-Phänomene im Kontext von Sexualität und sexualisierter Gewalt

Generative KI und insbesondere bildgenerierende KI spielen im Bereich der sexualisierten Gewalt eine wichtige Rolle. Mit Hilfe von KI-Tools werden Bilder und Videos erstellt, abgeändert oder verfälscht und als Mittel sexualisierter Gewalt eingesetzt. Im Folgenden lernen Sie verschiedene Begriffe kennen, die im Zusammenhang mit Künstlicher Intelligenz, Sexualität und sexualisierter Gewalt verwendet werden.

  • Deepfakes

    Deepfakes sind realistisch wirkende Video-, Bild- oder Audioinhalte, die mit Unterstützung von generativer KI erstellt, verändert oder verfälscht wurden. „Deep“ bedeutet dabei, dass die Inhalte mit Hilfe von Deep Learning, einer Methode des maschinellen Lernens, erzeugt werden. Die manipulierten Inhalte zeigen Aufnahmen von Personen, die Dinge tun oder sagen, die nicht wirklich passiert sind. Für die Produktion von Deepfakes benötigen KI-Systeme nur wenig Bild- oder Videomaterial der betreffenden Person. Am weitesten verbreitet ist das sogenannte „face swapping“ über entsprechende Face Swap Apps. Dabei wird das Gesicht einer Person in einem Video oder Foto durch das Gesicht einer anderen Person ersetzt. Dieses wird so angepasst, dass es möglichst realistisch aussieht – die Person, deren Gesicht eingefügt wurde, wird somit in einem anderen Kontext präsentiert.

    Nicht nur Deepfakes und Filter im Kontext von Bildmaterial, sondern auch veränderte oder künstlich generierte Stimmen durch KI erschweren es, die wahre Identität eines Gegenübers in digitalen Räumen richtig einzuschätzen, z. B. hinsichtlich des Alters oder des Geschlechts.

  • Deepnudes

    Bei Deepnudes handelt es sich um KI-generierte Nacktbilder. Zu deren Erstellung werden Programme verwendet, die Bilder von Personen in realistisch wirkende Nacktbilder umwandeln. Dies wird auch als Nudification bezeichnet.

  • Deepfake-Pornografie und KI-generierte Pornografie

    Von KI-generierter Deepfake-Pornografie spricht man, wenn Gesicht, Körper und/oder Stimme einer realen Person mit Hilfe von KI in pornografisches Videomaterial eingefügt werden. Die meisten Bildgeneratoren verfügen über Sperren für pornografische Inhalte, es gibt jedoch auch KI-Tools, die speziell für die Erstellung pornografischer Inhalte entwickelt wurden.

    KI-generierte Pornografie bzw. KI-generierte pornografische Bilder können über Plattformen und KI-Tools erstellt werden. Zur Generierung der Inhalte können textbasierte Beschreibungen (sogenannte Prompts) oder vordefinierte Kategorien zu Körper- und Darstellungsmerkmalen verwendet werden.

  • KI-gestützte (sexualisierte) Kommunikation

    Mit Hilfe von Chatbots und Stimmgeneratoren wird es für Personen noch einfacher, sich als jemand anderes auszugeben. Zu erkennen, ob sich hinter dem Gegenüber tatsächlich eine Person oder ein KI-System verbirgt, fällt immer schwerer. Insbesondere für Kinder und Jugendliche stellt es eine Herausforderung dar, die Vertrauenswürdigkeit der vermittelten Informationen einzuschätzen (jugendschutz.net 2024). Im Kontext von Cybergrooming stellt die Verwendung von generativen KI-Tools zur Produktion von Text, Bild- und Audioinhalten daher ein Risiko dar (Steinebach 2023). Beim Cybergrooming können Tatpersonen Kindern so z. B. künstlich veränderte Aufnahmen anderer Kinder aus ihrem Freundeskreis zeigen, um diese davon zu überzeugen, dass die Erstellung solcher Aufnahmen ‚normal‘ oder ‚in Ordnung sei‘ (Steinebach et al. 2024).

  • KI-gestützte sexuelle Bildung

    Kinder und Jugendliche nutzen digitale Medien auch, um sich über sexualbezogene Fragen zu informieren. Über typische Onlinerecherchen erhält man dabei zunächst eine meist unüberschaubare Informationsflut und muss sich seine Antworten zusammensuchen. Mit Hilfe von KI, wie z. B. ChatGPT, lassen sich jedoch direkt kompakte Antworten zu jeder Frage finden. Je nach Prompt (von Nutzenden formulierte Systemeingaben) erhält man unterschiedliche Antworten. Um die Antworten des KI-Tools einordnen zu können bzw. um überhaupt erst einmal zu wissen, wie Fragen sinnvoll gestellt werden könnten, benötigen junge Menschen ein Hintergrundwissen und medienkritische Kompetenz. Döring (2023) betont, dass KI-gestützte sexuelle Bildung die professionelle Sexualpädagogik und sexuelle Bildung nicht ersetzen kann und soll, jedoch ergänzen kann. Daher ist es sinnvoll, generative KI-Tools in die Bildungsarbeit zu integrieren und nicht als Ersatz zu sehen. Offen ist dabei noch, inwiefern Antworten möglicherweise sexistische, rassistische oder andere gruppenbezogene Stereotype und Stigmatisierungen reproduzieren und inwiefern z. B. sexuelle und reproduktive Menschenrechte in den Antworten berücksichtigt werden. Dies muss kritisch beobachtet und reflektiert werden.

Wie erkenne ich manipulierte Inhalte?

Oftmals lassen sich manipulierte Inhalte wie Videos oder Fotos daran erkennen, dass die Übergänge zwischen realem und manipuliertem Inhalt unsauber sind und sich Licht- und Farbverhältnisse unterscheiden. Allerdings ist zu beachten, dass es mit zunehmender Verbesserung der KI-Technologie immer schwieriger wird, manipulierte Inhalte von realen Darstellungen zu unterscheiden.

Künstliche Intelligenz in Ihrer pädagogischen Praxis – welche Erfahrungen haben Sie gemacht? Denken Sie über die folgenden Fragen nach und verschriftlichen Sie Ihre Antworten. Alles, was Sie hier ausfüllen ist nur für Sie. Ihre Daten werden nicht gespeichert.

Testen Sie Ihr neu erlerntes Wissen mit dem folgenden Quiz!

Künstliche Intelligenz – eine zunehmende Herausforderung für die Prävention sexualisierter Gewalt?

Phänomene der digitalen (sexualisierten) Gewalt, die Verbreitung von Fehlinformationen und dergleichen waren bereits vor dem Aufkommen von KI-Tools ernstzunehmende Risiken. Mit generativer KI hat sich allerdings die Quantität und Qualität manipulativer Inhalte erhöht (Facciorusso/Woldemichael 2023). Das zeigt sich beispielsweise beim Einsatz von Deepfakes und Deepnudes. Diese Technologien werden auch für sogenannte Rachepornografie verwendet (Karaboga 2023).

Das Phänomen „Rachepornografie“ im Kontext von KI findet sich auch unter Peers. So sind aus Spanien Fälle bekannt, in denen Fotos von Mädchen im Alter von 11 bis 17 Jahren in Nacktaufnahmen umgewandelt wurden. Die Verdächtigen waren hier zwischen 12 und 14 Jahre alt. Oder ein Fall aus Florida, bei dem Schüler Nacktaufnahmen von Mitschüler*innen der Klasse erzeugten, indem sie Gesichter von Bildern aus Social Media-Profilen verwendeten und diese mit KI-generierten Körpern kombinierten (Steinebach et al. 2024).

Denkbar ist ebenfalls, dass KI-generierte Nacktbilder oder Missbrauchsdarstellungen zur Erpressung verwendet werden, um echte Aufnahmen oder sexuelle Handlungen zu erzwingen (Steinebach et al. 2024). Deepnudes und Deepfake-Pornos können anderen fälschlicherweise suggerieren, dass die betroffene Person freiwillig an der Erstellung der Inhalte mitgewirkt oder diese von sich produziert und veröffentlicht hat. Betroffene von Deepfake-Pornos und Deepnudes werden dabei in ihren Persönlichkeitsrechten und ihrer sexuellen Integrität verletzt. Die Veröffentlichung und Verbreitung solcher Inhalte kann mit dem Erleben emotionaler und psychischer Belastungen sowie Mobbing einhergehen. Außerdem können vorschnelle oder unüberlegte Verurteilungen dem öffentlichen Ansehen der betroffenen Person schaden (Döring 2023).

Künstliche Intelligenz im Kinder- und Jugendmedienschutz

Künstliche Intelligenz kann im Kinder- und Jugendmedienschutz auch positiv zum Einsatz kommen, wenn es um sexualisierte Gewalt geht. So kann maschinelles Lernen zur Klassifizierung von Inhalten genutzt werden. Das bedeutet, dass ein unbekannter Inhalt mit einem zuvor durch andere Daten erlerntem Label in Verbindung gebracht wird und so zur Klassifizierung führt (Steinebach 2023). Dies kann zur Erkennung von Missbrauchsdarstellungen und Cybergrooming verwendet werden. Hierbei sollten Inhalte auf Endgeräten erkannt und bei einem positiven Befund an eine zentrale Meldestelle weitergeleitet werden. Die KI übernimmt dabei eine lokale Vorauswahl von Inhalten, die anschließend von Menschen verifiziert werden. Die KI kann ebenfalls der Polizei helfen, große Datenmengen auf beschlagnahmten Datenträgern zu untersuchen, die möglicherweise Dokumente digitaler sexualisierter Gewalt enthalten. Beim Einsatz von KI zur Klassifizierung ist jedoch zu beachten, dass die Genauigkeit und Zuverlässigkeit der verwendeten Modelle von entscheidender Bedeutung sind. Es kann zu Fehleinschätzungen kommen, sodass eine menschliche Überprüfung, Validierung und Aktualisierung der Modelle notwendig ist (Steinebach 2023).

Ethische und rechtliche Aspekte im Zusammenhang mit Künstlicher Intelligenz

KI prägt nahezu alle Lebensbereiche. Diese Entwicklung ist vermutlich noch nicht abgeschlossen und wird sich weiter steigern. Damit hat KI auch Auswirkungen auf das menschliche (Zusammen-)Leben und wirft eine Vielzahl ethischen Fragen auf: Wofür kann und darf KI eingesetzt werden? Wer ist verantwortlich? Wie fair ist KI? Können und wollen wir, dass KI Entscheidungen übernimmt und trifft? An dieser Stelle ist es erforderlich, zu hinterfragen, wie ethisch-verantwortlich mit KI-Technologien umgegangen werden kann (Endres/Filipovic 2023).

Auch die Debatte um rechtliche Fragen im Zusammenhang mit Künstlicher Intelligenz ist noch relativ jung und es gibt viele offene Fragen, z. B. in Bezug auf Datenschutz, Urheberrechte und Haftungsregeln.

Auf EU-Ebene gibt es den AI Act (Artificial Intelligence Act) bzw. das KI-Gesetz, das im Mai 2024 von den EU-Staaten verabschiedet wurde. Die tatsächliche Umsetzung des Gesetzes kann jedoch noch einige Zeit in Anspruch nehmen. Das KI-Gesetz teilt Künstliche Intelligenz in vier Gefährdungskategorien ein: minimales, geringes, hohes und unannehmbares Risiko. Unannehmbar bedeutet, dass der Einsatz von KI zum Beispiel Grundrechte verletzt. In diesem Falle wäre die Nutzung verboten. Für Systeme mit hohem Risiko sollen eigene Regeln angewandt werden. Dies betrifft KI, die ein hohes Risiko für die Gesundheit, Sicherheit oder Grundrechte darstellt. Hier sollen Anbieter u.a. verpflichtet werden, Risikoanalysen durchzuführen oder nach Aufforderung Trainingsdaten der KI offenzulegen. Die Kategorien „minimales“ und „geringes“ Risiko beziehen sich auf Künstliche Intelligenz, die mit Menschen interagieren, Emotionen deuten und Inhalte wie Deepfakes erstellen kann. Hier soll dann für alle transparent gekennzeichnet werden, dass es sich um KI-generierte Inhalte handelt (jugendschutz.net 2023).

Relevant ist auch die Frage nach der Verantwortlichkeit von Plattform-Anbietern: Social Media-Plattformen sperren in ihren KI-Systemen zwar teilweise Schlüsselbegriffe für Inhalte wie Pornografie, Gewalt und Missbrauchsdarstellungen, um deren Erstellung und Verbreitung zu verhindern. Allerdings lassen sich diese Schutzmaßnahmen durch alternative Beschreibungen oft einfach umgehen, sodass Kinder und Jugendliche leicht mit solchen Inhalten konfrontiert werden können (jugendschutz.net 2024).

KI-basierte Fälle von sexualisierter Gewalt verletzen die Persönlichkeitsrechte der Betroffenen. Allerdings ist die Strafbarkeit hierfür bislang nicht eindeutig und ausreichend geregelt. Die Erstellung KI-generierter Inhalte ist noch nicht strafbar, deren Verbreitung jedoch schon. Je nach Alter der abgebildeten betroffenen Personen handelt es sich auch um Strafbarkeit wegen Erstellung, Besitz oder Verbreitung von kinder- oder jugendpornografischem Material (klicksafe 2024). Eine erste rechtliche Einordnung finden Sie hier.

Mit Blick auf die verschiedenen Dimensionen von KI, ist es eine gesamtgesellschaftliche Aufgabe, die Chancen und Risiken dieser Technologie zu erkennen und angemessene Regelungen zu entwickeln, die sowohl den Schutz von Kindern und Jugendlichen berücksichtigen als auch die Nutzung von KI als innovative Technologien in Einklang bringen.

Künstliche Intelligenz in der pädagogischen Praxis

Im Bereich Künstliche Intelligenz gibt es viele rasante Entwicklungen und Veränderungen. In Bezug auf sexualisierte Gewalt im Zusammenhang mit KI wurde deutlich, dass Präventionsmaßnahmen, Sensibilisierung sowie rechtliche und technische Schutzmaßnahmen erforderlich sind (Döring 2023). Klicken Sie auf die Fragezeichen, um herauszufinden, an welchen Punkten pädagogisch angesetzt werden kann.

Sie haben am Ende des Moduls nun einen Überblick über viele neue Dimensionen von Künstlicher Intelligenz und pädagogische Perspektiven auf den Zusammenhang von Künstlicher Intelligenz und sexualisierter Gewalt erhalten.

Bei der rasanten Entwicklung neuer Technologien bleiben häufig Fragen unbeantwortet, während gleichzeitig neue aufkommen. Lassen Sie sich davon nicht abschrecken. Wenn Künstliche Intelligenz noch kein Thema in Ihren Angeboten ist, sprechen Sie mit Kindern und Jugendlichen darüber. Wie nutzen Ihre Adressat*innen Künstliche Intelligenz? Kennen Sie den TikToK-Kanal #MeMyselfandAI? Auf dem Kanal finden Sie vielfältige Videos, die Jugendliche auf unterhaltsame und kurzweilige Weise informieren und motivieren, sich mit der Nutzung von KI auseinanderzusetzen. Falls nicht, klicken Sie sich zum Abschluss des Moduls doch einfach mal durch.

Wo finde ich Materialien und Anwendungstipps für die Praxis?

Hier finden Sie erste Methoden zur Thematisierung von Künstlicher Intelligenz in der pädagogischen Praxis:

Die Thematisierung von Deepfakes kann gut mit der Thematisierung des Rechts am eigenen Bild (Verletzung von Persönlichkeitsrechten) verknüpft werden. Eine Methode zur Auseinandersetzung mit Deepfakes findet sich hier: https://webhelm.de/deepfakes-spass-oder-manipulation/

Bei Webhelm finden sich weitere Informationen zu unterschiedlichen Aspekten von KI: https://webhelm.de/kategorie/kuenstliche-intelligenz/

Im Themenschwerpunkt ‚Künstliche Intelligenz‘ finden sich immer aktuelle Antworten auf Fragen zu Künstlicher Intelligenz und auch wie diese in pädagogischen Angeboten bearbeitet werden können: https://www.fragzebra.de/themenwelt/k%C3%BCnstliche-intelligenz

Ich möchte mehr wissen! – Ein- und weiterführende Literatur und Informationen

In der Podcastfolge „Kann uns Künstliche Intelligenz helfen, sexuelle Gewalt im Internet zu bekämpfen, Martin Steinebach?“ des einbiszwei-Podcast der UBSKM können Sie weitere Informationen zu KI anhören: https://beauftragte-missbrauch.de/mediathek/podcast-einbiszwei/folge-92-mit-martin-steinebach

Beim Projekt „Digitales Deutschland“ finden Sie weitere KI-Expertisen: https://digid.jff.de/ki-expertisen/

Der KI-Campus ist eine Lernplattform mit kostenlosen Online-Kursen, Videos und Podcasts zu KI: https://ki-campus.org/

In der aktuellen JIM-Studie (2024) des mpfs finden Sie weitere Informationen zu Künstlicher Intelligenz und der Nutzung von  Jugendlichen: https://mpfs.de/app/uploads/2024/11/JIM_2024_PDF_barrierearm.pdf

Verwendete Literatur

Beitzinger, Frank; Leest, Uwe (2024): Cyberlife V. Spannungsfeld zwischen Faszination und Gefahr. Cybermobbing bei Schülerinnen und Schülern. Fünfte empirische Bestandsaufnahme bei Eltern, Lehrkräften und Schüler/-innen in Deutschland. Karlsruhe: Bündnis gegen Cybermobbing e.V. Online verfügbar unter https://buendnis-gegen-cybermobbing.de/wp-content/uploads/2024/10/Cyberlife_Studie_2024_Endversion.pdf, zuletzt geprüft am 19.11.2024.

Brüggen, Niels (2023): Künstliche Intelligenz im Kontext des Kinder- und Jugendmedienschutzes. In: BzKJAktuell 2023, (4), S. 27-30.

Döring, Nicola (2023): Fifty Shades of ChatGPT: Aktueller Diskussions- und Forschungsstand zu Sex und künstlicher Intelligenz. In: Zeitschrift für Sexualforschung 2023, 36 (3), S. 164-175.

Endres, Susanna; Filipovic Alexander (2023): Ethische Urteilsfindung im Kontext von KI-Systemen. Im Rahmen des Projektes Digitales Deutschland. Online verfügbar unter https://digid.jff.de/ki-expertisen/ethik-und-ki, zuletzt geprüft am 19.11.2024.

Facciorusso, Dominique; Woldemichael, Deborah (2023): Künstliche „Intelligenz“ – Einführung in eine Schlüsseltechnologie. In: BzKJAktuell 2023, (4), S. 4-10.

jugendschutz.net (2024): Jahresbericht 2023. Online verfügbar unter  https://www.jugendschutz.net/fileadmin/daten/publikationen/jahresberichte/jahresbericht_2023.pdf, zuletzt geprüft am 19.11.2024.

jugendschutz.net (2023): Welchen rechtlichen Rahmen gibt es bisher für die Nutzung von generativer KI? Online verfügbar unter https://www.jugendschutz.net/themen/geraete-und-technik/artikel/welchen-rechtlichen-rahmen-gibt-es-bisher-fuer-die-nutzung-von-generativer-ki-1, zuletzt geprüft am 19.11.2024.

Karaboga, Murat (2023): Die Regulierung von Deepfakes auf EU-Ebene: Überblick eines Flickenteppichs und Einordnung des Digital Services Act- und KI-Regulierungsvorschlags. In: Jaki, Sylvia; Steiger, Stefan (Hg.): Digitale Hate Speech. Interdisziplinäre Perspektiven auf Erkennung, Beschreibung und Regulation. Berlin, Heidelberg: Springer Nature, S. 197–220.

Klicksafe (2024): Sexualisierte Gewalt durch Bilder. Online verfügbar unter https://www.klicksafe.de/sexualisierte-gewalt-durch-bilder/erstellung-sexualisierter-aufnahmen, zuletzt geprüft am 19.11.2024.

Steinebach, Martin; Drechsler, Julian; Schröder, Lilly (2024): KI-generierte Abbildungen von Kindesmissbrauch. Technische Grundlagen und rechtliche Einordnung. In: RuT2024 – Recht und Technik: Datenschutz im Diskurs, S. 247-261. Bonn: Gesellschaft für Informatik e.V. Online verfügbar unter https://dl.gi.de/server/api/core/bitstreams/0afef4d3-299f-48f5-a1f9-ab0e403b4891/content, zuletzt geprüft am 19.11.2024.

Steinebach, Martin (2023): Künstliche Intelligenz als Instrument des Kinder- und Jugendmedienschutzes. Online verfügbar unter https://www.bzkj.de/resource/blob/233866/eb855aab99192e7a8b58fe824b68e2db/20234-ki-als-instrument-des-kinder-und-jugendmedienschutzes-data.pdf, zuletzt geprüft am 19.11.2024.

Wendt, Ruth; Riesmeyer, Claudia; Leonhard, Larissa; Hagner, Janina; Kühn, Jessica (2024): Algorithmen und Künstliche Intelligenz im Alltag von Jugendlichen. Forschungsbericht für die Bayerische Landeszentrale für neue Medien (BLM). Hg. v. Bayerische Landeszentrale für neue Medien. Baden-Baden: Nomos. Online verfügbar unter https://www.blm.de/files/pdf2/blm_schriftenreihe_111.pdf, zuletzt geprüft am 19.11.2024.