Deepfakes in der Schule – wenn KI-Nacktbilder Mitschüler:innen treffen
„Ich habe zuerst gedacht, das kann nicht echt sein. Dann haben mir zwei Freundinnen geschrieben, dass mein Bild im Klassenchat herumgeht. Mein Gesicht war drauf, aber der Körper nicht meiner. Trotzdem haben alle so getan, als wäre ich das.“
So oder so ähnlich beginnen inzwischen Fälle, die vor wenigen Jahren noch wie Science-Fiction geklungen hätten. Heute reichen oft ein Profilbild, ein frei zugängliches Tool und ein paar Minuten, um aus dem Foto einer Mitschülerin ein sexualisiertes Deepfake zu machen. Was danach folgt, ist kein „Spaß“ und kein „dummer Streich“, sondern häufig digitale Gewalt mit massiven Folgen für die Betroffenen.
Das Wichtigste in Kürze
Wenn Schüler:innen mit KI-Tools Nacktdarstellungen, Porno-Face-Swaps oder täuschend echte Audiofälschungen von Mitschüler:innen oder Lehrkräften erstellen und verbreiten, ist das kein harmloser Fake. Je nach Fall können in Österreich, Deutschland und der Schweiz mehrere straf- und zivilrechtliche Normen greifen. Schulen sollten deshalb nicht bagatellisieren, sondern Beweise sichern, Meldewege aktivieren, die Betroffenen schützen und externe Hilfe einbinden.
Was sind Deepfakes – und was ist hier eigentlich gemeint?
Der Begriff „Deepfake“ wird oft unscharf verwendet. Gemeint sind manipulierte oder neu erzeugte Medieninhalte, die mit Hilfe von KI verändert werden. Das können Bilder, Videos, Audios oder Kombinationen daraus sein. klicksafe definiert Deepfakes entsprechend als manipulierte Medieninhalte wie Texte, Audios, Bilder oder Videos, die mithilfe von künstlicher Intelligenz verändert oder neu erzeugt werden.
Im Schulkontext sind vor allem drei Formen relevant. Erstens sogenannte „Nudify“- oder „Deepnude“-Anwendungen, die aus gewöhnlichen Fotos sexualisierte Nacktdarstellungen generieren. Zweitens Face-Swaps, bei denen das Gesicht einer realen Person in bestehendes pornografisches Material eingefügt wird. Drittens Audio-Deepfakes, bei denen etwa die Stimme einer Lehrkraft imitiert wird, um peinliche, beleidigende oder bedrohliche Aussagen zu verbreiten. Dass Deepfakes auch Stimme und Körper betreffen können, wird in österreichischen und deutschen Unterrichts- und Präventionsmaterialien ausdrücklich hervorgehoben.
Wichtig ist die Abgrenzung: Nicht jedes KI-Bild ist automatisch ein Deepfake mit persönlichem Schadenspotenzial. Kritisch wird es dann, wenn eine identifizierbare reale Person ohne Einwilligung sexualisiert, bloßgestellt oder in ein falsches Geschehen hineinkopiert wird. Genau das passiert bei vielen Vorfällen in Schulen.
Warum gerade Schulen betroffen sind
Schulen sind ein besonders anfälliger Raum, weil hier mehrere Faktoren zusammenkommen. Jugendliche haben viele Bilder voneinander, kommunizieren in engen sozialen Gefügen und bewegen sich gleichzeitig auf Plattformen, auf denen Inhalte schnell, impulsiv und oft ohne Nachdenken geteilt werden. Ein einziges Foto aus Instagram, vom Klassenausflug oder aus dem Gruppenchat kann reichen, um eine Person zum Ziel zu machen.
Dazu kommt die Dynamik sozialer Räume: Klassenchat, Snap, private Gruppen, TikTok-Clips, Weiterleitungen mit „nur kurz anschauen“. Die technische Hürde sinkt, die Reichweite steigt, und die Hemmschwelle fällt, weil die Fälschung nicht mehr wie aufwendige Manipulation wirkt, sondern wie ein schneller App-Trick. SRF berichtete 2026 über einen Fall an einer Deutschschweizer Schule, bei dem 12- bis 14-jährige Jungen KI-Nacktbilder von Mitschülerinnen erstellten und über soziale Medien teilten. ORF meldete im selben Monat einen steirischen Fall, in dem ein Schüler nach mutmaßlich erstellten sexualisierten KI-Bildern von Mitschülerinnen suspendiert wurde.
Schulen sind außerdem deshalb betroffen, weil Deepfakes bestehende Muster von Cybermobbing verschärfen. Wo früher peinliche Fotos, Fake-Profile oder Beleidigungen kursierten, entstehen nun sexualisierte Bilder, die besonders tief in die Intimsphäre eingreifen. Das verändert die Qualität des Angriffs.
Reale Fallbeispiele – anonymisiert, aber nicht abstrakt
Die Fälle ähneln sich. Da ist etwa die 14-Jährige, deren Klassenfoto in eine Nacktdarstellung umgewandelt wird. Das Bild wandert erst in eine kleine Jungen-Gruppe, dann in den Klassenchat, später auf einen zweiten Account. Als sie davon erfährt, ist die Fälschung schon vielfach weitergeleitet. Einige lachen. Andere sagen, es sei „eh nur KI“. Für die Betroffene macht das keinen Unterschied – ihr Gesicht ist sichtbar, ihr Ruf beschädigt, die Scham real.
Ein anderer Typus betrifft Lehrkräfte. Hier werden Stimmen imitiert, damit es so klingt, als hätte ein Lehrer etwas Sexuelles, Diskriminierendes oder Lächerliches gesagt. Solche Audio-Deepfakes dienen nicht immer sexueller Gewalt, aber sie zeigen, wie breit das Problem geworden ist. Deepfakes erfassen Bild, Video und Audio – und damit verschiedene Formen schulischer Demütigung und Desinformation.
Dass das keine internationalen Randphänomene sind, sondern den deutschsprachigen Raum betreffen, zeigen Medienberichte und Präventionsmaterialien aus Deutschland, Österreich und der Schweiz. Parallel bauen Institutionen in allen drei Ländern Unterrichts- und Fortbildungsangebote aus, weil das Thema in Schulen angekommen ist.
Rechtslage in Österreich, Deutschland und der Schweiz – klar ist vor allem eines: Das ist kein „Streich“
Ein häufiger Satz in solchen Fällen lautet: „Aber das Foto hat ja nie wirklich existiert.“ Juristisch ist das keine Entwarnung. Entscheidend ist nicht nur, ob eine Aufnahme „echt“ ist, sondern ob eine reale Person identifizierbar sexualisiert, bloßgestellt, verletzt oder geschädigt wird. Dazu kommen Verbreitung, Besitz, Weiterleitung, Einschüchterung und Mobbinghandlungen.
In Österreich kommen laut aktueller ORF-Zusammenfassung bei veröffentlichten Deepfake-Inhalten unter anderem das Recht am eigenen Bild, Ehrdelikte und Cybermobbing in Betracht. saferinternet.at betont ergänzend, dass die Erstellung von Deepfakes mit dem Gesicht, der Stimme oder dem Körper einer Person deren Persönlichkeitsrechte und Datenschutzrechte verletzen kann.
In Deutschland greifen je nach Fall Vorschriften zum Schutz des höchstpersönlichen Lebensbereichs und des Intimbereichs. Das Bundesrecht nennt ausdrücklich § 201a StGB zum Schutz vor Verletzungen des höchstpersönlichen Lebensbereichs durch Bildaufnahmen sowie § 184k StGB zur Verletzung des Intimbereichs durch Bildaufnahmen. Daneben können weitere Strafnormen einschlägig sein. Auf EU-Ebene verpflichtet die Richtlinie gegen Gewalt gegen Frauen und häusliche Gewalt die Mitgliedstaaten bereits, auch nicht einvernehmliche Weitergabe intimen oder manipulierten Materials zu erfassen.
In der Schweiz ist die Lage ebenfalls nicht mit „ist ja nur fake“ erledigt. SRF berichtete im Februar 2026 über ein eröffnetes Jugendstrafverfahren nach einem Schulfall. Zugleich weist saferinternet.at aus Kinderschutzperspektive darauf hin, dass Deepfakes Persönlichkeitsrechte verletzen und Unterlassungs- und Schadenersatzansprüche auslösen können.
Für den Schulalltag ist daher die Grundaussage wichtiger als ein Normenfeuerwerk: Wer Mitschüler:innen oder Lehrkräfte mit KI sexualisiert, bloßstellt oder täuschend falsche intime Inhalte verbreitet, bewegt sich klar im Bereich strafrechtlicher und zivilrechtlicher Relevanz. Bei Minderjährigen gilt zusätzlich: Strafmündigkeit, Jugendstrafrecht und Einzelfallbewertung unterscheiden sich zwischen den Ländern. Rechtsberatung im konkreten Fall bleibt deshalb wichtig.
Was Betroffene sofort tun sollten
Der wichtigste erste Schritt ist nicht Perfektion, sondern Unterbrechung der Verbreitung. Viele Betroffene reagieren verständlicherweise mit Schock, Scham oder Erstarrung. Genau das nutzen Täter:innen aus. Schweigen hilft fast nie.
Sinnvoll sind vor allem diese Schritte:
- Beweise sichern: Screenshots, Links, Usernamen, Uhrzeiten, Chatverläufe, Gerätehinweise.
- Nicht allein bleiben: Vertrauensperson, Elternteil, Lehrkraft, Schulsozialarbeit oder Schulleitung sofort einbeziehen.
- Plattformen melden und Entfernung beantragen.
- Bei sexualisierten Darstellungen von Minderjährigen zusätzlich sofort an Polizei bzw. Meldestellen denken.
- Keine Verhandlungen mit Täter:innen im privaten Chat führen, wenn bereits Druck, Drohungen oder Erpressung im Raum stehen.
Wichtig ist auch: „Alles löschen“ lässt sich im Internet selten garantieren. Aber daraus folgt nicht, dass Hilfe sinnlos wäre. Genau dafür gibt es spezialisierte Instrumente. StopNCII.org erstellt auf dem eigenen Gerät einen Hash, also einen digitalen Fingerabdruck intimer Bilder oder Videos, damit teilnehmende Plattformen deren Verbreitung erkennen und stoppen können. Die Dateien selbst müssen dafür nicht hochgeladen werden.
Für Minderjährige beziehungsweise für Aufnahmen aus der Zeit vor dem 18. Geburtstag ist „Take It Down“ relevant. NCMEC beschreibt den Dienst als kostenlose Möglichkeit, die Online-Verbreitung von nackten, teilweise nackten oder sexuell expliziten Bildern und Videos zu stoppen oder zu entfernen. In einem Fachbeitrag weist NCMEC zudem ausdrücklich darauf hin, dass das auch für real oder KI-generiert verbreitete sexualisierte Inhalte relevant sein kann.
Was Schulen und Eltern tun sollten
Schulen sollten in solchen Fällen weder in Panik verfallen noch auf Zeit spielen. Wer erst diskutiert, ob es „wirklich echt“ ist, verliert wertvolle Stunden. Die bessere Frage lautet: Welche Person wurde hier erkennbar verletzt, und wie stoppen wir die weitere Verbreitung jetzt?
Schulen brauchen deshalb klare Meldewege, definierte Zuständigkeiten und einen Standardablauf für digitale Übergriffe. Dazu gehören Beweissicherung, Schutz der betroffenen Person im Schulalltag, Dokumentation, Kontakt mit Erziehungsberechtigten, gegebenenfalls Einbindung von Polizei oder spezialisierten Stellen und eine Kommunikation, die keine Gerüchte weiter anheizt. Präventionseinrichtungen im DACH-Raum empfehlen genau diese Verbindung aus Medienbildung, Sensibilisierung und konkreter Reaktionsfähigkeit.
Eltern sollten vor allem zweierlei vermeiden: Bagatellisierung und Schuldumkehr. Sätze wie „Warum war dein Foto online?“ oder „Ignorier es einfach“ helfen nicht. Hilfreicher ist: Ruhe herstellen, Kind ernst nehmen, Beweise gemeinsam sichern, Schule informieren, keine Alleingänge der Jugendlichen verlangen.
Wenn das eigene Kind Täter:in ist
Auch das gehört zur Realität: Manche Eltern erfahren zuerst, dass ihr eigenes Kind beteiligt war – als Ersteller:in, Weiterleiter:in oder Kommentator:in. Dann ist es falsch, reflexartig von einem „Jugendfehler“ zu sprechen und zugleich das Geschehen kleinzureden. Wer KI-Nacktbilder aus Mitschüler:innen macht oder verbreitet, überschreitet klare Grenzen.
Gleichzeitig bringt Dämonisierung wenig. Pädagogisch sinnvoll ist eine doppelte Haltung: klare Verantwortungsübernahme und klare Grenze. Jugendliche müssen verstehen, dass ein digital erzeugtes Bild echte Folgen hat – für die Betroffenen, aber auch für sie selbst. Es geht nicht um „nur ein Bild“, sondern um Entwürdigung, Kontrollverlust und oft nachhaltige Rufschädigung.
Eltern sollten deshalb Geräte nicht heimlich „säubern“, sondern den Sachverhalt dokumentieren, Kooperation mit der Schule suchen und rechtliche Beratung einholen, wenn bereits Anzeige oder Ermittlungen im Raum stehen.
Prävention – was wirklich hilft
Prävention darf nicht erst beginnen, wenn ein Fall eskaliert. Deepfakes gehören heute in Medienbildung, Aufklärung zu Grenzverletzungen und in die schulische Gewaltprävention. Materialien von klicksafe, saferinternet.at und onlinesicherheit.gv.at zeigen, dass Schulen Deepfakes inzwischen als eigenes Bildungsthema behandeln – nicht nur technisch, sondern auch ethisch, sozial und rechtlich.
Wirksam sind vor allem drei Bausteine. Erstens: Begriffsklarheit. Jugendliche müssen wissen, was Nudify, Face-Swap und Audio-Deepfake sind. Zweitens: Normenklarheit. „Fake“ heißt nicht „folgenlos“. Drittens: Handlungsklarheit. Wer etwas erhält, meldet und verbreitet nicht weiter. Wer betroffen ist, bleibt nicht allein. Wer zuschaut, wird nicht zum stillen Verstärker.
Ressourcen und Hilfsangebote
Hilfreiche Anlaufstellen für Betroffene, Eltern und Schulen sind unter anderem Polizei bzw. Cybercrime-Stellen, StopNCII.org, Take It Down, saferinternet.at, klicksafe und Pro Juventute. StopNCII arbeitet mit Hashing und teilnehmenden Plattformen, Take It Down richtet sich an Bilder oder Videos von Personen unter 18 Jahren, und die deutschsprachigen Medienkompetenzstellen bieten Unterrichtsmaterial, Übungen und Orientierung für Eltern und Lehrkräfte.
FAQ
Ist das wirklich strafbar, obwohl es „nur KI“ war?
Ja, je nach Fall sehr klar. Entscheidend ist nicht, ob das Ausgangsbild „echt nackt“ war, sondern ob eine reale Person identifizierbar sexualisiert, bloßgestellt, verletzt oder eingeschüchtert wurde und ob Inhalte erstellt, verbreitet oder weitergeleitet wurden. In Österreich, Deutschland und der Schweiz können mehrere Normen gleichzeitig relevant sein.
Aber das Foto hat doch nie existiert – ist der Schaden dann kleiner?
Nein. Für Betroffene ist der soziale Schaden oft genauso real: Scham, Rufverlust, Ausgrenzung, Kontrollverlust. Genau deshalb sprechen Präventionsstellen von sexualisierter digitaler Gewalt und nicht von harmloser Bildspielerei.
Kann man solche Bilder überhaupt löschen?
Vollständige Löschung ist oft schwer. Aber Meldungen an Plattformen, schulische Intervention, Beweissicherung und Hash-basierte Tools wie StopNCII oder Take It Down können die weitere Verbreitung deutlich eindämmen.
Haften auch Jugendliche, die „nur weitergeleitet“ haben?
Je nach Land und Fall kann auch Weiterleitung rechtlich relevant sein. Pädagogisch und schulisch ist sie es ohnehin, weil sie die Verletzung vergrößert. Wer teilt, beteiligt sich an der Verbreitung.
Fazit
Deepfakes in der Schule sind kein Zukunftsthema mehr. Sie sind da – in Klassenchats, auf Plattformen, in peinlichen Audios, in sexualisierten Bildfälschungen. Und sie treffen nicht nur Prominente, sondern ganz normale Kinder und Jugendliche in ihrem direkten Alltag. Die Technik ist neu, das Muster dahinter nicht: Macht, Demütigung, Gruppendruck, Reichweite.
Gerade deshalb braucht es eine ruhige, klare Haltung. Betroffene müssen entlastet werden. Schulen brauchen Verfahren statt Improvisation. Eltern brauchen Orientierung statt Alarmismus. Und Jugendliche müssen verstehen, dass „nur fake“ keine Entschuldigung ist, wenn die Verletzung echt ist.
National Center for Missing & Exploited Children
Hinweis: Stand zum Veröffentlichungsdatum.
Verwendete Bilder, Screenshots und Medien dienen ausschließlich der sachlichen Auseinandersetzung im Sinne des Zitatrechts (§ 51 UrhG).
Teile dieses Beitrags können KI-gestützt erstellt und redaktionell geprüft worden sein.
(Mehr zur Arbeitsweise)
