Eine Mail wirkt plötzlich fehlerfrei. Eine Dating-Nachricht klingt persönlicher als früher. Ein angeblicher Shop hat ansprechende Texte, passende Bilder und sogar eine halbwegs glaubwürdige „Über uns“-Seite. Genau dort wird KI-Betrug für viele Menschen relevant: nicht im spektakulären Hackerfilm, sondern im ganz normalen digitalen Alltag.
Die Studie „Stand-Alone Complex or Vibercrime?“ von Forschern aus Cambridge, Edinburgh und Strathclyde untersucht, wie generative KI in Cybercrime-Foren tatsächlich diskutiert und genutzt wird. Die Untersuchung liegt als arXiv-Preprint vor, ist also noch nicht zwingend peer-reviewed. Grundlage sind 97.895 Threads aus der Zeit nach dem Start von ChatGPT, ergänzt durch qualitative Auswertung von mehr als 3.200 Diskussionen.
Das Ergebnis widerspricht der einfachen Erzählung von der neuen Ära autonomer „Super-Hacker“: Für hochkomplexe Angriffe findet die Studie bisher wenig belastbare Hinweise. Viele sogenannte „Dark AI“-Tools wie WormGPT wurden zwar stark beworben, lieferten aber offenbar selten brauchbare Schadsoftware oder neue Angriffsfähigkeiten.
Der Betrug rückt näher
Für Nutzer ist diese Relativierung keine Entwarnung. Denn der relevante Wandel liegt nicht darin, dass Kriminelle plötzlich magisch bessere Hacker werden. Er liegt darin, dass bereits bekannte Betrugsformen leichter zu produzieren, zu variieren und massenhaft zu verbreiten sind.
Das betrifft vor allem Phishing, Spam, Fake-Webseiten, Social-Media-Bots und Romance Scam. Wer früher viele schlechte Texte, holprige Übersetzungen oder auffällige Vorlagen verschicken musste, kann heute schneller unterschiedliche Varianten erzeugen. Dadurch verschwinden einige Warnsignale, auf die sich viele Menschen lange verlassen haben. Rechtschreibfehler, merkwürdige Formulierungen und unnatürliche Sprache sind nicht mehr so zuverlässig wie früher.
Gerade bei Phishing-Mails und gefälschten Login-Seiten zählt nicht nur technische Raffinesse. Es reicht oft, wenn eine Nachricht glaubwürdig genug wirkt, im passenden Moment kommt und zu einer schnellen Handlung drängt. KI kann dabei helfen, Tonfall, Sprache und Anlass besser anzupassen. Aus einer groben Massenmail wird nicht automatisch ein perfekter Angriff, aber sie kann professioneller aussehen.
Masse statt Meisterleistung
Die Studie beschreibt KI vor allem als Werkzeug für Bereiche, die bereits vorher auf Masse angelegt waren. Dazu gehören SEO-Spam, automatisierte Inhalte, betrügerische Marketingseiten und einfache Scam-Modelle mit niedrigen Einzelgewinnen. In solchen Geschäftsmodellen lohnt sich schon eine kleine Verbesserung, wenn sie tausendfach eingesetzt werden kann.
Für Verbraucher bedeutet das: Mehr digitale Oberfläche wird unsicherer, ohne sofort verdächtig auszusehen. Fake-Shops können passende Produktbeschreibungen erzeugen. Betrügerische Landingpages können seriöser klingen. Social-Media-Profile können über längere Zeit mit scheinbar normalen Beiträgen gefüllt werden. Bots wirken dadurch nicht zwingend menschlich, aber weniger leer.
Die Studie verweist auch auf Bereiche wie Social Engineering, Spam-Skripte, bessere Übersetzungen sowie Video- und Audio-Synthese. Gerade dort geht es selten um einen einzelnen genialen Hack. Es geht um Vertrauen, Wiederholung und passende Ansprache.
Das macht den Unterschied zur klassischen Hacker-Erzählung. Ein autonomes Angriffssystem klingt bedrohlich, bleibt aber für die meisten Menschen abstrakt. Eine gefälschte Bankmail, ein manipuliertes Profilbild oder eine Stimme am Telefon sind konkret.
Wenn Nähe simuliert wird
Besonders relevant ist KI bei Betrugsformen, die auf Beziehung und Vertrauen setzen. Bei Romance Scam müssen Täter über längere Zeit glaubwürdig kommunizieren. Sie müssen reagieren, trösten, schmeicheln, erklären und Ausreden liefern. Generative KI kann solche Gespräche nicht vollständig ohne menschliche Steuerung ersetzen, aber sie kann viele Teile beschleunigen.
Die Studie fand Diskussionen über KI-gestützte Interaktionen, vorgefertigte Profile, Bildmaterial, Voice-Cloning und Deepfake-Elemente im Umfeld von Romance Fraud und sogenanntem eWhoring. Dabei wird auch deutlich, dass diese Methoden nicht automatisch erfolgreich sind. Viele Versuche bleiben plump oder erfordern weiterhin menschliche Kontrolle. Doch selbst halbautomatisierte Kommunikation kann reichen, um mehr Kontakte parallel zu bedienen.
Voice-Cloning verschiebt dabei ein altes Vertrauenssignal. Eine Stimme galt lange als persönlicher Beweis. Wenn kurze Audioaufnahmen genügen, um eine Stimme nachzuahmen, wird ein Anruf nicht automatisch glaubwürdig. Das betrifft Schockanrufe, angebliche Angehörige, falsche Vorgesetzte oder vermeintliche Support-Mitarbeiter. Mehr dazu ordnen wir im Bereich KI-Stimmen und Voice-Cloning ein.
Bilder als Vertrauenskulisse
Auch manipulierte Bilder und KI-generierte Fotos spielen eine wachsende Rolle. Sie müssen nicht perfekt sein. Oft genügt es, ein Profil glaubwürdiger erscheinen zu lassen, eine angebliche Identität zu stützen oder eine emotionale Reaktion auszulösen. Bei Fake-Profilen können Bilder, Chattexte und Lebensläufe zusammenpassen, obwohl nichts davon echt ist.
Besonders problematisch sind nicht einvernehmliche sexualisierte KI-Bilder. Die Studie beschreibt Angebote, bei denen aus normalen Bildern sexualisierte Darstellungen erzeugt und verkauft wurden. Solche Inhalte sind keine technische Spielerei, sondern können Betroffene erpressbar machen, einschüchtern oder sozial schädigen.
Auch hier gilt: Der Betrug wird nicht unbedingt technisch genial. Er wird verfügbarer. Werkzeuge, Vorlagen und Dienste senken die Hürde, Inhalte zu produzieren, die früher mehr Aufwand erfordert hätten.
Warum Entwarnung falsch wäre
Die Studie relativiert den Hype um „Dark AI“ und autonome Hackerangriffe. Sie beschreibt, dass viele beworbene Spezial-KIs wenig mehr als umgebaute oder entsperrte Chatbots waren. Sie findet auch Hinweise darauf, dass Schutzmechanismen großer Modelle die missbräuchliche Nutzung erschweren können.
Für den Verbraucheralltag verschiebt sich das Risiko trotzdem. Wer nur nach dem großen technischen Durchbruch sucht, übersieht die viel alltäglichere Veränderung. Betrug muss nicht neu sein, um wirksamer zu werden. Er muss nur schneller erstellt, besser angepasst und breiter ausgespielt werden.
Keine Entwarnung: Der Betrug wird nicht unbedingt technisch raffinierter, aber schneller, massenhafter, professioneller und schwerer erkennbar.
Praktisch bedeutet das, bekannte Prüfmechanismen ernster zu nehmen:
- Links nicht aus Nachrichten heraus öffnen.
- Absender und Domain prüfen.
- Bei Zahlungs- oder Handlungsdruck pausieren.
- Bei angeblichen Notfällen über einen zweiten Kanal zurückrufen.
- Bilder, Stimmen und Profile nicht als alleinigen Beleg betrachten.
Gerade KI-gestützter Betrug lebt davon, dass Menschen in einem vertrauten Moment zu schnell reagieren.
FAQ
Erzeugt KI jetzt automatisch Super-Hacker?
Die Studie findet dafür bisher wenig Hinweise im untersuchten Cybercrime-Untergrund. KI wird eher als Hilfswerkzeug genutzt, etwa für Texte, einfache Automatisierung und Betrugsinhalte.
Warum ist KI-Phishing gefährlich, wenn es technisch nicht neu ist?
Weil bessere Sprache, mehr Varianten und schnellere Produktion alte Warnsignale schwächen. Eine gefälschte Nachricht kann dadurch seriöser wirken.
Sind Stimmen und Bilder noch verlässlich?
Nicht allein. Bei ungewöhnlichen Geldforderungen, Notfällen oder intimen Inhalten sollte immer ein zweiter Prüfweg genutzt werden.
Hughes, J., Collier, B., & Thomas, D. R.
März 2026
Hinweis: Stand zum Veröffentlichungsdatum.
Verwendete Bilder, Screenshots und Medien dienen ausschließlich der sachlichen Auseinandersetzung im Sinne des Zitatrechts (§ 51 UrhG).
Teile dieses Beitrags können KI-gestützt erstellt und redaktionell geprüft worden sein.
(Mehr zur Arbeitsweise)
