Menü schließen
Verbraucherrat
  • Startseite
  • Über Uns
  • Kontakt
  • Aktuelle Warnungen
  • Nachrichten
  • Ratgeber
  • Betrugsmaschen
  • Beratung
  • Bildung
  • Politik
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
Verbraucherrat
  • Startseite
  • Über Uns
  • Kontakt
  • Startseite
  • Über Uns
  • Kontakt
  • Aktuelle Warnungen

    Abschaltung des Gasanschlusses darf nicht zur Kostenfalle werden

    Mai 6, 2026

    Stromversorgung sicher und kosteneffizient gewährleisten

    Mai 5, 2026

    Ex-E.ON-Kunden erhalten Erstattungen für verspätete Strom-Schlussrechnungen

    Mai 5, 2026

    Gefährliche Produkte werden trotz EU-Warnung auf Online-Marktplätzen verkauft

    Mai 4, 2026

    „Inflationszahlen sind Warnsignal“ | Verbraucherzentrale Bundesverband

    April 29, 2026
  • Nachrichten

    Kurioser WM-Job ausgeschrieben: Kein Witz: Alle WM-Spiele gucken – 50.000 Dollar kassieren

    Mai 6, 2026

    Humorvolle Reaktion auf Deepfake: Giorgia Meloni postet KI-Bild von sich in Unterwäsche

    Mai 6, 2026

    Lob für Sensibilität der Fans: Gibt es in deutschen Fußball-Stadien mehr Notfälle als früher?

    Mai 6, 2026

    Unverzichtbare Basisöle fehlen: Motoröl-Knappheit könnte Autobauer und ÖPNV lahmlegen

    Mai 6, 2026

    Auf dem Weg in die Niederlande: Zwei Erkrankte und eine Kontaktperson von Schiff evakuiert

    Mai 6, 2026
  • Ratgeber
  • Betrugsmaschen

    Vorsicht: KI-Betrug – Spam wird gefährlicher für Verbraucher

    Mai 6, 2026

    Ist der Trump-Post über Friedrich Merz echt?

    Mai 6, 2026

    Microsoft Edge: Passwörter ungeschützt im Arbeitsspeicher!

    Mai 6, 2026

    Facebook-Seite gehackt: Der Fall „Gabis Bunte Bilder“ als Warnung vor Missbrauch

    Mai 6, 2026

    Zeigt dieses Bild den Leipzig-Amokfahrer mit AfD- oder Antifa-Shirt?

    Mai 5, 2026
  • Beratung
  • Bildung

    Geschichte der Demokratiebildung in der Schule | Bildung

    April 29, 2026

    Welcher Anteil junger Frauen und Männer erlangt das Abitur? | Bildung

    April 29, 2026

    Wer kann auf’s Gymnasium gehen? | Bildung

    April 29, 2026

    Schweigen ist nicht neutral | Bildung

    April 29, 2026

    Anwältin und Mechaniker | Bildung

    April 29, 2026
  • Politik

    Gericht: Ausweiskontrollen in Berliner Freibädern zulässig

    Mai 6, 2026

    Israel will Deutschland mit Kerosin-Lieferungen unterstützen

    Mai 6, 2026

    Ein Jahr Schwarz-Rot: Der Rollenwechsel des Friedrich Merz

    Mai 6, 2026

    Ausbruch auf Kreuzfahrtschiff: Andes-Typ des Hantavirus nachgewiesen

    Mai 6, 2026

    Getöteter Polizist aus Dresden: zehn Jahre und sechs Monate Gefängnis für Autodieb

    Mai 6, 2026
Verbraucherrat
Startseite»Betrugsmaschen»Vorsicht: KI-Betrug – Spam wird gefährlicher für Verbraucher
Betrugsmaschen

Vorsicht: KI-Betrug – Spam wird gefährlicher für Verbraucher

Dr. Heinrich KrämerVon Dr. Heinrich KrämerMai 6, 2026Keine Kommentare5 Minuten Lesezeit
Facebook Twitter Pinterest LinkedIn Tumblr E-Mail
Teilen
Facebook Twitter LinkedIn Pinterest E-Mail

Eine Mail wirkt plötzlich fehlerfrei. Eine Dating-Nachricht klingt persönlicher als früher. Ein angeblicher Shop hat ansprechende Texte, passende Bilder und sogar eine halbwegs glaubwürdige „Über uns“-Seite. Genau dort wird KI-Betrug für viele Menschen relevant: nicht im spektakulären Hackerfilm, sondern im ganz normalen digitalen Alltag.

Die Studie „Stand-Alone Complex or Vibercrime?“ von Forschern aus Cambridge, Edinburgh und Strathclyde untersucht, wie generative KI in Cybercrime-Foren tatsächlich diskutiert und genutzt wird. Die Untersuchung liegt als arXiv-Preprint vor, ist also noch nicht zwingend peer-reviewed. Grundlage sind 97.895 Threads aus der Zeit nach dem Start von ChatGPT, ergänzt durch qualitative Auswertung von mehr als 3.200 Diskussionen.

Das Ergebnis widerspricht der einfachen Erzählung von der neuen Ära autonomer „Super-Hacker“: Für hochkomplexe Angriffe findet die Studie bisher wenig belastbare Hinweise. Viele sogenannte „Dark AI“-Tools wie WormGPT wurden zwar stark beworben, lieferten aber offenbar selten brauchbare Schadsoftware oder neue Angriffsfähigkeiten.

Der Betrug rückt näher

Für Nutzer ist diese Relativierung keine Entwarnung. Denn der relevante Wandel liegt nicht darin, dass Kriminelle plötzlich magisch bessere Hacker werden. Er liegt darin, dass bereits bekannte Betrugsformen leichter zu produzieren, zu variieren und massenhaft zu verbreiten sind.

Das betrifft vor allem Phishing, Spam, Fake-Webseiten, Social-Media-Bots und Romance Scam. Wer früher viele schlechte Texte, holprige Übersetzungen oder auffällige Vorlagen verschicken musste, kann heute schneller unterschiedliche Varianten erzeugen. Dadurch verschwinden einige Warnsignale, auf die sich viele Menschen lange verlassen haben. Rechtschreibfehler, merkwürdige Formulierungen und unnatürliche Sprache sind nicht mehr so zuverlässig wie früher.

Gerade bei Phishing-Mails und gefälschten Login-Seiten zählt nicht nur technische Raffinesse. Es reicht oft, wenn eine Nachricht glaubwürdig genug wirkt, im passenden Moment kommt und zu einer schnellen Handlung drängt. KI kann dabei helfen, Tonfall, Sprache und Anlass besser anzupassen. Aus einer groben Massenmail wird nicht automatisch ein perfekter Angriff, aber sie kann professioneller aussehen.

Masse statt Meisterleistung

Die Studie beschreibt KI vor allem als Werkzeug für Bereiche, die bereits vorher auf Masse angelegt waren. Dazu gehören SEO-Spam, automatisierte Inhalte, betrügerische Marketingseiten und einfache Scam-Modelle mit niedrigen Einzelgewinnen. In solchen Geschäftsmodellen lohnt sich schon eine kleine Verbesserung, wenn sie tausendfach eingesetzt werden kann.

Für Verbraucher bedeutet das: Mehr digitale Oberfläche wird unsicherer, ohne sofort verdächtig auszusehen. Fake-Shops können passende Produktbeschreibungen erzeugen. Betrügerische Landingpages können seriöser klingen. Social-Media-Profile können über längere Zeit mit scheinbar normalen Beiträgen gefüllt werden. Bots wirken dadurch nicht zwingend menschlich, aber weniger leer.

Die Studie verweist auch auf Bereiche wie Social Engineering, Spam-Skripte, bessere Übersetzungen sowie Video- und Audio-Synthese. Gerade dort geht es selten um einen einzelnen genialen Hack. Es geht um Vertrauen, Wiederholung und passende Ansprache.

Das macht den Unterschied zur klassischen Hacker-Erzählung. Ein autonomes Angriffssystem klingt bedrohlich, bleibt aber für die meisten Menschen abstrakt. Eine gefälschte Bankmail, ein manipuliertes Profilbild oder eine Stimme am Telefon sind konkret.

Wenn Nähe simuliert wird

Besonders relevant ist KI bei Betrugsformen, die auf Beziehung und Vertrauen setzen. Bei Romance Scam müssen Täter über längere Zeit glaubwürdig kommunizieren. Sie müssen reagieren, trösten, schmeicheln, erklären und Ausreden liefern. Generative KI kann solche Gespräche nicht vollständig ohne menschliche Steuerung ersetzen, aber sie kann viele Teile beschleunigen.

Die Studie fand Diskussionen über KI-gestützte Interaktionen, vorgefertigte Profile, Bildmaterial, Voice-Cloning und Deepfake-Elemente im Umfeld von Romance Fraud und sogenanntem eWhoring. Dabei wird auch deutlich, dass diese Methoden nicht automatisch erfolgreich sind. Viele Versuche bleiben plump oder erfordern weiterhin menschliche Kontrolle. Doch selbst halbautomatisierte Kommunikation kann reichen, um mehr Kontakte parallel zu bedienen.

Voice-Cloning verschiebt dabei ein altes Vertrauenssignal. Eine Stimme galt lange als persönlicher Beweis. Wenn kurze Audioaufnahmen genügen, um eine Stimme nachzuahmen, wird ein Anruf nicht automatisch glaubwürdig. Das betrifft Schockanrufe, angebliche Angehörige, falsche Vorgesetzte oder vermeintliche Support-Mitarbeiter. Mehr dazu ordnen wir im Bereich KI-Stimmen und Voice-Cloning ein.

Bilder als Vertrauenskulisse

Auch manipulierte Bilder und KI-generierte Fotos spielen eine wachsende Rolle. Sie müssen nicht perfekt sein. Oft genügt es, ein Profil glaubwürdiger erscheinen zu lassen, eine angebliche Identität zu stützen oder eine emotionale Reaktion auszulösen. Bei Fake-Profilen können Bilder, Chattexte und Lebensläufe zusammenpassen, obwohl nichts davon echt ist.

Besonders problematisch sind nicht einvernehmliche sexualisierte KI-Bilder. Die Studie beschreibt Angebote, bei denen aus normalen Bildern sexualisierte Darstellungen erzeugt und verkauft wurden. Solche Inhalte sind keine technische Spielerei, sondern können Betroffene erpressbar machen, einschüchtern oder sozial schädigen.

Auch hier gilt: Der Betrug wird nicht unbedingt technisch genial. Er wird verfügbarer. Werkzeuge, Vorlagen und Dienste senken die Hürde, Inhalte zu produzieren, die früher mehr Aufwand erfordert hätten.

Warum Entwarnung falsch wäre

Die Studie relativiert den Hype um „Dark AI“ und autonome Hackerangriffe. Sie beschreibt, dass viele beworbene Spezial-KIs wenig mehr als umgebaute oder entsperrte Chatbots waren. Sie findet auch Hinweise darauf, dass Schutzmechanismen großer Modelle die missbräuchliche Nutzung erschweren können.

Für den Verbraucheralltag verschiebt sich das Risiko trotzdem. Wer nur nach dem großen technischen Durchbruch sucht, übersieht die viel alltäglichere Veränderung. Betrug muss nicht neu sein, um wirksamer zu werden. Er muss nur schneller erstellt, besser angepasst und breiter ausgespielt werden.

Keine Entwarnung: Der Betrug wird nicht unbedingt technisch raffinierter, aber schneller, massenhafter, professioneller und schwerer erkennbar.

Praktisch bedeutet das, bekannte Prüfmechanismen ernster zu nehmen:

  • Links nicht aus Nachrichten heraus öffnen.
  • Absender und Domain prüfen.
  • Bei Zahlungs- oder Handlungsdruck pausieren.
  • Bei angeblichen Notfällen über einen zweiten Kanal zurückrufen.
  • Bilder, Stimmen und Profile nicht als alleinigen Beleg betrachten.

Gerade KI-gestützter Betrug lebt davon, dass Menschen in einem vertrauten Moment zu schnell reagieren.

FAQ

Erzeugt KI jetzt automatisch Super-Hacker?

Die Studie findet dafür bisher wenig Hinweise im untersuchten Cybercrime-Untergrund. KI wird eher als Hilfswerkzeug genutzt, etwa für Texte, einfache Automatisierung und Betrugsinhalte.

Warum ist KI-Phishing gefährlich, wenn es technisch nicht neu ist?

Weil bessere Sprache, mehr Varianten und schnellere Produktion alte Warnsignale schwächen. Eine gefälschte Nachricht kann dadurch seriöser wirken.

Sind Stimmen und Bilder noch verlässlich?

Nicht allein. Bei ungewöhnlichen Geldforderungen, Notfällen oder intimen Inhalten sollte immer ein zweiter Prüfweg genutzt werden.

ACADEMIC

Hughes, J., Collier, B., & Thomas, D. R.

März 2026

Hinweis: Stand zum Veröffentlichungsdatum.
Verwendete Bilder, Screenshots und Medien dienen ausschließlich der sachlichen Auseinandersetzung im Sinne des Zitatrechts (§ 51 UrhG).
Teile dieses Beitrags können KI-gestützt erstellt und redaktionell geprüft worden sein.
(Mehr zur Arbeitsweise)

Teilen. Facebook Twitter Pinterest LinkedIn Tumblr E-Mail
Dr. Heinrich Krämer
  • Webseite

Ähnliche Beiträge

Ist der Trump-Post über Friedrich Merz echt?

Mai 6, 2026

Microsoft Edge: Passwörter ungeschützt im Arbeitsspeicher!

Mai 6, 2026

Facebook-Seite gehackt: Der Fall „Gabis Bunte Bilder“ als Warnung vor Missbrauch

Mai 6, 2026
Kommentar hinterlassen Antwort abbrechen

Top-Beiträge

„Moby Dick“: Vor 60 Jahren: Belugawal im Rhein gesichtet

April 29, 20264 Aufrufe

Was eine Zuckerabgabe bringen könnte

April 29, 20264 Aufrufe

„Inflationszahlen sind Warnsignal“ | Verbraucherzentrale Bundesverband

April 29, 20263 Aufrufe

Kommentar zur Gesundheitsreform: Gerecht sieht anders aus

April 29, 20263 Aufrufe
Folgen Sie uns
  • Facebook
  • Twitter
  • Pinterest
  • Instagram
  • YouTube
  • Vimeo

Abonnieren Sie Updates

VerbraucherRat GmbH
Hohenzollernring 56
50672 Köln

Telefon: +49 221 16847392-0
Telefax: +49 221 16847392-99
E-Mail: info@verbraucherrat.com
Web: www.verbraucherrat.com

Geschäftszeiten
Montag – Freitag: 09:00 – 18:00 Uhr

Menu
  • Startseite
  • Über Uns
  • Kontakt
  • Aktuelle Warnungen
  • Nachrichten
  • Ratgeber
  • Betrugsmaschen
  • Beratung
  • Bildung
  • Politik
Institutionell
  • Impressum
  • Datenschutz
  • Hinweis / Haftungsausschluss
  • Cookie-Manager
  • Nutzungsbedingungen
  • Werbefrei lesen
  • Einwilligung widerrufen
  • Mediadaten
  • Abo kündigen
  • Barrierefreiheitserklärung
  • Hilfe
© 2026 VerbraucherRat. Alle Rechte vorbehalten.
  • Impressum
  • Datenschutz
  • Hinweis / Haftungsausschluss
  • Cookie-Manager
  • Nutzungsbedingungen
  • Werbefrei lesen
  • Einwilligung widerrufen
  • Mediadaten
  • Abo kündigen
  • Barrierefreiheitserklärung
  • Hilfe

Tippen Sie oben und drücken Sie Enter zum Suchen. Drücken Sie Esc zum Abbrechen.