Ein Anruf kommt herein. Am anderen Ende klingt jemand wie ein naher Angehöriger, ein Kind, ein Enkel oder eine vertraute Person. Die Stimme wirkt echt, die Situation dringend, der Druck hoch. Genau hier setzen Betrüger immer häufiger an: Sie nutzen KI-generierte Stimmen, um Vertrauen zu erzeugen und Menschen zu schnellen Entscheidungen zu drängen.
Was sind KI-Stimmen?
KI-Stimmen sind künstlich erzeugte oder veränderte Stimmen. Sie werden mithilfe von Programmen erstellt, die menschliche Sprache nachahmen können. Solche Systeme können Texte vorlesen, Stimmen imitieren oder aus kurzen Tonaufnahmen neue Sprachsätze erzeugen.
Das ist nicht automatisch kriminell. KI-Stimmen werden auch in Hörbüchern, Assistenzsystemen, Übersetzungen oder barrierefreien Anwendungen genutzt. Gefährlich wird es aber, wenn Betrüger damit vortäuschen, eine vertraute Person zu sein.
Gerade am Telefon kann das besonders überzeugend wirken. Denn dort fehlen Bild, Körpersprache und andere Hinweise. Viele Menschen reagieren zuerst auf die Stimme – und nicht auf die Frage, ob die Situation überhaupt plausibel ist.
Wie funktioniert das Stimmen-Klonen?
Beim Stimmen-Klonen analysiert eine Software vorhandene Sprachaufnahmen. Daraus lernt sie typische Merkmale einer Stimme: Tonhöhe, Rhythmus, Aussprache, Pausen und Betonung. Je besser und länger das Ausgangsmaterial ist, desto überzeugender kann das Ergebnis wirken.
Solches Material kann aus öffentlichen Videos, Social-Media-Beiträgen, Sprachnachrichten oder anderen Tonaufnahmen stammen. Deshalb ist es wichtig, bewusst mit Sprachaufnahmen umzugehen. Mehr dazu erklärt Mimikama im Beitrag Wie Betrüger mit Deepfakes deine Stimme klauen.
Für einen Betrugsversuch muss die Fälschung nicht perfekt sein. Oft reicht es, wenn sie in einer Stresssituation glaubwürdig genug klingt. Betrüger setzen deshalb zusätzlich auf Druck, Angst und Zeitnot.
Die häufigsten Maschen mit KI-Stimmen
KI-Stimmen werden vor allem dort gefährlich, wo Vertrauen eine Rolle spielt. Besonders häufig sind angebliche Notfälle in der Familie. Eine Stimme behauptet, ein Unfall sei passiert, jemand sei festgenommen worden oder es werde dringend Geld benötigt.
Auch bekannte Betrugsformen können durch KI glaubwürdiger wirken. Dazu zählen falsche Behördenanrufe, angebliche Bankmitarbeiter, vermeintliche IT-Supports oder Schockanrufe. Wie Betrüger generell mit Druck und technischer Verunsicherung arbeiten, zeigt auch der Ratgeber Microsoft-Support-Betrug: So funktioniert die Masche.
Besonders perfide ist der neue Enkeltrick mit KI-Stimmen. Hier wird eine vertraute Stimme nachgeahmt, um ältere Menschen emotional zu überrumpeln. Mimikama hat dazu bereits den Beitrag BSI warnt vor neuer Enkeltrickmasche durch KI veröffentlicht.
7 Warnsignale am Telefon
Eine KI-Stimme erkennt man nicht immer eindeutig am Klang. Viel wichtiger ist das Verhalten im Gespräch. Achten Sie besonders auf diese Warnsignale:
- Der Anruf beginnt mit einem Notfall, der sofortiges Handeln verlangt.
- Die Person bittet um Geld, Gutscheinkarten, Überweisungen oder Kryptowährungen.
- Sie sollen niemandem von dem Anruf erzählen.
- Rückfragen werden ausweichend beantwortet.
- Die Stimme klingt vertraut, aber die Wortwahl passt nicht ganz zur Person.
- Es wird behauptet, das Handy sei kaputt oder eine andere Nummer müsse verwendet werden.
- Es entsteht starker Zeitdruck: „Bitte sofort“, „sonst ist es zu spät“, „du darfst nicht auflegen“.
Entscheidend ist: Nicht die Stimme beweist die Echtheit eines Anrufs. Entscheidend ist, ob die Geschichte überprüfbar ist.
Was tun, wenn ein verdächtiger Anruf kommt?
Bleiben Sie ruhig und lassen Sie sich nicht drängen. Legen Sie im Zweifel auf. Das ist nicht unhöflich, sondern ein wichtiger Schutzmechanismus.
- Rufen Sie die angeblich betroffene Person selbst über eine bekannte Nummer zurück.
- Stellen Sie eine Frage, die nur die echte Person beantworten kann.
- Überweisen Sie kein Geld während eines laufenden Telefonats.
- Geben Sie keine Zugangsdaten, TANs oder Bankinformationen weiter.
- Informieren Sie Angehörige, wenn Sie einen solchen Anruf erhalten haben.
Wenn bereits Geld überwiesen wurde, kontaktieren Sie sofort Ihre Bank. Danach sollte Anzeige bei der Polizei erstattet werden. Je schneller reagiert wird, desto größer ist die Chance, Schaden zu begrenzen.
Wie Sie sich und Ihre Familie schützen
Der beste Schutz ist Vorbereitung. Sprechen Sie in der Familie offen über solche Anrufe. Das gilt besonders für ältere Angehörige, die vielleicht nicht täglich mit KI, Deepfakes oder neuen Betrugsmaschen zu tun haben.
Vereinbaren Sie ein Familien-Codewort. Dieses Wort sollte nicht öffentlich bekannt sein, nicht aus Namen, Geburtsdaten oder Haustieren bestehen und nicht in sozialen Netzwerken vorkommen. Es sollte einfach zu merken, aber schwer zu erraten sein.
Ein gutes Codewort kann etwa ein ungewöhnliches gemeinsames Erlebnis, ein erfundener Begriff oder ein Satzteil sein, den nur die Familie kennt. Wichtig ist: Das Codewort wird nur für Notfälle verwendet und nicht nebenbei in Chats oder Postings erwähnt.
Außerdem hilft eine klare Familienregel: Geld wird nie nach einem überraschenden Anruf überwiesen. Erst wird aufgelegt, dann wird über bekannte Nummern zurückgerufen. Diese einfache Regel kann Betrug verhindern.
KI-Stimmen machen Betrug nicht völlig neu. Sie machen alte Maschen glaubwürdiger. Deshalb bleibt die wichtigste Regel: nicht die Stimme prüfen, sondern die Geschichte.
Wie erkennt man eine KI-Stimme am Telefon?
Eine KI-Stimme erkennt man nicht immer zuverlässig am Klang. Achten Sie vor allem auf die Situation: Plötzlicher Notfall, starker Zeitdruck, Geldforderung, Geheimhaltung und ausweichende Antworten sind klare Warnsignale.
Können Betrüger meine Stimme aus Sprachnachrichten klauen?
Ja, grundsätzlich können Sprachaufnahmen als Ausgangsmaterial für Stimmklone missbraucht werden. Je mehr Material öffentlich oder ungeschützt verfügbar ist, desto leichter kann eine Stimme nachgeahmt werden.
Was ist ein gutes Familien-Codewort?
Ein gutes Codewort ist leicht zu merken, aber schwer zu erraten. Es sollte nicht aus Namen, Geburtsdaten, Haustiernamen oder öffentlich bekannten Informationen bestehen. Am besten eignet sich ein ungewöhnliches Wort oder ein gemeinsamer Insider.
Sollte ich verdächtige Anrufe aufnehmen?
Bei Aufnahmen gelten rechtliche Regeln, die je nach Land unterschiedlich sein können. Wichtiger ist: Legen Sie auf, sichern Sie Telefonnummern, notieren Sie Uhrzeit und Inhalt des Gesprächs und melden Sie den Vorfall bei Bank oder Polizei, wenn ein Schaden droht oder entstanden ist.
Wo melde ich KI-Stimmen-Betrug?
Wenn Geld gefordert wurde oder bereits ein Schaden entstanden ist, wenden Sie sich an die Polizei und Ihre Bank. Verdächtige Inhalte oder Hinweise auf Betrugsmaschen können Sie außerdem an Faktencheck– und Aufklärungsstellen wie Mimikama weitergeben.
Hinweis: Stand zum Veröffentlichungsdatum.
Verwendete Bilder, Screenshots und Medien dienen ausschließlich der sachlichen Auseinandersetzung im Sinne des Zitatrechts (§ 51 UrhG).
Teile dieses Beitrags können KI-gestützt erstellt und redaktionell geprüft worden sein.
(Mehr zur Arbeitsweise)
