Mama, hilf mir

So tricksen Betrüger mit KI-Stimmen

Kriminelle imitieren mit Künstlicher Intelligenz die Stimmen von Angehörigen und bringen ihre Opfer in Panik.

Author - Tobias Esters
Teilen
Kriminelle nutzen inzwischen Künstliche Intelligenz, um Stimmen von Angehörigen täuschend echt zu imitieren.
Kriminelle nutzen inzwischen Künstliche Intelligenz, um Stimmen von Angehörigen täuschend echt zu imitieren.Eibner-Pressefoto/IMAGO

Ein Anruf mit einer vertrauten Stimme kann heute brandgefährlich sein. Kriminelle nutzen zunehmend Künstliche Intelligenz, um Stimmen von Kindern, Enkeln oder Freunden täuschend echt nachzuahmen. Was wie eine echte Notsituation klingt, ist oft ein perfider Betrug. Zum Safer Internet Day am 10. Februar warnt die Verbraucherzentrale Brandenburg eindringlich vor dieser neuen Masche.

Perfide Masche mit vertrauter Stimme

Das Vorgehen ähnelt dem bekannten Enkeltrick. Die Täter behaupten, eine nahestehende Person befinde sich in großer Not. Sie sprechen von Unfällen, Krankenhausaufenthalten oder finanziellen Problemen. Der entscheidende Unterschied liegt in der Stimme. Mithilfe von KI klingt der Anrufer plötzlich wie der eigene Sohn oder die Tochter.

„Der eingesprochene Hilferuf am Telefon ist dadurch oftmals schwer als Fake-Anruf zu erkennen“, sagt die Digitalexpertin Michèle Scherer von der Verbraucherzentrale Brandenburg. Viele Betroffene geraten in Panik und handeln überstürzt.

Kriminelle geben sich als Angehörige aus und versuchen mit gefälschten Nachrichten und neuen Nummern an Geld und persönliche Daten zu kommen.
Kriminelle geben sich als Angehörige aus und versuchen mit gefälschten Nachrichten und neuen Nummern an Geld und persönliche Daten zu kommen.Wolf von Dewitz/dpa

Für die Fälschung genügen den Betrügern oft kurze Sprachproben. Diese finden sie in sozialen Netzwerken, Videos oder Sprachnachrichten. Mit speziellen Programmen entstehen daraus sogenannte Deepfakes. Dabei handelt es sich um künstlich erzeugte Tonaufnahmen, in denen Menschen Dinge sagen, die sie nie gesagt haben.

„Am Telefon sind diese Fälschungen nur schwer zu erkennen“, warnt Scherer. Es gibt manchmal unnatürliche Pausen oder merkwürdige Gesprächsverläufe. Unter Stress fällt das vielen nicht auf. Betroffen sind längst nicht mehr nur ältere Menschen. Auch Eltern und junge Erwachsene geraten immer häufiger ins Visier.

So schützen Sie sich vor KI-Schockanrufen

Die Verbraucherzentrale rät deshalb zu Besonnenheit. Niemand sollte sich am Telefon unter Druck setzen lassen. Im Zweifel ist es sinnvoll, das Gespräch zu beenden und die angebliche Person selbst über eine bekannte Nummer zurückzurufen. Auch gezielte Kontrollfragen können helfen, einen Betrug zu entlarven.

Sensible oder Geld betreffende Daten sollten grundsätzlich nicht am Telefon weitergegeben werden. Bei Verdacht empfiehlt die Verbraucherzentrale, den Vorfall zu dokumentieren und Anzeige bei der Polizei zu erstatten.

KI wird jedoch nicht nur bei Telefonbetrug eingesetzt. Auch bei E-Mails, Videos und vermeintlichen Geldanlagen greifen Kriminelle immer häufiger auf künstlich erzeugte Inhalte zurück. Täuschend echte Phishing-Mails oder manipulierte Werbevideos wirken seriös und sollen Vertrauen schaffen. Die Verbraucherzentrale rät daher, sich vor jeder Überweisung oder Entscheidung Zeit zu nehmen und Angebote genau zu prüfen.