Enkeltrick 2.0

Wenn Betrüger KI nutzen, um mit Deepfakes zu täuschen

Die bekannte Masche des Enkeltricks erfährt eine technologische Wendung: Mithilfe von Künstlicher Intelligenz lassen sich Stimmen so überzeugend imitieren, dass Betrüger sich als Verwandte ausgeben können, um an Geld zu gelangen.

Vorsicht vor Betrugsmaschen wie dem Enkeltrick: durch KI klingen Betrüger am Telefon authentisch
Vorsicht vor Betrugsmaschen wie dem Enkeltrick: durch KI klingen Betrüger am Telefon authentisch
Adobe Stock

Unter dem Begriff "Audio Deepfake" verbirgt sich eine Technologie, bei der eine Vielzahl von Stimmproben einer Person in einen Computer eingespeist werden. Auf Knopfdruck kann dann eine nahezu identisch klingende synthetische Stimme erzeugt werden, die durch Texteingabe gesteuert wird. Diese Technologie eröffnet einerseits vielfältige Chancen und Anwendungen, wie beispielsweise für Hörbücher oder vorgelesene Zeitungsartikel. Gleichzeitig jedoch birgt sie auch erhebliche Gefahren, da Kriminelle die gleiche Technologie nutzen können, um sich als andere Personen auszugeben.

Welche Betrugsmaschen gibt es?

Telefonbetrug: Betrüger nutzen die Technologie, um die Stimmen von Verwandten, Freunden oder anderen vertrauenswürdigen Personen perfekt zu imitieren. Mit manipulierten Stimmen überreden sie ihre Opfer dazu, Geld zu überweisen oder vertrauliche Informationen preiszugeben. Eine Betrugsmasche die schon ewig als "Enkeltrick" bekannt ist. Obwohl bislang keine Hinweise auf den Einsatz dieser Methode in Deutschland vorliegen, existieren bereits erste Berichte aus den USA, die darauf hindeuten, dass die Technologie auch im Bereich des Telefon- oder WhatsApp-Betrugs eingesetzt wurde. Die Gefahr, dass diese Masche auch international Schaden anrichtet, ist somit durchaus real.

CEO-Betrug: Eine beunruhigende Anwendung von Audio-Deepfakes ist der CEO-Betrug, der insbesondere in der "Fake President" Masche zum Tragen kommt. In diesem Szenario geben sich Betrüger als hochrangige Führungskräfte eines Unternehmens aus und nutzen die Möglichkeiten von Audio-Deepfakes, um die Stimmen des CEO (Chief Executive Officer) oder anderer Schlüsselpersonen perfekt nachzuahmen. Mit diesen manipulierten Stimmen überzeugen sie Mitarbeiter oder Finanzabteilungen, Gelder freizugeben oder vertrauliche Informationen preiszugeben. Ein bemerkenswertes Beispiel stammt vom Rückversicherer Allianz Trade, der von einem deutschen Energieversorger berichtet, bei dem Betrüger mithilfe dieser Methode 220.000 Euro erschlichen haben. Ein weiterer Fall endete mutmaßlich in einem Schaden von 35 Millionen US-Dollar, bei dem vermutlich Audio-Deepfakes eine entscheidende Rolle spielten.

Politische Manipulation: Mithilfe von Deepfakes können gefälschte Aussagen oder Botschaften politischer Persönlichkeiten erstellt werden, um gezielt Wähler zu beeinflussen oder Stimmungen zu manipulieren. Obwohl solche Manipulationsversuche in der Vergangenheit bereits vorgekommen sind, wurden sie in der Regel schnell erkannt, wodurch keine größeren Schäden entstanden sind. Ein Bericht von Europol verdeutlicht die zusätzlichen Gefahren, die diese Technologie für Ermittlerinnen und Ermittler mit sich bringt. Zeugenaussagen und Geständnisse könnten durch Audio-Deepfakes in Frage gestellt werden, da die Authentizität dieser Beweismittel nicht mehr eindeutig festgestellt werden kann. Dies könnte die Effektivität von Ermittlungsverfahren erheblich beeinträchtigen und eine neue Herausforderung für die Strafverfolgung darstellen.

DeepFake-Beispiel: Jordan Peterson über die deutsche Regierung

Wie funktioniert der Enkeltrick 2.0 ?

Das Internet beherbergt mittlerweile eine Vielzahl von kostenfreien und kostenpflichtigen Diensten, die es ermöglichen, Audio-Deepfakes zu erstellen oder bereits fertige Stimmen "zu engagieren". Hierbei benötigen die Anbieter lediglich einige wenige hochqualitative Sprachaufnahmen der Person, deren Stimme nachgeahmt werden soll. Die Qualität dieser Aufnahmen spielt eine entscheidende Rolle, da die Genauigkeit der Stimmenimitation von der Detailtreue abhängt.

Für den "Lernprozess" im Computer sind künstliche neuronale Netze verantwortlich, die mithilfe von maschinellem Lernen die Fähigkeit entwickeln, die Zielpersons-Stimme zu assimilieren. Sobald die Stimme erfasst ist, genügt eine einfache Texteingabe, um die Sätze oder Wörter vorzugeben, die der Computer daraufhin modelliert. Darüber hinaus bieten viele dieser Dienste zusätzliche Einstellungsmöglichkeiten wie beispielsweise die Verlängerung von Sprechpausen, die Anpassung der Stimmfarbe oder die Variation von Tonlagen. Dies dient dazu, die Imitation noch überzeugender und realistischer zu gestalten.

Wie erkennt man die Betrugsmasche und kann sich schützen?

Die Erkennung eines geschickt erstellten Audio-Deepfakes gestaltet sich insbesondere über das Telefon als äußerst herausfordernd. Im Allgemeinen ist es ratsam, bei aufgeregten Anrufen Ruhe zu bewahren, eine zweite Person hinzuzuziehen und das vermeintliche Enkelkind oder den vermeintlichen Vorgesetzten schnell über die bekannte Nummer zurückzurufen. Zusätzliche Sicherheit bieten Codewörter oder Fragen zu spezifischen Orten oder Ereignissen, die nur der betroffenen Person bekannt sind. Hierbei können auch die Verbraucherzentralen hilfreiche Tipps bieten.

Die zunehmende Verbreitung von Audio-Deepfakes hat auch zur Entwicklung von Technologien zur Erkennung und Verifizierung gefälschter Audiodateien geführt. Forscher und Entwickler setzen sich intensiv mit der Verbesserung von Algorithmen auseinander, die solche Deepfakes identifizieren können. Ziel ist es, die Integrität von Audioaufnahmen zu bewahren und damit eine effektive Verteidigung gegen die potenzielle Bedrohung durch diese Technologie zu schaffen.