Stellen Sie sich vor, Sie hören die vermeintliche Stimme Ihres Kindes am Telefon: „Mama, ich hatte einen Unfall. Sie lassen mich erst gehen, wenn ich eine Kaution hinterlege. Hilf mir, schnell!“
Der Missbrauch künstlicher Intelligenz kann betrügerische Anrufe auf ein neues Level heben. Die gute Nachricht: Mit ein paar Tipps können Sie sich schützen.
Allerdings wird es mit der Weiterentwicklung der KI-Technologie immer schwieriger, solche betrügerischen Anrufe sofort zu durchschauen. Denn: Die Stimmen von Verwandten oder Freunden können damit täuschend echt imitiert werden. Als Angerufener kann man den Unterschied kaum feststellen. Hinzu kommt der Überraschungseffekt, der das Opfer dazu verleitet, sofort zu handeln und möglicherweise das Geld gleich zu überweisen. Oft bleiben die Opfer auf dem finanziellen Schaden sitzen.
An die Stimmen kommen die Kriminellen zum Beispiel durch Schadsoftware, mit der sie sich Zugang zu mobilen Endgeräten verschaffen, um Gespräche aufzuzeichnen. Diese können sie entweder sofort verwenden oder zum Training von KI-Anwendungen nutzen. Für das Training von KI-Systemen werden nur wenige Minuten Audiomaterial des Originals benötigt.
Eine mögliche Zukunft dieser Betrugsmasche könnten Videoanrufe mit ähnlichem Inhalt sein. Hierbei könnten Kriminelle KI-Technologien nutzen, um neben der Stimme auch Mimik und Gestik zu fälschen, also sogenannte Deep Fakes einsetzen. Dazu werden beispielsweise Videoaufnahmen als Vorlage verwendet und lippensynchron aufbereitet.
Quelle: Budesverband deutscher Banken
Für Rückfragen wenden Sie sich bitte an:
Zahlungsverkehr
Email: ernegger@bankenverband.at
Telefon: +43 (1) 535 17 71 - 28