Schockanrufe mit Künstlicher Intelligenz
WDR aktuell. 06.09.2023. 05:09 Min.. Verfügbar bis 06.09.2025. WDR. Von Daniela Schulz.
Enkeltrick mit Deepfake: Wie Betrüger künstliche Intelligenz nutzen
Stand: 18.03.2024, 16:02 Uhr
Menschen werden am Telefon gedrängt, hohe Summen zu überweisen: Den Enkeltrick nutzen Betrüger schon lange. Aber was ist, wenn der Anrufer genau so klingt, wie der eigene Enkel?
Immer wieder warnen Verbraucherschützer vor sogenannten Schockanrufen. Ältere Menschen bekommen einen Anruf, am anderen Ende der Leitung: ein Verwandter in einer vermeintlichen Notlage, der dringend Geld benötigt. Schon allein diese Extremsituation verleitet immer wieder gerade ältere Menschen dazu, Geld zu überweisen oder einem Boten zu geben, den der oder die angebliche Verwandte vorbeischickt.
Den Trick zu durchschauen wird mittlerweile immer schwieriger. Denn inzwischen mehren sich Vorfälle, in denen sich die Betrüger einer neuen Technik bedienen: dem Voice Cloning. Mittels künstlicher Intelligenz (KI) wird eine Software trainiert, Stimmen präzise nachzuahmen. Und so haben die potenziellen Opfer das Gefühl, das tatsächlich ein Verwandter mit ihnen spricht.
Stimme, Farbklang: Alles täuschend echt
Agnes Bredendiek aus Arnsberg hat einen solchen Schockanruf bekommen, angeblich von ihrer Tochter. Die berichtete am Telefon unter Tränen, sie habe einen Unfall gebaut und habe einen Menschen tot gefahren. Sie sei geschockt gewesen und habe am ganzen Körper gezittert, berichtet die Mutter.
Vor allem sagt sie: Sie habe schwören können, dass es ihre Tochter gewesen sei, die da angerufen habe. Die Stimme, der Farbklang, das alles sei täuschend echt gewesen. Doch in Wirklichkeit war es eine Software.
Möglich wurde das durch KI. Die Technik benötigt inzwischen nur noch wenige Sätze als Tonaufnahme von einer Person, um diese dann anschließend all das sagen zu lassen, was Betrüger sie sagen lassen wollen. Aber wie sind die Täter an die Stimme gekommen?
Genug Rohmaterial dank Social Media
"Das ist ziemlich leicht, wenn Sie zu den Menschen gehören, die relativ viel über die bekannten Social-Media-Plattformen teilen", erklärt der KI-Experte und Software-Ingenieur Michael Zerna aus Cottbus. Er berät unter anderem Unternehmen in Sachen Künstlicher Intelligenz.
TikTok, YouTube, Facebook, Instagram - es gebe "so viele verschiedene Plattformen, wo man Videos hochladen kann", sagt Zerna. "Und Teil eines Videos ist natürlich auch die Sprache."
Die passende Telefonnummer aus dem Darknet
Schwieriger ist etwas anderes: Wie finden die Betrüger zur Stimme dann auch die richtigen Verwandten - inklusive Telefonnummer?
Und dann gebe es Software, die daraus Verknüpfungen ziehe. Mit Künstlicher Intelligenz ginge das heutzutage noch schneller. Am Ende sei das eine ähnliche Technik wie bei Werbefirmen, die Profile sammeln und dann gezielt Werbung ausspielen.
Echte Dialoge noch nicht möglich
Allerdings habe die Technik noch Grenzen. Einen echten Dialog könne die Software noch nicht simulieren. Die Texte müssten ja erstmal generiert werden, meint Zerna. Das dauere zwar möglicherweise nur ein paar Sekunden, aber diese Lücke würde man hören.
Angreifer würden darum auch auf Sprachnachrichten setzen, ergänzt Zerna: Die sind schwerer zu entlarven, weil sie asynchron sind. "Und wenn Sie jetzt auf einmal eine Sprachnachricht bekommen von Ihrem Sohn, dann spielt man ja mit dieser Panik, die in einem hochkommt und denkt vielleicht erst mal, das ist echt, weil sich das echt anhört."
Der beste Schutz: Ruhe bewahren
Aber wie kann man sich schützen vor dem KI-Enkeltrick? KI-Experte Zerna meint: in jedem Fall erstmal Ruhe bewahren, auch wenn das schwer falle. Denn wie schon beim "klassischen" Enkeltrick setzen die Betrüger auf den Überrumpelungseffekt.
Ein weiterer simpler Tipp, der auch unter Stress funktioniert: sich gemeinsam mit Verwandten ein Codewort überlegen – und das dann gezielt abfragen. Wenn der Anrufer das Codewort kennt, dann ist der Anruf echt.