Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Phänomen Cyber-Kidnapping
«Mami, diese bösen Männer haben mich!»

Täter täuschen das Kidnapping mithilfe künstlicher Intelligenz vor und wollen die Angst der Eltern nutzen, um schnell Lösegeld zu erpressen.
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk

Es gibt für Eltern kaum einen schlimmeren Anruf als jenen, den Jennifer DeStefano aus dem US-Bundesstaat Arizona vor einiger Zeit erhalten hat. Sie hatte gerade vor dem Tanzstudio parkiert, um ihre 15 Jahre alte Tochter vom Training abzuholen, da klingelte das Telefon. Unbekannte Nummer, am anderen Ende: ihre Tochter, schluchzend. «Mami, ich habe Mist gebaut. Diese bösen Männer haben mich. Hilf mir, bitte, hilf mir», sagte die Stimme. «Das war meine Tochter, 100 Prozent!», sagt DeStefano: «Wie sie weinte, wie sie redete.»

Dann übernahm eine fremde Männerstimme: «Wir haben sie.» Ihre Tochter werde sterben, sollte DeStefano nicht ein Lösegeld in fünfstelliger Höhe überweisen – und zwar sofort.

Nur: Es war gar nicht ihre Tochter. Jemand hatte eine sogenannte «Voice Cloning Software» verwendet, die Stimmen täuschend echt imitiert – und zwar so gut, dass DeStefano nicht mal beruhigt war, als sie mithilfe ihres Ehemanns ihre Tochter am Telefon erreicht hatte: «Ich habe es nicht geglaubt, bis wir über ein paar Fragen sichergestellt hatten, dass sie in Sicherheit war.»

Heisst: Niemand wurde entführt, die Täter täuschten das Kidnapping mithilfe der Künstliche-Intelligenz-Software lediglich vor und wollten die Verwirrung und Angst der Eltern nutzen, um schnell Lösegeld zu erpressen.

Die Betrugsmasche greift um sich

Cyber-Kidnapping nennt sich das, was Familie DeStefano passiert ist. Die Bundesbehörde FBI hat eine Warnung an die US-Amerikaner verschickt, dass die Zahl der Fälle in den vergangenen Wochen exponentiell gestiegen sei, in denen «Voice Cloning Software» verwendet wird. «Wichtig ist: Es geht den Tätern um Schnelligkeit. Sie wollen den Opfern keine Zeit lassen, um zu überprüfen, was wirklich los ist», heisst es in der Warnung.

Cyber-Kidnapping in der Form, wie sie die DeStefanos erlebt haben, ist eine neue, ausgefeiltere Version der Schockanrufe, die man auch in der Schweiz kennt. Die häufigste Variante hierzulande: Ein Kind des Angerufenen habe einen Verkehrsunfall verschuldet, bei dem ein Mensch ums Leben gekommen sei. Um aus der Untersuchungshaft entlassen zu werden, müsse sofort eine hohe Kaution hinterlegt werden.

Auch in der Schweiz gab es bereits Fälle, in denen Betroffene schwörten, bei betrügerischen Anrufen die Stimmen ihrer Bekannten oder Verwandten gehört zu haben. Ob tatsächlich eine neuartige Software dahintersteckt oder die Opfer im Schockzustand getäuscht wurden, ist unklar.

Ein doppelter Fall von Cyber-Kidnapping

This handout photo released by the Riverdale Police Department on January 1, 2024 shows a police officer standing next with Kai Zhuang at the site where he was found in the mountains near Brigham City, Utah, on December 31, 2023, after being reported missing. A Chinese exchange student who fell victim to a "cyber kidnapping" scam in which his parents were extorted for $80,0000, was found alive but "cold and scared" in a tent in the Utah wilderness, police said. (Photo by Riverdale Police Department / AFP) / RESTRICTED TO EDITORIAL USE - MANDATORY CREDIT "AFP PHOTO / RIVERDALE POLICE DEPARTMENT " - NO MARKETING - NO ADVERTISING CAMPAIGNS - DISTRIBUTED AS A SERVICE TO CLIENTS

Der international wohl bekannteste Fall mit geklonten Stimmen ereignete sich vor ein paar Wochen, als der chinesische Austauschschüler Kai Zhuang in den Bergen des Bundesstaates Utah gefunden wurde. Es war eine extreme Form des Cyber-Kidnappings: ein doppeltes Cyber-Kidnapping.

Die Täter kontaktierten zunächst Zhuang: Sie hätten seine Eltern in China entführt; als Beweis hörte Zhuang das, was er eindeutig als deren Stimmen identifizierte. Er solle Lösegeld zahlen, immer und immer wieder. Zunächst folgte er den Anweisungen. Doch als er während eines Anrufs ein paar Tage später sagte, dass er kein Geld mehr habe, änderten die Täter ihre Strategie: Er solle sich allein in den Bergen verstecken und von dort aus ein Foto von sich schicken, auf dem es so aussehe, als sei er entführt worden. Danach solle er in der Kälte und ohne Kontakt zu anderen auf Anweisungen warten. Per Videotelefonie überwachten sie, dass Zhuang tat, was sie von ihm verlangten.

Nun riefen die Täter bei den Eltern in China an und verlangten ein Lösegeld in Höhe von 80’000 Dollar. Es gab für die Eltern keinen Grund, dieser Drohung nicht zu glauben: Sie hörten die (gefälschte) Stimme des Sohnes; sie sahen auf einem Foto (das Zhuang selbst auf Anweisung der Täter gemacht hatte), dass er offenbar in die Berge verschleppt worden war. Drei Tage später fand ihn die Polizei nach Auswertung von Überwachungskameras.

This handout photo released by the Riverdale Police Department on January 1, 2024 shows authorities speaking to Kai Zhuang near the site where he was found in the mountains near Brigham City, Utah, on December 31, 2023, after being reported missing. A Chinese exchange student who fell victim to a "cyber kidnapping" scam in which his parents were extorted for $80,0000, was found alive but "cold and scared" in a tent in the Utah wilderness, police said. (Photo by Riverdale Police Department / AFP) / RESTRICTED TO EDITORIAL USE - MANDATORY CREDIT "AFP PHOTO / RIVERDALE POLICE DEPARTMENT " - NO MARKETING - NO ADVERTISING CAMPAIGNS - DISTRIBUTED AS A SERVICE TO CLIENTS

Man sollte Cyber-Kidnapping nicht für einen Bauernfänger-Trick halten wie die Phishing-Mails, in denen einem jemand in schlechtem Deutsch einen reichen Onkel aus Nigeria vorstellt oder eine gefälschte Rechnung schickt. Wer diese KI-Imitate gehört hat, auf der Technikmesse CES in Las Vegas Anfang Januar zum Beispiel, der weiss: Da lässt sich kein Unterschied feststellen. Nicht nur die Stimme selbst wirkt täuschend echt, sondern auch die Wortwahl oder das Schluchzen, zumal in einer Stresssituation unter enormem Zeitdruck.

Das FBI hat Ratschläge zusammengefasst. «Das Wichtigste: die Situation verlangsamen», heisst es in der Warnung. «Verlangen Sie, mit dem vermeintlichen Opfer direkt sprechen und dabei Fragen stellen zu dürfen, die nur das Opfer beantworten kann; also ein Spitzname aus der Kindheit oder der Name eines Haustieres.»

Ein Hinweis auf ein Fake-Kidnapping sei auch, dass der Anruf nicht vom Telefon des Opfers komme; man solle deshalb sofort versuchen, die angeblich entführte Person auf ihrem eigenen Gerät oder über soziale Netzwerke zu erreichen: «Nur keine eigenen Informationen preisgeben oder zu viel sagen.»

Die beste Lösung laut FBI: auflegen. Nur, und das bestätigt auch Jennifer DeStefano: Welche Eltern könnten das? Vor allem, wenn sie sich zu 100 Prozent sicher sind, dass dies die Stimme ihres Kindes ist, das entführt worden ist?

(Mitarbeit: Tina Huber)