Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen
Video

Analyse zu Deepfakes
Die falschen Sexbilder von Taylor Swift läuten eine neue Ära ein

NEWARK, NEW JERSEY - AUGUST 26: Taylor Swift attends the 2019 MTV Video Music Awards at Prudential Center on August 26, 2019 in Newark, New Jersey. (Photo by Jamie McCarthy/Getty Images for MTV)

Es ist ein neuerlicher Tiefpunkt für die sozialen Medien und speziell für X: Elon Musks Kurznachrichtendienst, aber auch Reddit und Instagram wurden mit Sexbildern von Taylor Swift geflutet. Nur: Die Aufnahmen des Popstars waren nicht echt. Es handelt sich um sogenannte Deepfakes: mithilfe von künstlicher Intelligenz generierte Bilder.

Während sich X nicht anders zu helfen wusste, als die Suche nach Taylor Swift zu deaktivieren, forderte eine Sprecherin des Weissen Hauses den Kongress auf, gesetzliche Massnahmen gegen die Verbreitung von Deepfakes zu erlassen.

Belästigung und Erpressung

Das Deepfake-Problem betrifft längst nicht nur Promis. Die US-Behörde FBI hat schon im letzten Jahr gewarnt, die Methode greife um sich: Die Hinterleute verwandeln Bilder aus sozialen Medien oder Messengern in Pornobilder und drohen mit der Veröffentlichung. Sie haben es entweder auf Belästigung oder aber auf Geld abgesehen: Man nennt diese Methode auf Englisch «sextortion»; Erpressung mittels sexueller Inhalte.

Das Schweizer Bundesamt für Cybersicherheit warnt schon seit einiger Zeit vor der klassischen Methode: Bei dieser nehmen die Erpresser über die sozialen Medien Kontakt zu potenziellen Opfern auf, verwickeln sie in vertrauliche Gespräche und bringen sie dann dazu, sich in einem Videochat zu entblössen.

Dann drohen sie damit, die so entstandenen Aufnahmen Freunden, Bekannten oder auch Arbeitgeber und Kollegen zugänglich zu machen. Der «Verbrechen»-Podcast von «Die Zeit» hat vor kurzem einen eindrücklichen Fall publik gemacht, bei dem solche Aufnahmen tatsächlich Verbreitung fanden, obwohl das Opfer beträchtliche Geldbeträge geleistet hat.

Unidentifizierbar bleiben

Zum eigenen Schutz ist es wichtig, sich auch in solchen Videos in verfänglichen Situationen nicht identifizierbar zu machen. Zugespitzt gesagt, sollte man nicht Genitalien und Gesicht gleichzeitig zeigen. Es lohnt sich auch, darauf zu achten, dass keine persönlichen Gegenstände im Bild zu sehen sind, die von Dritten wiedererkannt werden könnten. Ein Betrüger wird es darauf anlegen, potenzielle Opfer von dieser Schutzmassnahme abzubringen. Das muss ein genügend grosses Warnsignal sein, um den Kontakt zu beenden.

Die gute Nachricht: Auf längere Frist dürfte die technische Entwicklung das Geschäftsmodell der Sextortion generell infrage stellen. Wenn sich am Computer von jeder beliebigen Person täuschend echte Sexbilder erstellen lassen, dann fällt auch der Erpressungshebel weg – selbst wenn die Aufnahmen authentisch sein sollten.

Wer künftig ungewollt Nacktaufnahmen von sich im Internet findet – echte oder gefälschte –, kann also cool mit den Schultern zucken und sich auf den Standpunkt stellen: Alles nur ein Deepfake.

Mit einem Klick zum Nacktbild

Wie einfach es ist, gefälschte Nacktbilder zu erstellen, und warum auch vermehrt Privatpersonen von Deep-Fakes betroffen sind, hat diese Redaktion jüngst in einem Versuch aufgezeigt (siehe Video).