Analyse zu DeepfakesDie falschen Sexbilder von Taylor Swift läuten eine neue Ära ein
Die KI-Fotos des Popstars sind nur die Spitze des Eisbergs. Erpressung durch Bilder betrifft viele Menschen. Die gute Nachricht: Auf Dauer verliert «Sextortion» ihre Wirkung.
Es ist ein neuerlicher Tiefpunkt für die sozialen Medien und speziell für X: Elon Musks Kurznachrichtendienst, aber auch Reddit und Instagram wurden mit Sexbildern von Taylor Swift geflutet. Nur: Die Aufnahmen des Popstars waren nicht echt. Es handelt sich um sogenannte Deepfakes: mithilfe von künstlicher Intelligenz generierte Bilder.
Während sich X nicht anders zu helfen wusste, als die Suche nach Taylor Swift zu deaktivieren, forderte eine Sprecherin des Weissen Hauses den Kongress auf, gesetzliche Massnahmen gegen die Verbreitung von Deepfakes zu erlassen.
Belästigung und Erpressung
Das Deepfake-Problem betrifft längst nicht nur Promis. Die US-Behörde FBI hat schon im letzten Jahr gewarnt, die Methode greife um sich: Die Hinterleute verwandeln Bilder aus sozialen Medien oder Messengern in Pornobilder und drohen mit der Veröffentlichung. Sie haben es entweder auf Belästigung oder aber auf Geld abgesehen: Man nennt diese Methode auf Englisch «sextortion»; Erpressung mittels sexueller Inhalte.
Das Schweizer Bundesamt für Cybersicherheit warnt schon seit einiger Zeit vor der klassischen Methode: Bei dieser nehmen die Erpresser über die sozialen Medien Kontakt zu potenziellen Opfern auf, verwickeln sie in vertrauliche Gespräche und bringen sie dann dazu, sich in einem Videochat zu entblössen.
Dann drohen sie damit, die so entstandenen Aufnahmen Freunden, Bekannten oder auch Arbeitgeber und Kollegen zugänglich zu machen. Der «Verbrechen»-Podcast von «Die Zeit» hat vor kurzem einen eindrücklichen Fall publik gemacht, bei dem solche Aufnahmen tatsächlich Verbreitung fanden, obwohl das Opfer beträchtliche Geldbeträge geleistet hat.
Unidentifizierbar bleiben
Zum eigenen Schutz ist es wichtig, sich auch in solchen Videos in verfänglichen Situationen nicht identifizierbar zu machen. Zugespitzt gesagt, sollte man nicht Genitalien und Gesicht gleichzeitig zeigen. Es lohnt sich auch, darauf zu achten, dass keine persönlichen Gegenstände im Bild zu sehen sind, die von Dritten wiedererkannt werden könnten. Ein Betrüger wird es darauf anlegen, potenzielle Opfer von dieser Schutzmassnahme abzubringen. Das muss ein genügend grosses Warnsignal sein, um den Kontakt zu beenden.
Die gute Nachricht: Auf längere Frist dürfte die technische Entwicklung das Geschäftsmodell der Sextortion generell infrage stellen. Wenn sich am Computer von jeder beliebigen Person täuschend echte Sexbilder erstellen lassen, dann fällt auch der Erpressungshebel weg – selbst wenn die Aufnahmen authentisch sein sollten.
Wer künftig ungewollt Nacktaufnahmen von sich im Internet findet – echte oder gefälschte –, kann also cool mit den Schultern zucken und sich auf den Standpunkt stellen: Alles nur ein Deepfake.
Mit einem Klick zum Nacktbild
Wie einfach es ist, gefälschte Nacktbilder zu erstellen, und warum auch vermehrt Privatpersonen von Deep-Fakes betroffen sind, hat diese Redaktion jüngst in einem Versuch aufgezeigt (siehe Video).
Fehler gefunden?Jetzt melden.