Interview mit Sicherheitsexpertin«Deepfakes wurden durch Pornografie bekannt»
IT-Expertin Andrea Hauser erklärt, wie die ersten Deepfakes entstanden sind und welche Technologie hinter der Fälschungstechnik steht.
Mit einem Deepfake kann ein Gesicht in einem Video durch ein anderes Gesicht täuschend echt ersetzt werden. Dabei werden den Protagonisten Aussagen in den Mund gelegt, die sie nie gesagt haben (wie Grünen-Politiker Bastien Girod plötzlich zum SUV-Befürworter wird, zeigt unser eigenes Deepfake-Video). Computer-Spezialistin Andrea Hauser erklärt im Interview, wie die Technologie funktioniert und was sie mit Pornografie zu tun hat.
Frau Hauser, woher kommen Deepfakes?
Deepfakes basieren auf neuronalen Netzwerken. Die Idee dahinter ist, dass man versucht, das menschliche Gehirn und seine Rechenleistung nachzustellen. Erste Versuche gab es im Bereich der Schrifterkennung und -verarbeitung. Inzwischen sind wir bei der Gesichtserkennung und beim Austauschen von Gesichtern angekommen. Über lange Zeit hat sich aber eigentlich nur die Forschung damit beschäftigt.
Wann wurden sie in der Öffentlichkeit bekannt?
Das war Ende 2017. Ein anonymer Nutzer der Onlineplattform Reddit stellte unter dem Namen «Deepfakes» eine ganze Reihe von manipulierten Pornovideos ins Netz. Dabei wurden die Gesichter von Stars wie Emma Watson, Katy Perry oder Taylor Swift in Pornoszenen verwendet. Dazu stellte der Nutzer alle Tools und Anleitungen zur Verfügung, die es braucht, um einen Deepfake zu erstellen. Es war das erste Mal, dass jemand all die Aspekte, die zuvor nur in komplexen akademischen Papieren standen, einer breiten Masse auf verständliche Art zugänglich gemacht hat.
Der Name der Technologie stammt demnach von diesem User?
Mit grösster Wahrscheinlichkeit. Der Begriff ist eine Kombination aus den Begriffen «Deep Learning» und «Fake». Ersteres ist die Technologie der neuronalen Netzwerke, die hinter der Produktion von Deepfakes steht.
Was genau sind neuronale Netzwerke?
Im Fall von Deepfakes geht es um maschinelles Lernen. Das bedeutet in unserem Beispiel, dass ein Computer lernt, die Gesichter von Natalie Rickli und Bastien Girod darzustellen. Dabei füttert man das Netzwerk mit Aufnahmen der beiden Personen. Diese Bilder werden vom neuronalen Netz auf das kleinstmögliche Detail heruntergebrochen, zum Beispiel den Farbwert eines Pixels im Bild. Aus diesen Einheiten wird dann versucht, das Gesicht von Rickli oder Girod auf ein anderes Gesicht zu verschieben. Anschliessend vergleicht das Netzwerk das Original und den Fake und passt die Fälschung so lange an, bis sie so nahe am Original ist wie nur möglich.
Fehler gefunden?Jetzt melden.