Mit KI gefälschte BilderEin Schweizer Unternehmen will das Deepfake-Problem endgültig lösen
Das Zürcher Start-up PXL Vision hat ein wirksames Mittel gegen Identitätsdiebstahl mittels gefälschter Videos und Bilder gefunden und könnte bei der Bekämpfung der Fälschungen bald Marktführer sein.
Die künstliche Intelligenz (KI) vereinfacht vieles – auch das Fälschen von Bildern und Videos. Welche Ausmasse dieses Problem annimmt, war jüngst in den sozialen Medien zu sehen: Bei X (vormals Twitter) gerieten derart viele angebliche Pornobilder des Superstars Taylor Swift in Umlauf, dass sie es sogar in die «Trending Topics» schafften. Die sogenannten Deepfakes taugen auch zur Erpressung, selbst von Nicht-Promis: Die Betrüger erstellen verfängliche Fotos, die zwar unecht, für die Betroffenen dennoch peinlich und verstörend sind.
Deepfakes sind auch der Schlüssel für vielerlei Varianten des Identitätsdiebstahls. Betrüger setzen sie ein, um mittels gestohlener Identitäten Handyverträge abzuschliessen und an Kreditkarten heranzukommen. Sie untergraben das Vertrauen, das für viele Plattformen in der Sharing-Economy entscheidend ist: Denn wer seine Wohnung via Airbnb vermietet oder über Babysitting-Plattformen eine Nanny sucht, will die Person kennen, der sie oder er den Hausschlüssel oder das Kind übergibt.
Identitätsprüfung vor der Kamera
Michael Born ist Experte für die digitale Identitätsprüfung und Chef des Zürcher Start-ups PXL Vision. Seine Prüfsoftware wird in der Schweiz breit eingesetzt, etwa von Swisscom und Sunrise, Swiss ID, SBB und Groupe Mutuel. Born erklärt, wie die Überprüfung funktioniert, die per Internet durchgeführt wird und bei der die Person einen amtlichen Ausweis vorzeigen muss: «Unsere Lösung scannt Pässe und ID und untersucht, ob das Dokument echt wirkt. Dann wird das Bild auf dem Dokument mit dem Gesicht vor der Kamera verglichen. Und die Software beurteilt auch, ob die Person vor der Kamera lebendig ist oder nicht.»
Eine Summe von Tests entscheidet darüber, ob die Identitätskontrolle positiv oder negativ ausfällt. Es lässt sich je nach Anwendungsfall auch regeln, wie streng das System prüft. Eine härtere Prüfung bietet grössere Sicherheit. Sie kann aber dazu führen, dass der manuelle Aufwand grösser wird und ehrbare Kundinnen und Kunden abgewiesen werden.
Manipulation wird einfacher
Noch vor Jahren haben die Betrüger meist primitive Täuschungsmanöver angewandt: Sie haben die Ausweise manipuliert oder für die Überprüfung ein fremdes Foto in die Kamera gehalten. Mit KI haben sie die Möglichkeit, in Standbildern oder auch in Videos Gesichter auszutauschen und einen fremden Kopf auf den Körper zu setzen. Vor allem wird der Aufwand für derlei Manipulationen immer kleiner.
Diese KI-Methoden funktionieren nur in der digitalen Welt. Born weist indes darauf hin, dass Unternehmen grössere Betrugsprobleme in den Läden hätten. Den Deepfakes zum Trotz kämen die Betrüger dort mit einem gefälschten Ausweis vergleichsweise leichter an Produkte oder Dienstleistungen: «Der Mensch ist nicht sehr gut darin, Gesichter zu vergleichen. Die Maschine kann das viel besser.» Und welcher Angestellte in einem Laden wisse schon, wie die Pässe ferner Länder aussähen.
«Wir wollen das Katz-und-Maus-Spiel gewinnen»
Auch in der Schweiz gibt es immer mehr Betrugsversuche, doch international sind die Zahlen je nach Markt und Geschäftsbereich deutlich höher. Wird das mit der Entwicklung der KI weiter zunehmen? Michael Born relativiert, weil sich mit dem Deep Learning, also selbstlernenden Algorithmen, neue Chancen auftun würden: «Im Moment ist es ein Katz-und-Maus-Spiel zwischen den Betrügern und uns. Wir wollen das Katz-und-Maus-Spiel gewinnen – mit einem Ansatz, der dem Ganzen ein Ende bereitet.»
Born will mit seinem Unternehmen an die Spitze: «Die Identitätsverifikation ist mit 10 Milliarden eine relevante Industrie, die jedes Jahr um 15 Prozent wächst.» Und er kann sich vorstellen, den Kreis der Kunden auszuweiten: «Wenn es uns gelingt, die weltweit beste Technologie zur Deepfake-Detection zu entwickeln, dann könnten Medienunternehmen unsere Technologie verwenden, um zu überprüfen, ob der ukrainischen Präsident Selenski tatsächlich gesagt hat, er kapituliere.»
Die Medien bräuchten eine gute Handhabe, um gefälschte Bilder und Videos zu erkennen, ebenso Bilderplattformen, Geheimdienste und die ganze Pornoindustrie – ein Wachstumspotenzial für PXL Vision. Auch eine App für Privatanwender, mit der sich Bilder auf ihre Echtheit überprüfen lassen, sei denkbar. Aber in Reichweite ist die bislang nicht.
Für die Verbesserung der Software spannt PXL Vision mit dem Forschungsinstitut Idiap aus Martigny VS zusammen, das etwa zur künstlichen Intelligenz und zum sicheren Einsatz der Biometrie forscht. Wie PXL Vision diese Woche bekannt gibt, wird das gemeinsame Projekt 18 Monate dauern und durch die Innosuisse, die Agentur für Innovationsförderung des Bundes, unterstützt.
Fehler gefunden?Jetzt melden.