KI-MissbrauchGefälschte Nacktbilder von Schülerinnen rütteln Spanien auf
Mit einer Software haben Schüler Nacktfotos von Mitschülerinnen erstellt. Der Fall zeige ein zentrales Problem bei künstlicher Intelligenz, sagt eine Expertin. Es könne auch die Schweiz treffen.
Als die 14-jährige Isabel nach der Sommerpause in den Unterricht zurückkehrte, kursierte am Gymnasium ein schlimmes Gerücht. Schüler würden sich auf dem Handy Nacktfotos von Mitschülerinnen weiterschicken. Für Isabel und ihre Kolleginnen in der südwestspanischen Kleinstadt Almendralejo gab es bald kein anderes Thema mehr.
Die Schülerinnen trafen sich in der Pause, alle waren sie mitgenommen. Ein Junge lief zu Isabel und sagte: «Ich habe dich nackt gesehen.» Die 14-Jährige war geschockt, wie sie der spanischen Zeitung «El País» erzählt hat. Die Gymnasiastin heisst in Wirklichkeit anders, ihren richtigen Namen hat sie auf Wunsch ihrer Mutter nicht bekannt gegeben.
Nur Sekunden braucht die Software für ihre Fälschung
Die Schülerinnen realisierten rasch, dass die Fotos nicht echt waren. Sie wurden von einem kostenlosen Programm erstellt, das aus beliebigen Bildern Nacktfotos generieren kann. Das ist erstaunlich simpel: Programm öffnen, Foto hochladen, ein paar Sekunden warten und schon spuckt das Programm mit künstlicher Intelligenz (KI) ein gefälschtes Nacktfoto aus. In mindestens vier von fünf Schulen in Almendralejo wurden die KI-generierten Bilder von nackten Schülerinnen verbreitet.
Dass ein solcher Missbrauch mithilfe künstlicher Intelligenz technisch möglich ist, überrascht heute kaum noch. Aber so einfach, innert Sekunden? Mit unschuldigen Minderjährigen als wehrlose Opfer? Der Fall hat in Spanien nationale Bedeutung erlangt und längst eine Debatte über den Missbrauch mit künstlicher Intelligenz ausgelöst.
Der Fall zeigt aber auch, wie man sich mit Zivilcourage gegen Missbrauch wehren kann. Die Mütter der Schülerinnen organisierten sich rasch in einer Whatsapp-Gruppe. Eine von ihnen ist die Gynäkologin Miriam Al Adib. In einem 10-minütigen Video, das im ganzen Land viral ging, ruft sie die Opfer auf, sich nicht aus Scham zu verstecken. «Mädchen, das wird nicht toleriert. Habt keine Angst, solche Taten zu melden», sagt sie.
Die Reaktion auf das Video sei überwältigend positiv gewesen, sagt Al Adib gegenüber «El País». «Wir schämen uns nicht mehr. Frauen sind Opfer, und jetzt können wir sprechen, weil die Gesellschaft uns unterstützt.» Das sei die Botschaft, die sie auch ihren Töchtern auf den Weg gebe. «Das sollten sie nie vergessen», so Al Adib.
Den Fall hat auch die Schweizer KI-Expertin Angela Müller verfolgt. Sie ist die Chefin von Algorithm-Watch Schweiz, eine Non-Profit-Organisation, die die Auswirkung von künstlicher Intelligenz auf die Gesellschaft beobachtet. «Nebst der zentralen Frage, wie man diejenigen bestraft, die solche Bilder in Umlauf setzen, bleibt in Fällen wie diesen eine weitere zentrale Frage ungelöst: wie man die Anbieter der Software zur Rechenschaft ziehen kann», sagt sie.
«Ein ähnlicher Fall kann sich auch in der Schweiz abspielen.»
«Notwendig ist eine gesetzliche Sorgfaltspflicht für künstliche Intelligenz», so Müller. Die Anbieter müssten die Risiken und das Missbrauchspotenzial benennen und Massnahmen präsentieren, um kriminelle Handlungen zu verhindern, so Müller. Das Missbrauchspotenzial von künstlicher Intelligenz sei gross. «Ein ähnlicher Fall kann sich auch in der Schweiz abspielen.»
In mehreren Ländern wird über gesetzliche Schranken für künstliche Intelligenz diskutiert. Eine Vorreiterrolle spielt die Europäische Union, die KI in einem Gesetz regulieren will. Dieses würde wohl frühestens 2026 vollumfänglich gelten und wäre das weltweit erste Gesetz dieser Art. Ob die Schweiz mitziehen wird, bleibt abzuwarten.
Beim Anbieter der KI-Software hat man auf Anfragen dieser Redaktion bislang nicht reagiert. Auf der Website heisst es, das Programm dürfe nur mit Erlaubnis der fotografierten Person benutzt werden. Auf dem Twitter-Account heisst es: «Wir sind strikt gegen die dunkle Seite der Technik. Unsere Technik? NUR zum Verbreiten positiver Vibes.»
Wenig positive Vibes fühlen wohl gerade die Urheber und Verbreiter der Nacktbilder. Die Polizei hat mehrere von ihnen identifiziert und an die lokalen Strafbehörden übergeben.
Fehler gefunden?Jetzt melden.