Erstes Gesetz für KI-TechnologieSo plant die EU, künstliche Intelligenz in den Griff zu kriegen
Wie die Bevölkerung vor KI schützen, ohne die Innovation zu bremsen? Darüber diskutiert das EU-Parlament gerade. Die geplanten Regeln, die Streitpunkte – und warum Chat-GPT ein Spezialfall ist.
Künstliche Intelligenz als existenzielle Gefahr für die Menschheit, ähnlich wie eine Pandemie oder ein Atomkrieg? Die deutliche Warnung kommt in einem offenen Brief aus der Branche selber, unterzeichnet unter anderem von Erfindern wie Open-AI-Gründer Sam Altman. Die Risiken der neuen Technologie zu mildern, müsse «globale Priorität» sein, heisst es in dem Aufruf.
Das Timing der Warnung könnte nicht besser sein, die EU ist gerade dabei, Regeln für künstliche Intelligenz (KI) festzulegen, und sieht sich hier ähnlich schon wie beim Datenschutz oder mit dem Gesetz zu den sozialen Medien als Avantgarde. Wird die EU dem Anspruch gerecht, und wie geht sie vor? Das EU-Parlament diskutiert heute und entscheidet noch diese Woche über das weltweit erste KI-Gesetz. Im Lager der Konservativen will man die Innovation nicht gefährden und hofft, dass Europa den Anschluss schafft. Die politischen Kräfte links der Mitte sehen vor allem die Gefahren.
Was wird verboten?
Die EU will die Anwendung künstlicher Intelligenz je nach Risiko unterschiedlich beurteilen. Das Gesetz sieht vier Stufen vor. Verboten werden sollen Anwendungen mit «inakzeptablem Risiko». Die abschreckenden Beispiele sind Anwendungen, die in Diktaturen wie China und Russland bereits Alltag sind, etwa zur sozialen Bewertung von Bürgerinnen und Bürgern.
Europa dürfe nicht wie China oder Russland werden, heisst es aus dem EU-Parlament. Konkret geht es um Systeme zur Echtzeitüberwachung des öffentlichen Raums mit Gesichtserkennung. Der nachträgliche Einsatz ist erlaubt, aber nur unter Vorbehalt der Zustimmung eines Richters. Verboten werden sollen auch Anwendungen, die Menschen nach Geschlecht, Rasse oder Wohnort kategorisieren oder Bewegungsprofile erstellen. Nicht zugelassen werden sollen ferner Systeme, die aufgrund des Gesichtsausdrucks zum Beispiel Stimmungen erfassen und beurteilen können.
Regeln je nach Risiko
Strengen Regeln sollen sogenannte Hochrisikoanwendungen unterworfen werden. Also Systeme künstlicher Intelligenz, die grosse Risiken für Gesundheit, Sicherheit oder Grundrechte darstellen. In die Kategorie sollen Anwendungen fallen, wie sie Banken nutzen, um die Kreditwürdigkeit einer Privatperson oder eines Unternehmens zu nutzen. Ebenso, wenn Schulen oder Universitäten künftig künstliche Intelligenz stärker einsetzen, um Prüfungen zu korrigieren. Oder Justizbehörden, um Urteile zu schreiben.
Aufgeführt sind auch KI-Anwendungen in der robotergestützten Chirurgie oder beim Grenzkontrollmanagement. Fehler könnten hier fatale Folgen haben. Behörden oder Unternehmen müssen ihre Anwendungen registrieren lassen, eine «menschliche Aufsicht» über die hochriskanten KI-Systeme installieren, Transparenzregeln einhalten und dokumentieren, mit welchen Daten trainiert wird. Bei KI-Systemen mit begrenztem Risiko wie Chatbots muss dem Nutzer oder der Nutzerin bewusst sein, dass sie mit einer Maschine interagieren. Für KI mit minimalem Risiko wie Spamfilter oder Videospiele gilt freie Nutzung.
Spezialfall Chat-GPT
Die Anekdote illustriert, wie schwer die EU sich tut, der Entwicklung bei ihrer Gesetzgebung zu folgen. Als die EU-Kommission ihren Entwurf vor knapp zwei Jahren vorlegte, war Chat-GPT, ein Dialogsystem, das auf maschinellem Lernen beruht, noch kein Thema. Miterfinder und Open-AI-Gründer Sam Altman meinte wohl auch sein eigenes Produkt, als er den offenen Brief mit der Warnung vor Gefahren für die Menschheit unterschrieb.
Das EU-Parlament will für sogenannte Allzweck-KI dem geplanten Gesetz einen neuen Abschnitt hinzufügen. Im Gegensatz zu klassischen Anwendungen ist bei Systemen wie Chat-GPT die Verwendung nicht definiert. Die Gefahr, dass ein autoritäres Regime eine Anwendung wie Chat-GPT systematisch mit Desinformation füttert und nutzt, um eine alternative Realität zu verbreiten, ist laut Experten real. Künftige Anwendungen könnten sich auch verselbstständigen und ähnlich wie ein Atomreaktor oder eine Pandemie ausser Kontrolle geraten, so das Szenario. Die Vorschriften sehen nun vor, dass Betreiber AI-Inhalte Kennzeichnen, über Urheberrechte Auskunft geben müssen und im Schadensfall zur Kasse gebeten werden können.
Was sind die Streitpunkte?
Die Konservativen wollen heute im Plenum des EU-Parlaments versuchen, das Verbot von künstlicher Intelligenz bei der Echtzeitüberwachung doch noch aufzuweichen. In den Ausschüssen waren sie damit abgeblitzt. Konkret sollen Strafverfolgungsbehörden bei vermissten Kindern, schwerer Kriminalität oder Terrorgefahr live biometrische Gesichtserkennung nutzen dürfen.
Auf der anderen Seite wollen Linke und Grüne versuchen, das Verbot von KI im Bereich Asyl, Migration und Grenzverwaltung durchzusetzen. Bereits gescheitert ist der Versuch, für KI-Anwendungen im Vorfeld eine Konformitätsprüfung vorzuschreiben. Die EU will auf Selbstdeklaration der Unternehmen setzen. Bei Verstössen gegen die Regeln drohen Geldbussen von bis zu 20 Millionen Euro oder bis zu vier Prozent des weltweiten Jahresumsatzes. Ob die Drohkulisse Eindruck machen wird, ist offen.
Fehler gefunden?Jetzt melden.