Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Regulierung für KI
Wie wir Algorithmen kontrollieren, die über unser Leben bestimmen

Kevin Schawinski hat den Regulierungsbedarf bei den KI-Systemen rechtzeitig erkannt.
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk

Die künstliche Intelligenz (KI) als digitale Dienerin und eilfertiger Assistent: Das ist nur die halbe Wahrheit. Es gibt viele KI-Systeme, die im Verborgenen agieren und weitreichende Entscheidungen über Menschen treffen. Sie beurteilen die Lebensläufe von Bewerberinnen und Bewerbern und die Leistungen des Personals. Sie entscheiden über die Vergabe von Krediten und über Versicherungsleistungen.

«Das passiert überall, bei fast jeder Anwendung. Und es hat einen Effekt auf das Leben von jeder einzelnen Person in der Schweiz», sagt Kevin Schawinski. Er ist der Sohn von Radiopionier Roger Schawinski, ursprünglich Astrophysiker und heute Unternehmer im Bereich der KI. Und er ist mit Feuereifer dabei, Unterstützung bei diesem Abenteuer zu bieten, in das «die Menschheit völlig blind hineingestolpert ist».

Schawinski sieht eine wachsende Gefahr von Diskriminierung. Die Systeme verbreiten sich immer weiter. Und sie werden mit den Daten trainiert, die beim Einsatz der Software selbst entstehen: «Es entsteht ein Feedback-Loop, bei dem Personen mit einem bestimmten Hintergrund immer mehr benachteiligt werden.»

Beispiel Versicherungen: Sie berechnen das Risiko von Personen, die sich um eine Police bewerben, und sie setzen dafür alle Informationen ein, die sie gesetzlich verwenden dürfen. Da es in der Schweiz kein explizites Antidiskriminierungsgesetz gebe, würden die Unternehmen sich nicht für mehr Fairness einsetzen, die zulasten der Gewinnmarge gehe, sagt Schawinski.

Woher kommt die Voreingenommenheit?

Doch wie entsteht die Voreingenommenheit? Warum sind die Maschinen nicht unbestechlich, wo sie doch keine einseitigen Erfahrungen und menschliche Vorurteile mitbringen? «Die Maschinen tun genau das, was wir von ihnen verlangen», sagt Schawinski. Problematisch sind historische Daten, die unhinterfragt verwendet werden. Hinzu kommt, dass die Systeme auf Profitabilität getrimmt sind. In dieser Hinsicht werden sie sehr genau überwacht – nicht jedoch darauf, ob sie auch diskriminierend sind und kumulative Effekte verursachen.

Sollten Maschinen überhaupt solche Entscheidungen treffen? Ja, sagt der KI-Experte. Aber er plädiert für klare Regeln: «Es braucht Spezifikationen für die Leute, die diese Algorithmen erstellen, trainieren und einsetzen. Sie müssen die Risiken ihrer Systeme minimieren, und zwar systematisch.»

Und es braucht ein Bewusstsein fürs Problem: Das sei bei den ganz grossen Techfirmen ausgeprägt vorhanden. Doch jenseits von Google und Meta stehe das Thema bei den meisten Unternehmen gar nicht oder mit niedriger Priorität auf der Agenda: «Die lassen es bei ein paar schönen Blogposts bewenden. Oder dem Hinweis, dass sie jetzt ein Center of Excellence for Ethical AI haben.»

WASHINGTON, DC - OCTOBER 30: U.S. President Joe Biden hands Vice President Kamala Harris the pen he used to sign a new executive order regarding artificial intelligence during an event in the East Room of the White House on October 30, 2023 in Washington, DC. President Biden issued the executive order directing his administration to create a new chief AI officer, track companies developing the most powerful AI systems, adopt stronger privacy policies and "both deploy AI and guard against its possible bias," creating new safety guidelines and industry standards. (Photo by Chip Somodevilla/Getty Images)

Auflagen für risikoreiche KI

Doch damit ist es bald nicht mehr getan. Die EU hat ein Gesetz verabschiedet, das dem Einsatz der KI klare Grenzen und Regeln auferlegt. Der AI Act der EU (die Details dazu finden Sie hier) sieht einen risikobasierten Ansatz vor, mit dem gewisse KI-Anwendungen ganz verboten sind, etwa die anlasslose Identifikation mit Gesichtserkennung. Der medizinische Einsatz ist streng geregelt, ebenso Verkehrssysteme wie selbst lenkende Fahrzeuge. Systeme, die Entscheide über Menschen treffen, müssen Auflagen erfüllen und zum Beispiel eine Risikobewertung aufweisen.

Ist das ein tauglicher Ansatz, den Gefahren Herr zu werden? Schawinski verweist auf den schwierigen Entstehungsprozess des Gesetzes. Als vor bald zwei Jahren Chat-GPT auf der Bildfläche erschienen ist, wurde dieser zuvor fast unbeachtete Gesetzesentwurf plötzlich zentral: «Es ist kein Witz, dass sogar der Papst nach KI-Regulierung gerufen hat.»

HANOVER, GERMANY - JUNE 20: A driver presents a Cruising Chauffeur, a hands free self-driving system designed for motorways during a media event by Continental to showcase new automotive technologies on June 20, 2017 in Hannover, Germany. The company presented new clean diesel technology, cable-less and other advances in electric car charging, smartphone technology for rental cars, driverless car advances and robotic taxi services. (Photo by Alexander Koerner/Getty Images)

Die Lobbyisten legten los, die politischen Kontroversen eskalierten – bis sich sogar der französische Präsident Emmanuel Macron und der deutsche Kanzler Olaf Scholz einschalteten. Wegen der vielen unterschiedlichen Einflüsse ist ein komplexes und sperriges Gesetz entstanden.

Trotzdem schafft es Klarheit – ein Vorteil gegenüber den USA, wo Präsident Biden der KI Herr zu werden sucht, indem er dort mit Dekreten eingreift, wo es am meisten brennt. Als grösstes Problem sieht Schawinski den Umstand, dass es den grossen Techfirmen gelungen ist, das Risiko fast vollständig auf die Nutzerinnen und Nutzer abzuwälzen – also auf Firmen, Start-ups und KMU, die mit den grossen Sprachmodellen wie Chat-GPT jetzt ihre Produkte bauen.

Viele Firmen stecken in der Verdrängungsphase

Gut in der Stossrichtung, aber mit potenziell riesigen Problemen für die betroffenen Firmen: «Die EU sieht Prozesse vor für Registrierung, für Audits, für Zertifizierung. Ich sehe das Risiko, dass die Unternehmen nicht rechtzeitig damit fertig werden und im schlimmsten Fall ihre Produkte nicht mehr auf den Markt bringen können.» Gegenwärtig würden viele Unternehmen dieses Problem verdrängen oder vor sich herschieben.

Und in der Schweiz? Bei uns lässt sich der Bundesrat Zeit mit der Frage, ob und wie in der Schweiz die KI geregelt werden soll. Dessen ungeachtet, wird der AI Act auch alle Schweizer Unternehmen betreffen, die mit der EU Handel treiben. Die EU definiert KI so breit, dass auch simple Softwarelösungen betroffen sein können; selbst eine Excel-Formel, die eigenständig Entscheidungen fällt.

Es ist für Unternehmen also nicht einfach, abzuschätzen, wo sie überhaupt betroffen sind. Sie müssen erst einmal ein Inventar ihrer Softwarelösungen machen. Bei manchen handgestrickten Programmen, die nicht ausreichend dokumentiert sind, wird nichts anderes übrig bleiben, als sie wegzuwerfen und neu zu entwickeln.

Mit einer Software-Plattform am Start

Ist das überhaupt zu stemmen? Schawinski verweist auf die Datenschutz-Grundverordnung als Präzedenzfall. Sie hat zwischen 2016 und 2018 die Unternehmen dazu gezwungen, den Umgang mit Daten von Kundinnen und Kunden verbindlich zu regeln. Es gibt eine Schätzung der EU-Kommission, dass die Unternehmen weltweit innerhalb von zwei Jahren 200 Milliarden Euro investiert haben, um die neuen Anforderungen zu erfüllen. «Ich vermute stark, dass der Effort, der jetzt in den nächsten zwei Jahren für den AI Act kommt, vergleichbar oder sogar noch grösser ist», sagt Schawinski.

Er ist mit seinem Unternehmen hingegen gut aufgestellt: Als sich das neue Gesetz vor zwei Jahren anbahnte, hat er erkannt, dass es Werkzeuge braucht, um die gesetzlichen Anforderungen zu erfüllen. Seitdem entwickelt er ein Managementsystem, das Unternehmen helfen wird, ihre KI-Lösungen gesetzeskonform einzusetzen.