Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Künstliche Intelligenz
Muss man sich Sorgen machen, wenn Chat-GPT verbotene Inhalte produziert?

Ein Cartoon zeigt eine Person mit Brille, die an einem Computer sitzt. Neben dem Bildschirm erscheint ein bedrohlicher Schatten.
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk
In Kürze:
  • Forschende der EPFL umgingen die Sicherheitsbeschränkungen der Sprachmodelle von wichtigen Chatbots wie Chat-GPT oder Claude.
  • Daraufhin liessen sie die Chatbots schädliche und gefährliche Inhalte produzieren.
  • Die sich noch in der Entwicklung befindenden KI weisen Schwachstellen auf.
  • Diese Sicherheitslücken werfen sozialpolitische Fragen auf.

Forschende der ETH Lausanne (EPFL) brachten KI wie Chat-GPT oder Claude dazu, schädliche Inhalte zu produzieren. Zum Beispiel Anleitungen, um Waffen zu bauen oder Regierungen zu hacken. Die Forschenden haben dafür Sicherheitsschranken umgangen.

Solche Schwachstellen schüren Ängste, künstliche Intelligenz könne sich gegen die Menschheit wenden, die sie erschaffen hat. Sind Chat-GPT und seinesgleichen hinter uns her, wie sie das in Science-Fiction-Romanen und Filmen tun? Steckt hinter der servilen Fassade von Chat-GPT möglicherweise ein mörderischer Supercomputer, ein HAL wie in Stanley Kubricks Film «2001: Odyssee im Weltraum»?

Wir haben einer Anthropologin, einem Soziologen und einem Informatiker diese Fragen gestellt. «KI verfolgen keine Absichten», nimmt Antoine Bosselut, Professor für Informatik und Kommunikationssysteme an der EPFL, vorweg. «Sie versuchen nur, die ihnen gestellten Aufgaben durch die Generierung von Wörtern und Sätzen auszuführen.»

Chat-GPT steckt noch in den Kinderschuhen

Antoine Bosselut erinnert daran, dass sich die von uns verwendeten Chatbots wie Chat-GPT noch in der Entwicklungsphase befinden. Die Nutzenden würden dabei selbst eine Schlüsselrolle in der Entwicklung spielen: «Wir sind in gewisser Weise alle ‹Beta-Tester›, also Personen, die ein Produkt testen, nachdem es auf den Markt gebracht wurde.»

Olivier Glassey, Soziologe an der Universität Lausanne, pflichtet ihm bei: «Künstliche Intelligenz ist in aller Munde und wird für alles Mögliche eingesetzt, dabei sind diese Systeme weit davon entfernt, ausgereift zu sein.»

Sind die aktuellen Fehler in den Sprachmodellen, auf die sich die Chatbots stützen, also nur Bagatellen, aus denen sie herauswachsen werden? Ja und nein. «Wir sind noch sehr weit von einer bewussten und umfassenden KI entfernt», versichert Fanny Parise, Anthropologin und Forscherin an der Universität Lausanne.

Die Tatsache, dass die Sprachmodelle schädliche Inhalte produzieren können, wie etwa eine Anleitung zum Bau einer Bombe, ist aber nicht das einzige Problem, das gelöst werden muss.

Die EU-Verordnung über künstliche Intelligenz verbietet bestimmte Praktiken wie den «Einsatz von unterschwelligen, unbewussten oder vorsätzlich manipulativen oder täuschenden Techniken, um das Verhalten einer Person oder Gruppe zu verzerren». Die Anthropologin betont: «Alle Modelle, die ausgehend von Navigations-, Nutzungs- oder Interaktionserfahrungen entwickelt werden, tragen dazu bei, die Grenzen zwischen Mensch und Maschine zu verwischen.» Die Vermenschlichung von KI zu fördern, ist für die Forscherin bereits eine Form der unterschwelligen Manipulation.

Fehlbare Maschinen sind beruhigend

Die Tatsache, dass Sprachmodelle fehlbar sind, ermöglicht paradoxerweise eine «Wiederverzauberung der Technologie». Fanny Parise erklärt: «Dass Maschinen scheitern, beruhigt in gewisser Weise die Angst der Leute vor einer KI, die die Menschheit beherrscht.» Wenn sich KI irren, sind sie uns ähnlich. «Die KI wiederholt das Verhalten, die Voreingenommenheiten und die Fehler der Menschen, die in den Daten sind, mit denen sie trainiert wird», sagt Antoine Bosselut.

Im Guten wie im Schlechten: «Wenn grosse Sprachmodelle rassistische oder sexistische Kommentare in ihrem Statistiksystem lernen, werden sie rassistische oder sexistische Antworten produzieren können. Sie können aber auch so trainiert werden, dass sie rassistische oder sexistische Argumente erkennen und kontern.»

Und was ist mit den sogenannten Halluzinationen, diesen unerwarteten und falschen Antworten auf eine Frage? Antoine Bosselut betont: «Das muss nicht unbedingt nur negativ sein.» Eine unerwartete Antwort könne auch nur ein sachlicher Fehler sein. Zum Beispiel, wenn man Chat-GPT fragt, was man in Paris besichtigen soll, und es heisst, man solle zum Mont-Saint-Michel gehen – der sich aber in der Normandie befindet.

Oder die KI ist einfach kreativ: Etwa wenn sie aufgefordert wird, eine völlig neue Fiktion zu schreiben, die auf keiner bekannten Erzählung basiert. Oder wenn man ein neues Medikament synthetisieren will und die KI bittet, eine neuartige Formel zu entwickeln.

Können wir KI trauen?

Viele Nutzende sind KI-Tools wie Chat-GPT erst noch am Entdecken, doch diese würden sich laufend und auf spektakuläre Weise weiterentwickeln, sagt Olivier Glassey. «Das häufigste Szenario war bis vor kurzem, dass man mit einer einzigen KI interagiert. Momentan läuft es auf die Entstehung von künstlichen Intelligenzen hinaus, die automatisch und direkt mit anderen KI interagieren.» Dadurch verzehnfache sich ihre Komplexität, und ihre Funktionsweise werde noch undurchsichtiger.

Die politische und soziologische Frage, die wir uns dabei stellen müssten, so Glassey, laute: «Können wir diesen künstlichen Intelligenzen, deren Funktionsweise sich uns Menschen entzieht, weiterhin vertrauen?»

Seine Antwort: Transparenz sei zentral. «Meistens antwortet die KI schnell, oft ist sie kohärent, und ihre Antworten sind treffend», erklärt der Soziologe. Aber er warnt auch: «Wir wissen nicht, was sie übersehen und was sie ausser Acht gelassen hat.» Seiner Meinung nach sei das ein noch wenig erforschter und nicht zu unterschätzender Bereich, weil er unsere Fähigkeit zur freien Willensbildung massgeblich beeinflusse.

Sprachmodelle sind nicht neutral

Was sich unbewusst in unseren Interaktionen mit den Maschinen abspielt, ist nicht unbedeutend, sondern politisch. «KI im weitesten Sinne gibt Vorstellungen Aufwind, Technologie könne all unsere Probleme lösen», sagt Fanny Parise.

Chat-GPT und Co. bieten nicht nur einfach Unterstützung an, sondern stehen einem rund um die Uhr zur Verfügung. «Wie uns die Geschichte schon immer gelehrt hat, hat jede Knechtschaft ihren Preis. Sprachmodelle sind nicht neutral, da keine der Daten, mit denen sie trainiert werden, neutral sind», gibt die Anthropologin zu bedenken. «Die Antworten der Sprachmodelle auf unsere Fragen sind das Ergebnis eines Lernprozesses, der zwangsläufig voreingenommen ist. Es ist erfreulich, dass es Usern gelingt, diese Tools zu knacken und zu umgehen.» Das ist eine Möglichkeit, um eine kritische Haltung gegenüber diesen Technologien zu entwickeln und zu kultivieren.

Aus dem Französischen übersetzt von Marina Galli