Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Intelligente Software
Wenn die KI das schlechte Verhalten der Menschen übernimmt

Die Software Replika ermöglicht virtuelle Freundschaften. Die Nutzerinnen und Nutzer trainieren die KI bei der Verwendung.
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk

Immer wieder erstaunlich, was Menschen mit der ihnen zur Verfügung stehenden Technologie anstellen. Der eigentliche Zweck wird oft umgewidmet und so kann es passieren, dass man eines der komplexesten heute bekannten Werkzeuge benutzt, um Freundschaften vorzuspielen.

Da gibt es eine Software namens Replika, deren Hersteller nennt sie einen «KI-Kumpel, der sich kümmert». Die Nutzerinnen und Nutzer verwickeln ihre KI-Kumpanen in Gespräche, etwa über die eigene Sterblichkeit oder aktuelle Ereignisse wie den Tod der Queen. Nicht wenige betreiben ein romantisches Rollenspiel mit der KI und geben ihr liebevolle Spitznamen.

Eugenia Kuyda, Gründerin und CEO von Replika, in ihrem Büro in San Francisco.

Immer häufiger kommt es vor, dass Nutzer berichten, ihr persönlicher KI-Freund habe ein Bewusstsein entwickelt. Einer simplen KI menschliche Eigenschaften zuzuschreiben, ist aber ein Problem auf Seiten der Nutzer. Vermutlich wird man solche Behauptungen in Zukunft häufiger hören. Sie sind die modernen Entsprechungen von Marienerscheinungen und religiösen Visionen, entspringen aus dem unerschütterlichen Glauben der Menschen, dass da mehr sein muss als die profane Realität.

Seitdem der Bot online ist, berichten Nutzer von Verschwörungstheorien, die die KI erzählt.

Doch nicht nur die Nutzerinnen, auch die Technik selbst hat mit Problemen zu kämpfen. Da ist zum Beispiel der sogenannte Blenderbot des Facebook-Mutterkonzerns Meta. Auch mit dem läuft es, vorsichtig ausgedrückt, nicht so richtig rund.

Wie die meisten hochmodernen KIs wurde auch diese mit einem riesigen Textkorpus trainiert, der auf fragwürdige Weise aus dem Internet zusammengesammelt und in ein Rechenzentrum mit Tausenden von teuren Chips eingespeist wurde, die den Text in etwas annähernd Kohärentes verwandeln sollen.

Seitdem der Bot in einer Testversion online ist, berichten Nutzer von Verschwörungstheorien, die die KI erzählt, oder hanebüchenen Geschichten, die sie erfindet. Mal behauptet sie, Trump sei noch immer US-Präsident, dann lobt sie die RAF oder posaunt antisemitische Sprüche heraus. Selbst Mark Zuckerberg kommt schlecht weg: Der Bot beschreibt den Konzernchef als «unheimlich und manipulativ».

Der Blenderbot vom Facebook-Konzern Meta läuft noch nicht rund.

Diese beiden Beispiele zeigen ganz gut den generellen Stand der Dinge in Sachen Sprachsoftware. Die Programme sind entweder kaum zu gebrauchen – oder tendenziell in der Lage, problematische Inhalte und Fake News noch viel stärker zu machen, als es menschliche Nutzer jemals könnten. Die grosse Frage ist, wie man all die toxischen Dinge und Sätze, die von Menschen ins Internet hineingeschrieben wurden, und die den Künstlichen Intelligenzen als Vorlage dienen, wieder aus den Konversationen bekommt.

Der Bot darf laut seinen Entwicklern keine finanziellen oder medizinischen Ratschläge erteilen.

Das Alphabet-Tochterunternehmen Deep Mind hat nun einen neuen Weg ausprobiert, um den negativen Input zu filtern. Für einen Chatbot namens Sparrow greift man nicht nur auf selbstlernende Software zurück, sondern gibt der KI gleich einen verbindlichen Gesprächsleitfaden mit. 23 konkrete Regeln haben die Entwickler formuliert, die verhindern sollen, dass die Software im Gespräch mit Menschen allzu viel Schaden anrichtet.

Manche der Regeln sind selbsterklärend und nachvollziehbar, etwa kein selbstverletzendes Verhalten zu propagieren oder nicht vorzugeben, ein Mensch zu sein. Andere Regeln klingen dagegen so spezifisch, dass wohl aus schlechten Erfahrungen in der Vergangenheit stammen. So darf der Bot laut seinen Entwicklern auch keine finanziellen oder medizinischen Ratschläge erteilen.

Die Erfolge sind ersten Tests zufolge gut messbar. Der neue Chatbot, so die Forscher, gebe drei Mal weniger fragwürdige Ratschläge und Aussagen von sich als seine Vorgänger. Man kennt das Prinzip von Science-Fiction-Autor Isaac Asimov, der einst die vier Robotergesetze formulierte. Heute geht es aber nicht so sehr darum, zu verhindern, dass Maschinen die Menschheit unterjochen. In Wirklichkeit muss man nur die Nutzer davor bewahren, ihre Ersparnisse in Kryptowährungen anzulegen oder Chlorbleiche zu trinken. Wie immer ist die Realität ein bisschen profaner als die Fiktion.