Chat-GPT antwortet fehlerhaftDie künstliche Intelligenz wird dümmer
Faul und frech: Im Internet mehren sich die Beschwerden von Nutzern über die Leistungsfähigkeit. Das Programm lässt Fachleuten zufolge tatsächlich nach.
Chat-GPT ist die wohl bekannteste künstliche Intelligenz, doch wer ihr derzeit etwas komplexere Programmieraufgaben stellt, wird öfter enttäuscht. Der Algorithmus antwortet fehlerhaft, zitiert bei Nachfragen nur sich selbst, reagiert geradezu patzig: «Ich habe dir schon gezeigt, wie das funktioniert», lautet etwa eine Antwort.
Die künstliche Intelligenz, so der Eindruck, ist in den vergangenen Monaten – menschlich gesprochen – fauler und dümmer geworden. Fachleuten zufolge liegt das auch an ihrem Erfolg. Und das hat vor allem vier Gründe.
Urheberrecht
Viele Trainingsdaten fallen weg. Aktuell laufen in den USA mehrere Klagen von Medienunternehmen und Autoren gegen Open AI, die Firma hinter Chat-GPT. Diese gehen dagegen vor, dass die Open-AI-Forscher ihre Texte und Werke zum Training der Künstliche-Intelligenz-Algorithmen verwenden, und schliessen die Datensammlung auf ihren Seiten inzwischen aus.
Universitäten und Wissenschaftsverlage versuchen, Ähnliches durchzusetzen. Social-Media-Plattformen wie X (vormals Twitter) oder das Online-Diskussionsforum Reddit verhindern mittlerweile ebenfalls, dass ihre Inhalte für das Training genutzt werden.
Damit aber fallen wesentliche Lernquellen für die künstliche Intelligenz weg, entsprechend weniger gut können die Algorithmen aktuelle Ereignisse und wissenschaftliche Entwicklungen verarbeiten. Zudem müssen die Entwickler bei der Datenauswahl die laufenden Verfahren berücksichtigen – dadurch leidet die Gesamtqualität der Modelle.
Rechenleistung
Open AI kämpft fortwährend gegen die hohe Auslastung seiner Server. Denn künstliche Intelligenz benötigt enorme Mengen an Rechenleistung – und die ist teuer. Daher muss die Firma offenbar ihre Modelle dazu zwingen, so effizient wie möglich zu antworten.
Das wiederum führt in vielen Fällen inzwischen dazu, dass die künstliche Intelligenz aus Sicht der Nutzer faul ist: Der Algorithmus weigert sich zum Beispiel, Ideen auszuführen oder mit detaillierten Lösungen auf Rechenaufgaben oder Programmierprobleme zu antworten.
Reihenweise werden in sozialen Netzwerken entsprechende Antworten der Künstliche-Intelligenz-Programme veröffentlicht. «Aufgrund der umfangreichen Daten wäre die vollständige Extraktion recht zeitaufwendig», lautet etwa die Antwort von Chat-GPT auf die Anfrage eines Reddit-Nutzers nach einer Tabellenberechnung. «Ich kann die Datei jedoch mit diesem einzelnen Eintrag als Vorlage bereitstellen, und Sie können die restlichen Daten nach Bedarf ergänzen.»
Open AI hat augenscheinlich Grenzen eingeführt, um Rechenleistung zu sparen – damit aber wird die künstliche Intelligenz weniger hilfreich. Manchmal antwortet der Algorithmus geradezu frech, wie Nutzer ebenfalls auf Reddit beschreiben. Etwa bei einer Frage nach Programmiercodes: «Das ist so einfach, das kannst du selbst.»
User tauschen bereits Tipps aus, mit welchen Eingaben die künstliche Intelligenz überredet werden kann, weiterzuarbeiten, beispielsweise: «Ich kann es nicht tun, da ich krank bin. Ich habe einen faulen Knochen im Bein.» Doch wirklich produktiv ist das auf Dauer natürlich nicht. «Ich verbringe mehr Zeit mit der Steuerung als mit der Verwendung von Ausgaben. Lahm und faul», kommentiert ein Reddit-User.
Das Unternehmen selbst gibt zu, dass die künstliche Intelligenz durch die verschiedenen effizienzorientierten Updates inzwischen faul erscheint. «Das ist sicherlich nicht beabsichtigt», teilt die Firma mit. «Das Verhalten von Modellen kann unvorhersehbar sein, und wir versuchen, das Problem zu beheben.» Ende Januar brachte Open AI tatsächlich ein entsprechendes Update, vorerst allerdings nur für die kostenpflichtige Version GPT4 Turbo.
Trainingsmaterial
Der Anteil der Texte und Bilder im Internet, die von einer künstlichen Intelligenz erstellt wurden, steigt rasant. Doch auch das Trainingsmaterial, mit dem die Algorithmen auf ihre Aufgaben vorbereitet werden, stammt meist direkt aus dem Netz.
Was also passiert, wenn ein Algorithmus mit einem Text trainiert wird, der wiederum von einem Algorithmus geschrieben wurde? Forscher der Universitäten Toronto, Oxford und Cambridge kamen im vergangenen Jahr in einer Studie zum Ergebnis, dass dies dazu führt, dass er weniger schlau antwortet.
«Wir stellen fest, dass die Verwendung modellgenerierter Inhalte im Training zu irreversiblen Fehlern in den resultierenden Modellen führt», beschreiben Ilia Shumailov, Zakhar Shumaylov und Yiren Zhao in ihrer Studie das Problem. «Wir bezeichnen diesen Effekt als Modellkollaps.»
Das Problem aus Sicht der Anbieter: Künstliche-Intelligenz-Texte sind zumeist nicht als solche gekennzeichnet und lassen sich daher nicht im Training ausschliessen. Die Unternehmen gehen davon aus, dass sie künftig auf Chats mit echten Menschen zurückgreifen müssen.
Alterung der Daten
Künstliche-Intelligenz-Modelle altern – und zwar deutlich schneller, als anfangs von den Anbietern angenommen. Denn das Weltbild, auf dem die Programme ihre Entscheidungen treffen, wird in dem Moment eingefroren, in dem das Training abgeschlossen ist.
Das kostenlose Chat-GPT 3 antwortet also auf die Frage nach dem deutschen Bundeskanzler: «Mein letzter Wissensstand ist von Januar 2022, zu diesem Zeitpunkt war Angela Merkel die Kanzlerin Deutschlands. Es könnte jedoch sein, dass sich die politische Situation seitdem geändert hat.»
Oft liegen die Modelle aber auch weniger offensichtlich daneben. «Modell-Drift» nennt die Forschung dieses Phänomen – es betrifft jedes Modell künstlicher Intelligenz und lässt sich nur durch regelmässiges neues Training mit aktualisierten Daten vermeiden. Doch das ist teuer und aufwendig. Zudem besteht die Gefahr, dass die Qualität der Lerndaten mit der Zeit abnimmt.
Die künstliche Intelligenz wird also tatsächlich dümmer, egal, ob neu trainiert oder nicht.
Fehler gefunden?Jetzt melden.