Neues Level der künstlichen IntelligenzWerden Maschinen 2024 klüger als der Mensch?
Die Fachwelt debattiert darüber, ob eine allgemeine KI schon sehr bald so weit sein wird, menschliche Fähigkeiten besser auszuführen als ein Mensch – etwas Entscheidendes fehlt aber noch.
Wenn man einigen Vertretern der Szene Glauben schenkt, dann könnte künstliche Intelligenz (KI) den menschlichen Intellekt bald hinter sich lassen.
Bereits im Frühjahr 2023 hatte ein Team von Microsoft in einer Studie behauptet, die KI namens GPT-4 der Softwarefirma Open AI könne «als frühe (aber noch unvollständige) Version einer künstlichen allgemeinen Intelligenz» angesehen werden. Damit ist vereinfacht ausgedrückt eine KI gemeint, die den Menschen bei den meisten Aufgaben übertrifft. GPT-4 zeige erstaunliche Intelligenz beim Lösen von Problemen aus so verschiedenen Bereichen wie Mathematik, Programmieren, Bilderkennung, Medizin, Recht, Psychologie und anderem, schreiben die Forschenden in ihrer Publikation.
Diese Studie wurde zwar umgehend kritisiert – unter anderem würde KI zu sehr vermenschlicht. Allein sind die Forschenden mit solchen Thesen aber nicht. Ende November sagte Tesla-Gründer Elon Musk in einem Gespräch, er glaube, dass schon bald eine künstliche Intelligenz erschaffen werde, die «schlauer ist als der klügste Mensch» und in der Lage sein werde, «so gute Romane wie J.K. Rowling zu schreiben, neue physikalische Phänomene zu entdecken oder neue Technologien zu erfinden». Musk glaubt, dass wir weniger als drei Jahre von dieser neuen Realität entfernt sind.
Befeuert wurde die Debatte um die nächste Evolutionsstufe der KI, als kürzlich ein paar Informationen über das «Projekt Q*» von Open AI durchgesickert sind. Angeblich kann Q* eigenständig Lösungen mathematischer Probleme finden und Texte generieren, die besser zur eigentlichen Absicht des Auftraggebers passen, als das bei heutigen Chatbots der Fall ist. Auch die kürzlich von Google vorgestellte KI namens Gemini sei deutlich leistungsfähiger und vielseitiger als GPT-4. In 30 von 32 Standard-Tests habe Gemini GPT-4 übertroffen, liess Google wissen.
Ist all das ein Hinweis, dass eine allgemeine künstliche Intelligenz, in der Fachsprache AGI genannt für «artificial general intelligence», tatsächlich kurz bevorsteht?
Was ist allgemeine künstliche Intelligenz (AGI) überhaupt?
«Wenn man 100 KI-Experten bitten würde, zu definieren, was sie mit AGI meinen, würde man wahrscheinlich 100 verwandte, aber unterschiedliche Definitionen bekommen», schrieb kürzlich ein Forscherteam von Google Deep Mind in einer Publikation. Damit ist auch die Frage, ob und wann eine künstliche Intelligenz das Level einer AGI erreicht hat, einer gewissen Willkür ausgesetzt.
Für Benjamin Grewe, Neuroinformatiker von der ETH und der Universität Zürich, ist eine AGI «eine Technologie, welche nicht nur spezielle Aufgaben lösen kann, sondern sehr vielfältig ist». Ähnlich, aber stärker auf die Wirtschaft fokussiert ist die Definition von Open AI. Für das Unternehmen hinter Chat-GPT sind AGI «in hohem Masse autonome Systeme, die Menschen in den meisten ökonomisch wertvollen Tätigkeiten übertreffen», wie es in einer 2018 publizierten Charta heisst. Oft werden einer AGI auch Fähigkeiten wie Schlussfolgern, Problemlösen, Sprachverständnis und Kreativität zugeordnet.
Einen weiteren Blickwinkel auf AGI hat der US-amerikanische Computeringenieur Steve Wozniak anhand eines AGI-Tests verdeutlicht: Eine mit KI ausgestattete Maschine hat dann menschenähnliche Intelligenz erreicht, wenn sie in einer ihr unbekannten Küche Kaffee kochen kann. Denn dafür sind viele typisch menschliche Fähigkeiten nötig, darunter Orientierung in einer unbekannten Umgebung und Fingerspitzengefühl beim Kaffeekochen.
Das führt zum nächsten Punkt:
Braucht KI einen Körper, um AGI zu erreichen?
Das eine Lager von KI-Forschenden beantwortet das mit Nein. Für eine AGI müsse man Systeme wie GPT-4 oder Gemini einfach immer besser machen, indem man sie mit noch vielfältigeren und umfassenderen Daten trainiere. Für eine AGI reiche also ein rein digitales System aus.
Das andere Lager der KI-Forschenden ist der Ansicht, eine AGI mit menschlicher Intelligenz lasse sich nur erreichen, wenn die KI einen Körper besitze. Die Fachwelt spricht von «embodiment». Zumindest Kaffeekochen in einer fremden Küche geht nicht ohne Körper.
Grewe sieht Argumente für beide Sichtweisen. «Es gibt Menschen, die zum Beispiel aufgrund einer körperlichen Behinderung nur sehr beschränkt mit ihrer Umwelt interagieren können. Trotzdem können diese Menschen sehr intelligent sein, manche haben eine Doktorarbeit verfasst.» Braucht eine KI also unbedingt einen Körper, um menschenähnliche Intelligenz erreichen zu können?
Andererseits gibt es laut Grewe menschliches Wissen, das sich nicht in Worte oder Text fassen lässt und das somit auch nicht in Form von Daten in Systeme wie GPT-4 oder Gemini gefüttert werden kann. «Manche Dinge muss man ertasten, muss sie erleben, etwa wie man Velo fährt oder wie sich gewisse Berührungen anfühlen», sagt Grewe. «Aber ich bin mir nicht sicher, ob KI einen Körper braucht, um AGI zu erreichen. Letztlich ist es eine Frage der Definition.»
Was der KI noch fehlt: Gesunder Menschenverstand
Um die Grenzen heutiger KI auszuloten, kann man sich fragen: Welche Aufgaben und Entscheidungen würde ich einer KI getrost anvertrauen, welche besser (noch) nicht?
Einen etwas holprig formulierten Text durch eine KI bereinigen lassen oder die Krebsdiagnose mit KI unterstützen? Diese Aufgaben werden viele wohl bedenkenlos an eine KI übertragen. Aber soll eine KI menschliches Verhalten vorhersagen, etwa ob Kriminelle wieder rückfällig werden? Dafür ist das menschliche Verhalten wohl zu komplex. Oder auf staatlicher Ebene: Soll eine Atommacht einer KI die alleinige Kontrolle über den Abschuss ihrer Atomsprengköpfe übertragen?
«Mache Entscheidungen sollten wir besser selber treffen», sagt Grewe. «KI ist einfach noch zu fehlerhaft.» Dafür gibt es viele Beispiele. Stellt man den fahrerlosen Robotertaxis in San Francisco einen dieser rot-weiss gestreiften Baustellenkegel auf die Kühlerhaube, verstehen sie die Welt nicht mehr und bleiben stehen. Bildgeneratoren wie Dall-E, Gencraft oder Midjourney kreieren zwar mittlerweile unfassbar detailreiche und real wirkende Bilder, lassen sich aber verwirren, wenn fürs menschliche Auge unsichtbar einige Pixel in einem Bild verändert werden.
Was der KI heute auch noch fehlt, ist laut Grewe vor allem das, was wir als gesunden Menschenverstand bezeichnen. «Angenommen, wir schicken jemanden zum Einkaufen fürs Dinner mit unserer Kreditkarte los», sagt Grewe. «Bei einem Menschen gehe ich stillschweigend davon aus, dass dieser nicht für 5000 Franken Kaviar einkauft, auch wenn ich davon satt werden würde und die Aufgabe somit erfüllt wäre.» Bei einer KI, welche lediglich darauf trainiert worden ist, Aufgaben zu erfüllen, könne das aber durchaus passieren. «Eine KI kann nicht wirklich mitdenken, und ihr fehlt ein moralischer Kompass.»
Die KI-Unternehmen versuchen zwar, solche Schwächen auszubügeln, indem Menschen die Ausgaben der Sprachmodelle von Hand anpassen. Aber der gesunde Menschenverstand steckt nicht in den Modellen selbst, nicht in den Algorithmen. Das wird ihnen, so gut es geht, übergestülpt.
«Letztlich sind das Systeme, die versuchen, aufgrund der Statistik eine Antwort zu geben, die plausibel klingt», sagt Grewe. «Die Sprachmodelle haben aber kein Verständnis für den Text, den sie generieren, und sie wissen auch nicht wirklich, ob sie die Absicht des Auftraggebenden erfüllt haben.»
Steht eine AGI kurz bevor?
Wird KI also 2024 so intelligent werden wie der Mensch? «Nein», sagt Grewe. «Auch von Q* erwarte ich noch keine grossen Schritte vorwärts.» Sam Altman, im November überraschend abgesetzter und kurz darauf wieder eingesetzter Geschäftsführer von Open AI, winkt ebenfalls ab. Auf seine Frage auf der Plattform X, was Open AI 2024 erschaffen soll, antworteten sehr viele: eine AGI. «Es tut mir leid, dass ich enttäuschen muss, aber ich denke nicht, dass wir das 2024 liefern können», lautet Altmans Antwort.
Dennoch geht die Entwicklung laut Grewe wirklich schnell voran. «Ich denke, in fünf bis zehn Jahren werden wir etwas haben, das in vieler Hinsicht der menschlichen Intelligenz das Wasser reichen kann. Aber ganz hundertprozentig weiss niemand, was diese KI-Systeme am Ende alles können und ob sie besser werden als Menschen – oder eben nicht.»
Wichtiger als die Frage, wann AGI erreicht wird, findet Grewe ohnehin etwas ganz anderes. Nämlich die Frage: Was für eine Art KI wollen wir überhaupt? «Wir sind jetzt an einem Punkt, wo wir uns Gedanken darüber machen sollten, wie wir diese KI gestalten wollen. Denn sie wird immer tiefer in unseren Alltag eindringen.»
Fehler gefunden?Jetzt melden.