Kommentar zu künstlicher IntelligenzKeine Panik vor der KI
Derzeit haben Warnungen Konjunktur, die künstliche Intelligenz könnte die Menschheit zerstören. Klingt wirklich scheusslich, allerdings basieren diese Szenarien auf einer bisher nicht belegten Annahme.
Seit einigen Wochen mehren sich die Stimmen, die davor warnen, künstliche Intelligenz (KI) könnte die Menschheit zerstören. Gewichtige Namen sind dabei. Geoffrey Hinton zum Beispiel, der 2012 das Alexnet konstruierte, eines der ersten selbstlernenden Systeme, die nun als «generative KI» in den Schlagzeilen sind. Der verliess vor wenigen Tagen seinen Posten bei Google, um vor den Gefahren seiner Schöpfung zu warnen.
Auch der Historiker und Bestsellerautor Yuval Noah Harari spricht davon, dass KI die Menschheit bedroht. Und dann ist da noch Tristan Harris, ein Computerwissenschaftler, der nach seiner Zeit bei Google zur führenden Stimme des «Techlash» wurde, der Kritik an den destruktiven Kräften sozialer Netzwerke. Harari und Harris gehörten auch zu den Erstunterzeichnern eines Brandbriefs, den das Future of Life Institute Ende März veröffentlichte, das von Elon Musk unterstützt wird.
Es gibt viele dramatische Zitate von ihnen. Geoffrey Hinton verglich seine Rolle als KI-Forscher mit der von Robert Oppenheimer, dem Vater der Atombombe. In einem Vortrag bei einer Konferenz in Montreux sprach Yuval Noah Harari am vergangenen Freitag davon, dass KI bald schon religiöse Schriften verfassen und einen Kult gründen könnte. Das Leitmotiv der Untergangsszenarien stand schon im Future-of-Life-Brief: «Sollten wir nicht menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmässig überlegen sein, die uns überlisten, überflüssig machen und ersetzen könnten?»
So kehrt ein Mythos zurück, der schon frühere KI-Debatten aufheizte, aber fast schon vergessen war. Das ist die Idee von der «Singularity». Manche Wissenschaftler glauben, das sei der Moment, an dem künstliche Intelligenz intelligenter sein wird als der Mensch. Nach den Regeln des Darwinismus beherrscht die intelligenteste Lebensform den Planeten, also dann die KI.
«Die Apokalypse hatte immer schon einen tröstlichen Kern.»
Diese Überhöhung der künstlichen Intelligenz ist keineswegs belegt. Nicht einmal Geoffrey Hinton hat konkrete Beweise für das drohende Ende der Menschheit. Es sei mit generativer KI nur näher gerückt, munkelt er. Auch Wissenschaft beruht auf Glauben. Der Unterschied zu Religionen ist, dass sie ihre Glaubenssätze erforscht, überprüft und dann als Theorie bestätigt oder verwirft. Der Glaube an eine den Menschen überlegene und damit gottgleiche KI wurde bisher allerdings nur in der Philosophie mit Forschung untermauert.
Die Kritik an den Untergangsszenarien ist, dass sie zum einen von den akuten Problemen ablenken und zum anderen Technologie Fähigkeiten zuschreiben, die sie derzeit nicht hat und auch nie erreicht. Das wiederum dient der Industrie. Elon Musk zum Beispiel will selbst eine Firma für KI aufbauen.
Es gab bei Google intern schon früher Kritik an der Entwicklung von künstlicher Intelligenz. Wissenschaftlerinnen wie Timnit Gebru, Margaret Mitchell und Meredith Whittaker wagten lange vor Hinton, sich gegen die Konzernspitze zu stellen. Dafür wurden sie gefeuert. Die Kritikerinnen sehen die Verstärkung von Vorurteilen durch KI-Datensätze, die Überwachungsmechanismen, immer perfektere Fälschungen und die enormen Kosten für Umwelt und Wirtschaft als die eigentlichen Gefahren.
Das ist im Vergleich nicht so dramatisch wie das Ende der Menschheit. Doch die Apokalypse hatte immer schon einen tröstlichen Kern. Man muss sich dem Schicksal ergeben und auf die Erlösung durch eine höhere Macht hoffen. Und sei es nur die KI.
Fehler gefunden?Jetzt melden.