Künstliche Intelligenz KI-Pionier warnt vor «ernsten Risiken für die Menschheit»
Geoffrey Hinton ist eine Koryphäe für künstliche neuronale Netzwerke. Nun hat er seine Stelle bei Google gekündigt. Die Gefahren bei der Entwicklung seien «beängstigend».
Geoffrey Hinton, führender KI-Entwickler beim US-Konzern Google, hat seine Stelle gekündigt und mahnte in der «New York Times» vom Montag, die Fortschritte im Feld der KI bedeuteten «ernste Risiken für die Gesellschaft und für die Menschheit».
Hinton war an der Entwicklung von künstlichen neuronalen Netzwerken beteiligt. Diese bilden die Grundlagen für die heutigen KI-Systeme der grossen Techunternehmen.
Angst vor Falschinformation
Hinton sagte der «New York Times», der Wettbewerb bringe die Technologieunternehmen dazu, «in einem gefährlichen Tempo» immer fortschrittlichere KI zu entwickeln. Damit steige die Gefahr für die Verbreitung von Falschinformationen: Eine seiner unmittelbaren Sorgen ist, dass das Internet mit gefälschten Fotos, Videos und Texten überschwemmt wird und der Durchschnittsbürger «nicht mehr wissen kann, was wahr ist».
Auch fürchtet Hinton den Verlust von vielen Arbeitsplätzen. Zurzeit würden KI wie Übersetzungsprogramme und Chatbots wie Chat-GPT als Unterstützung verwendet, aber bald könnten sie zahlreiche Aufgaben ganz übernehmen: Sie könnten Rechtsassistenten, Übersetzer und andere ersetzen, die Routineaufgaben erledigen. Es könnte mehr als das wegnehmen.» IBM-Chef Arvind Krischna liess am Montag gegenüber Bloomberg verlauten, dass er damit rechne, dass in der Administration der Firma in den nächsten fünf Jahren rund ein Drittel der Stellen durch KI und Automatisierung ersetzt werde.
Google und das Unternehmen OpenAI – das Start-up, das den bekannten Chatbot Chat-GPT entwickelt hat – begannen im vergangenen Jahr damit, lernende Systeme zu entwickeln, die dafür eine sehr viel grössere Datenmenge als zuvor nutzen. Hinton sagte der «New York Times», diese Systeme würden aufgrund der schieren Datenmenge die menschliche Intelligenz in mancher Hinsicht in den Schatten stellen.
Der Zeitung zufolge kündigte der Entwickler seinen Job bei Google im vergangenen Monat. Sein Chef im Unternehmen, Jeff Dean, erklärte in einer Mitteilung an US-Medien, er danke Hinton für seine Arbeit. Dean betonte, Google habe als eines der ersten Unternehmen Leitsätze für die KI-Anwendung veröffentlicht. Google fühle sich auch weiterhin «zu einem verantwortungsvollen Umgang mit KI verpflichtet. Wir lernen ständig dazu, um neu aufkommende Risiken zu verstehen und gleichzeitig mutig Innovation zu betreiben».
Forderungen nach einem Forschungsmoratorium
Nachdem das Start-up OpenAI aus San Francisco im März eine neue Version von Chat-GPT veröffentlicht hatte, unterzeichneten mehr als 1000 Technologieexperten und Forscherinnen einen offenen Brief, in dem sie ein sechsmonatiges Moratorium für die Entwicklung neuer KI-Systeme forderten. «KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können grosse Risiken für Gesellschaft und Menschheit bergen», warnten sie. «Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir zuversichtlich sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind.»
Hinton erklärte gegenüber der BBC, dass er sich im Besonderen von der kollektiven Intelligenz der miteinander verbundenen künstlichen neuronalen Netzwerke fürchte: «Ich bin zu dem Schluss gekommen, dass die Art von Intelligenz, die wir entwickeln, sich sehr von der Intelligenz unterscheidet, die wir haben. Wir sind biologische Systeme, und dies sind digitale Systeme. Und der grosse Unterschied besteht darin, dass Sie bei digitalen Systemen viele Kopien desselben Gewichtssatzes haben, desselben Models der Welt. Und all diese Kopien können separat lernen, aber ihr Wissen sofort teilen. Es ist also, als hätte man 10’000 Leute, und wenn eine Person etwas lernt, wissen es automatisch alle.» Darum seien die Gefahren von KI-Chatbots «ziemlich beängstigend». Auch sei es schwierig, sich vorzustellen, wie man Personen mit schlechten Absichten daran hindern wolle, KI für böse Dinge einzusetzen.
Anderseits sind gerade in der medizinischen Forschung die Möglichkeiten von KI für die Entwicklung von neuen Behandlungs- und Diagnosemethoden vielversprechend: Die KI Alpha-Fold kann Proteinfaltungen sehr präzise voraussagen. Dies könnte bei der Krebsforschung, bei der Fehlfunktionen von Proteinen von zentraler Bedeutung sind, neue Durchbrüche ermöglichen.
Im offenen Brief zum Stopp der KI-Entwicklung verwiesen die Unterzeichner auf einen Satz von OpenAI-Gründer Sam Altman, demzufolge irgendwann eine «unabhängige» Überprüfung notwendig sei, bevor mit dem Training neuer Systeme begonnen werde. «Wir stimmen zu», schreiben die Verfasser des Briefes. «Der Zeitpunkt ist jetzt.»
AFP/sme
Fehler gefunden?Jetzt melden.