Signal-Chefin über künstliche IntelligenzDas Risiko der KI? «Mehr Macht für eine Handvoll Konzerne»
Meredith Whittaker, die Frau hinter dem Messenger Signal, spricht darüber, wie wir die KI positiv nutzen können, was sie bei Google gelernt hat und wie sie ihre Privatsphäre schützt.
Meredith Whittaker hat viele Jahre als Managerin beim Techkonzern Google gearbeitet, sie ist aber alles andere als ein Techie. «Ich interessiere mich nicht für Technologie als Selbstzweck», sagt sie im Gespräch auf der Berliner Digitalkonferenz Republica. «Ich habe den Job bei Google angenommen, weil ich pleite war. Ich brauchte Geld.» Die studierte Literaturwissenschaftlerin hat dennoch in der Techbranche Karriere gemacht. Mittlerweile ist die US-Amerikanerin Präsidentin der Signal-Foundation. Das ist die Non-Profit-Organisation, die hinter dem populären Messenger Signal steht.
Signal ist anders als Whatsapp, das zum Facebook-Konzern Meta gehört, der Daten sammelt, und auch anders als Telegram, das auch Verschwörungserzählern eine digitale Heimat gibt. Signal gilt als der gute, menschenfreundliche Messenger, der komplett verschlüsselt ist, keine Daten sammelt und so die Privatsphäre seiner Nutzer respektiert. Und das Gesicht und vor allem die Stimme dieses Messengers ist Meredith Whittaker.
Sie meldet sich zu Wort, wenn die Europäische Union mit der sogenannten Chatkontrolle die Verschlüsselung in Chatdiensten aufweichen will, um Kriminalität zu bekämpfen. Sie droht auch damit, dass sich Signal – sollten die Pläne umgesetzt werden – aus Europa zurückziehen werde. Denn was die EU wolle, das seien im Grunde «Vorschläge zur Massenüberwachung».
«Das Narrativ von KI dient dazu, das Überwachungsgeschäftsmodell als Kern der Techindustrie zu festigen und auszuweiten.»
Die Gefahr, dass Technologie genutzt wird, um Menschen im grossen Stil zu überwachen, sieht sie vor allem im grossen Hype-Thema der Stunde, der künstlichen Intelligenz (KI). Auch zu diesem Thema mischt sie sich ein in die Debatte und ist als Rednerin gefragt. Auf der Republica sagte Whittaker in der Eröffnungskeynote: «Das Narrativ von künstlicher Intelligenz dient dazu, das Überwachungsgeschäftsmodell als Kern der Techindustrie zu festigen und auszuweiten.» Es gehe um die Kontrolle über die Beschäftigten sowie um soziale Kontrolle. Ein besonderes Problem sieht Whittaker darin, dass künstlicher Intelligenz die Fähigkeit zugeschrieben werde, dem Menschen überlegen zu sein – obwohl es keine Belege dafür gebe. «Je mehr wir uns auf diesen Hype einlassen, desto mehr Macht geben wir einer Handvoll Konzerne, uns vorzuschreiben, wie unsere Welt funktioniert und welches unser Platz darin ist.»
Ein weiterer Grund für den Hype sei auch, dass er eine gute Möglichkeit sei, laufende Regulierungsbemühungen in die Irre zu führen und sogar zu sabotieren. «Anstatt uns auf Fragen der Macht, Asymmetrien, Diskriminierung, der Verschlechterung der Arbeit zu konzentrieren, konzentrieren wir uns auf Science-Fiction-Fantasien», so Whittaker. «Es gibt keine Hinweise darauf, dass KI kurz davor steht, zu einer böswilligen Superintelligenz zu werden.»
Bei ihrer Arbeit für Google habe sie gemerkt, wie schwierig es sei, verlässliche Daten zu ermitteln.
Sie habe sich schon immer für Macht interessiert, wie sie funktioniere und wie sich Menschen organisierten, sagt sie. Und das Interesse für KI habe ihr Job bei Google geweckt. Als Mitgründerin leitete sie bei Google ein Projekt namens Measurement Lab, das Daten zur Messung der Internetleistung bereitstellte. Dabei habe sie gemerkt, wie schwierig es sei, verlässliche Daten zu ermitteln. Selbst dann, wenn es sich nur um technische Daten auf niedrigem Niveau handle – wie eben die Frage, wie schnell eine Internetverbindung sei. «Wir hatten ständig Probleme und waren uns nicht sicher, ob die Daten korrekt waren.» Ihre Besorgnis sei gewachsen, als bei Google ab Mitte der 2010er-Jahre zu maschinellem Lernen und künstlicher Intelligenz geforscht und gearbeitet worden sei. Dafür seien alte oder wenig zuverlässige Daten eingespeist worden. Dann, so Whittaker, habe das Unternehmen behauptet, dass diese Modelle intelligent und in der Lage seien, Vorhersagen über Menschen, über soziale Situationen oder politische Kontexte zu treffen.
Whittaker behielt ihre Sorge nicht für sich. Sie kritisierte beispielsweise bereits vor einigen Jahren, dass Menschen mit dunkler Haut schlechter von Gesichtserkennungsprogrammen erkannt würden und diese so Vorurteile zementiere. Einzelne Unternehmen will sie aber nicht an den Pranger stellen. Sie glaube nicht, dass es im essenziellen Sinn ein äusserst gefährliches Unternehmen gebe, denn es gehe immer vor allem um Profit. Allerdings sollte man auf diejenigen achten, die über eine Kombination aus einer riesigen Datenmenge und einer Cloud-Infrastruktur verfügten. Also auf Amazon, Google und Microsoft.
Microsoft hat dank seiner Milliarden-Investitionen in das Unternehmen Open AI und in dessen Sprach-Generator Chat-GPT im weltweiten Rennen um KI derzeit die Nase vorn. Open-AI-Gründer Sam Altman ist momentan der Popstar der KI, und sein Unternehmen läuft – dank Geld von Microsoft. Als Altman kürzlich in Deutschland war, traf er Kanzler Olaf Scholz und füllte grösste Uni-Hörsäle. Sie kenne Altman, sagt Whittaker, aber man sei nicht befreundet. «Ich denke, wir stehen in der Debatte auf ziemlich unterschiedlichen Seiten.» Es gebe viele Leute wie Altman, die ernsthaft an den Hype um superintelligente Maschinen glaubten.
Nun verwendet Signal auch selbst künstliche Intelligenz, und zwar um Gesichter auf Fotos zu erkennen, allerdings um diese dann wiederum unscharf zu stellen. Diese Funktion soll sicherstellen, dass Nutzer Fotos posten können, ohne private biometrische Informationen der darauf abgebildeten Menschen zu veröffentlichen. «Es werden keine personenbezogenen Daten erfasst, und es wird nichts überwacht. Wir speichern diese Daten nicht», sagt Whittaker. Das sei also ein gutes Beispiel für eine positive Nutzung von KI, die es trotz aller Kritik auch gebe.
Wie wichtig es Meredith Whittaker ist, ihre Privatsphäre zu schützen – obwohl sie mittlerweile eine öffentliche Person ist –, merkt man schnell im Gespräch. Sie nennt ihr Alter nicht und sagt: «Ich spreche nicht über mein Privatleben, ich spreche nicht über meine Freunde.» Sie versuche in dieser Hinsicht eher vage und bei den gesellschaftspolitischen Themen zu bleiben. Aber dennoch sei Privatsphäre keine Frage der persönlichen Entscheidung. Überall gebe es Überwachungskameras und dauernd werde man von den Technologien überwacht, die «wir für unsere Arbeit und unser Leben» nutzen müssen. «Es sei denn, wir wollen als Einsiedler irgendwo im Wald leben.»
Fehler gefunden?Jetzt melden.