Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Tech als Waffen im Krieg
Israel-Deal: Kritik an Google erreicht die Schweiz

NY: Tech workers protest against Big Tech supplying Israel with intelligence tools Tech workers from Google, Meta and Amazon protest against Big Tech supplying Israel with intelligence tools outside Google offices in Chelsea, Manhattan, NY, on Tuesday, April 16, 2024. TIME magazine reports Google has supplied software to power Israeli military operations in Gaza. Google has faced recent criticism for terminating employees dissenting the relationship between the Israel Defense Forces and Google. Manhattan Chelsea New York USA NOxUSExINxGERMANY PUBLICATIONxINxALGxARGxAUTxBRNxBRAxCANxCHIxCHNxCOLxECUxEGYxGRExINDxIRIxIRQxISRxJORxKUWxLIBxLBAxMLTxMEXxMARxOMAxPERxQATxKSAxSUIxSYRxTUNxTURxUAExUKxVENxYEMxONLY Copyright: xCristinaxMatuozzix Editorial use only sipausa_52616574
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk

«Google baut Werkzeuge, die im Krieg Menschenleben fordern», sagt Tarek Kilah. Er arbeitet seit zehn Jahren als Softwareentwickler bei Google Schweiz in Zürich. «Ich fühle mich verpflichtet, das Bewusstsein für die Gefahr dieser Technologien zu schärfen», sagt Neil Devi, ebenfalls Softwareentwickler bei Google.

Kilah und Devi heissen eigentlich anders. Aus Angst vor Repressalien wollen sie ihre richtigen Namen nicht nennen. Sie sind Teil einer wachsenden Bewegung, die Google für das Projekt Nimbus kritisiert.

Dabei handelt es sich um einen 1,2-Milliarden-Dollar-Vertrag mit Israel, den Google 2021 gemeinsam mit Amazon abgeschlossen hat. Dass der Techkonzern seine Cloud-Angebote der israelischen Regierung verkauft, führte im April in den USA zu Protesten mit harten Konsequenzen. Nach Sitzstreiks – sogenannten Sit-ins – an den Standorten New York, Sunnyvale und Seattle hat der Konzern 50 Googlerinnen und Googlern gekündigt, die daran teilgenommen oder diese mitorganisiert hatten.

Jetzt schwappt der Protest nach Zürich über, an den grössten Entwicklungsstandort ausserhalb der USA, wo Google rund 5000 Angestellte beschäftigt. Die Kritiker fordern einen Stopp oder zumindest mehr Transparenz darüber, wie die Produkte, die sie entwickeln, eingesetzt werden.

Nimbus wird in Zürich mitentwickelt

Google arbeitet schon seit mehreren Jahren mit Israel zusammen und hat nach dem Start des Gazakriegs die Kooperation verstärkt. Inzwischen habe nicht nur die israelische Regierung, sondern auch das israelische Verteidigungsministerium, dem das Militär untersteht, einen eigenen Zugang zu dieser Cloud-Infrastruktur, schrieb das «Time»-Magazin im April. Weiteren Medienberichten zufolge verfügt diese über Funktionen wie KI-gestützte Gesichtserkennung, automatische Bildkategorisierung und Objektverfolgung.

«Wenn die israelische Armee KI-Instrumente nutzt, ist es für mich naheliegend, dass dabei auch Google-Systeme involviert sind», sagt Devi. Er ist zwar selbst nicht an Nimbus beteiligt, sitzt aber nahe bei den entsprechenden Teams.

In Zürich arbeiten laut Devi Hunderte Angestellte an der Datenverarbeitungsinfrastruktur sowie in den AI- und Cloud-Teams – alles Komponenten etwa für Nimbus. Devi sagt: «Der Gedanke, für eine Firma zu arbeiten, die die Infrastruktur für die Tötung vieler Menschen bereitstellt, macht mich krank.»

Devi hält es für möglich, dass die israelische Armee durch Nimbus auch Lavender verwenden kann, ein umstrittenes KI-Tool, mit dem Angriffsziele in Gaza bestimmt werden. Mittels Handydaten und Bildern aus den sozialen Medien erstellte Lavender in den ersten Kriegswochen eine Todesliste mit über 37’000 Einwohnern Gazas, die von der KI als mögliche, rangniedere Militante der Hamas identifiziert wurden, wie ein israelischer Journalist kürzlich publik machte. Medien wie die amerikanische «Washington Post» oder der britische «Guardian» berichteten darüber.

Israel habe nach dem 7. Oktober entschieden, dass alle Personen auf dieser Liste bombardiert werden dürften – und zwar überall: in ihren Häusern, mit ihren Familien –, und das unter Inkaufnahme von bis zu 20 Zivilisten als Kollateralschaden, schrieb der israelische Journalist. Die Verantwortung für eine Bombardierung sei weitgehend an die KI ausgelagert worden. Teilweise hätten die Soldaten nur gerade 20 Sekunden Zeit gehabt, um Angriffsziele nach dem Vorschlag von Lavender zu verifizieren.

Die «New York Times» schreibt, dass israelische Soldaten Google Photos verwenden, um Personen, die als Ziele gelten, zu identifizieren. Es sei das zuverlässigste Werkzeug dafür. «Das hat mich schockiert», sagt Googler Kilah. Er weiss, dass der Algorithmus von Google Photos fehleranfällig ist und etwa einen Muffin auch schon als Hund identifiziert hat. «Solche Fehler sind trivial und können einfach behoben werden – anders, als wenn jemand ungerechtfertigt als Terrorist identifiziert wird», sagt er.

Firmen tragen Verantwortung für ihre Produkte

Google gibt an, seine Tools nicht für militärische Zwecke zu verkaufen, und verweist auf die Bedingungen, die besagen, dass die Tools nicht missbräuchlich verwendet werden dürfen. Für Neil Devi ist das eine Ausrede. «Das ist ein Abschieben von Verantwortung: Google ist gar nicht imstande den Gebrauch seiner Produkte zu kontrollieren.»

Der 38-Jährige versucht nun in der Schweiz, eine Gruppe aufzubauen, damit die Angestellten ihre Besorgnis dem Management gegenüber äussern können. Doch das dürfte schwierig werden. «Wegen der 50 Googler, die in den USA entlassen wurden, sind viele eher zurückhaltend, ihre Kritik offen zu zeigen und sich etwa mit schriftlichen Forderungen ans Management zu wenden», sagt Miriam Berger, die bei der Gewerkschaft Syndicom für die Techbranche zuständig ist.

Die Gewerkschaft veröffentlicht in den nächsten Tagen eine Resolution. Darin fordert sie Techfirmen dazu auf, die Angestellten darüber zu informieren, wofür der Code verwendet wird, den sie entwickeln. «Für Mitarbeitende, die sich für diese Prinzipien einsetzen, sollen dadurch keine beruflichen Nachteile entstehen», heisst es im Papier, das dieser Redaktion vorliegt.

Firmen müssen sich der Gefahr des «Dual Use» bewusst sein. Insbesondere KI kann nicht nur für Gutes, sondern auch zu schädlichen Zwecken verwendet werden. Laut einer Verordnung der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) und der UNO gehört es zur Sorgfaltspflicht von Unternehmen, Bedenken von Angestellten ernstzunehmen. Um Mitarbeitende, die Fälle melden, besser zu schützen, gibt es in vielen Ländern entsprechende Gesetze. In der Schweiz hingegen wurde das «Whistleblower-Gesetz» vom Parlament verworfen.

MOUNTAIN VIEW, CALIFORNIA - MAY 14: Pro-Palestinian protesters are blocked the Google I/O developer conference entrance to protest Google's Project Nimbus and Israeli attacks on Gaza and Rafah, at its headquarters in Mountain View, California, United States on May 14, 2024. Project Nimbus is a cloud computing project of the Israeli government and its military. (Photo by Tayfun Coskun/Anadolu via Getty Images)

Derzeit sind zahlreiche Länder daran, den Einsatz von KI zu reglementieren. Auf europäischer Ebene kam es am Freitag zu einem Durchbruch: Das Ministerkomitee des Europarats verabschiedete an einer Tagung ein KI-Übereinkommen, an dem auch die Schweiz unter Aussenminister Ignazio Cassis mitgearbeitet hatte. Es soll gewährleisten, dass der Einsatz von KI im Einklang mit den Rechtsnormen in Bezug auf Menschenrechte, Demokratie und Rechtsstaatlichkeit erfolgt.

Christine Kaufmann, Rechtsprofessorin an der Universität Zürich, sagt, der Grundsatz «Don’t be evil» (sei nicht böse), wie früher das Motto von Google geheissen hat, sei veraltet. «Heute wird von Firmen nicht nur erwartet, dass sie keine gesellschaftlichen Schäden verursachen, sondern dass sie einen positiven Beitrag zur Gesellschaft leisten.»

Kaufmann leitet einen Ausschuss der OECD, der kürzlich die Richtlinien zur verantwortungsvollen Unternehmensführung aktualisiert hat. Dabei wurden diese mit Bestimmungen zur Sorgfaltsprüfung im Techsektor ergänzt: «Unternehmen müssen überwachen, wofür ihre Produkte verwendet werden», sagt sie.

Zudem wird erwartet, dass Techfirmen bereits bei der Entwicklung von Produkten überlegen, wie die Achtung von Menschenrechten und Umwelt sichergestellt werden kann. Komme es bei der Verwendung etwa von KI-Tools dennoch zu Menschenrechtsverletzungen oder Umweltschäden, müsse die Firma diesen Fällen nachgehen und Massnahmen dagegen treffen, sagt Kaufmann.

Die Professorin weist darauf hin, dass diese Richtlinien auch in bewaffneten Konflikten gelten, auch wenn sie rechtlich nicht verbindlich sind.

Google-Chef reagiert harsch

Mit seiner heftigen Reaktion auf die Proteste vom April in den USA hat Google viele Angestellte eingeschüchtert. Früher galt sie als Firma, die den kritischen Austausch mit dem Personal suchte. Doch das scheint sich zu ändern.

Auf das aktuelle Sit-in reagierte das Techunternehmen ungewohnt scharf. Die Protestierenden hätten Firmeneigentum verunstaltet und physisch die Arbeit anderer Googler verhindert. Dieses Verhalten sei «inakzeptabel, äusserst störend und gab den Kollegen das Gefühl, bedroht zu sein».

Google sei «eine Firma und nicht der Ort, wo man über störende Themen streitet oder über Politik diskutiert», schrieb Google-Chef Sundar Pichai Mitte April in einem Blogpost. Mit Blick auf die rasanten Entwicklungen in der KI sei die jetzige Zeit für Google zu wichtig, als dass die Firma sich ablenken lassen könne.

Der Techkonzern hat diese Woche mehrere KI-Neuheiten präsentiert. Sie haben der Aktie der Mutterfirma Alpha Auftrieb gegeben, bei 176.70 Dollar liegt sie nun – so hoch wie noch nie.

Derweil ist am Schweiz-Standort in Zürich bei Kilah und Devi die Unsicherheit gross. Zwar würden sie ihre Bedenken gerne dem Management mitteilen. Doch er habe, so Devi, nicht den Eindruck, «dass wir unsere Zweifel äussern könnten, ohne dafür belangt zu werden».