Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Videos auf Social Media
Sie sehen Nekrophilie, Gewalt, Morde: Nun wehren sich Facebook-Moderatoren

AUSTIN, TX - MARCH 5: Content moderators work at a Facebook office in Austin, Texas. (Photo by Ilana Panich-Linsman for The Washington Post via Getty Images)
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk

Einige fielen bei der Arbeit in Ohnmacht, andere übergaben sich ob der Videos über Nekrophilie, Suizide oder Vergewaltigungen. Die Mitarbeitenden des Unternehmens in Kenia sind dafür zuständig, Inhalte auf Facebook und Instagram zu kontrollieren und wenn nötig zu löschen. Bei über 140 der sogenannten Content-Moderatorinnen und -Moderatoren wurde in der Folge eine schwere posttraumatische Belastungsstörung diagnostiziert, verursacht durch die Exposition von grafischen Inhalten. So geht es aus den Gerichtsakten hervor, wie die britische Zeitung «The Guardian» berichtet.

Die Massendiagnosen sind Teil der Anklage, die gegen Facebooks Mutterkonzern Meta sowie gegen Samasource Kenia beim Arbeitsgericht in Kenia erhoben wurde. Samasource ist ein Outsourcing-Unternehmen, das die Moderation für Facebook-Inhalte in ganz Afrika ausführt. Nahezu 190 Moderatorinnen und Moderatoren haben die mehrstufige Klage eingereicht. Die Vorwürfe: vorsätzliche Zufügung psychischer Schäden, unlautere Beschäftigungspraktiken, Menschenhandel, moderne Sklaverei sowie unrechtmässige Entlassungen.

Verstecktes Problem des Techbooms

Die Klage erhält international Unterstützung, so etwa von Foxglove, einer britischen Organisation, die sich für rechtlich faire Bedingungen in der Techbranche einsetzt. Gründerin und Geschäftsführerin Martha Dark sagt gegenüber dem «Guardian»: «Die Beweise sind unbestreitbar: Die Moderation von Facebook ist eine gefährliche Arbeit, die bei fast allen, die moderieren, zu lebenslangen posttraumatischen Belastungsstörungen führt.»

Der Fall beleuchtet ein tiefgreifendes Problem im Zeitalter von Social Media. Firmen wie Facebook sind auf Content-Moderatoren angewiesen, um anstössige Beiträge zu entfernen oder um KI-Systeme zu trainieren, die das tun.

Allerdings sind die Kosten zulasten der psychischen Gesundheit der Moderatoren ein versteckter Teil des Techbooms. Getan wird wenig, sagt Martha Dark: «In jeder anderen Branche müssten die Verantwortlichen zurücktreten, wenn wir feststellen würden, dass bei Sicherheitsmitarbeitenden eine durch ihre Arbeit verursachte Krankheit diagnostiziert wird.»

Die medizinischen Berichte zeichnen gemäss dem «Guardian» ein erschreckendes Bild des Arbeitslebens in der von Meta beauftragten Firma in Kenia. Bei den 144 medizinisch untersuchten Personen wurde festgestellt, dass sie an mehreren psychischen Erkrankungen leiden. In 81 Prozent der Fälle seien schwere oder extrem schwere Symptome einer posttraumatischen Belastungsstörung aufgetreten.

Meta setzt schützende Techniken ein

Meta und Samasource lehnten es aufgrund des Rechtsstreits zunächst ab, sich zu den Vorwürfen zu äussern.

Allerdings nehme Meta den Schutz der Moderatoren und Moderatorinnen ernst, heisst es. In den Verträgen seien die Erwartungen an Beratung, Schulung und Unterstützung sowie der Zugang zu privater Gesundheitsversorgung festgelegt.

Meta gab an, dass Techniken wie Unschärfe, Stummschaltung von Geräuschen und Schwarzweissdarstellung eingesetzt werden, um die Exposition der Moderatoren auf Facebook und Instagram gegenüber grafischem Material zu begrenzen.