Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Gefahren auf Social Media
Auch nach dem Melden: Tiktok entfernt Inhalte über Suizid praktisch nie

Portrait of a teenage girl with mobile phone lying on the bed. Concept of depression, loneliness, problems of adolescence
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk

71 Prozent der Schweizer Jugendlichen nutzen Tiktok, 93 Prozent Instagram. Sie schauen sich Posts von Freunden und Fremden an, kommentieren, wie toll oder doof sie das Video finden, und hoffen auf Likes bei ihren eigenen Kreationen. Drei Stunden täglich sind sie im Durchschnitt online.

Auf den Social-Media-Apps sind nicht nur beeindruckende Tanzeinlagen und Schmink-Tutorials zu sehen, sondern auch Tausende Beiträge mit sehr ernstem Inhalt: Videos, die Suizid romantisierten. Fotos, auf denen blutige Beine als Beweis der Selbstverletzung inszeniert werden oder auf denen das aktuelle Untergewicht auf der Waage gezeigt wird: 29 Kilogramm. Das Foto, das im August 2023 kursiert, wird 37’000-mal aufgerufen. Drei Tage später zeigt dieselbe Userin ihren abgemagerten Bauch und schreibt: «Ich möchte mehr sichtbare Rippen.» 110’000 Aufrufe, über 5000 Likes.

Wer auf Tiktok solche Beiträge meldet, weil sie gegen die eigenen Richtlinien der Plattformen verstossen, erwartet, dass sie umgehend gelöscht werden. Doch die Realität sieht anders aus. Das zeigt eine neue Untersuchung von Reset, einer Initiative, die sich im Bereich der Demokratie- und Technologieproblematik engagiert.

In einem kürzlich durchgeführten Experiment testete das Unternehmen, wie gut die Social-Media-Giganten Tiktok, Instagram und X (ehemals Twitter) ihre Inhalte moderieren.

Die Ergebnisse sind ernüchternd: Tiktok zum Beispiel löscht in einer Stichprobe weniger als zwei Prozent der suizidverherrlichenden Beiträge, die ihre eigenen Richtlinien klar verletzen.

Einfluss von sozialen Medien wird unterschätzt

Und das ist gefährlich. Solche digitalen Inhalte über Depressionen, Essstörungen, Selbstverletzung und Suizid würden bestehende psychische Probleme von Minderjährigen verschlimmern, sagt Gregor Berger, Leiter des Notfallzentrums der Klinik für Kinder und Jugendpsychiatrie (PUK) in Zürich. «Wir behandeln im Jahr rund 1000 Jugendliche mit psychischen Problemen – allein im Notfall. Fast immer sind die sozialen Medien Thema. Selbst wer nur schon traurig ist, wird durch die Algorithmen noch trauriger.»

Eine Studie untersucht, wie viele der problematischen Beiträge nach dem Melden von den Plattformen gelöscht werden. Die Ergebnisse: Erschreckend wenige.

Als Gesellschaft würden wir den Einfluss von sozialen Medien leider immer noch unterschätzen, sagt Berger. «Dabei stehen wir erst am Anfang. Das Problem wird sich noch verschärfen.» Er schlägt vor, flächendeckend Gegensteuer zu geben: «Die Plattformen müssen endlich besser überprüfen, wer da surft und was gezeigt wird; in der Erziehung sollten nicht nur Kinder, sondern auch Erwachsene weniger am Handy sein, um als Vorbild zu fungieren. Und das Thema Medienkompetenz inklusive seelischer Gesundheit gehört in jeden Schulunterricht.»

Seit September 2023 müssen sich Tiktok und Co. im EU-Raum an eine Reihe von neuen Regeln im Rahmen des neuen Gesetzes über digitale Dienste (DSA) halten. Die Plattformen sollen insbesondere dazu verpflichtet werden, dass sie die Verbreitung von verbotenen oder ungeeigneten Inhalten für Minderjährige besser unterbinden.

Meldetools nützen wenig

Doch der Effekt der neuen Regeln bleibt bislang aus, wie die Untersuchung zeigt. Während vier Wochen beobachteten die Autorinnen und Autoren eine Stichprobe von verschiedenen Social-Media-Beiträgen, die davor von einer Psychologin als für Jugendliche gefährlich eingestuft wurden. 79 suizid- oder selbstverletzungsverherrlichende Beiträge auf Tiktok, 119 auf Instagram und 96 auf X. Dasselbe mit Posts zu Essstörungen.

Die ersten zwei Wochen wurden die Beiträge den Plattformen nicht gemeldet. Bei Tiktok und Instagram blieben sie so auch alle online – einsehbar, like-bar und teilbar für alle. X löschte immerhin 6 Prozent der betroffenen Beiträge von selbst.

Während weiterer zwei Wochen beobachteten die Autoren, was passiert, wenn sie die gefährlichen Inhalte den Onlinediensten melden. Instagram schnitt leicht besser ab als Tiktok: Sie löschen von einer Stichprobe rund 30 Prozent der gefährlichen Posts. Bei X sind es 7 Prozent. Der Effekt der internen Meldetools sei bei allen drei Plattformen jedoch klar «unzureichend», heisst es in der Untersuchung.

Nicht zum ersten Mal Kritik

Facebook, das mit Instagram zum Konzern Meta gehört, war bereits 2021 in der Kritik, als unter anderem diese Redaktion die Facebook Files veröffentlichte. Auf Hunderten von Seiten Studien, Analysen und Berichten, die der Konzern intern durchführte – aber selbst nie veröffentlichte –, zeigte sich deutlich, wie Meta schädliche Inhalte fördert. Die Auswertungen basierten auf Daten, die das Unternehmen bei seinen schon damals über 3,5 Milliarden Nutzern weltweit angehäuft hatte.

Der Tamedia-Recherchedesk zeigte zeitgleich in einem Selbstversuch auf Instagram auf, wie einfach Minderjährige durch den Algorithmus in eine Essstörung rutschen können. Damals antwortete der Konzern: Werde man auf problematische Accounts und Beiträge aufmerksam, so würden diese gelöscht.

Martin Steiger, Anwalt für Recht im digitalen Raum, erstaunt es nicht, dass sich seither wenig verbessert hat. «Leider ist es alltäglich, dass Onlineplattformen Inhalte, die rechtsverletzend sind oder gegen die eigenen Richtlinien verstossen, nicht löschen.» Eine wirksame Moderation von Inhalten sei anspruchsvoll und koste viel Geld – «dieses Geld sparen sich die Onlineplattformen lieber. Sie nehmen ihre Verantwortung nur wahr, wenn es nicht anders geht.»

Auch Bundesrat kündigt Massnahmen an

Wie wirksam die neue Gesetzgebung auf EU-Ebene jedoch tatsächlich sei, müsse sich erst noch zeigen, sagt Steiger. «Bei anderen Regulierungen tut sich die EU schwer, diese gegenüber Onlineplattformen aus den USA durchzusetzen.»

Auch der Bundesrat hat angekündigt, im nächsten Jahr einen Vorschlag für eine schweizerische Plattformregulierung nach europäischem Vorbild vorzulegen. Laut Steiger hat aber bereits der EU-Raum Auswirkungen auf Schweizer Nutzerinnen und Nutzer – «weil der digitale Raum natürlich keinen Halt vor Landesgrenzen macht».

Eine Sprecherin von Meta teilt auf Anfrage mit: Ihnen liege am Herzen, dass junge Menschen sichere, positive und ihrem Alter angemessene Erfahrungen auf Instagram machten. Deshalb habe man 30 Tools entwickelt, die Jugendliche und Eltern im Umgang mit Inhalten, die Suizid und Selbstverletzung thematisierten, unterstützten.

Und auch Tiktok teilt mit, man lasse sich von Expertinnen und Experten beraten und kontaktiere unter Umständen die örtlichen Notfalldienste, wenn eine Gefahr für Menschenleben oder schwere Körperverletzung bestehe. X gibt keine Antwort.