Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen
Meinung

Kolumne des Ombudsmanns
Wie intelligent darf Journalismus sein?

Die Roboterfrau Sophia spricht an der Mobile World Congress Wireless Show in Barcelona mit Zuschauern. Welche Rolle wird künstliche Intelligenz künftig im Journalismus spielen?
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk

Anfang Jahr tauchten in der Presse erste Berichte über den Einsatz von Schreibrobotern auf Redaktionen auf. Die Rede war etwa von der US-Website CNET, die insgeheim Dutzende längerer Artikel veröffentlicht hatte, die künstliche Intelligenz (KI) geschrieben hatte. Die Beiträge enthielten Fehler und waren teils wörtlich abgekupfert.

Inzwischen ist häufiger über den Einsatz von KI in den Medien zu lesen. Tamedia-Titel berichteten im April, der TV-Privatsender M Le Média in Crissier beschäftige neu eine Meteo-Moderatorin namens Jade, bei der es sich in Wirklichkeit um einen Avatar handle. Im selben Monat wurde publik, dass der deutsche Fotograf Boris Eldagsen einen renommierten Fotopreis von Sony ablehnte, weil er, wie er einräumte, das Siegerbild mittels KI kreiert hatte – als Denkanstoss.

Auch mehren sich Meldungen, laut denen KI-Pioniere vor dem unüberlegten Einsatz von künstlicher Intelligenz warnen. Nach Freigabe einer neuen Version des Sprachmodells Chat-GPT durch die Firma Open AI haben im März mehr als 1000 Experten einen offenen Brief unterzeichnet, in dem sie feststellen, die neue Technik beinhalte «gravierende Gefahren für Gesellschaft und Menschheit». Mächtigere KI-Systeme, mahnen sie, sollten erst entwickelt werden, wenn sicher sei, dass ihre Wirkungen positiv und ihre Risiken überschaubar seien.

Die KI-Experten befürchten, Sprachmodelle wie Chat-GPT, Bing, Bard oder Ernie könnten kurzfristig zur Verbreitung von Fake News missbraucht werden, mittelfristig zum Verlust von Routinejobs führen und längerfristig Kontrollverluste der Gesellschaft in einzelnen Bereichen nach sich ziehen – eine pessimistische Einschätzung, der andere Fachleute widersprechen. Die britische Tageszeitung «The Guardian» sah sich unlängst mit der Nachfrage nach einem Artikel konfrontiert, der angeblich vor ein paar Jahren erschienen war. Der Reporter des Blatts konnte sich nicht erinnern, je einen solchen Beitrag geschrieben zu haben, obwohl ihm das Thema bekannt war. Des Rätsels Lösung? Chat-GPT, zum Thema befragt, hatte den «Guardian»-Artikel schlicht erfunden.

Tamedia setzt künstliche Intelligenz ein, um Artikel personalisiert zu empfehlen, Abstimmungsresultate vorauszusagen, passende Archivbilder zu finden, Interviews zu transkribieren und Texte zu übersetzen. Traditionelle Beiträge verfasst KI keine. Sie gilt als nützliches Hilfsmittel, um die journalistische Arbeit zu vereinfachen: Journalismus als Ganzes ist und bleibt ein menschliches Handwerk.

Und was weiss Chat-GPT über Tamedia? «(Sie) gilt in der Schweiz als verlässliche Quelle von Nachrichten und Informationen, und ihre Journalistinnen und Journalisten werden respektiert für ihre Professionalität und Aufrechterhaltung journalistischer Standards.» Doch der Schreibroboter weiss auch dies: «Wie alle Medienorganisationen ist Tamedia nicht immun gegen Fehler, Vorurteile oder Irrtümer in der Berichterstattung, und es ist wichtig, Informationen aus verschiedenen Quellen kritisch zu bewerten, um ein umfassendes Verständnis für ein bestimmtes Thema zu erlangen.» Die Einschätzung ist nicht zu beanstanden.