Kolumne des OmbudsmannsWie intelligent darf Journalismus sein?
Was die künstliche Intelligenz über diese Redaktion weiss. Und wie wir es mit dem Einsatz von Schreibrobotern halten.
Anfang Jahr tauchten in der Presse erste Berichte über den Einsatz von Schreibrobotern auf Redaktionen auf. Die Rede war etwa von der US-Website CNET, die insgeheim Dutzende längerer Artikel veröffentlicht hatte, die künstliche Intelligenz (KI) geschrieben hatte. Die Beiträge enthielten Fehler und waren teils wörtlich abgekupfert.
Inzwischen ist häufiger über den Einsatz von KI in den Medien zu lesen. Tamedia-Titel berichteten im April, der TV-Privatsender M Le Média in Crissier beschäftige neu eine Meteo-Moderatorin namens Jade, bei der es sich in Wirklichkeit um einen Avatar handle. Im selben Monat wurde publik, dass der deutsche Fotograf Boris Eldagsen einen renommierten Fotopreis von Sony ablehnte, weil er, wie er einräumte, das Siegerbild mittels KI kreiert hatte – als Denkanstoss.
Auch mehren sich Meldungen, laut denen KI-Pioniere vor dem unüberlegten Einsatz von künstlicher Intelligenz warnen. Nach Freigabe einer neuen Version des Sprachmodells Chat-GPT durch die Firma Open AI haben im März mehr als 1000 Experten einen offenen Brief unterzeichnet, in dem sie feststellen, die neue Technik beinhalte «gravierende Gefahren für Gesellschaft und Menschheit». Mächtigere KI-Systeme, mahnen sie, sollten erst entwickelt werden, wenn sicher sei, dass ihre Wirkungen positiv und ihre Risiken überschaubar seien.
Die KI-Experten befürchten, Sprachmodelle wie Chat-GPT, Bing, Bard oder Ernie könnten kurzfristig zur Verbreitung von Fake News missbraucht werden, mittelfristig zum Verlust von Routinejobs führen und längerfristig Kontrollverluste der Gesellschaft in einzelnen Bereichen nach sich ziehen – eine pessimistische Einschätzung, der andere Fachleute widersprechen. Die britische Tageszeitung «The Guardian» sah sich unlängst mit der Nachfrage nach einem Artikel konfrontiert, der angeblich vor ein paar Jahren erschienen war. Der Reporter des Blatts konnte sich nicht erinnern, je einen solchen Beitrag geschrieben zu haben, obwohl ihm das Thema bekannt war. Des Rätsels Lösung? Chat-GPT, zum Thema befragt, hatte den «Guardian»-Artikel schlicht erfunden.
Tamedia setzt künstliche Intelligenz ein, um Artikel personalisiert zu empfehlen, Abstimmungsresultate vorauszusagen, passende Archivbilder zu finden, Interviews zu transkribieren und Texte zu übersetzen. Traditionelle Beiträge verfasst KI keine. Sie gilt als nützliches Hilfsmittel, um die journalistische Arbeit zu vereinfachen: Journalismus als Ganzes ist und bleibt ein menschliches Handwerk.
Und was weiss Chat-GPT über Tamedia? «(Sie) gilt in der Schweiz als verlässliche Quelle von Nachrichten und Informationen, und ihre Journalistinnen und Journalisten werden respektiert für ihre Professionalität und Aufrechterhaltung journalistischer Standards.» Doch der Schreibroboter weiss auch dies: «Wie alle Medienorganisationen ist Tamedia nicht immun gegen Fehler, Vorurteile oder Irrtümer in der Berichterstattung, und es ist wichtig, Informationen aus verschiedenen Quellen kritisch zu bewerten, um ein umfassendes Verständnis für ein bestimmtes Thema zu erlangen.» Die Einschätzung ist nicht zu beanstanden.
Fehler gefunden?Jetzt melden.