Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen
Meinung

Analyse zu KI-Wasserzeichen
Googles SynthID ist nur eine Schein­lösung für die Probleme mit KI

Ist der Hund echt oder von KI generiert? Beispiel aus einem Google-Werbevideo.
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk
In Kürze:
  • Google hat SynthID zur Erkennung von KI-generierten Inhalten vorgestellt.
  • Die Methode nutzt unsichtbare Wasserzeichen für Text-, Bild-, Musik- und Videoinhalte.
  • Die Lösung kann als Open-Source breit eingesetzt werden. Die grundsätzlichen Probleme mit dem Missbrauch von KI beseitigt diese Software jedoch nicht.
  • SynthID ist kein Lügendetektor, kritisches Hinterfragen von Quellen bleibt unerlässlich.

Google hat eine Lösung vorgestellt, mit der sich Inhalte erkennen lassen, die mit künstlicher Intelligenz generiert wurden. Sie heisst SynthID und funktioniert mittels Wasserzeichen: Das sind kleine Veränderungen, die direkt in die digitalen Inhalte eingearbeitet werden. Sie sind für das menschliche Auge nicht zu erkennen, aber für einen Analyse-Algorithmus detektierbar. Wasserzeichen werden schon lange dazu verwendet, um Urheberrechtsverletzungen bei Filmen, Musik und Fotos aufzuspüren.

SynthID funktioniert nicht nur für Bild, Musik und Video, sondern auch für Text. Das überrascht: Denn während bei Bildinhalten solche unsichtbaren Muster durch unauffällige Veränderungen einzelner Bildpunkte eingebracht werden können, fragt man sich, wie das bei Texten funktionieren soll. Der Austausch einzelner Buchstaben würde schliesslich sofort auffallen.

KI-Texte schon ab drei Sätzen erkennbar

Google beschreibt die Methode so, dass während der Erzeugung des Texts die Wahrscheinlichkeit einzelner Zeichen, Wörter und Sätze beeinflusst wird – aber ohne dass die «Qualität, Genauigkeit und Kreativität des Resultats leidet», wie Google beteuert. Zum Erkennen des Wasserzeichens würden schon drei Sätze ausreichen. Und je länger der Text, desto robuster sei die SynthID.

Dieses Beispiel von Google zeigt, welche Textteile Spuren des Wasserzeichens tragen.

Ist das eine Patentlösung gegen all die Probleme mit KI-generierten Inhalten? Die sind bekanntlich zahlreich: Denken wir nur an die Falsch- und Desinformation, die Plagiate und Urheberrechtsverletzungen im Netz und an Chat-GPT, der die Hausaufgaben von Schülerinnen und Schülern löst. Und viele von uns kennen dieses konstante Gefühl der Unsicherheit. Es entsteht dadurch, dass wir uns immer weniger sicher sein können, ob wir es mit dem Werk eines Menschen oder dem Output einer Maschine zu tun haben.

Gegen dieses Gefühl könnte SynthID etwas ausrichten – wenn die Lösung denn flächendeckend eingesetzt würde. Google stellt sie verdienstvollerweise als Open-Source zur Verfügung, sodass sie breit genutzt werden kann. Aber wird das freiwillig geschehen? Oder wäre es sinnvoll, das KI-Wasserzeichen gesetzlich vorzuschreiben?

Keine Patentlösung

Eine rechtliche Bestimmung würde das Risiko verringern, dass KI-Deklarationen «vergessen» gehen. Mehr auch nicht: Forschende der Universität Maryland haben letztes Jahr aufgezeigt, dass sich Wasserzeichen leicht entfernen lassen – immerhin mit der Aussicht, dass es nicht unmöglich sei, ein «wirklich robustes Wasserzeichen zu entwickeln». Ohnehin werden Akteure mit fragwürdigen Motiven auch weiterhin Bilder, Videos, Audios und Texte ohne Kennzeichnungen künstlich erzeugen können.

Hier wird Inhalt angezeigt, der zusätzliche Cookies setzt.

An dieser Stelle finden Sie einen ergänzenden externen Inhalt. Falls Sie damit einverstanden sind, dass Cookies von externen Anbietern gesetzt und dadurch personenbezogene Daten an externe Anbieter übermittelt werden, können Sie alle Cookies zulassen und externe Inhalte direkt anzeigen.

Es besteht umgekehrt die Gefahr, SynthID zu überschätzen und mit einer Art digitalem Lügendetektor zu verwechseln. Das ist er keineswegs: Der undeklarierte Einsatz einer KI ist ein Warnzeichen, aber er sagt wenig darüber aus, ob der Urheber unredlich ist – oder bloss faul.

In Zeiten der künstlichen Intelligenz müssen wir uns an die menschliche Vernunft halten: Wir müssen lernen und täglich üben, uns kritisch mit den Quellen digitaler Inhalte auseinanderzusetzen. Wir brauchen die Fähigkeit, Fakten zu prüfen und ein Gespür für die Floskeln, zu denen die KI-Chatbots in der Tat neigen – gleichgültig, ob zwischen ihren Zeilen ein Wasserzeichen steckt oder nicht.