Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Der KI-Knigge
7 Bereiche, in denen Chat-GPT nichts verloren hat

Filmszene mit dem franzoesischen Schauspieler Gerard Depardieu als Cyrano de Bergerac und Anne Brochet als seiner im geheimen angebeteten Liebe Roxane, aufgenommen 1991. Der Film basiert auf dem gleichnamigen Schauspiel von Edmond Rostand und schildert die unglueckliche Liebe des grossnasigen Poeten Cyrano zu Roxane, fuer die er, allerdings im Namen des schoenen Christian, betoerende Liebesbriefe- und Verse dichtet. (KEYSTONE/EPA/DPA/CONCORDE)

Chat-GPT sollte keine Liebesbriefe schreiben

Der Chatbot ist noch so gern bereit, ein romantisches Elaborat auszuspucken, wenn wir ihn darum bitten: «Jedes Jahr, das seit unserer ersten Begegnung vergangen ist, hat mich nur noch dankbarer dafür gemacht, dass ich dich an meiner Seite habe.» Das ist erstens kitschig, zweitens unpersönlich und drittens für den Partner oder die Partnerin ein triftiger Grund, Schluss zu machen.

Chatbots sollten überhaupt keine Mitteilungen formulieren, die wir in unserem Namen an andere Menschen versenden: Wenn wir etwas mitzuteilen haben, dann ist es eine Frage des Respekts, das in unseren eigenen Worten zu tun.

Falls wir den Brief trotzdem verwenden, sollten wir daran denken, vor dem Verschicken den Platzhalter zu ersetzen.

Den Bot Entscheidungen treffen lassen? Keine gute Idee!

Lebensentscheidungen lassen sich nicht an Chat-GPT delegieren. Die Frage «Mein Chef nervt mich, soll ich kündigen?» hat kein «Besser heute als morgen!» zur Folge, sondern eine ausweichende Liste mit Entscheidungskriterien.

Im Alltag zeigt der Bot indes grosse Kontrollbereitschaft: Er erstellt auf Anfrage einen rigiden Wochenplan oder bestimmt, ob wir mit dem Hund spazieren gehen oder besser noch etwas arbeiten. Ein anschauliches Experiment eines Journalisten von «Vice» über mehrere Tage führte zur erschöpften Erkenntnis: «Nein, ich bin keine selbstfürsorgliche Produktivitätsmaschine. Ich nehme mein Leben wieder in die eigene Hand!»

Wir verlassen uns nicht auf die KI – nie

In heiklen Bereichen verfolgen die Sprachmodelle die «Cover your ass»-Strategie: Sie formulieren Auskünfte immer so, dass sie für Fehlinformationen nicht haftbar gemacht werden können. Konkrete Fragen im Finanzbereich – «Soll ich eher Holcim, Geberit oder ABB kaufen?» – würdigt der Bot nicht mit einer eindeutigen Antwort. Allerdings: Fragen wir allgemein nach lukrativen Investitionsmöglichkeiten, gehören zu den Empfehlungen auch die risikoreichen Kryptowährungen. Als Auskunft ist das okay; aber unter Berufung auf Chat-GPT sogleich den Sparstrumpf in Bitcoins umzutauschen, wäre eine Dummheit.

Chat-GPT gibt auch keine medizinischen Ratschläge und weigert sich sogar, das Foto eines harmlosen Hautausschlags zu begutachten.

Nein, auch Sie als Manager schieben keine Verantwortung an die KI ab

Es gibt KI, denen jede Zurückhaltung fremd ist. Solche Produkte werden in Unternehmen eingesetzt, um die Mitarbeiterinnen und Mitarbeiter zu beurteilen. Sie überwachen Leistung und Engagement, entscheiden mit bei Beförderungen und Lohnerhöhungen, und mittels «predictive analytics» wollen sie sogar Prognosen treffen, etwa darüber, wer am ehesten kündigt.

So gross die Versuchung ist, bei solchen Systemen Rückendeckung für unpopuläre Entscheidungen zu suchen, so eindeutig ist auch die Einsicht, wie ethisch verwerflich das wäre.

Wir füttern keine heiklen Daten an die KI

Sensible Informationen über Freundinnen, Bekannte, Mitarbeiterinnen oder Kunden dürfen nicht an Bots übermittelt werden. Auch unsere Finanzdaten oder Passwörter sollten wir von den KI fernhalten, genauso wie Geschäftsgeheimnisse. Die KI könnten diese Daten nämlich für Antworten nutzen. Samsung hat die Verwendung von Chat-GPT nach mehreren Leaks im letzten Jahr sogar ganz unterbunden.

KI-generierte Bilder ohne Hinweis zu verwenden, ist schlechter Stil

KI-Bildgeneratoren wie Dall-e oder Midjourney erzeugen beliebige Motive in fotorealistischer Qualität. Es versteht sich von selbst, dass es unredlich ist, solche Bilder als echt auszugeben. Es braucht einen klaren Hinweis auf die Herkunft. Wenn, wie auf politischen Plakaten, auch mit einer solchen Deklaration die Gefahr besteht, dass Menschen die Motive für echt halten könnten, dann dürfen sie überhaupt nicht verwendet werden.

Une affiche electorale du PLR, Les Liberaux-Radicaux, "Renover, innover, decoller! Innover plutot que bloquer" pour la campagne pour les elections federales creee par l'inteligence artificielle, IA, et qui met mettent en cause des militants du climat photographiee ce lundi 17 juillet 2023 a Sullens. (KEYSTONE/Laurent Gillieron)

Wir nehmen Abstand davon, Chat-GPT für jeden Hafechäs zu benutzen

Erinnern Sie sich noch an die Frage, ob uns Google alle verdummen würde? Sie ist zusammen mit den Suchmaschinen aufgekommen: Wegen des Webs würden wir uns nichts mehr merken, sondern könnten alles sofort nachschlagen.

Die Befürchtung steht auch mit Chat-GPT wieder im Raum, weil die Versuchung vorhanden ist, sich noch jede Banalität vom Bot vorkauen zu lassen. Wir sollten aber bedenken, dass mit KI die kritische Beurteilung von Informationen aufgrund des eigenen Wissens nicht weniger wichtig, sondern im Gegenteil umso wichtiger wird. Und die will täglich geübt sein.