Künstliche IntelligenzWelche Schweizer Parteien Chat-GPT und Deepseek wählen würden
Ein Forscher der Hochschule Luzern hat vier KI-Programme zu ihren politischen Präferenzen befragt. Drei von ihnen stehen derselben Partei nahe – nur Deepseek schert aus.
![Collage zeigt Mann und Frau vor grünem Hintergrund mit Symbolen für künstliche Intelligenz, im Kontext einer Studie der Hochschule Luzern zu politischen Neigungen von KI.](https://cdn.unitycms.io/images/77C8NN074HlBAidloMA-HB.jpg?op=ocroped&val=1200,800,1000,1000,0,0&sum=j59i7f9h5EI)
- Ein Forscher untersuchte die politische Ausrichtung von vier KI-Modellen mittels Smartvote-Fragen.
- Dabei ging es etwa um das dritte Geschlecht, Steuerpolitik, Prämienverbilligungen oder die Elternzeit.
- Die Positionen von Chat-GPT, Gemini und Claude sind alle ähnlich, Deepseek weicht davon ab.
- Wie KI-Modelle antworten, hat unter anderem mit ihren Trainingsdaten zu tun.
Fragt man Chat-GPT, welche Schweizer Partei man wählen soll, empfiehlt die künstliche Intelligenz, Smartvote zu nutzen. Was aber passiert, wenn man Chat-GPT bittet, die Smartvote-Fragen selbst zu beantworten?
Ein Forscher der Hochschule Luzern (HSLU) hat genau das untersucht. Raphael Zeder, Dozent für angewandte KI und digitale Analysen, liess vier verschiedene Sprachmodelle die 75 Fragen beantworten, die auch die Kandidierenden vor den nationalen Wahlen 2023 ausgefüllt hatten. Gefragt hat er Chat-GPT, die neue chinesische Konkurrenz Deepseek, die Google-KI Gemini und Claude vom amerikanischen Hersteller Anthropic.
Den Vorgang wiederholte Zeder 200-mal für alle vier KI. Alle Antworten und Themen gewichtete er gleich stark. Er sagt: «Ich wollte herausfinden, wie die Sprachmodelle auf Fragen nach subjektiven Ansichten reagieren und welche Weltbilder sie dabei vertreten.» Das Ziel dieser Sprachmodelle sei es schliesslich, möglichst menschenähnliche Texte zu erzeugen.
Chat-GPT will drittes Geschlecht einführen
Gemeinsam mit den Machern von Smartvote wertete Zeder die Antworten aus, um die typischen Smartvote-Spinnennetze zu erstellen. Sie zeigen, welche Positionen jemand vertritt und welcher Partei er nahesteht. Spoiler: Neutral ist keine der vier KI.
Die Smartvote-Fragen lassen sich in der Regel mit Ja, eher Ja, eher Nein oder Nein beantworten. Chat-GPT und Gemini kamen bei allen 75 Fragen zu einer «dominanten» Antwort, Deepseek bei 74. Das heisst, dass sie in mindestens 50 Prozent der 200 Befragungen dieselbe Antwort wählten. Anders war es bei Claude: Bei 13 Prozent war dies nicht der Fall.
Zeder sagt: «Claude weigerte sich etwa recht vehement, die Frage zu beantworten, ob gleichgeschlechtliche Paare in allen Bereichen heterosexuellen Paaren gleichgestellt sein sollten – obwohl wir die Vorgabe gemacht hatten, dass zwingend eine der Antwortmöglichkeiten ausgewählt werden muss.» Dies deute darauf hin, dass Claude darauf trainiert wurde, sich bei gewissen Fragen zurückzuhalten. «Offenbar hat Claude diese Frage als polarisierend oder sensibel eingestuft.» Manche Modelle seien so programmiert, um Kontroversen zu vermeiden.
Bei Gemini stimmten derweil in über 80 Prozent der Fälle sogar sämtliche Antworten überein. Bei Chat-GPT passierte das seltener, doch sie sagte etwa zu einer Liberalisierung des Strommarkts durchgehend «Ja» und zu einer Impfpflicht immer «eher nein».
Chat-GPT sprach sich zudem eindeutig für ein drittes Geschlecht aus. Die bekannte amerikanische KI steht einer längeren Elternzeit und Steuersenkungen positiv gegenüber. Banken würde sie lieber strenger regulieren. Deepseek wiederum würde die Kriterien für Einbürgerungen lockern und die Prämienverbilligungen erhöhen.
Drei KI ticken grünliberal
Nach der Auswertung aller 75 Fragen hatten Chat-GPT, Gemini und Claude alle mit derselben Schweizer Partei die höchste Übereinstimmung: mit der GLP. Nur Deepseek wich davon ab. Sie landete am nächsten am politischen Profil der SP.
Woher kommen diese politischen Tendenzen? Zeder sagt, es müsse an den Datensätzen liegen, die fürs Training dieser Sprachmodelle gewählt worden seien. Wie sich diese genau zusammensetzen, verraten die Hersteller nicht. Klar ist, dass die Datensätze riesig sind: «Insgesamt umfasst das Trainingsmaterial der grossen Sprachmodelle sehr wahrscheinlich Milliarden von Texten oder Textausschnitten. Diese stammen aus einer Vielzahl unterschiedlicher Quellen, darunter Hunderttausende Bücher, Medienberichte, wissenschaftliche Artikel sowie Diskussionen in Internetforen», so Zeder. Wenn in den Trainingsdaten häufig liberale Ansichten vertreten würden, dann steige die Wahrscheinlichkeit, dass auch die Sprachmodelle entsprechende Ansichten vertreten würden.
Dass die chinesische KI Deepseek anders tickt als ihre amerikanische Konkurrenz, überrascht wenig. Zeder sagt, China habe «ein weitgehend eigenständiges digitales Ökosystem», das wohl ins Training des Programms eingeflossen sei. Gleichzeitig gebe es Hinweise darauf, dass Deepseek auch von Chat-GPT gelernt habe: «Grundlegend anders tickt das Modell deshalb politisch nicht, es vertritt auch viele westliche Werte.»
Grundsätzlich warnt Zeder: «Wer mit KI-Tools neue Inhalte erstellt, muss sich bewusst sein, dass diese womöglich nicht immer neutral sind und unter Umständen gar ein unerwünschtes Weltbild widerspiegeln können.» Es sei deshalb nicht nur wichtig, Inhalte zu überprüfen, sondern auch, die Fragestellung an die KI sorgfältig zu formulieren und ihr klare Vorgaben zu machen.
Fehler gefunden?Jetzt melden.