KI an Schweizer Hochschulen Unis zittern vor Chat-GPT – diese Berner Professorin wagt ein Experiment
Sprachroboter verändern den Wissenschaftsbetrieb nachhaltig. Was tun, wenn plötzlich alle gleich gut schreiben können? Corinne Mühlemann hat Antworten.
Kürzlich im Zug von Bern nach Basel (und weiter nach Deutschland), vis-à-vis zwei Mittvierziger mit allen Insignien des universitären Mittelbaus: Schuhe von On, nachhaltig produzierte Trinkflasche, Mac-Laptop, Velokurier-Rucksack, Papier-Agenda mit farbigen Post-its, Fünftagebart. Der eine hat den Laptop aufgeklappt, hat laut geseufzt dazu, jetzt seufzt er noch einmal und sagt: «Da müssen wir etwas unternehmen. Die schreiben jetzt alle Bücher. Wie will man das nur korrigieren!»
Der andere nickt und sagt: «Wir müssen die Studierenden anders prüfen, so geht es nicht mehr weiter.» Dann stöpselt er die Kopfhörer ein und klappt ebenfalls den Laptop auf. Bücher korrigieren.
Wer auch nur entfernte Bekannte oder Kollegen oder Freunde hat, die Teil des hiesigen Wissenschaftsbetriebs sind, an einer Fachhochschule angestellt oder einer Universität studieren, der wird in den vergangenen Wochen und Monaten immer wieder über das gleiche Thema gesprochen haben. Nirgends haben die neuen Sprachmodelle und ihre Möglichkeiten so eingeschlagen wie an Institutionen der höheren Bildung.
So viel Text
Ist ja auch logisch: Kaum irgendwo sonst wird heute noch so viel Wert auf das geschriebene Wort gelegt wie an einer Uni oder an einer Fachhochschule. Während ihrer Ausbildung schreiben Studierende Tausende von Texten. Vorträge, Zusammenfassungen, Essays, Kritiken, Inhaltsangaben, Seminararbeiten, Bachelor- und Masterarbeiten. So viel Papier, so viel Text (und so wenige Leserinnen und Leser). Auch wer an der Universität angestellt ist und sich in der akademischen Welt durchsetzen möchte, entkommt der Schriftlichkeit seines Daseins nicht: ohne Zitierungen kein Job.
Darum ist gerade im Wissenschaftsbetrieb die Aufregung so gross, wenn Sprachmodelle wie Chat-GPT (aktuell ist die Software bei Version 4 angelangt) plötzlich schaffen, was vorher nur der Mensch geschafft hat. Informationen in kurzer Zeit zu einem intelligenten Text verarbeiten, überhaupt: intelligent schreiben.
«Ob hier tatsächlich eine Revolution stattfindet, bleibt abzuwarten.»
Die Schweizer Universitäten reagieren auf die potenzielle Bedrohung mit unterschiedlichsten Mitteln. Mit Symposien, Veranstaltungsreihen, Podcasts und Arbeitsgruppen. «Das Echo zu Chat-GPT ist intern und extern riesig», sagt beispielsweise Jean Terrier von der Universität Basel, «aber ob wir hier tatsächlich eine Revolution erleben, das bleibt abzuwarten.»
Terrier ist an der Uni Basel als Projektleiter Digital Literacies angestellt. Er ist mitverantwortlich dafür, die digitalen Fähigkeiten der Studierenden und der Dozierenden zu verbessern, den Umgang mit neuen technischen Möglichkeiten zu schulen. Sein vorläufiges Fazit zu Chat-GPT: ein sehr hilfreiches Werkzeug. Aber keine echte Disruption.
Terrier sitzt entspannt im lauschigen Garten des Kollegiengebäudes der Uni Basel und erzählt davon, wie er Chat-GPT mit Prüfungsfragen fütterte, die er normalerweise seinen Studierenden vorlegt. Das Resultat: sprachlich gut, inhaltlich ungenügend. «Die Maschine liefert eine gewisse Schreibkompetenz, aber es braucht auf der anderen Seite weiterhin den Dozierenden oder den Studierenden, um einzuschätzen, was die Maschine da genau geliefert hat.» Terrier beschreibt den Chatbot als eine Art Gesprächspartner, der einen bei gewissen Themen unterstützen kann. Aber die eigentliche Arbeit, die müsse immer noch der Mensch erledigen.
Zurzeit gibt es mehrere Arbeitsgruppen an der Universität Basel, die den formal korrekten Umgang mit Chatbots wie Chat-GPT definieren. Eine wichtige Regel: Sprachprogramme sollen wie andere Quellen behandelt werden. Was nicht von einem selber kommt, muss ausgewiesen und belegt sein.
6 von 10 Unis haben keine Regeln
Die Universität Basel befindet sich mit ihren recht konkreten Richtlinien noch in einer Minderheit. Eine aktuelle Auswertung von Scribbr.ch, einer Plattform, die professionelles Gegenlesen für studentische Arbeiten anbietet, hat ergeben, dass über 60 Prozent der hundert wichtigsten Universitäten im deutschsprachigen Raum noch gar keine (oder nur vage) Richtlinien zum Umgang mit Chat-GPT haben. 7 Prozent verbieten Chatbots generell, etwas über 10 Prozent erlauben den Einsatz von Chatprogrammen ohne weitere Auflagen.
Ein unterschätztes Problem sei die Herkunft der Daten und die Sicherheit der Daten, sagt Jean Terrier. Open AI, die Firma hinter Chat-GPT, legt nicht offen, mit welchen Daten sie ihr Programm gefüttert hat. Ist darunter auch urheberrechtlich geschütztes Material? Und spuckt es dieses Material dann auch wieder aus, wenn der Chatbot irgendwo an einer Schweizer Uni einer Studentin bei einer Masterarbeit hilft? «Chat-GPT ist eine Blackbox für uns», sagt Terrier. Lieber wäre ihm (und anderen Unis), wenn es bei Chatbots eine Open-Source-Lösung für den universitären Betrieb gäbe, ein auf die Uni und ihre Bedürfnisse adaptiertes Programm, bei dem man die Herkunft der Daten kennt, über das man die Kontrolle hat. Entsprechende Bemühungen gibt es derzeit an der Universität Bern.
Ebenfalls an der Universität Bern hat kürzlich ein interessantes Experiment stattgefunden, um zu testen, wie sich der Einsatz von Chat-GPT anfühlt. Konkret hat das Experiment in einem Seminar von Corinne Mühlemann stattgefunden, die am Institut für Kunstgeschichte die Abegg-Stiftung-Professur für die Geschichte der textilen Künste innehat (eine Berufsbezeichnung, die man sich von Chat-GPT zusammenfassen lassen könnte).
Mühlemann lehrt noch nicht lange an der Universität Bern – in ihrem Einstellungsgespräch mit dem Rektor hat sie den Elefanten im Raum gleich selber angesprochen. Wie umgehen mit künstlicher Intelligenz? Wie umgehen mit grossen und wirkmächtigen Sprachprogrammen? «Das Gespräch war sehr inspirierend. Ich habe mich darum entschlossen, Chat-GPT ganz direkt in eine Lehrveranstaltung einzubauen.»
Mühlemann veranstaltete in diesem Frühlingssemester ein Seminar zur Rolle von Textilhistorikerinnen in der Forschungsgeschichte der textilen Künste. Die Studierenden nutzten Chat-GPT, um Fakten zu verschiedenen Textilhistorikerinnen zu recherchieren und um danach ihre Seminararbeit zu schreiben. Die Aufgabe: den ausgespuckten Text zu «verwissenschaftlichen», mit korrekten Zitierungen und Quellenangaben und vor allem mit der Angabe, was vom Chatbot kommt und was von der Studierenden.
Mühlemann fand heraus, dass Chat-GPT eine Tendenz hat, ganze Personengruppen zu marginalisieren.
Das Arbeiten mit dem Chatbot war, wie Mühlemann und ihre Studierenden schnell herausfanden, gar nicht so einfach. «Wenn Chat-GPT einen Fakt nicht weiss, dann halluziniert es gern.» Und das kommt in einem nicht sehr breit bearbeiteten Feld wie «Textilhistorikerinnen in der Forschungsgeschichte der textilen Künste» gar nicht mal so selten vor. Zudem fanden Mühlemann und die Seminarteilnehmerinnen heraus, dass Chat-GPT eine Tendenz hat, ganze Personengruppen zu marginalisieren – so wie der Datensatz, auf den sich das Programm stützt. «Dann erstaunt es nicht, dass ein berühmter Physiker eher präsent ist als eine nicht ganz so berühmte Textilforscherin», sagt Mühlemann.
Im Seminar ging es darum, das Bewusstsein für solche Ungleichheiten zu schärfen. Das Bewusstsein auch, wie wichtig die Fragen sind, die man dem Chatbot stellt. Je präziser und überlegter die Fragen, desto präziser und überlegter die Antworten der Maschine.
Das hat auch Chantal Hinni so erlebt. Sie steht kurz vor dem Abschluss ihres Studiums, ist also eine erfahrene Studentin, und nahm am Seminar von Mühlemann teil. «Ich fand es anregend, dem Chatbot Fragen zu stellen. Aber revolutionäre Ideen darf man von Chat-GPT nicht erwarten.» Auch beim Verfassen der Seminararbeit rechnet Hinni nicht mit viel Unterstützung von der künstlichen Intelligenz. Sie wird über die Textilforscherin Edith Standen schreiben. Deren Lebensdaten kannte Chat-GPT knapp noch, aber sonst: eigentlich gar nichts. «Das ging so weit, dass Chat-GPT Publikationen von Standen erfunden hat.»
Ein normales Instrument
Solche Fehler zu erkennen, sensibel auf Inhalte von Chat-GPT zu reagieren: Das war das Ziel von Corinne Mühlemann und ihrem Seminar. In ihrem Institut gibt es nun Überlegungen, künftig einen Einführungskurs ins Arbeiten mit Chatbots anzubieten – ähnlich wie es heute schon Einführungskurse beispielsweise in die Literaturrecherche gibt.
Aus dem Monster, das alles an der Universität zu verschlingen droht, soll ein ganz normales Arbeitsinstrument werden.
Hier wird Inhalt angezeigt, der zusätzliche Cookies setzt.
An dieser Stelle finden Sie einen ergänzenden externen Inhalt. Falls Sie damit einverstanden sind, dass Cookies von externen Anbietern gesetzt und dadurch personenbezogene Daten an externe Anbieter übermittelt werden, können Sie alle Cookies zulassen und externe Inhalte direkt anzeigen.
Fehler gefunden?Jetzt melden.