Methode «Deep Research»Wie uns die KI hilft, den Dingen auf den Grund zu gehen
Die künstliche Intelligenz stellt neu auch vertiefte Nachforschungen an: Aus Dutzenden von Quellen verfasst sie einen detaillierten Bericht. Ein fleissiger Assistent – dem wir nicht blind vertrauen dürfen.

- Die neuen KI-Sprachbots bieten vertiefte Recherchen mit zahlreichen Quellenangaben aus dem Internet.
- Chat-GPT liefert besonders detaillierte Berichte mit sorgfältig gegliederten Analysen der Themen.
- Googles Gemini durchforstet fast 200 Quellen und erklärt die angewandte Recherchemethodik.
- Groks Recherchen fallen knapper aus, bleiben aber trotzdem mit vielen Belegen fundiert.
Eine dieser Nachrichten im Whatsapp-Familienchat: Jemand leitet virale Botschaften weiter. In der werden Leute mit Verdiensten im Breitensport den Fabrikanten von Süssigkeiten, Rauchwaren, Drogen und Alkoholika gegenübergestellt. Die Vertreter der gesunden Lebensweise starben alle jung, während die Genussmenschen uralt wurden. Schlussfolgerung: «Wie kamen die Ärzte zum Schluss, dass Bewegung das Leben verlängert? Iss, trink und geniess dein Leben!»
Das ist Unfug – und das wissen fast alle im Chat. Aber wie dagegenhalten? Am besten mit einer sachlichen und nüchternen Replik. Bei der hilft eine Funktion, die es neu bei vielen KI-Sprachbots gibt. Mittels «Deep Research» liefern sie nicht nur eine kurze Antwort, sondern eine ausführliche Abhandlung. Die geht schon fast als Seminararbeit durch und umfasst je nach Thema Dutzende Quellen aus dem Netz.
Mit dieser Methode ist der Fall nach ein paar Minuten klar. Es wurde getrickst. Der Mann, der das Laufband erfand, starb nicht mit 54, wie behauptet. Der Pionier der Gymnastik – es könnte Turnvater Jahn gemeint sein – wurde nicht 57, sondern 74. Und die Aussage, der «Erfinder des Opiums» sei 116 Jahre alt geworden, ist absurd. Die Droge ist seit Jahrtausenden bekannt.
Nebenbei findet Chat-GPT einen Faktencheck, in dem Reuters genau diese virale Internetnachricht schon 2021 widerlegte. Die KI erkennt auch die Schwachstelle in der Argumentation: Der virale Post betreibt Rosinenpickerei mit Einzelfällen, die nichts über den Stand des Wissens aussagen.

Details fügen sich dank KI zum Gesamtbild
«Deep Research» eignet sich für komplexe Fragestellungen, bei denen mehrere Teilaspekte detailliert ausgeleuchtet werden sollen. Die eigentliche Stärke besteht in der ausführlichen Dokumentation. Die einzelnen Aussagen werden mittels Quellen aus dem Web belegt. Das macht die Feststellungen überprüfbar. Sinnvoll: Denn wenn wir den Leuten im Familienchat keinen blinden Glauben schenken, dann sollten wir auch der KI nicht ohne Vorbehalte vertrauen.
Die «Deep Research»-Methode gibts bei Chat-GPT (chatgpt.com). OpenAI hat sie Anfang Februar für bezahlende Kunden eingeführt. Je nach Thema fragt die KI nach, auf welche Aspekte sie den Schwerpunkt legen soll. Nach Nachforschungen, die einige Minuten dauert, liefert sie einen Bericht, der sauber nach den einzelnen Aspekten gegliedert ist, zur Übersicht auch mal eine Tabelle enthalten kann und in einem detaillierten Fazit endet.
Auch Googles KI Gemini (gemini.google.com) beherrscht die Forschungsmethode. Der Bericht dieser KI fällt im Beispiel fast genauso ausführlich aus. Google berücksichtigt fast 200 Quellen aus dem Netz und listet auch einige Links auf, die keinen Eingang in die Analyse gefunden haben. Am Ende des Berichts gibt es im Abschnitt «Gedanken» auch Einblicke in die Systematik, die bei der Recherche zum Einsatz kam. Im direkten Vergleich wirkt die Arbeit von Chat-GPT in den Details stimmiger und etwas mehr auf den Punkt.

Tief und noch tiefer graben
Bei Grok (grok.com) gibt es die beiden Methoden «Deep Search» und «Deeper Search»: Nachforschungen mit zwei unterschiedlichen «Grabtiefen». Gegenüber Chat-GPT und Gemini fallen die Berichte vergleichsweise kurz und manchmal auch etwas salopp aus. Dennoch untermauert auch das Sprachmodell aus Elon Musks KI-Unternehmen xAI die Befunde mit Dutzenden von Quellen.

Die KI wird zum persönlichen Rechercheassistent. Er hilft nicht nur, urbane Legenden im Familienchat zu kontern. Er fördert generell Medienkompetenz und hilft, Dingen auf den Grund zu gehen.
Es bleibt aber dabei, dass er echte menschliche Expertise nicht ersetzt. Denn:
Die KI haben unter Umständen ein lückenhaftes Wissen. Manche Websites im Netz sind für die KI gesperrt und fliessen nicht in Analysen ein.
Die künstliche Intelligenz hat Mängel bei der Quellenkritik: Informationen aus wissenschaftlichen Papern, seriösen Medien und dubiosen Internetforen werden in einen Topf geworfen.
Schlüsse können fehlerhaft sein: Grok beispielsweise behauptet mitunter fröhlich Dinge, die seinen Quellen diametral widersprechen.
Und selbst wenn das nicht passiert, kann nur ein Mensch in einer solchen Informationsflut die Prioritäten richtig setzen.
Fehler gefunden?Jetzt melden.