
Die Illusion des Wissens ist womöglich das größte Problem beim Lernen mit KI. Du liest eine Antwort von ChatGPT, sie klingt schlüssig, du nickst, du scrollst weiter. Fühlt sich an wie Verstehen. Ist es aber nicht. Es ist das Gefühl, etwas verstanden zu haben, ohne den Gedanken selbst gedacht zu haben. Und genau diese Verwechslung wird gerade zum Massenphänomen.
Inhaltsverzeichnis
Wenn die KI antwortet, denkt niemand mehr nach
Stell dir vor, du bereitest dich auf eine Prüfung vor. Du tippst deine Frage in ChatGPT, bekommst eine saubere Antwort, liest sie durch. Alles klar, nächste Frage. Am Ende hast du 30 Fragen »bearbeitet«. In Wahrheit hast du 30 Antworten konsumiert. Das ist ein Unterschied wie zwischen Joggen und Joggen im Fernsehen schauen.
Die Kognitionsforschung nennt das cognitive offloading, also das Auslagern der Denkarbeit. Das Gehirn registriert, dass eine Lösung existiert, und hakt das Thema innerlich ab. Nur speichert es dabei deutlich weniger. Was mühelos reinkommt, geht genauso mühelos wieder raus.
Das ist keine Spekulation. Eine Studie an der Corvinus-Universität Budapest hat es 2025 in einem Operations-Research-Kurs mit rund 120 Studenten durchgerechnet. Wer bei Übungsaufgaben KI nutzen durfte, schnitt im Wissenstest ohne KI um 20 bis 40 Prozentpunkte schlechter ab als vorherige Jahrgänge. Die Noten sahen gut aus. Das Wissen war nicht da.
Die Illusion des Wissens beschreibt das Phänomen, dass Menschen glauben, etwas verstanden zu haben, obwohl sie lediglich eine plausibel klingende Erklärung gelesen oder gehört haben. Bei KI-gestütztem Lernen verstärkt sich dieser Effekt, weil die Antworten fertig formuliert und widerspruchsfrei wirken.
Die Illusion des Wissens in Zahlen
An der Aalto University in Finnland haben Robin Welsch und Daniela da Silva Fernandes 2025 rund 500 Probanden logische Denkaufgaben lösen lassen, die Hälfte mit ChatGPT, die andere ohne. Das Ergebnis, veröffentlicht im Fachjournal Computers in Human Behavior – wer KI benutzte, überschätzte die eigene Leistung systematisch. Und zwar alle, unabhängig vom tatsächlichen Können.
Bemerkenswert ist, dass die Überschätzung mit der selbst eingeschätzten KI-Kompetenz wuchs. Welsch formulierte es so: Mehr KI-Wissen bringt mehr Selbstüberschätzung. Nicht weniger. Der klassische Dunning-Kruger-Effekt dreht sich bei KI-Nutzung um.
Dazu kommt ein Detail, das fast beiläufig wirkt, aber das ganze Problem auf den Punkt bringt. Die meisten Teilnehmer stellten pro Aufgabe genau eine Frage an die KI. Keine Nachfrage, keine Überprüfung, kein zweiter Gedanke. Die Antwort kam, sie klang plausibel, fertig. So lernt man nicht; so bestätigt man sich selbst.
Warum das Gehirn sich selbst belügt
Die Illusion des Wissens ist kein neues Phänomen. Psychologen kennen sie seit Jahrzehnten. Du liest einen Text, er kommt dir vertraut vor, also glaubst du, du hättest ihn verstanden. In Wirklichkeit erkennst du nur Muster wieder. Vertrautheit ist nicht Verständnis.
KI verschärft dieses Problem erheblich. Denn die Antworten, die ChatGPT und ähnliche Tools liefern, sind nicht einfach nur Informationen. Sie sind fertig formulierte, schlüssig klingende Gedankengänge. Das Gehirn behandelt sie, als wären es eigene Gedanken. Es gibt keinen Widerstand, keinen Stolperstein, keinen Moment, in dem man merkt, dass man etwas noch nicht kapiert hat.
Genau dieser Widerstand ist aber der Punkt, an dem Lernen mit KI tatsächlich funktioniert. Kognitionswissenschaftler sprechen von desirable difficulty, von wünschenswerter Schwierigkeit. Desirable difficulty bedeutet, dass Lernen dann am effektivsten ist, wenn es Anstrengung erfordert und das Gehirn aktiv arbeiten muss. Das Ringen mit einem Problem, das Scheitern, der zweite Anlauf. All das macht Spuren im Gedächtnis. Eine glatt servierte Antwort nicht.
Robert Pondiscio vom American Enterprise Institute hat es in einem Essay prägnant zusammengefasst: »Die große Gefahr der KI ist nicht, dass sie uns überdenkt. Sondern dass sie uns verleitet, ganz aufzuhören zu denken.«
Was Studenten und Schüler daraus machen
65 Prozent der deutschen Studenten nutzen KI-Tools inzwischen mindestens wöchentlich. Das hat eine CHE-Befragung im Wintersemester 2024/25 unter mehr als 23.000 Studenten ergeben. Am häufigsten für Recherche und Überblick. Also genau für die Aufgaben, bei denen die Illusion des Wissens am stärksten greift.
Gleichzeitig bewerten die Studenten das Angebot ihrer Hochschulen zum KI-Kompetenzerwerb mit durchschnittlich 2,7 von 5 Sternen. Mäßig, wohlwollend formuliert. Die Tools sind da, die Schulung fehlt. Kein gutes Verhältnis.
OpenAI hat 2025 den Study Mode in ChatGPT eingeführt, der Schritt für Schritt erklären und Rückfragen stellen soll, statt einfach Antworten auszuspucken. Das ist ein plausibler Ansatz. Ob er funktioniert, hängt davon ab, ob Lernende ihn tatsächlich nutzen oder einfach in den normalen Chat wechseln, sobald es anstrengend wird. Was vermutlich die meisten tun.
Was gegen die Illusion des Wissens hilft
Es gibt keinen Schalter, der das Problem löst. Aber die Gegenstrategien sind nicht kompliziert. Sie erfordern nur etwas, das gerade aus der Mode kommt. Anstrengung.
Erkläre es ohne KI. Wenn du ein Thema mit KI bearbeitet hast, schließ das Tool und erkläre es dir selbst. Laut, schriftlich, einem Freund. Wenn du ins Stocken kommst, weißt du, wo die Lücke ist. Die Textanalyse mit KI funktioniert auch deshalb gut, weil sie zum Nachdenken über den Text zwingt, nicht nur zum Lesen der Zusammenfassung.
Nutze KI als Fragesteller, nicht als Antworter. Lass dir Fragen zu deinem Lernstoff generieren, statt dir Antworten geben zu lassen. Der Unterschied ist enorm. Wer Fragen beantwortet, muss denken. Wer Antworten liest, muss nur nicken.
Misstraue dem Gefühl des Verstehens. Wenn etwas sofort einleuchtet, ist das verdächtig. Nicht immer, aber oft genug. Echtes Verstehen fühlt sich selten glatt an. Es fühlt sich an wie Arbeit.
Mach den Offline-Test. Einmal pro Woche, ohne KI, ohne Notizen – was weißt du wirklich? Was kannst du aus dem Kopf erklären? Das ist unbequem. Es ist auch der einzige ehrliche Maßstab.
In einer Lerngruppe mit KI lässt sich das gut organisieren. Gemeinsam Fragen generieren, einzeln beantworten, dann vergleichen. Die KI wird zum Werkzeug, nicht zum Ersatz.
Die Illusion des Wissens verschwindet nicht von selbst. Sie wächst mit jedem Tool, das Antworten einfacher macht. Wer das durchschaut, hat schon den wichtigsten Schritt getan. Und wer es sich jetzt gerade von einer KI hat zusammenfassen lassen, statt selbst nachzudenken … nun ja. Dann war dieser Artikel womöglich genau der richtige Anfang. (lk)
Quellen
- Benedek, Sziklai: Impact of AI Tools on Learning Outcomes, Corvinus University Budapest (2025)
- Welsch, da Silva Fernandes: AI use makes us overestimate our cognitive performance, Aalto University / Computers in Human Behavior (2025)
- CHE DatenCHECK: Künstliche Intelligenz im Studium, Wintersemester 2024/25