
Lernen mit KI fühlt sich produktiv an. Die Antworten kommen schnell, die Formulierungen sind glatt, die Ergebnisse sehen gut aus. Aber eine wachsende Zahl von Studien zeigt: Wer mit ChatGPT und Co. lernt, versteht oft weniger, als er glaubt. Das Problem ist nicht die Technik. Das Problem ist, was sie mit unserem Kopf macht.
Inhaltsverzeichnis
Die Kompetenzillusion beim Lernen mit KI
Psychologen nennen es Fluency Illusion: Informationen, die leicht zu verarbeiten sind, halten wir automatisch für besser verstanden. Ein sauber formulierter Absatz von ChatGPT fühlt sich an wie eigenes Wissen. Tut er aber nicht. Er fühlt sich nur so an.
Genau das passiert beim Lernen mit KI im großen Stil. Studierende lesen eine KI-generierte Erklärung, nicken innerlich und gehen zum nächsten Thema. Das Ringen mit dem Stoff, das Scheitern am eigenen Entwurf, das mühsame Neuformulieren fehlt. Und damit fehlt der Prozess, der Wissen erst im Kopf verankert.
Die Fluency Illusion (Flüssigkeitsillusion) beschreibt die Tendenz, leicht verarbeitbare Informationen für besser verstanden zu halten, als sie es tatsächlich sind. Im Kontext von KI-Tools entsteht sie, weil sprachlich glatte Antworten das Gefühl erzeugen, den Inhalt bereits begriffen zu haben.
Der Neurobiologe Martin Korte (TU Braunschweig) formuliert es so: »Wenn wir beim Lernen durch vorgefertigte Antworten nur passive Zuschauer sind, ist das Lernen nicht nachhaltig.« Die KI überspringt genau den Prozess, der Verstehen erzeugt.
Was die Forschung sagt
Die Belege verdichten sich. Eine Studie der University of Pennsylvania (publiziert in PNAS, 2025) mit knapp 1.000 Schülerinnen und Schülern zeigte: Wer Matheaufgaben mit GPT-4 übte, löste zwar 48 Prozent mehr Übungsaufgaben korrekt. Im anschließenden Test ohne KI schnitten diese Schüler aber 17 Prozent schlechter ab als die Kontrollgruppe, die ohne KI geübt hatte.
Noch bemerkenswerter: Eine dritte Gruppe nutzte eine angepasste GPT-4-Version, die als Tutor funktionierte und nur Hinweise gab statt Lösungen. Diese Schüler lösten sogar 127 Prozent mehr Übungsaufgaben. Im Test danach schnitten sie zwar nicht mehr schlechter ab als die Kontrollgruppe, aber eben auch nicht besser. Der negative Effekt war weitgehend aufgefangen, ein positiver Lerneffekt blieb trotzdem aus.
Dazu kam ein Detail, das gern übersehen wird: In dieser Studie lieferte GPT-4 nur bei der Hälfte der Aufgaben die richtige Lösung. Die Rechenwege waren in 42 Prozent der Fälle fehlerhaft. Wer sich darauf verlässt, lernt womöglich nicht nur weniger, sondern lernt Falsches.
Dein Gehirn auf ChatGPT
Forschende am MIT Media Lab haben 2025 gemessen, was im Kopf passiert, wenn Menschen mit KI schreiben. 54 Probanden verfassten Essays: eine Gruppe nur mit dem eigenen Kopf, eine mit Suchmaschine, eine mit ChatGPT. Die Ergebnisse liegen als Preprint vor und sind noch nicht peer-reviewed, wurden aber breit rezipiert.
Die EEG-Messungen zeigten deutliche Unterschiede in der funktionellen Hirnkonnektivität. Die Gruppe ohne Hilfsmittel wies die stärksten und am weitesten verteilten neuronalen Netzwerke auf. Bei der ChatGPT-Gruppe war die Kopplung zwischen Hirnregionen fast um die Hälfte reduziert, besonders in Bereichen, die mit Kreativität, Gedächtnisbelastung und semantischer Verarbeitung zusammenhängen.
Und es blieb nicht beim Schreiben. Die ChatGPT-Nutzer konnten sich danach schlechter an ihre eigenen Texte erinnern. Sie empfanden weniger Ownership, weniger das Gefühl, dass der Text ihnen gehört. Im Kern hatten sie einen Text produziert, ohne ihn wirklich gedacht zu haben.
Warum 90 Prozent trotzdem KI nutzen
Laut einer Längsschnittstudie der Jahre 2023 bis 2025 nutzen mittlerweile über 90 Prozent der befragten Studierenden KI-Tools. 2023 waren es noch 63 Prozent. Die Verbreitung ist also rasant, und sie wird nicht zurückgehen.
Das ist auch nicht grundsätzlich schlecht. Aber es verschiebt die Frage. Es geht nicht mehr darum, ob Studierende KI nutzen. Es geht darum, wie. Und die Analyse der UPenn-Studie legt nahe: Die Mehrheit tippt die Aufgabe ein und übernimmt die Antwort. Kein Dialog, kein Nachdenken, kein eigener Versuch vorher.
Das Muster ist immer dasselbe. Die KI liefert eine plausibel klingende Antwort. Der Studierende fühlt sich klüger. Und merkt erst in der Prüfung, dass nichts hängen geblieben ist.
Was beim Lernen mit KI wirklich funktioniert
Die Forschung ist nicht nur düster. Sie zeigt auch, unter welchen Bedingungen KI das Lernen tatsächlich unterstützt. Der Schlüssel ist immer derselbe: Du musst zuerst selbst denken.
Erst selbst versuchen, dann KI fragen. Wer vor der KI-Nutzung einen eigenen Entwurf schreibt, eigene Lösungsschritte formuliert oder zumindest eine Hypothese aufstellt, aktiviert genau die kognitiven Prozesse, die für dauerhaftes Lernen nötig sind. Die KI kommt danach als Feedbackgeber, nicht als Ghostwriter.
Fragen statt Antworten. Die sokratische Methode funktioniert auch mit KI. Statt »Erkläre mir das Thema« lieber: »Stelle mir fünf Prüfungsfragen zu diesem Thema und bewerte meine Antworten.« Oder: »Wo hat mein Argument eine Schwachstelle?« Das zwingt dich zum aktiven Denken.
Die 25-5-Regel. 25 Minuten selbstständig arbeiten, dann 5 bis 10 Minuten KI-Interaktion zur Vertiefung oder Klärung. So bleibt die eigene Denkleistung der Normalzustand, und die KI wird zum Werkzeug statt zur Abkürzung.
Laut erklären. Wenn du ein Konzept verstanden zu haben glaubst, erkläre es laut, ohne auf den Bildschirm zu schauen. Wenn du ins Stocken gerätst, weißt du, wo die Lücke ist. Die KI kann helfen, genau diese Lücke zu schließen.
Die eigentliche Gefahr ist unsichtbar
Das Tückische an der Kompetenzillusion: Man bemerkt sie nicht. Wer wenig versteht, hat auch nicht die Werkzeuge, um zu erkennen, dass er wenig versteht. Psychologen kennen das als Dunning-Kruger-Effekt. KI-Tools verstärken ihn, weil sie eine zusätzliche Schicht zwischen dich und dein tatsächliches Wissen legen.
Du googelst nicht mehr, du liest nicht mehr quer, du kämpfst dich nicht mehr durch einen schwierigen Text. Du bekommst eine saubere Zusammenfassung. Und verwechselst das Lesen der Zusammenfassung mit dem Verstehen des Originals.
Der Dunning-Kruger-Effekt beschreibt die systematische Tendenz von Menschen mit geringem Wissen in einem Bereich, ihre eigene Kompetenz zu überschätzen. Im Kontext von KI-gestütztem Lernen verstärkt sich dieser Effekt, weil die KI den Mangel an eigenem Verständnis überdeckt.
Eine Studie in Nature (Messeri & Crockett, 2024) warnt vor genau diesem Mechanismus, auch in der Wissenschaft: KI-Werkzeuge können eine »Illusion des Verstehens« erzeugen, bei der Forschende glauben, mehr über die Welt zu wissen, als sie tatsächlich tun. Was für Wissenschaftler gilt, gilt erst recht für Lernende.
Woran du merkst, dass du wirklich verstehst
Es gibt einen einfachen Test. Kannst du das Thema einer anderen Person erklären, ohne nachzuschauen? Nicht in den Worten der KI, sondern in deinen eigenen? Kannst du Rückfragen beantworten? Kannst du das Wissen auf ein neues Problem anwenden, das du vorher nicht gesehen hast?
Wenn ja, hast du verstanden. Wenn nein, hast du nur gelesen.
Lernen mit KI kann funktionieren. Aber nur, wenn du die KI als Sparringspartner nutzt, nicht als Souffleur. Der Unterschied klingt klein. Er ist es nicht.