
Macht KI uns dumm? Am MIT haben Forscher per EEG gemessen, was im Gehirn passiert, wenn Menschen ihre Denkarbeit an Sprachmodelle wie ChatGPT abgeben.
Die neuronale Vernetzung in den Bereichen, die mit Lernen und Analyse assoziiert sind, ging messbar zurück. Ob sich daraus eine generelle Aussage ableiten lässt, ist noch offen. Aber die Richtung ist konsistent genug, um darüber nachzudenken.
Inhaltsverzeichnis
Was die MIT-Studie zeigt und was nicht
Ein Team am MIT Media Lab unter Nataliya Kosmyna hat per Elektroenzephalographie untersucht, wie sich die Arbeit mit großen Sprachmodellen auf die Hirnaktivität auswirkt (Preprint, 2025). Je mehr die Probanden die KI die Arbeit machen ließen, desto weniger passierte in ihrem Kopf. Die neuronale Konnektivität in den Frequenzbändern, die mit Lernen, Gedächtnisbildung und analytischem Denken assoziiert sind, war in der KI-Gruppe deutlich schwächer als bei den Teilnehmern, die ohne Hilfsmittel schrieben. Die Suchmaschinen-Gruppe lag dazwischen.
Nun ist das allein noch kein KI-spezifischer Befund. Wenn jemand anderes die Denkarbeit übernimmt, egal ob Mensch oder Maschine, passiert im eigenen Kopf weniger. Das war schon immer so. Der Unterschied: Einen Menschen zu finden, der einem die Arbeit abnimmt, kostet Aufwand, Geld oder zumindest ein Gespräch. KI kostet einen Prompt. Die Schwelle für das Delegieren ist so niedrig geworden, dass es zum Standardverhalten werden kann.
Die Studie hat Grenzen, die man kennen sollte. Die Stichprobe umfasste 54 Teilnehmer aus dem Bostoner Universitätsumfeld, die Aufgaben waren spezifisch (SAT-Essays), die Dauer der Messung begrenzt. Die Arbeit ist bislang nicht peer-reviewed. Ob die beobachtete Dämpfung ein vorübergehender Zustand ist oder auf eine dauerhafte Veränderung hindeutet, lässt sich daraus nicht ableiten. Die Forscher selbst sprechen von »kognitiver Verschuldung«, einem Begriff, der bewusst als Metapher gemeint ist: kurzfristige Effizienz, die langfristig kognitive Substanz kosten könnte.
Am auffälligsten war ein Gedächtnistest. Die überwiegende Mehrheit der Teilnehmer ohne KI-Hilfe konnte die eigenen Texte korrekt wiedergeben. Bei den KI-Nutzern gelang das nur einem Bruchteil. Die hatten zwar einen Text produziert, aber offenbar nie wirklich verarbeitet, was drinstand. Kosmyna formuliert es so: Die Aufgabe wurde erledigt, effizient und bequem, aber nichts davon wurde in die eigenen Gedächtnisnetzwerke integriert.
Was im Kopf passiert, wenn nichts mehr passieren muss
Das Gehirn ist plastisch. Neuronale Netzwerke, die regelmäßig beansprucht werden, wachsen. Netzwerke, die brachliegen, verlieren an Dichte. Soweit die Grundlage, die jeder kennt, der sich einmal mit Neuroplastizität beschäftigt hat.
Interessanter ist, worauf die Neurowissenschaftlerin Barbara Studer (Universität Bern) hinweist: KI übernimmt ausgerechnet jene Aufgaben, die das Gehirn am stärksten stimulieren würden. Nicht das Addieren von Zahlen oder das Nachschlagen von Fakten, sondern das kritische Analysieren, das kreative Kombinieren, das eigenständige Lösen eines Problems, das sich nicht sofort erschließt. Genau die Tätigkeiten also, bei denen das Gehirn am meisten arbeitet und am meisten davon profitiert.
Dazu kommt eine emotionale Seite, die selten erwähnt wird. Kreatives Denken aktiviert das Belohnungssystem. Wer selbst eine Lösung findet, fühlt sich gut dabei. Wer die Lösung nur noch abliest, bekommt diese Rückkopplung nicht. Auf Dauer leidet darunter nicht nur die Kognition, sondern auch die Motivation, überhaupt noch selbst nachzudenken.
Macht KI uns dumm oder denken wir nur anders?
Eine Studie von Michael Gerlich an der SBS Swiss Business School mit 666 Teilnehmern zeigt eine negative Korrelation zwischen häufiger KI-Nutzung und der Fähigkeit zum kritischen Denken. Die Messung erfolgte über den Halpern Critical Thinking Assessment (HCTA), die KI-Nutzung wurde per Selbstauskunft erfasst. Jüngere Nutzer waren stärker betroffen als ältere, Menschen mit höherem Bildungsniveau schnitten besser ab. Korrelation, nicht Kausalität: Wer ohnehin weniger zum eigenständigen Denken neigt, greift womöglich häufiger zur KI. Die Studie kann das nicht trennen. Aber die Richtung ist konsistent mit dem, was andere Untersuchungen zeigen.
Dass wir Denkarbeit auslagern, ist an sich nichts Neues. Der entscheidende Unterschied: Ein Taschenrechner übernimmt Rechenoperationen. Eine generative KI greift in die Domäne der Urteilsbildung ein. Sie formuliert Argumente, bewertet Optionen, schlägt Entscheidungen vor. Und sie tut das so überzeugend, dass viele den Unterschied zwischen einer guten Antwort und echtem Verständnis nicht mehr bemerken.
In der Kognitionsforschung gibt es dafür den Begriff »Illusion der Erklärungstiefe«. Man liest eine flüssig formulierte Antwort und glaubt, man habe etwas verstanden. Das Wissen bleibt aber extern. Es klebt an der Maschine, nicht am eigenen Kopf.
Sokrates kannte das Problem
Als Sokrates im vierten Jahrhundert vor Christus über die Schrift sprach, war sie längst Jahrtausende alt. Trotzdem sah er in ihr eine Gefahr. Überliefert durch Platon im Dialog Phaidros lautet sein Argument: Die Schrift erzeuge Vergesslichkeit, weil die Menschen sich auf äußere Zeichen verlassen würden, statt ihr eigenes Gedächtnis zu nutzen. Sie würden den Anschein von Wissen erlangen, ohne tatsächlich etwas gelernt zu haben.
Er lag falsch. Die Schrift hat das Gedächtnis nicht zerstört, sie hat kumulative Kultur ermöglicht. Ohne Schrift keine Wissenschaft, keine Rechtsprechung, keine Literatur. Jede große kognitive Technologie wurde von Untergangsszenarien begleitet. Jedes Mal hat sich die menschliche Kognition verändert, aber nicht verringert.
| Technologie | Befürchtung | Was tatsächlich passierte |
|---|---|---|
| Schrift | Verlust des Gedächtnisses | Kumulative Kultur und Wissenschaft |
| Buchdruck | Informationsüberlastung | Demokratisierung des Wissens |
| Taschenrechner | Unfähigkeit zum Kopfrechnen | Fokus auf konzeptionelles Verständnis |
| Internet | »Google-Effekt«, Vergessen | Transaktives Gedächtnis, verteiltes Wissen |
| Generative KI | Kognitive Atrophie | Offen |
Eine Meta-Analyse von Aimee Ellington (2003) wertete 54 Studien zum Taschenrechner aus und zeigte, dass Schüler ihre mathematischen Fähigkeiten entweder beibehielten oder verbesserten. Entscheidend war nicht das Werkzeug, sondern wie es eingesetzt wurde: zum Explorieren von Konzepten oder zum Ablesen von Ergebnissen. Das Muster wiederholt sich bei jeder Technologie. Die Frage war nie, ob das Werkzeug schadet. Die Frage war immer, wie man es benutzt.
Ob KI in diese Reihe passt, wissen wir noch nicht. Der Unterschied zu früheren Technologien ist jedenfalls qualitativ, nicht nur quantitativ. Die Schrift hat Fakten externalisiert. KI externalisiert den Denkprozess selbst.
Wir lagern nicht mehr Fakten aus, sondern das Denken
Das Konzept des transaktiven Gedächtnisses beschreibt, wie Menschen in Gruppen Wissen arbeitsteilig speichern. Man muss nicht alles selbst wissen, solange man weiß, wer es weiß. Das Internet wurde zum transaktiven Partner: Informationen, von denen wir glauben, sie später online finden zu können, speichern wir mit geringerer Priorität.
Bei KI geht das einen Schritt weiter. Wir lagern nicht Fakten aus, sondern den Weg von der Frage zur Antwort. Wir kennen die Lösung, aber nicht mehr, wie man dorthin kommt. Das ist so, als würde man zwar jedes Restaurant in der Stadt kennen, aber ohne Navi keines mehr finden.
Die eigentliche Frage ist allerdings nicht nur, ob wir weniger denken. Sondern was wir stattdessen tun. KI verschiebt kognitive Arbeit von der Produktion zur Bewertung. Weniger eigenes Formulieren, mehr Kuratieren. Weniger Gedächtnisleistung, mehr Einordnung. Weniger Lösungen entwickeln, mehr Lösungen prüfen. Wer diese Verschiebung bewusst nutzt, gewinnt womöglich sogar etwas. Wer sie nicht bemerkt, verliert schleichend die Fähigkeit, überhaupt noch zu beurteilen, was die Maschine liefert.
Ohne ein Fundament an eigenem Wissen fehlt dem Gehirn der Rahmen, um Neues einzuordnen. Man braucht Hintergrundwissen, um zu erkennen, dass eine KI-Antwort plausibel klingt, aber inhaltlich falsch ist. Wer nicht genug eigenes Wissen hat, kann nicht einmal die Qualität der externen Hilfe beurteilen. Das ist im Kern das Problem.
Was in Schulen passiert
Abschreiben ist keine Erfindung der KI. Schüler haben schon immer den bequemen Weg genommen, wenn er offen stand. Hausaufgaben vom Banknachbarn, Referate aus der Enzyklopädie zusammenkopiert, Klausuren mit Spickzettel. Und wer sich heutige Doktorarbeiten anschaut, findet auch dort erstaunlich viel zusammengeklaubtes Material in akademischer Verpackung. Die Form stimmt, der Inhalt ist dünn. Das war vor hundert Jahren womöglich anders, aber das Problem der intellektuellen Abkürzung ist älter als jeder Chatbot.
Was KI verändert, ist die Skalierung. Früher brauchte man zum Abschreiben immerhin noch jemanden, von dem man abschreiben konnte. Jetzt braucht man einen Prompt. Der Aufwand sinkt gegen null, das Ergebnis sieht besser aus als je zuvor. Und genau hier wird es im Bildungsbereich zum Problem.
Ein Pilotprojekt in Edo State, Nigeria, testete Microsoft Copilot als Lernhilfe bei Grammatik- und Schreibaufgaben. 800 Schüler arbeiteten sechs Wochen lang unter Anleitung mit der KI, eine Kontrollgruppe ohne. Die KI-Gruppe zeigte deutliche Lernfortschritte, laut Auswertung der Weltbank im Umfang von fast zwei Schuljahren. Der Faktor: Die KI bot Hilfestellungen an, übernahm aber nicht die Aufgabe. Die Schüler mussten selbst denken.
Im Gegensatz dazu stehen Ergebnisse, die zeigen: Wenn Schüler KI als Abkürzung nutzen, um fertige Texte zu produzieren, sinkt die langfristige Behaltensleistung. Das Gehirn umgeht die mühsamen Phasen der Wissensaneignung, und genau diese Phasen sind es, die Lernen ausmachen.
Lehrkräfte berichten von einem zusätzlichen Problem: KI-generierte und selbst geschriebene Arbeiten sind oft nicht mehr zu unterscheiden. Schüler, die abkürzen, bekommen bessere Noten für weniger Aufwand. Das demotiviert diejenigen, die es ehrlich versuchen. Das ist weniger ein technisches Problem als ein systemisches.
Die Arbeitswelt wird schneller, aber nicht gründlicher
KI spart Zeit. JPMorgan Chase prüft Kreditverträge in Sekunden, wofür früher 360.000 Arbeitsstunden pro Jahr nötig waren. BMW konnte Fertigungsdefekte durch KI-gestützte Qualitätskontrolle nach eigenen Angaben um bis zu 60% senken. Die Effizienzsprünge sind real.
Aber Effizienz ist nicht dasselbe wie Kompetenz. McKinsey prognostiziert, dass 70% der heute gefragten Fähigkeiten trotz KI relevant bleiben, sich aber ihre Anwendung grundlegend wandeln wird (Stand 2024). Die Nachfrage nach Leuten, die KI bedienen können, steigt. Die Nachfrage nach Leuten, die nur Informationen verarbeiten, sinkt.
Was dabei verloren geht, ist schwerer zu messen: das Gefühl der Urheberschaft. Wenn Algorithmen die wesentlichen Denkentscheidungen vorbereiten, fühlen sich Mitarbeiter weniger als Gestalter und mehr als Ausführende. Der Stolz auf eine eigene Lösung schwindet, wenn die KI den entscheidenden Teil erledigt hat. Das ist kein sentimentales Problem. Es betrifft Motivation, Identifikation mit der Arbeit und letztlich die Bereitschaft, sich in ein Thema tief einzuarbeiten.
Also, macht KI uns dumm?
Sie kann. Aber sie muss nicht. Und beides gleichzeitig zu behaupten, ist kein Ausweichen, sondern die einzige Position, die der Datenlage standhält.
KI macht dumm, wenn sie als Ersatz für das eigene Denken benutzt wird. Die neurobiologischen Befunde deuten in diese Richtung, auch wenn sie noch auf schmaler Basis stehen. Wer seine Denkarbeit dauerhaft auslagert, riskiert eine Art funktionelle Verarmung: mächtige Werkzeuge, aber kein Verständnis für deren Grundlagen.
Und was die Faulheit betrifft: Der Mensch sucht den Weg des geringsten Widerstands. Das ist kein Charakterfehler, sondern evolutionär vernünftig. KI bedient diesen Trieb perfekt. Aber kognitive Reibung, also die Anstrengung, die es kostet, selbst nachzudenken, ist kein Hindernis. Sie ist die Voraussetzung dafür, dass neuronale Verbindungen entstehen und Verständnis wächst.
Allerdings: Auch ohne KI gab es immer genug Leute, die den bequemen Weg genommen haben. Abgeschrieben, durchgemogelt, die Form gewahrt und den Inhalt geschuldet. KI hat die intellektuelle Faulheit nicht erfunden. Sie hat sie nur billiger gemacht.
Wer KI nutzt, um die eigene Arbeit prüfen zu lassen, statt sie ersetzen zu lassen, wer bewusst Phasen ohne technische Assistenz einbaut und wer die richtigen Fragen stellt, statt fertige Antworten zu konsumieren, wird vermutlich nicht dümmer. Wer das Gegenteil tut, womöglich schon.
Sokrates lag falsch mit der Schrift. Er könnte auch bei KI falsch liegen. Sein Grundgedanke bleibt aber plausibel: Wer aufhört, selbst zu denken, hört auf zu lernen. Daran haben zweieinhalb Jahrtausende nichts geändert.