
KI Sucht klingt erst mal nach Übertreibung. Ist es womöglich nicht. Im Juli 2025 hat Internet and Technology Addicts Anonymous (ITAA) KI-Abhängigkeit als eigene Kategorie in ihr 12-Schritte-Programm aufgenommen. Das ist dieselbe Organisation, die seit Jahrzehnten Menschen mit Internet- und Gamingsucht begleitet. Und die offenbar auch jetzt wieder Zulauf bekommt.
Inhaltsverzeichnis
Wichtig vorab, KI-Sucht ist bislang keine anerkannte klinische Diagnose. Wenn in diesem Artikel von Sucht die Rede ist, meint das ein problematisches Nutzungsmuster mit suchtähnlichen Zügen, nicht eine psychiatrisch klassifizierte Störung. Die Forschung spricht überwiegend von emotionaler Abhängigkeit oder problematischer Nutzung. Das ist nicht ganz dasselbe wie Sucht im klinischen Sinne, aber es ist auch nicht nichts.
Was die MIT-OpenAI-Studie zur KI-Sucht zeigt
Im Jahr 2025 veröffentlichten das MIT Media Lab und OpenAI eine gemeinsame Untersuchung mit knapp tausend Teilnehmenden. Es handelte sich um eine Online-Befragung, also Selbstauskunft, keine klinische Studie. Das zentrale Ergebnis: 0,15 Prozent der wöchentlich aktiven ChatGPT-Nutzer zeigen Anzeichen emotionaler Abhängigkeit. Klingt wenig. Grob hochgerechnet auf mehrere hundert Millionen aktive Nutzer weltweit entspricht das rund 1,2 Millionen Menschen. Die Zahl ist eine Schätzung, keine exakte Größe.
KI-Sucht beschreibt ein Nutzungsverhalten, bei dem der Griff zum Chatbot zwanghaft wird: Die Person chattet weiter, obwohl Freundschaften wegbrechen, der Schlaf leidet oder die Arbeit liegen bleibt. Forscher ordnen das Phänomen als Verhaltenssucht ein, vergleichbar mit Spielsucht oder exzessiver Smartphone-Nutzung.
Die Korrelation ist dabei auffällig klar: Je häufiger und länger jemand chattet, desto höher das Risiko für emotionale Abhängigkeit und Einsamkeit. Korrelation, nicht Kausalität. Ob die KI-Nutzung die Einsamkeit verstärkt oder einsame Menschen häufiger zur KI greifen, lässt sich aus den Daten nicht trennen. Besonders betroffen sind Personen, die schon vor der KI-Nutzung sozial isoliert waren. Sie tendieren dazu, den Chatbot als Ersatz für echte Beziehungen wahrzunehmen und reagieren empfindlicher auf kleine Verhaltensänderungen des Modells.
Interessant: Der Voice-Modus von ChatGPT zeigt kurzfristig positive Effekte auf das Wohlbefinden. Bei langer Nutzung in Kombination mit Einsamkeit kehrt sich das um. Wer täglich stundenlang mit der Sprachfunktion chattet, profitiert irgendwann nicht mehr.
Wann wird Nutzung zum Problem?
Die Grenze ist nicht die Nutzungsdauer. Man kann ChatGPT täglich stundenlang für die Arbeit nutzen, ohne abhängig zu sein. Wer sich beim KI-Prompting Zeit lässt und Antworten hinterfragt, nutzt die KI als Werkzeug. Problematisch wird es, wenn die Nutzung das eigene Leben bestimmt und nicht umgekehrt.
Forscher orientieren sich an bekannten Suchtkriterien: gedankliche Beschäftigung mit dem Chatbot auch in chatfreien Momenten, Kontrollverlust über Sitzungslängen, Entzugserscheinungen bei Nichtnutzung, Stimmungsregulation durch den Chatbot und soziale Substitution. Letzteres meint den Ersatz echter Gespräche durch KI-Dialoge.
Das Deutsche Ärzteblatt hat erste Fallberichte aus der Psychotherapie veröffentlicht. Sie zeigen, dass Menschen mit Depressionen oder sozialen Ängsten KI-Chatbots im Sinne der Selbstmedikation einsetzen. Das verschlimmert die Grunderkrankung womöglich mehr, als es hilft. Der Chatbot ist verfügbar, urteilt nicht und widerspricht nicht. Das ist für vulnerable Personen womöglich genau das Falsche.
KI-Sucht: Gibt es Selbsthilfegruppen?
Ja. Sie sind noch nicht groß, aber sie existieren. Es gibt etablierte Organisationen mit festen Strukturen und lose Online-Communities. Beides hat seinen Platz.
Die bekannteste Anlaufstelle ist Internet and Technology Addicts Anonymous (ITAA). Die Organisation betreibt tägliche Online-Meetings nach dem 12-Schritte-Prinzip der Anonymen Alkoholiker. Seit Mitte 2025 umfasst das Programm explizit KI-Abhängigkeit. Teilnahme ist kostenlos und anonym. Die einzige Voraussetzung ist der Wunsch aufzuhören.
SMART Recovery ist eine weitere etablierte Option: eine globale Community mit evidenzbasierten Methoden, unter anderem kognitiver Verhaltenstherapie. Sie adressiert verschiedene Verhaltenssuchtformen, darunter ausdrücklich Technologieabhängigkeit.
Daneben gibt es informelle Anlaufstellen, die weniger stabil sind. Auf Reddit haben sich Communities gebildet, in denen Betroffene über ihren Umgang mit KI sprechen. Der Ton dort ist überraschend nüchtern. Keine Panikmache, kein Selbstmitleid. Eher das Bemühen, das eigene Verhalten zu verstehen.
Der österreichische Standard berichtete im Frühjahr 2025 über eine erste deutschsprachige Selbsthilfegruppe für Chatbot-Abhängige. Ob sie dauerhaft läuft oder ein Einzelprojekt war, lässt sich inzwischen nicht mehr klar sagen. Institutionelle Angebote auf Deutsch sind selten. Das ist eine Lücke.
Was OpenAI selbst dagegen tut
Im August 2025 führte OpenAI eine Pausen-Erinnerung in ChatGPT ein. Wer zu lange chattet, bekommt den Hinweis, eine Pause einzulegen. Das kann man auch für Gängelei halten, schließlich ist der Nutzer selbst für sich verantwortlich. Plausibel ist daher, dass viele Betroffene diesen Hinweis wegklicken, ohne nachzudenken. Das kennt man von Bildschirmzeit-Warnungen auf dem Smartphone.
Fragwürdig ist dabei das strukturelle Problem: OpenAI entwickelt mit personalisierten, empathischen Chatbots ein Produkt, das emotionale Bindung als Feature hat. Das Modell merkt sich Vorlieben, passt seinen Ton an, reagiert auf Stimmungen. Die Forschung zu KI Emotionen zeigt, wie tief diese Bindungen gehen können. Die Pausen-Erinnerung erscheint da wie das Angebot eines Glases Wasser, bevor das nächste eingeschenkt wird.
Was man selbst tun kann
Wer bei sich ein problematisches Muster erkennt, muss nicht sofort in eine Selbsthilfegruppe. Drei Ansätze, die sofort funktionieren:
Nutzung begrenzen. Feste Zeiten für den Chatbot setzen. Nicht morgens als Erstes, nicht abends als Letztes. Die Pausen-Erinnerung von ChatGPT ist ein Anfang, eigene Regeln sind besser.
Soziale Alternativen aktiv planen. Wer merkt, dass der Chatbot zum bevorzugten Gesprächspartner wird, sollte gezielt echte Gespräche suchen. Ein Anruf, ein Treffen, ein Spaziergang zu zweit. Das klingt banal. Ist es nicht.
Reflexionsfragen stellen. Nutze ich die KI gerade als Werkzeug oder als Trost? Würde ich das, was ich dem Chatbot erzähle, auch einem Menschen erzählen? Bin ich nach der Sitzung zufriedener oder leerer? Wer diese Fragen ehrlich beantwortet, weiß meistens schon, wo er steht.
Für die meisten Nutzer ist das alles kein relevantes Thema. KI ist ein Werkzeug, und intensive Nutzung ist noch keine Abhängigkeit. Wer sich aber dabei ertappt, Gespräche mit der KI echten Gesprächen vorzuziehen, dem Chatbot Dinge anzuvertrauen, die man niemandem mehr sagt, oder sich nach dem Abmelden unruhig zu fühlen: Es gibt Anlaufstellen. Und die Frage, ob man dort hingehört, ist immer die richtigste Frage. (lk)
Quellen
- The Decoder: MIT/OpenAI-Studie zu emotionaler Abhängigkeit von ChatGPT (2025)
- ITAA: Genesung von KI-Sucht (englisch)
- derStandard: Anonyme KI-Süchtige – erste Selbsthilfegruppe für Chatbot-Abhängige (2025)
- Basic Thinking: Pausen-Erinnerung gegen ChatGPT-Sucht, August 2025
- WinFuture: Erste Intensivnutzer zeigen Anzeichen für ChatGPT-Sucht
- Deutsches Ärzteblatt: Psychotherapie und KI – Aggravation psychischer Symptome
0,15 Prozent klingt harmlos, bis man die absolute Zahl sieht. Aber mal ehrlich: Wer von euch hat nicht schon mal abends um elf noch »eine letzte Frage« an ChatGPT getippt, obwohl niemand auf die Antwort gewartet hat?