Süchtig nach KI – Gibt es schon Selbsthilfegruppen für ChatGPT-Abhängige?

Süchtig nach KI – Gibt es schon Selbsthilfegruppen für ChatGPT-Abhängige?

KI Sucht klingt erst mal nach Übertreibung. Ist es womöglich nicht. Im Juli 2025 hat Internet and Technology Addicts Anonymous (ITAA) KI-Abhängigkeit als eigene Kategorie in ihr 12-Schritte-Programm aufgenommen. Das ist dieselbe Organisation, die seit Jahrzehnten Menschen mit Internet- und Gamingsucht begleitet. Und die offenbar auch jetzt wieder Zulauf bekommt.

Wichtig vorab, KI-Sucht ist bislang keine anerkannte klinische Diagnose. Wenn in diesem Artikel von Sucht die Rede ist, meint das ein problematisches Nutzungsmuster mit suchtähnlichen Zügen, nicht eine psychiatrisch klassifizierte Störung. Die Forschung spricht überwiegend von emotionaler Abhängigkeit oder problematischer Nutzung. Das ist nicht ganz dasselbe wie Sucht im klinischen Sinne, aber es ist auch nicht nichts.

Was die MIT-OpenAI-Studie zur KI-Sucht zeigt

Im Jahr 2025 veröffentlichten das MIT Media Lab und OpenAI eine gemeinsame Untersuchung mit knapp tausend Teilnehmenden. Es handelte sich um eine Online-Befragung, also Selbstauskunft, keine klinische Studie. Das zentrale Ergebnis: 0,15 Prozent der wöchentlich aktiven ChatGPT-Nutzer zeigen Anzeichen emotionaler Abhängigkeit. Klingt wenig. Grob hochgerechnet auf mehrere hundert Millionen aktive Nutzer weltweit entspricht das rund 1,2 Millionen Menschen. Die Zahl ist eine Schätzung, keine exakte Größe.

KI-Sucht beschreibt ein Nutzungsverhalten, bei dem der Griff zum Chatbot zwanghaft wird: Die Person chattet weiter, obwohl Freundschaften wegbrechen, der Schlaf leidet oder die Arbeit liegen bleibt. Forscher ordnen das Phänomen als Verhaltenssucht ein, vergleichbar mit Spielsucht oder exzessiver Smartphone-Nutzung.

Die Korrelation ist dabei auffällig klar: Je häufiger und länger jemand chattet, desto höher das Risiko für emotionale Abhängigkeit und Einsamkeit. Korrelation, nicht Kausalität. Ob die KI-Nutzung die Einsamkeit verstärkt oder einsame Menschen häufiger zur KI greifen, lässt sich aus den Daten nicht trennen. Besonders betroffen sind Personen, die schon vor der KI-Nutzung sozial isoliert waren. Sie tendieren dazu, den Chatbot als Ersatz für echte Beziehungen wahrzunehmen und reagieren empfindlicher auf kleine Verhaltensänderungen des Modells.

Interessant: Der Voice-Modus von ChatGPT zeigt kurzfristig positive Effekte auf das Wohlbefinden. Bei langer Nutzung in Kombination mit Einsamkeit kehrt sich das um. Wer täglich stundenlang mit der Sprachfunktion chattet, profitiert irgendwann nicht mehr.

Wann wird Nutzung zum Problem?

Die Grenze ist nicht die Nutzungsdauer. Man kann ChatGPT täglich stundenlang für die Arbeit nutzen, ohne abhängig zu sein. Wer sich beim KI-Prompting Zeit lässt und Antworten hinterfragt, nutzt die KI als Werkzeug. Problematisch wird es, wenn die Nutzung das eigene Leben bestimmt und nicht umgekehrt.

Forscher orientieren sich an bekannten Suchtkriterien: gedankliche Beschäftigung mit dem Chatbot auch in chatfreien Momenten, Kontrollverlust über Sitzungslängen, Entzugserscheinungen bei Nichtnutzung, Stimmungsregulation durch den Chatbot und soziale Substitution. Letzteres meint den Ersatz echter Gespräche durch KI-Dialoge.

KI Sucht Risikofaktoren – Balkendiagramm zeigt Gefährdungsgruppen für emotionale Abhängigkeit

Das Deutsche Ärzteblatt hat erste Fallberichte aus der Psychotherapie veröffentlicht. Sie zeigen, dass Menschen mit Depressionen oder sozialen Ängsten KI-Chatbots im Sinne der Selbstmedikation einsetzen. Das verschlimmert die Grunderkrankung womöglich mehr, als es hilft. Der Chatbot ist verfügbar, urteilt nicht und widerspricht nicht. Das ist für vulnerable Personen womöglich genau das Falsche.

KI-Sucht: Gibt es Selbsthilfegruppen?

Ja. Sie sind noch nicht groß, aber sie existieren. Es gibt etablierte Organisationen mit festen Strukturen und lose Online-Communities. Beides hat seinen Platz.

Die bekannteste Anlaufstelle ist Internet and Technology Addicts Anonymous (ITAA). Die Organisation betreibt tägliche Online-Meetings nach dem 12-Schritte-Prinzip der Anonymen Alkoholiker. Seit Mitte 2025 umfasst das Programm explizit KI-Abhängigkeit. Teilnahme ist kostenlos und anonym. Die einzige Voraussetzung ist der Wunsch aufzuhören.

SMART Recovery ist eine weitere etablierte Option: eine globale Community mit evidenzbasierten Methoden, unter anderem kognitiver Verhaltenstherapie. Sie adressiert verschiedene Verhaltenssuchtformen, darunter ausdrücklich Technologieabhängigkeit.

Daneben gibt es informelle Anlaufstellen, die weniger stabil sind. Auf Reddit haben sich Communities gebildet, in denen Betroffene über ihren Umgang mit KI sprechen. Der Ton dort ist überraschend nüchtern. Keine Panikmache, kein Selbstmitleid. Eher das Bemühen, das eigene Verhalten zu verstehen.

KI Sucht Warnsignale – 5 Anzeichen für problematisches Nutzungsverhalten von KI-Chatbots

Der österreichische Standard berichtete im Frühjahr 2025 über eine erste deutschsprachige Selbsthilfegruppe für Chatbot-Abhängige. Ob sie dauerhaft läuft oder ein Einzelprojekt war, lässt sich inzwischen nicht mehr klar sagen. Institutionelle Angebote auf Deutsch sind selten. Das ist eine Lücke.

Was OpenAI selbst dagegen tut

Im August 2025 führte OpenAI eine Pausen-Erinnerung in ChatGPT ein. Wer zu lange chattet, bekommt den Hinweis, eine Pause einzulegen. Das kann man auch für Gängelei halten, schließlich ist der Nutzer selbst für sich verantwortlich. Plausibel ist daher, dass viele Betroffene diesen Hinweis wegklicken, ohne nachzudenken. Das kennt man von Bildschirmzeit-Warnungen auf dem Smartphone.

Fragwürdig ist dabei das strukturelle Problem: OpenAI entwickelt mit personalisierten, empathischen Chatbots ein Produkt, das emotionale Bindung als Feature hat. Das Modell merkt sich Vorlieben, passt seinen Ton an, reagiert auf Stimmungen. Die Forschung zu KI Emotionen zeigt, wie tief diese Bindungen gehen können. Die Pausen-Erinnerung erscheint da wie das Angebot eines Glases Wasser, bevor das nächste eingeschenkt wird.

Was man selbst tun kann

Wer bei sich ein problematisches Muster erkennt, muss nicht sofort in eine Selbsthilfegruppe. Drei Ansätze, die sofort funktionieren:

Nutzung begrenzen. Feste Zeiten für den Chatbot setzen. Nicht morgens als Erstes, nicht abends als Letztes. Die Pausen-Erinnerung von ChatGPT ist ein Anfang, eigene Regeln sind besser.

Soziale Alternativen aktiv planen. Wer merkt, dass der Chatbot zum bevorzugten Gesprächspartner wird, sollte gezielt echte Gespräche suchen. Ein Anruf, ein Treffen, ein Spaziergang zu zweit. Das klingt banal. Ist es nicht.

Reflexionsfragen stellen. Nutze ich die KI gerade als Werkzeug oder als Trost? Würde ich das, was ich dem Chatbot erzähle, auch einem Menschen erzählen? Bin ich nach der Sitzung zufriedener oder leerer? Wer diese Fragen ehrlich beantwortet, weiß meistens schon, wo er steht.

Für die meisten Nutzer ist das alles kein relevantes Thema. KI ist ein Werkzeug, und intensive Nutzung ist noch keine Abhängigkeit. Wer sich aber dabei ertappt, Gespräche mit der KI echten Gesprächen vorzuziehen, dem Chatbot Dinge anzuvertrauen, die man niemandem mehr sagt, oder sich nach dem Abmelden unruhig zu fühlen: Es gibt Anlaufstellen. Und die Frage, ob man dort hingehört, ist immer die richtigste Frage. (lk)

Quellen

Sven Lennartz Avatar

Der Autor

Sven Edmund Lennartz ist seit 25 Jahren Fachautor und Gründer mehrerer Online-Unternehmen, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Autorenhomepage

Bist du bereit für mehr?

1 Kommentar zu „Süchtig nach KI – Gibt es schon Selbsthilfegruppen für ChatGPT-Abhängige?“

  1. 0,15 Prozent klingt harmlos, bis man die absolute Zahl sieht. Aber mal ehrlich: Wer von euch hat nicht schon mal abends um elf noch »eine letzte Frage« an ChatGPT getippt, obwohl niemand auf die Antwort gewartet hat?

Was sagst du dazu?