KI-Halluzinationen erkennen: Wann lügen sie?

KI-Halluzinationen erkennen: Wann lügen sie?

ChatGPT behauptet mit felsenfester Überzeugung, Albert Einstein sei ein berühmter Musiker der 80er Jahre gewesen. Claude erfindet wissenschaftliche Studien komplett samt Autorennamen und Seitenzahlen. Googles Gemini erklärt, der Eiffelturm stehe in Berlin und glaubt daran. Willkommen in der Welt der KI-Halluzinationen.

Der Begriff klingt dramatischer, als er ist. Es geht nicht um psychotische Episoden einer Maschine. Es geht um etwas viel Banaleres und zugleich Gefährlicheres. KI-Systeme erfinden nämlich Dinge, die plausibel klingen, aber schlichtweg falsch sind. Und sie tun das mit einer Selbstsicherheit, die jeden Felix Krull vor Neid erblassen ließe.

Wer KI-Tools wie ChatGPT nutzt, sollte dieses Phänomen verstehen lernen. Nicht um die Technologie zu verteufeln, sondern um sie klug einzusetzen. Also, was steckt dahinter?

Warum KI überhaupt halluziniert

Sprachmodelle wie ChatGPT funktionieren fundamental anders, als viele glauben. Sie besitzen kein Wissen im menschlichen Sinne. Sie haben keine Vorstellung von wahr oder falsch. Stattdessen berechnen sie: Welches Wort kommt wahrscheinlich als nächstes?

Das funktioniert erstaunlich gut, solange die Muster in den Trainingsdaten eindeutig sind. Problematisch wird es, wenn das Modell auf Lücken stößt. Dann rät es. Und weil es darauf trainiert wurde, immer eine Antwort zu liefern, erfindet es im Zweifel lieber etwas, als zu schweigen.

OpenAI hat das Problem selbst analysiert und kam zu einem ernüchternden Schluss: Die gängigen Trainingsmethoden belohnen das Raten. Eine geratene Antwort hat immerhin eine Chance, richtig zu sein. Schweigen bringt null Punkte. Also lernen die Modelle, im Zweifel zu fabulieren.

Die verschiedenen Arten von Halluzinationen

Nicht jede Erfindung der KI ist gleich. Es gibt verschiedene Typen, die unterschiedlich gefährlich sind.

Faktische Fehler sind die offensichtlichsten. Die KI behauptet, Sydney sei die Hauptstadt Australiens. Oder sie verwechselt Jahreszahlen, Namen, Orte. Solche Fehler lassen sich relativ leicht entlarven, wenn man weiß, wonach man suchen muss.

Erfundene Quellen sind tückischer. Die KI generiert wissenschaftliche Zitate mit Autor, Titel, Verlag und Seitenzahl. Alles sieht seriös aus. Nur existieren diese Quellen nicht. Ein Anwalt in New York musste das auf die harte Tour lernen: Er reichte Schriftsätze ein, die auf von ChatGPT erfundenen Präzedenzfällen basierten. Samt fiktiver Aktenzeichen und Gerichtsentscheidungen.

Widersprüche innerhalb einer Antwort sind ein drittes Phänomen. Die KI widerspricht sich selbst, manchmal sogar im selben Absatz. Das passiert, weil jedes Wort unabhängig vom vorherigen berechnet wird. Die Maschine hat kein Gedächtnis für das, was sie gerade geschrieben hat.

KI-Halluzinationen – drei Typen von faktischen Fehlern bis Widersprüchen im Vergleich

Woran du Halluzinationen erkennst

Bestimmte Warnsignale sollten dich aufhorchen lassen. Wenn die KI sehr spezifische Zahlen nennt, etwa konkrete Prozentangaben oder genaue Jahreszahlen bei obskuren Themen, ist Vorsicht geboten. Je präziser die Angabe, desto größer oft das Risiko, dass sie erfunden ist.

Unbekannte Quellen sind ein weiteres Alarmsignal. Wenn die KI einen Autor oder eine Studie zitiert, von der du noch nie gehört hast, lohnt sich eine schnelle Suche. Existiert die Person? Gibt es die Publikation wirklich?

Zu perfekte Antworten sollten misstrauisch machen. Wenn eine Frage kompliziert ist, aber die Antwort glatt und einfach klingt, stimmt oft etwas nicht. Echtes Wissen ist meist unordentlicher als KI-generierter Text.

Die einfachste Methode: Stelle dieselbe Frage zweimal, leicht anders formuliert. Wenn die KI unterschiedliche Antworten gibt, ist mindestens eine davon falsch. Möglicherweise beide.

Neuere Modelle halluzinieren mehr, nicht weniger

Überraschenderweise hat sich das Problem mit den neueren Modellen verschärft. Interne Tests von OpenAI zeigen: GPT-o3 gibt bei Fragen zu bekannten Personen in etwa jedem dritten Fall eine falsche Antwort. Das ist mehr als doppelt so oft wie bei Vorgängermodellen. Das kleinere Modell o4-mini erreicht bei allgemeinen Wissensfragen Fehlerraten von bis zu 79 Prozent (Stand 04/2025).

KI-Halluzinationen – Halluzinationsraten von GPT-4o über o3 bis o4-mini im Vergleich

Der Grund liegt im Training. Die neueren »Reasoning«-Modelle sollen Schritt für Schritt denken. Das funktioniert gut bei Mathematik oder Programmieren. Bei allgemeinem Weltwissen aber kann jeder Teilschritt einen Fehler enthalten, und die Fehler summieren sich.

So schützt du dich

Vertraue nie blind. Das klingt banal, ist aber der wichtigste Rat. KI-generierte Texte müssen geprüft werden, besonders wenn es um Fakten geht, die Konsequenzen haben.

Nutze die Websuche. ChatGPT, Claude und Gemini bieten inzwischen integrierte Suchfunktionen. Aktiviere sie bei Faktenfragen. Die KI kann dann auf aktuelle Quellen zugreifen, statt aus dem Gedächtnis zu schöpfen.

Stelle kritische Nachfragen. Bitte die KI, ihre Quellen zu nennen. Frage nach Belegen. Das verhindert nicht alle Halluzinationen, macht sie aber seltener. Die Modelle wurden darauf trainiert, bei Nachfragen vorsichtiger zu werden.

Sei besonders wachsam bei sensiblen Themen. Medizin, Recht, Finanzen: In diesen Bereichen können falsche Informationen echten Schaden anrichten. Hier ersetzt keine KI die Expertise eines Fachmanns.

Die Zukunft der Halluzinationen

Werden KI-Systeme irgendwann aufhören zu halluzinieren? Die ehrliche Antwort: wahrscheinlich nicht vollständig. Das Problem liegt in der grundlegenden Architektur. Sprachmodelle sagen Worte vorher, nicht Wahrheiten. Solange das so bleibt, werden sie gelegentlich fabulieren.

Die Entwickler arbeiten an Gegenmaßnahmen. Retrieval Augmented Generation (RAG) verbindet KI mit geprüften Datenbanken. Neue Trainingsmethoden sollen Modellen beibringen, Unsicherheit einzugestehen statt zu raten. Fortschritte gibt es, aber keine Lösung in Sicht.

Für uns als Nutzer bedeutet das: KI bleibt ein Werkzeug, kein Orakel. Ein sehr nützliches Werkzeug, das erstaunliche Dinge kann. Aber eines, das gelegentlich Unsinn erzählt und nicht weiß, dass es Unsinn erzählt. Die Verantwortung für die Prüfung liegt bei uns.


Quellen

  • Adam Tauman Kalai, Ofir Nachum, Santosh Vempala, Edwin Zhang: Why Language Models Hallucinate – OpenAI Research Paper, September 2025
  • OpenAI: o3 and o4-mini System Card – Benchmark-Ergebnisse zu Halluzinationsraten (PersonQA, SimpleQA), April 2025
  • Kyle Wiggers: OpenAI’s new reasoning AI models hallucinate more – TechCrunch, April 2025
  • Mata v. Avianca, Inc., 2023 WL 4138427 (S.D.N.Y. June 22, 2023) – Anwalt Steven Schwartz wurde sanktioniert, nachdem er von ChatGPT erfundene Präzedenzfälle vor Gericht zitiert hatte. Berichterstattung u.a. bei CNN

Sven Lennartz Avatar

Der Autor

Sven Edmund Lennartz ist seit 25 Jahren Fachautor und Gründer mehrerer Online-Unternehmen, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Autorenhomepage