
ChatGPT behauptet mit felsenfester Überzeugung, Albert Einstein sei ein berühmter Musiker der 80er Jahre gewesen. Claude erfindet wissenschaftliche Studien komplett samt Autorennamen und Seitenzahlen. Googles Gemini erklärt, der Eiffelturm stehe in Berlin und glaubt daran. Willkommen in der Welt der KI-Halluzinationen.
Der Begriff klingt dramatischer, als er ist. Es geht nicht um psychotische Episoden einer Maschine. Es geht um etwas viel Banaleres und zugleich Gefährlicheres. KI-Systeme erfinden nämlich Dinge, die plausibel klingen, aber schlichtweg falsch sind. Und sie tun das mit einer Selbstsicherheit, die jeden Felix Krull vor Neid erblassen ließe.
Wer KI-Tools wie ChatGPT nutzt, sollte dieses Phänomen verstehen lernen. Nicht um die Technologie zu verteufeln, sondern um sie klug einzusetzen. Also, was steckt dahinter?




