Die KI versteht mich nicht – woran es liegt und was dagegen hilft

Die KI versteht mich nicht – woran es liegt und was dagegen hilft

Die KI versteht mich nicht – das denken viele, wenn ChatGPT eine flüssig formulierte Antwort liefert, die am Thema vorbeigeht. Man nickt zufrieden und merkt erst Tage später, dass die KI etwas völlig anderes verstanden hat. Das passiert häufiger, als die meisten ahnen. Und das Tückische daran: Je besser die Antwort klingt, desto seltener hinterfragen wir sie.

Dieses Phänomen hat einen Namen in der Forschung. Man spricht vom »Firnis des Verstehens« – einer dünnen Schicht sprachlicher Perfektion, unter der kein echtes Begreifen stattfindet, sondern statistische Wahrscheinlichkeit. Die KI wählt nicht die richtige Antwort. Sie wählt die wahrscheinlichste. Das ist nicht dasselbe.

Die KI versteht deine Wörter, aber nicht deine Absicht

Stell dir vor, du fragst einen Kollegen: »Kannst du mir kurz bei dem Bericht helfen?« Ein Mensch versteht sofort: Du willst keine Grundsatzvorlesung über Berichtswesen, sondern konkrete Hilfe bei einem konkreten Dokument. Die KI versteht: Da ist das Wort »Bericht«, da ist das Wort »helfen«. Sie kombiniert beides und liefert – im besten Fall eine brauchbare Antwort, im schlechteren eine Abhandlung über Berichtsstrukturen im Allgemeinen.

Der Grund: Sprachmodelle haben von sich aus kein Bild von dir. Inzwischen gibt es Memory-Funktionen, Projekte und Custom Instructions, die der KI einen Teil deines Kontexts mitgeben. In einem gut eingerichteten Projekt weiß sie durchaus, welchen Stil du bevorzugst oder woran du arbeitest. Aber selbst dann fehlt ihr das, was ein menschlicher Kollege mitlesen würde: die Stimmung, die Deadline, der Druck vom Chef. Die KI rechnet mit dem, was du ihr explizit gibst – nicht mit dem, was zwischen den Zeilen steht.

Allerdings sollte man die menschliche Kommunikation nicht verklären. Menschen missverstehen sich ständig. In vielen Unternehmen läuft der Großteil der Kommunikation textbasiert – über Slack, Teams oder E-Mail, ohne Mimik und ohne den kurzen Blick, der sagt »das war nicht ernst gemeint«. Die KI missversteht anders als ein Mensch – aber nicht unbedingt häufiger. Und im Gegensatz zum Kollegen tut sie es wenigstens nie aus Boshaftigkeit oder weil Freitagabend war.

Man kann das Verhältnis zur KI mit Kollegen vergleichen, die man unterschiedlich gut kennt. Den einen briefst du kaum, weil er nach zehn Jahren weiß, was du meinst. Dem neuen Praktikanten erklärst du alles dreimal. Mit einer frisch aufgesetzten KI bist du in der Praktikanten-Situation. In einem gut gepflegten Projekt mit Memory und Stilvorlagen eher in der eines eingespielten Teams. Der Unterschied schrumpft – wenn man investiert.

Das ist kein Bug. Es ist Architektur.

Die KI versteht mich nicht – fünf typische Missverständnisse und was dagegen hilft

Fünf typische Missverständnisse – und warum sie passieren

1. Du fragst etwas Mehrdeutiges, ohne es zu merken. Dein Prompt: »Schreibe mir einen kurzen Text über die Bank.« Die KI steht vor einem Problem, das sie nicht lösen kann, ohne zu raten: Meinst du die Parkbank oder die Sparkasse? Ein Mensch würde nachfragen. Die KI nicht. Sie wählt die statistisch häufigere Bedeutung und schreibt drauflos. Das betrifft nicht nur offensichtliche Doppeldeutigkeiten. Auch Pronomen wie »er«, »sie«, »das« werden in längeren Gesprächen zum Problem. Die KI trifft eine Wahl – still, ohne Rückfrage, manchmal falsch. Besser: »Schreibe einen kurzen Text über eine Parkbank im Herbst. Atmosphärisch, 100 Wörter.«

2. Die KI liefert, was du gesagt hast – nicht was du brauchst. Dein Prompt: »Erkläre mir Photosynthese.« Was du bekommst: Eine grundsolide Erklärung auf Schulniveau. Was du vielleicht gebraucht hättest: Drei Sätze für ein Referat in der Oberstufe, mit einem Vergleich, den sich Zuhörer merken können. Die KI kann nicht wissen, wofür du die Erklärung brauchst. Ohne Kontext wählt sie den Mittelweg – und der ist selten das, was jemand wirklich braucht. Besser: »Erkläre Photosynthese so, dass ich es in einem Oberstufen-Referat verwenden kann. Maximal fünf Sätze, mit einer alltagsnahen Analogie.«

3. Ironie und Sarkasmus gehen verloren. Dein Prompt: »Toll, mein Code funktioniert mal wieder überhaupt nicht. Hilf mir.« Ein menschlicher Kollege hört den Sarkasmus und reagiert entsprechend. Die KI kann die Diskrepanz zwischen dem Wort »toll« und der negativen Situation nur schwer einordnen. Sarkasmus basiert auf einer Lücke zwischen Gesagtem und Gemeintem. Genau diese Lücke zu erkennen, setzt voraus, dass man versteht, was der Sprecher wirklich denkt. Besser: »Mein Python-Code gibt einen TypeError aus. Hier ist der Code: [Code einfügen]. Was ist falsch?«

4. Die KI erfindet Fakten – und klingt dabei völlig überzeugend. Du fragst nach einem konkreten Gerichtsurteil, einer Studie oder einer historischen Begebenheit. Die KI antwortet präzise, nennt Jahreszahlen, Autorennamen, sogar Seitenzahlen. Und nichts davon existiert. Dieses Phänomen heißt Halluzination und es ist das wohl gefährlichste Missverständnis: Die KI versteht, dass du eine Quelle erwartest. Also liefert sie eine – nicht weil sie sie kennt, sondern weil das Muster »Behauptung + Quelle« in ihren Trainingsdaten häufig vorkommt. Ein amerikanischer Anwalt musste das auf die harte Tour lernen, als er vom Gericht vorgeführt wurde, weil die von ChatGPT genannten Präzedenzfälle in seiner Klageschrift frei erfunden waren. Besser: Jede konkrete Faktenbehauptung der KI nachprüfen. Oder gleich im Prompt verlangen: »Wenn du dir nicht sicher bist, sag es.«

5. Im langen Gespräch vergisst die KI den Anfang. Du führst ein ausführliches Gespräch mit der KI. Am Anfang hast du erklärt, dass du einen lockeren Blogpost willst. 20 Nachrichten später schreibt sie plötzlich im Stil einer Seminararbeit. Sprachmodelle haben ein begrenztes Kontextfenster. Alles, was du zu Beginn geschrieben hast, rutscht irgendwann aus dem aktiven Gedächtnis heraus – oder wird von neueren Nachrichten überlagert. Die KI gewichtet aktuelle Eingaben stärker als ältere. Besser: Wichtige Vorgaben nicht nur am Anfang machen, sondern bei längeren Gesprächen wiederholen. Oder eine Systemnachricht verwenden, die über dem gesamten Gespräch steht.

Ein Selbstversuch – was die KI über ihre eigenen Fehler verrät

Ich habe ChatGPT einfach gefragt, nach Hunderten von Gesprächen über Textarbeit, Buchprojekte und technischen Aufgaben. Dank Memoryfunktion funktioniert das.

Das Ergebnis war aufschlussreich. Die KI identifizierte ein wiederkehrendes Muster: Sie bog regelmäßig in technische Lösungswege ab (Skripte, Workflows, Pipelines), obwohl ich inhaltliche Denkarbeit erwartete. Wenn ich »analysieren« schrieb, meinte ich: lies den Text und sag mir, was daran gut und schlecht ist. Die KI verstand: baue ein System, das Texte automatisch analysiert.

Ähnlich bei Bildvorschlägen für Buchcover – die KI lieferte Motivideen, obwohl nur das Layout gemeint war. Oder bei der Textbearbeitung, wo »Analyse« als Einladung zur sofortigen Neufassung verstanden wurde, obwohl ich erstmal nur eine Diagnose wollte.

Das Muster dahinter: Kurze, abstrakte Prompts wie »analysieren«, »lösen«, »strukturieren« sind doppeldeutig. Sie können semantische Denkarbeit meinen oder einen technischen Arbeitsablauf. Die KI tendiert zur zweiten Interpretation – weil in ihren Trainingsdaten vermutlich häufiger jemand ein Problem lösen wollte als jemand, der einfach nur ein kluges Gegenüber brauchte.

Wer eine KI mit Memory-Funktion nutzt und schon eine längere Gesprächshistorie hat, kann das selbst ausprobieren. Einfach fragen: »Kannst du in unseren bisherigen Gesprächen Stellen finden, wo du mich missverstanden hast?« Die Antwort kann überraschend konkret ausfallen.

Warum gibt die KI falsche Antworten?

Das eigentliche Problem ist nicht, dass die KI Fehler macht. Es ist, dass wir sie nicht sehen.

Wir neigen dazu, Systemen, die flüssig sprechen, auch Verständnis zu unterstellen. Wenn jemand – oder etwas – auf eine Frage eloquent antwortet, gehen wir automatisch davon aus, dass die Frage verstanden wurde. Das ist ein Trugschluss, den Forscher als Anthropomorphismus bezeichnen: Wir schreiben der Maschine menschliche Eigenschaften zu, die sie nicht hat.

Das hat eine paradoxe Konsequenz: Je besser die KI formuliert, desto seltener prüfen wir ihre Antworten. Und desto wahrscheinlicher übernehmen wir Fehler unbesehen.

Hinzu kommt etwas, das Forscher als »gezackte Intelligenz« beschreiben. Die KI kann eine Frage zur Quantenphysik brillant beantworten und direkt danach an einer simplen Rätselfrage scheitern. Diese Unberechenbarkeit macht es schwer, ein verlässliches Gefühl dafür zu entwickeln, wann man ihr vertrauen kann und wann nicht.

Was wirklich hilft – sieben Regeln für bessere Ergebnisse

1. Kontext mitliefern – immer. Die KI hat kein Weltwissen über dich. Sag ihr, wer du bist, wofür du die Antwort brauchst und welchen Ton du erwartest. Statt »Schreibe eine E-Mail an meinen Chef« lieber: »Schreibe eine höfliche, aber bestimmte E-Mail an meinen Abteilungsleiter in einem mittelgroßen Unternehmen. Thema: Ich brauche zwei zusätzliche Tage für das Projekt. Ton: professionell, nicht unterwürfig. Maximal 150 Wörter.«

2. Struktur vorgeben statt hoffen. Je klarer du die gewünschte Form beschreibst, desto weniger Spielraum hat die KI für statistische Abweichungen. Wer Prompts wie ein Instruktionsdesigner denkt, bekommt deutlich bessere Ergebnisse. Maximale Länge angeben, Format benennen, Zielgruppe definieren. Und was viele vergessen: Sagen, was man nicht will. »Keine Einleitung, kein Fazit, keine Floskeln« kann Wunder wirken.

3. Beispiele zeigen. Wenn du der KI zwei bis drei Beispiele gibst, wie das Ergebnis aussehen soll, trifft sie den Ton erheblich besser. Das nennt sich Few-Shot Prompting und ist eine der wirksamsten Techniken überhaupt. Die KI lernt nicht aus den Beispielen im herkömmlichen Sinn – aber sie erkennt das Muster und reproduziert es.

4. Schrittweise denken lassen. Bei komplexen Aufgaben hilft ein einfacher Zusatz: »Denke Schritt für Schritt.« Das klingt banal, verändert aber die Antwortqualität messbar. Die KI produziert dann Zwischenschritte, die du überprüfen kannst – und macht dabei weniger logische Fehler.

5. Nachfragen erzwingen. Die Standardeinstellung der KI ist: Antworten, egal was kommt. Du kannst das ändern: »Wenn dir Informationen fehlen, frag mich, bevor du antwortest.« Nicht jede KI hält sich daran, aber die Trefferquote steigt erheblich.

6. Fakten extern prüfen. Für alles, was über allgemeines Wissen hinausgeht – Jahreszahlen, Studien, Zitate, Rechtslagen – gilt: Vertrauen ist gut, Recherche ist besser. Die KI kann mittlerweile das Web durchsuchen, was die Faktentreue verbessert, aber nicht perfekt macht.

7. Lange Gespräche bewusst steuern. Nach 15 bis 20 Nachrichten lohnt es sich, die wichtigsten Vorgaben zusammenzufassen und erneut an die KI zu schicken. Oder ein neues Gespräch zu starten mit einer klaren Zusammenfassung. Wer mit XML-strukturierten Prompts arbeitet, hat es hier leichter – weil sich Anweisungen und Kontext sauber trennen lassen.

Warum die KI das Wort »Erdbeere« nicht buchstabieren konnte

Ein Beispiel, das das Grundproblem besser illustriert als jede Theorie: Fragte man frühere KI-Modelle, wie viele »r« im englischen Wort »strawberry« vorkommen, antworteten sie häufig »zwei«. Die richtige Antwort ist drei. Aktuelle Modelle haben dieses spezifische Problem gelöst, aber das Prinzip dahinter bleibt lehrreich.

Der Grund liegt in der Art, wie Sprachmodelle Text verarbeiten. Sie sehen keine Buchstaben, sondern sogenannte Token – Wortfragmente, die aus Silben oder Teilwörtern bestehen. Das Wort »strawberry« wird zum Beispiel in »str«, »aw« und »berry« zerlegt. In keinem dieser Fragmente steckt die Information, dass insgesamt drei »r« enthalten sind.

Das zeigt eine grundlegende Grenze: Die KI verarbeitet Sprache anders als wir. Sie sieht Muster, keine Bedeutungen. Sie rechnet mit Wahrscheinlichkeiten, nicht mit Verständnis. Und deshalb kann sie bei Dingen scheitern, die für uns trivial sind – während sie gleichzeitig Aufgaben löst, die wir nie schaffen würden.

Das ändert sich gerade

Die Entwicklung steht nicht still. Die Modelle sind bereits deutlich besser darin, Mehrdeutigkeiten zu erkennen und nachzufragen, als ihre Vorgänger von vor zwei Jahren. Funktionen wie Websuche, die Integration externer Wissensquellen und verbesserte Kontextfenster reduzieren viele der beschriebenen Probleme. KI-Agenten gehen noch einen Schritt weiter und können bei Unklarheiten eigenständig recherchieren, bevor sie antworten.

Trotzdem bleibt der wichtigste Faktor der Mensch vor dem Bildschirm. Wer versteht, wie die KI »denkt« – oder eben nicht denkt –, holt mehr aus ihr heraus und tappt seltener in die Falle der eloquenten Fehlinterpretation.

Die gute Nachricht: Es braucht keine technischen Vorkenntnisse, um besser mit KI zu kommunizieren. Es braucht nur das Bewusstsein, dass eine perfekt formulierte Antwort nicht automatisch eine korrekte Antwort ist. Und ein paar gute Gewohnheiten.

Sven Lennartz Avatar

Der Autor

Sven Edmund Lennartz ist seit 25 Jahren Fachautor und Gründer mehrerer Online-Unternehmen, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Autorenhomepage

Bist du bereit für mehr?