15 KI-Schlüsselbegriffe, die du kennen solltest

KI Schlüsselbegriffe aus der Welt von ChatGPT und Claude

Auch die Welt der KI hat ihre Buzzwords. Wer mitreden will, sollte die wichtigsten Begriffe kennen. Nicht um anzugeben, sondern um zu verstehen, wovon alle reden und was dahintersteckt.

Die folgende Liste erklärt 15 Schlüsselbegriffe aus der Welt generativer KI. Kompakt, mit Vor- und Nachteilen, ohne Schnickschnack.

Welche KI-Schlüsselbegriffe sollte ich kennen?

Künstliche Intelligenz ist kein Zukunftsthema mehr, sie ist Alltag. ChatGPT, Claude, Gemini, diese Namen fallen ständig. Doch was bedeuten die Fachbegriffe dahinter? Hier kommt das Vokabular, das du brauchst.

1. Künstliche Intelligenz (KI)

Der Oberbegriff für Computersysteme, die Aufgaben erledigen, für die normalerweise menschliche Intelligenz nötig wäre: Texte verstehen, Bilder erkennen, Entscheidungen treffen. Im Kern beschreibt KI nicht ein einzelnes Produkt, sondern ein ganzes Feld, das von Spamfiltern bis zu selbstfahrenden Autos reicht.

Vorteile: Automatisierung, Effizienz, neue Möglichkeiten in Forschung und Alltag. Nachteile: Arbeitsmarktveränderungen, ethische Fragen, Abhängigkeit von Technologie. Mehr dazu im ausführlichen KI-Artikel.

2. Generative KI

KI-Systeme, die neue Inhalte erzeugen: Texte, Bilder, Code, Musik, Videos. ChatGPT und Claude sind generative KIs. Sie kopieren nicht, sie produzieren. Was dabei herauskommt, schwankt zwischen beeindruckend und fragwürdig.

Vorteile: Kreativitätsunterstützung, Zeitersparnis, vielseitig einsetzbar. Nachteile: Urheberrechtsfragen, Qualitätskontrolle nötig, Missbrauchspotenzial.

3. Large Language Model (LLM)

Große Sprachmodelle sind das Herzstück von ChatGPT, Claude und Co. Sie wurden mit riesigen Textmengen trainiert und können dadurch Sprache verstehen und generieren. GPT-5.2, Claude Opus 4.6 oder Llama sind solche Modelle. (Stand 02/2026)

Vorteile: beeindruckende Sprachfähigkeiten, vielseitig nutzbar. Nachteile: ressourcenhungrig, können halluzinieren, Trainingsdaten bestimmen die Qualität.

4. Prompt

Die Eingabe, die du einer KI gibst. Deine Frage, dein Auftrag, deine Anweisung. Je präziser der Prompt, desto besser das Ergebnis. Prompting ist eine Kunst für sich geworden, wobei »Kunst« womöglich etwas hoch gegriffen ist. Im Kern geht es um klare Kommunikation.

Vorteile: volle Kontrolle über die Ausgabe, keine Programmierkenntnisse nötig. Nachteile: Lernkurve, manchmal frustrierend, erfordert Übung.

5. Halluzination

Wenn eine KI überzeugend klingende, aber falsche Informationen liefert. Sie erfindet Fakten, Zitate oder Quellen, ohne böse Absicht, aber mit potenziell fatalen Folgen. Vorteile gibt es keine. Halluzinationen sind schlicht ein Problem, das man kennen muss.

Nachteile: Vertrauensverlust, Fehlinformationen, Faktencheck unverzichtbar. Wer KI-Ausgaben ungeprüft übernimmt, lebt gefährlich. Jedenfalls akademisch.

6. Context Window (Kontextfenster)

Die Menge an Text, die eine KI bei einer Anfrage im Kopf behalten kann. Gemessen in Tokens. Je größer das Fenster, desto mehr Kontext versteht die KI. Claude kommt auf eine Million Token, Gemini auf zwei Millionen. Das reicht für ganze Bücher. (Stand 02/2026)

Vorteile: ermöglicht tieferes Verständnis, längere Texte analysierbar. Nachteile: größere Fenster kosten mehr Rechenleistung und Geld. Und ein großes Fenster heißt nicht zwingend, dass die KI am Ende noch genauso aufmerksam ist wie am Anfang.

7. Token

Die Einheit, in der KI Text misst. Ein Token ist ungefähr ein Wort oder Wortteil. »Bildungssprache« sind etwa 3 bis 4 Tokens. KI-Dienste rechnen oft nach Tokens ab, was die Kosten vergleichbar macht, aber nicht gerade intuitiv ist.

Vorteile: transparente Abrechnungsgrundlage. Nachteile: unintuitiv, variiert je nach Sprache. Deutsche Texte verbrauchen mehr Tokens als englische, weil die Wörter länger sind. Einigermaßen ärgerlich.

8. RAG (Retrieval-Augmented Generation)

Eine Technik, bei der die KI erst relevante Informationen aus einer Datenbank abruft und dann antwortet. So kann sie aktuelles Wissen nutzen, das nicht im Training enthalten war. Perplexity arbeitet im Kern so: erst suchen, dann antworten.

Vorteile: aktuellere Antworten, weniger Halluzinationen, Quellenangaben möglich. Nachteile: komplexer aufzusetzen, Qualität der Datenbank entscheidend.

9. Multimodalität

Die Fähigkeit einer KI, verschiedene Medientypen zu verarbeiten: Text, Bilder, Audio, Video. GPT-5.2 und Claude Opus 4.6 können Bilder analysieren, Gemini versteht auch Video und Audio. Du lädst ein Foto hoch und bekommst eine Beschreibung. Oder ein Diagramm und bekommst eine Analyse. (Stand 02/2026)

Vorteile: vielseitiger einsetzbar, natürlichere Interaktion. Nachteile: höherer Rechenaufwand, nicht alle Modi gleich gut. Bildverständnis ist bei den meisten Modellen inzwischen solide, Videoverständnis eher nicht.

KI Schlüsselbegriffe – Multimodalität der großen KI-Modelle im Vergleich

10. KI-Agenten (Agentic AI)

KI-Systeme, die eigenständig Aufgaben erledigen können: mehrere Schritte planen, Tools nutzen, im Internet recherchieren. Sie warten nicht nur auf Befehle, sie handeln. Mehr über KI-Agenten in einem eigenen Artikel.

Vorteile: Automatisierung komplexer Workflows, Zeitersparnis. Nachteile: Kontrollverlust möglich, Fehler können sich multiplizieren. Wer einen Agenten laufen lässt, ohne das Ergebnis zu prüfen, kann Überraschungen erleben. Nicht immer angenehme.

11. Fine-Tuning

Die Anpassung eines vortrainierten KI-Modells für spezifische Aufgaben. Man nimmt ein fertiges Modell und trainiert es mit eigenen Daten weiter, für bessere Ergebnisse in einem bestimmten Bereich. Das ist etwas anderes als Prompting: Beim Fine-Tuning verändert man das Modell selbst.

Vorteile: Spezialisierung möglich, bessere Ergebnisse für Nischen. Nachteile: erfordert Expertise und Daten, Kosten, Überanpassungsrisiko. Für die meisten Anwender ist gutes Prompting die plausibel bessere Wahl.

12. Transformer

Die Architektur hinter modernen Sprachmodellen. 2017 von Google-Forschern vorgestellt, hat sie die gesamte KI-Entwicklung verändert. Das »T« in GPT steht für Transformer. Ohne dieses Paper gäbe es weder ChatGPT noch Claude noch Gemini.

Vorteile: extrem leistungsfähig bei Sprachverarbeitung. Nachteile: ressourcenintensiv, komplex zu verstehen. Wer es genauer wissen will, findet das Originalpaper unter dem Titel »Attention Is All You Need«. Der Titel war, im Nachhinein betrachtet, nicht ganz untertrieben.

13. Natural Language Processing (NLP)

Der Bereich der KI, der sich mit dem Verstehen und Generieren menschlicher Sprache beschäftigt. Übersetzung, Zusammenfassung, Textanalyse, alles NLP. Der Begriff existiert seit Jahrzehnten, aber erst mit den Transformer-Modellen wurde er alltagsrelevant.

Vorteile: ermöglicht natürliche Kommunikation mit Maschinen. Nachteile: Sprache ist komplex, Nuancen und Ironie gehen manchmal verloren. Geschweige denn Sarkasmus.

14. Open Source vs. Closed Source

Open-Source-Modelle wie Llama von Meta sind frei verfügbar, der Code ist einsehbar. Closed-Source-Modelle wie GPT-5.2 oder Claude bleiben Firmengeheimnisse. Beide Ansätze haben ihre Berechtigung.

Open Source bringt Transparenz, Anpassbarkeit und keine Abhängigkeit vom Anbieter. Closed Source liefert oft die leistungsfähigeren Modelle, schafft aber Abhängigkeit. Welcher Ansatz langfristig gewinnt, ist offen. Womöglich keiner von beiden in Reinform.

15. Die großen Anbieter

OpenAI hat mit ChatGPT die generative KI populär gemacht. Das aktuelle Modell heißt GPT-5.2, Microsoft ist Großinvestor. Stärken: logisches Schließen, Datenanalyse, Dokumentenerstellung.

Anthropic steht hinter Claude. Gegründet von ehemaligen OpenAI-Mitarbeitern, inzwischen ernstzunehmende Konkurrenz. Stärken: Textqualität, riesiges Kontextfenster, Skills und Projekte.

Google entwickelt Gemini, aktuell in Version 3.1 Pro. Hat mit den Transformer-Modellen die Grundlage für alles gelegt. Stärken: Webrecherche, Google-Drive-Integration, Deep Research.

Meta stellt mit Llama leistungsfähige Open-Source-Modelle bereit. Wer eigene Anwendungen bauen will, ohne von einem Anbieter abhängig zu sein, landet hier.

Die Landschaft verändert sich rasant. Wer heute vorn liegt, kann morgen überholt sein. (Stand 02/2026)

Diese 15 Begriffe sind das Fundament. Wer sie kennt, kann einordnen, was wirklich neu ist und was Marketing. Für den Einstieg in die KI-Welt reicht das allemal.

Sven Lennartz Avatar

Der Autor

Sven Edmund Lennartz ist seit 25 Jahren Fachautor und Gründer mehrerer Online-Unternehmen, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Autorenhomepage

Bist du bereit für mehr?