KI-Glossar: 40+ wichtige Begriffe von A bis Z

KI-Glossar: 40+ wichtige Begriffe von A bis Z

Wer über Künstliche Intelligenz mitreden will, stolpert schnell über Fachbegriffe: LLM, Token, Halluzination, RAG, Prompt Engineering. Was bedeutet das alles? Dieses Glossar erklärt die wichtigsten Begriffe rund um ChatGPT, Claude und Co. – verständlich, ohne unnötigen Ballast.

A

AGI (Artificial General Intelligence) – Eine hypothetische KI, die jede intellektuelle Aufgabe ausführen kann, die ein Mensch bewältigt. Noch Zukunftsmusik, aber erklärtes Ziel von OpenAI und anderen.

Bildungssprache Buch Cover Lerne die Bildungssprache! Das praktische Handbuch schlauer Wörter unterstützt dich mit über 1.600 durchdachten Einträgen. Besser verstehen und klüger schreiben. Verständliche Erläuterungen und lebensnahe Beispiele erleichtern das Einprägen. Jetzt ansehen

Agenten (KI-Agenten) – KI-Systeme, die eigenständig Aufgaben ausführen, Entscheidungen treffen und mit ihrer Umgebung interagieren. Sie können Tools nutzen, im Web suchen oder Code ausführen – ohne dass der Nutzer jeden Schritt anweisen muss.

Algorithmus – Ein Satz von Regeln oder Anweisungen, die ein Computer befolgt, um Probleme zu lösen oder Aufgaben auszuführen.

API (Application Programming Interface) – Eine Schnittstelle, über die Programme miteinander kommunizieren. Die APIs von OpenAI oder Anthropic ermöglichen Entwicklern, ChatGPT oder Claude in eigene Anwendungen einzubauen.

B

Big Data – Riesige Datenmengen, die gesammelt und analysiert werden, um Muster und Trends zu erkennen. Grundlage für das Training von KI-Modellen.

Bots – Automatisierte Programme, die Aufgaben im Internet ausführen. Chatbots sind eine spezielle Form, die auf Texteingaben reagiert.

C

Computer Vision – Der Bereich der KI, der sich mit dem Verstehen und Interpretieren von Bildern und Videos befasst. Ermöglicht Gesichtserkennung, Objekterkennung und mehr.

Context Window (Kontextfenster) – Die maximale Menge an Text, die ein Sprachmodell gleichzeitig verarbeiten kann. Gemessen in Tokens. Größere Kontextfenster ermöglichen längere Gespräche und die Analyse umfangreicherer Dokumente.

D

Deep Learning – Ein Teilbereich des maschinellen Lernens, der auf neuronalen Netzwerken mit vielen Schichten basiert. Grundlage moderner Sprachmodelle.

E

Embedding – Eine mathematische Darstellung von Wörtern, Sätzen oder Dokumenten als Zahlenvektoren. Ermöglicht es KI-Systemen, semantische Ähnlichkeiten zu erkennen – dass »König« und »Monarch« ähnliche Bedeutungen haben.

Explainable AI (XAI) – Ansätze, die Entscheidungen von KI-Systemen transparent und nachvollziehbar machen. Wichtig für Vertrauen und regulatorische Anforderungen.

F

Fine-Tuning – Das Anpassen eines vortrainierten Modells auf spezifische Aufgaben oder Datensätze. Macht generelle Modelle zu Spezialisten.

G

GANs (Generative Adversarial Networks) – Ein Modell, bei dem zwei neuronale Netze gegeneinander arbeiten: eines erzeugt Inhalte, das andere bewertet sie. Grundlage vieler Bildgeneratoren.

Generative KI – KI-Systeme, die neue Inhalte erzeugen: Texte, Bilder, Musik, Code. ChatGPT, Claude, DALL-E und Midjourney sind Beispiele.

GPT (Generative Pre-trained Transformer) – Die Modellarchitektur hinter ChatGPT. »Generative« bedeutet, dass es Inhalte erzeugt; »Pre-trained«, dass es auf großen Datenmengen vortrainiert wurde; »Transformer« beschreibt die zugrunde liegende Architektur.

H

Halluzination – Wenn eine KI falsche Informationen generiert und diese überzeugend präsentiert. Erfundene Fakten, falsche Zitate, nicht existierende Quellen. Ein bekanntes Problem aller Sprachmodelle.

I

Inferenz – Der Prozess, bei dem ein trainiertes Modell auf neue Eingaben reagiert und Ausgaben erzeugt. Jede Antwort von ChatGPT ist das Ergebnis einer Inferenz.

K

Künstliche Intelligenz (KI) – Das Feld der Informatik, das sich mit der Entwicklung von Systemen befasst, die Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern.

L

LLM (Large Language Model) – Große Sprachmodelle, trainiert auf riesigen Textmengen. GPT-4, Claude, Gemini und Llama sind LLMs. Sie können Texte verstehen, generieren, übersetzen und zusammenfassen.

M

Machine Learning (Maschinelles Lernen) – Ein Teilgebiet der KI, bei dem Algorithmen aus Daten lernen, statt explizit programmiert zu werden.

MCP (Model Context Protocol) – Ein von Anthropic entwickeltes Protokoll, das KI-Modellen erlaubt, mit externen Datenquellen und Tools zu kommunizieren. Ermöglicht Integrationen mit Datenbanken, APIs und anderen Systemen.

Multimodal – KI-Modelle, die verschiedene Medientypen verarbeiten können: Text, Bilder, Audio, Video. GPT-4 und Claude 3 sind multimodal – sie »sehen« Bilder und verstehen deren Inhalt.

N

Neuronales Netzwerk – Ein Computermodell, das lose von der Struktur des menschlichen Gehirns inspiriert ist. Besteht aus Schichten von »Neuronen«, die Eingaben verarbeiten und Muster erkennen.

NLP (Natural Language Processing) – Natürliche Sprachverarbeitung. Der Bereich der KI, der sich mit dem Verstehen und Erzeugen menschlicher Sprache befasst.

O

Open Source – Software, deren Quellcode öffentlich zugänglich ist. Llama (Meta) ist ein Open-Source-Sprachmodell; GPT-4 und Claude sind es nicht.

Overfitting – Wenn ein Modell die Trainingsdaten zu gut lernt und dadurch bei neuen Daten schlecht abschneidet. Es hat auswendig gelernt statt verstanden.

P

Parameter – Die internen Einstellungen eines Modells, die während des Trainings gelernt werden. GPT-4 hat geschätzt über eine Billion Parameter. Mehr Parameter bedeuten oft (aber nicht immer) mehr Fähigkeiten.

Prompt – Die Eingabe, die du einer KI gibst. Kann eine Frage, eine Anweisung oder ein komplexer Auftrag sein. Die Qualität des Prompts beeinflusst die Qualität der Antwort.

Prompt Engineering – Die Kunst, effektive Prompts zu formulieren. Umfasst Techniken wie Few-Shot-Learning (Beispiele geben), Chain-of-Thought (schrittweises Denken anfordern) und Rollenzuweisung.

R

RAG (Retrieval-Augmented Generation) – Eine Technik, bei der ein Sprachmodell zusätzliches Wissen aus externen Quellen abruft, bevor es antwortet. Reduziert Halluzinationen und ermöglicht aktuelle Informationen.

Reinforcement Learning (RL) – Eine Lernmethode, bei der ein Modell durch Belohnungen und Bestrafungen lernt. RLHF (Reinforcement Learning from Human Feedback) ist entscheidend für die Feinabstimmung von Chatbots.

S

Schwache KI (Narrow AI) – KI-Systeme, die auf bestimmte Aufgaben spezialisiert sind. Alle heutigen KI-Systeme sind schwache KI – auch wenn sie in ihren Spezialgebieten übermenschliche Leistungen bringen.

System Prompt – Eine versteckte Anweisung, die das Verhalten eines Chatbots steuert. Definiert Persönlichkeit, Einschränkungen und Verhaltensregeln.

T

Token – Die Einheit, in der Sprachmodelle Text verarbeiten. Ein Token ist oft ein Wort oder Wortteil. »Bildungssprache« könnte je nach Modell 2–4 Tokens sein. Die Tokenanzahl bestimmt Kosten und Kontextgrenzen.

Training – Der Prozess, bei dem ein Modell aus Daten lernt. GPT-4 wurde auf Milliarden von Textseiten trainiert – Bücher, Websites, Artikel, Code.

Transformer – Die Architektur hinter modernen Sprachmodellen. Entwickelt 2017 von Google. Ermöglicht effiziente Verarbeitung von Textsequenzen und bildet die Grundlage für GPT, Claude, Gemini und Co.

Turing-Test – Ein von Alan Turing vorgeschlagener Test: Kann eine Maschine einen Menschen in einem Gespräch täuschen? Moderne Chatbots bestehen diesen Test oft – was seine Aussagekraft infrage stellt.

Z

Zero-Shot Learning – Ein Modell löst eine Aufgabe, für die es nie explizit trainiert wurde. Im Gegensatz dazu steht Few-Shot Learning, bei dem einige Beispiele gegeben werden.

Werkstatt

Das Beitragsbild generierte die KI DALL-E. Die verwendeten Fonts sind Anton und Alegreya Sans (beide Google Fonts).

Sven Lennartz Avatar

Der Autor

Sven Edmund Lennartz ist seit 25 Jahren Fachautor und Gründer mehrerer Online-Unternehmen, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Autorenhomepage