KI Glossar – Begriffe rund um generative KI und ChatGPT erklärt

KI Glossar - Begriffe rund um generative KI und ChatGPT erklärt

Künstliche Intelligenz ist neu in unserem Alltag. Logisch, dass es da auch jede Menge frischer Fachbegriffe gibt, die weniger geläufig klingen. Aber was bedeuten sie?

Hier sind ein paar Erläuterungen, die dir helfen, die Welt der KIs und LLMs greifbarer zu machen. Siehe auch: ChatGPT, was ist das? Einführung in eine revolutionäre KI und 10 Schlüsselbegriffe aus der Welt von ChatGPT und generativer KI

Bildungssprache Buch Cover Lerne die Bildungssprache! Das praktische Handbuch schlauer Wörter unterstützt dich mit über 1.600 durchdachten Einträgen. Besser verstehen und klüger schreiben. Verständliche Erläuterungen und lebensnahe Beispiele erleichtern das Einprägen. Als PDF, ePUB oder Print. Jetzt ansehen

Generative Künstliche Intelligenz (KI)

KI, die neue Dinge erschafft, wie zum Beispiel Texte, Bilder oder Musik, ähnlich wie ein Künstler oder Schriftsteller.

Large Language Models (LLMs)

Sehr große Computerprogramme, die Texte verstehen und erzeugen können, fast so, als würden sie sprechen oder schreiben wie ein Mensch.

Transfer Learning

Ein Trick, bei dem eine KI, die bereits etwas gelernt hat, dieses Wissen nutzt, um schneller etwas Neues zu lernen, ähnlich wie wenn du deine Mathekenntnisse anwendest, um Physik zu verstehen.

Artificial General Intelligence (AGI)

Eine zukünftig mögliche Form der Künstlichen Intelligenz, die fähig wäre, eine breite Palette von kognitiven Aufgaben ähnlich wie ein Mensch zu bewältigen. Im Gegensatz zu spezialisierter KI, die auf bestimmte Aufgaben beschränkt ist, soll die AGI Wissen flexibel in verschiedenen Kontexten anwenden und selbstständig lernen können.

Fine-Tuning

Das Anpassen einer bereits trainierten KI auf eine spezielle Aufgabe, indem man sie ein bisschen mehr lernen lässt, so als würde ein Koch sein Rezept leicht ändern, um den Geschmack eines Gerichts zu perfektionieren.

Tokenisierung

Das Zerlegen von Text in kleinere Teile, wie Wörter oder Sätze, damit die KI sie leichter verstehen kann, ähnlich wie das Lesen Wort für Wort.

Embeddings

Eine Art, Wörter oder Sätze in eine Liste von Zahlen umzuwandeln, die darstellt, was sie bedeuten. Das hilft Computern, die Bedeutung von Texten besser zu “verstehen”.

Sequenz-zu-Sequenz-Modelle

KI-Systeme, die eine Reihe von Informationen (wie einen Satz) nehmen und sie in eine andere umwandeln, ähnlich wie beim Übersetzen von einer Sprache in eine andere.

Attention-Mechanismen

Ein Verfahren, bei dem sich die KI auf bestimmte Teile eines Textes konzentriert, um besser zu verstehen oder zu antworten, ähnlich wie wenn du beim Lesen eines Buches bestimmte Absätze genauer betrachtest.

Transformer-Architektur

Eine fortschrittliche Methode, die KIs hilft, Texte effizienter zu verarbeiten, indem sie lernt, wo sie ihre Aufmerksamkeit richten soll, ähnlich wie ein sehr guter Leser, der zwischen den Zeilen liest.

TensorFlow

Ein Open-Source-Framework für maschinelles Lernen, entwickelt von Google Brain. Es wurde erstmals im Jahr 2015 veröffentlicht und ist darauf ausgelegt, den Entwicklungsprozess von Machine-Learning-Modellen zu vereinfachen und zu beschleunigen. TensorFlow ermöglicht es Forschern und Entwicklern, komplexe Algorithmen für Aufgaben wie Bild- und Spracherkennung, Vorhersagemodelle und natürliche Sprachverarbeitung zu erstellen. Verwendet wird es auch für Google Translate, Googles RankBrain, bei Snapchat und Airbnb.

PyTorch

Ein Open-Source-Machine-Learning-Framework basierend auf Python, das ursprünglich von Forschern und Ingenieuren des Facebook AI Research Lab (FAIR) entwickelt wurde. Es wird in vielen Bereichen der künstlichen Intelligenz verwendet.

Python

Die bevorzugte Programmiersprache für viele KI-Initiativen, von Start-ups bis hin zu großen Tech-Unternehmen. Entwickelt von Guido van Rossum dient Python als Plattform für die Entwicklung und Forschung in KI, Machine Learning, Computer Vision, Natural Language Processing und mehr. In der griechischen Mythologie ist Python übrigens ein riesiger Drache, der das Orakel von Delphi bewachte. Siehe: 47 Schreckensgestalten der Griechischen Mythologie – Monster und Ungeheuer

GANs (Generative Adversarial Networks)

Zwei KIs, die gegeneinander antreten, wobei eine neue Bilder erzeugt und die andere versucht zu erraten, ob sie echt sind; ähnlich wie ein Fälscher und ein Detektiv.

Zero-Shot-Lernen

Die Fähigkeit einer KI, Aufgaben zu erledigen, für die sie nie explizit trainiert wurde, so als würdest du versuchen, ein Rätsel zu lösen, ohne die Regeln zu kennen.

Few-Shot-Lernen

Eine KI lernt eine neue Aufgabe mit nur sehr wenigen Beispielen, vergleichbar mit dem schnellen Erlernen eines Spiels nach nur ein paar Versuchen.

Multimodale Modelle

KIs, die Informationen aus verschiedenen Quellen wie Text, Bildern und Tönen gleichzeitig verarbeiten können, so als würdest du gleichzeitig lesen, Bilder anschauen und zuhören.

Prompt-Engineering

Die Kunst, Fragen oder Befehle so zu formulieren, dass KIs die gewünschten Antworten geben, ein bisschen wie das Stellen der richtigen Frage, um eine nützliche Antwort zu erhalten.

KI-Ethik

Überlegungen darüber, wie KIs auf faire, sichere und moralisch vertretbare Weise entwickelt und eingesetzt werden sollten, ähnlich den Regeln, die bestimmen, was in der Gesellschaft als richtig oder falsch gilt.

Backpropagation (Fehlerrückführung)

Ein Verfahren, mit dem KIs lernen, indem sie Fehler von hinten nach vorne durch das Netzwerk zurückverfolgen und sich selbst korrigieren, so als würdest du einen Rechenweg rückwärts durchgehen, um zu sehen, wo du einen Fehler gemacht hast.

Overfitting

Wenn eine KI zu viel aus den spezifischen Beispielen lernt, mit denen sie trainiert wurde, und dadurch schlechter wird, neue, ähnliche Probleme zu lösen – vergleichbar mit dem Auswendiglernen von Antworten, ohne das dahinterstehende Konzept zu verstehen.

Representation Bias

Das Problem, dass bestimmte Gruppen von Daten im Training einer KI nicht ausreichend berücksichtigt werden, was zu verzerrten oder ungerechten Ergebnissen führen kann, so als würde man nur eine Art von Frucht anbauen und dann erwarten, einen Obstsalat zu bekommen.

Neuronale Netzwerke

Computermodelle, die versuchen, die Art und Weise nachzuahmen, wie das menschliche Gehirn Informationen verarbeitet, um Aufgaben wie das Erkennen von Bildern oder das Verstehen von Sprache zu erlernen.

Supervised Learning (Überwachtes Lernen)

Eine Methode, bei der die KI mit Beispielen trainiert wird, die bereits die richtigen Antworten enthalten, ähnlich wie beim Lernen mit einem Lehrbuch, das Lösungen zu Übungsaufgaben enthält.

Unsupervised Learning (Unüberwachtes Lernen)

Eine Lernmethode, bei der die KI ohne vorgegebene Antworten Muster oder Strukturen in den Daten finden muss, so als würde man versuchen, ein Puzzle ohne Vorlagebild zusammenzusetzen.

Reinforcement Learning (Bestärkendes Lernen)

Eine Technik, bei der eine KI durch Belohnungen oder Strafen in einem mathematischen Sinn für ihre Aktionen lernt, ähnlich wie das Trainieren eines Hundes mit Leckerlis oder Ermahnungen.

Bias (Verzerrung)

Neigung oder Vorurteil der KI gegenüber bestimmten Informationen oder Ergebnissen, oft aufgrund der Daten, mit denen sie trainiert wurde, vergleichbar mit der Befangenheit eines Menschen aufgrund seiner Erfahrungen.

Natural Language Processing (NLP)

Auf Deutsch: natürliche Sprachverarbeitung. Es ist der Bereich der KI, der sich damit beschäftigt, dass Maschinen menschliche Sprache verstehen und generieren können, so als würde ein Computer lernen, Bücher zu lesen oder Gespräche zu führen.

Deep Learning

Eine fortgeschrittene Technik im maschinellen Lernen, die auf tiefen (vielschichtigen) neuronalen Netzwerken basiert und es KIs ermöglicht, komplexe Muster in großen Datenmengen zu erkennen, ähnlich wie das Lernen komplexer Konzepte in fortgeschrittenen Studienfächern.

Generative Pre-trained Transformer (GPT)

Eine spezifische Art von Modell für künstliche Intelligenz, das darauf trainiert ist, Texte zu verstehen und zu generieren, indem es auf einer riesigen Menge an Textdaten vortrainiert wird, so als würde ein Schriftsteller durch das Lesen tausender Bücher lernen, zu schreiben.

Autoencoder

Ein KI-Modell, das lernt, Daten effizient zu komprimieren und dann wieder zu dekomprimieren, ähnlich wie das Zusammenfassen und anschließende Detaillieren einer Geschichte.

Convolutional Neural Networks (CNNs)

Spezialisierte neuronale Netzwerke für die Verarbeitung von Daten mit einer grid-ähnlichen Topologie, wie Bilder, sehr effektiv in der Erkennung von Mustern und Strukturen in visuellen Daten.

Recurrent Neural Networks (RNNs)

Eine Art neuronales Netzwerk, das besonders gut für die Verarbeitung von Sequenzen, wie Text oder Zeitreihen, geeignet ist, indem es Informationen von früheren Schritten im Prozess behält.

Explainable AI (XAI)

Der Bereich der KI-Forschung, der darauf abzielt, die Entscheidungsfindung von KI-Systemen transparent und nachvollziehbar zu machen, um das Vertrauen in ihre Anwendungen zu erhöhen, vergleichbar mit einem Mathematiker, der jeden Schritt seiner Berechnungen erklärt.

Halluzinationen

Ein Phänomen, bei dem KI-Modelle, insbesondere generative KI und Large Language Models, Informationen generieren, die nicht auf Fakten oder den trainierten Daten basieren. Dies kann zu kreativen, aber manchmal auch irreführenden oder ungenauen Ergebnissen führen.

Kontradiktorischer Prozess

Eine Methode, bei der zwei maschinelle Lernmodelle mit entgegengesetzten Zielen, wie bei Generative Adversarial Networks (GANs), gegeneinander antreten, um ihre jeweilige Leistung durch kontinuierliche Anpassung und Verbesserung zu optimieren.

Feature-Importance-Analysen

Methoden im Bereich des maschinellen Lernens, die bestimmen, welche Eingabemerkmale (Features) den größten Einfluss auf die Vorhersagen eines Modells haben, um dessen Entscheidungsprozess transparenter und nachvollziehbarer zu machen.

Modell-Agnostic-Methoden

Techniken in der Explainable AI, die unabhängig vom zugrundeliegenden maschinellen Lernmodell funktionieren, um Einblicke in die Entscheidungsfindung und Wichtigkeit von Features zu gewähren, ohne auf die interne Logik des Modells angewiesen zu sein.

KI-Interpretierbarkeit

Die Fähigkeit, zu erklären und zu verstehen, wie KI-Modelle Entscheidungen treffen oder zu bestimmten Ausgaben gelangen.

Capsule Networks (CapsNet)

Eine Art von neuronalem Netzwerk, das versucht, die räumlichen Hierarchien zwischen Objektteilen besser zu modellieren, was zu einer verbesserten Bilderkennung führen kann.

Knowledge Graphs

Graphenbasierte Datenstrukturen, die Wissen in Form von Entitäten (Personen, Orte, Gegenstände, Ideen etc.) und deren Beziehungen zueinander darstellen. Das hilft KI-Systemen, Informationen kontextbezogener zu verstehen und zu verarbeiten.

Federated Learning

Ein Ansatz zum Training von Algorithmen über mehrere dezentralisierte Edge-Geräte oder Server hinweg, ohne dass Daten zentral gesammelt werden müssen, was Datenschutz und Datensicherheit verbessern kann.

Edge-Geräte

Hardware, die am Rand (engl. »edge«) eines Netzwerks, also nahe an den Datenquellen selbst, wie zum Beispiel Smartphones, Sensoren, Autos oder andere IoT-Geräte (Internet of Things). Diese Geräte sammeln und verarbeiten Daten direkt an ihrem Entstehungsort, anstatt sie zuerst an eine zentrale Datenverarbeitungsstelle zu senden.

Adversarial Attacks

Angriffsmethoden, die darauf abzielen, KI-Modelle durch gezielte Eingaben zu täuschen, was zu falschen Ausgaben oder Entscheidungen führt.

Continual Learning (Lebenslanges Lernen)

Die Fähigkeit eines KI-Systems, kontinuierlich zu lernen und sich anzupassen, ohne früher Gelerntes zu vergessen, was für die Entwicklung flexiblerer und anpassungsfähiger KI-Systeme wichtig ist.

Model Compression

Techniken zur Reduzierung der Größe eines KI-Modells, um Speicherbedarf zu senken und die Effizienz, besonders auf Geräten mit begrenzten Ressourcen, zu verbessern.

Wissensdestillation

Übertragung des Wissens eines großen, komplexen Modells (Lehrermodell) auf ein kleineres, effizienteres Modell (Schülermodell).

Synthetic Data

Künstlich erzeugte Daten, die für das Training von KI-Modellen verwendet werden, wenn echte Daten nicht verfügbar oder zu heikel sind.

AutoML (Automated Machine Learning)

Automatisierte Prozesse, die es ermöglichen, KI-Modelle mit minimaler Expertenintervention zu erstellen, zu trainieren und zu optimieren.

Natural Language Generation (NLG)

Die Fähigkeit von KI-Systemen, menschenähnliche Texte zu generieren, die über einfache Antworten hinausgehen und komplexe Inhalte wie Berichte oder Geschichten erstellen können.

Suchverfahren, die das Verständnis der Bedeutung hinter den Suchanfragen nutzen, um relevantere Ergebnisse zu liefern, indem sie auf tiefere Sprachmodelle zurückgreifen.

Feed-forward networks

Netzwerke, die Eingaben durch eine Reihe von Verarbeitungsschichten leiten, ohne dass Rückmeldungen zwischen den Schichten bestehen.

RNN (Recurrent Neural Network)

Ein neuronales Netzwerk, das seine Ausgaben als Teil seiner Eingabe verwendet, um Sequenzen wie Text oder Zeitreihen zu verarbeiten.

Data-Lakes

Umfassende Speicherbereiche, die dazu dienen, unstrukturierte Daten in ihrem ursprünglichen Rohformat zu speichern. Im Gegensatz zu herkömmlichen Datenbanken, die strukturierte Daten in Tabellen organisieren, erlauben Data-Lakes die Aufnahme verschiedener Datentypen wie Texte, Bilder, Videos und Audiodateien, ohne dass sie zuvor in ein bestimmtes Format umgewandelt werden müssen.

Intelligente Tutorsysteme (ITS)

Spezialisierte KI-Systeme, die personalisiertes Lernen durch Überwachung des Lernfortschritts und Bereitstellung individuell zugeschnittener Lerninhalte ermöglichen.

Ko-Konstruktion

Zusammenarbeit zwischen Mensch und KI-System, bei der beide an der Erstellung von Inhalten beteiligt sind.

Lock-in-Effekt

Situation, in der die Abhängigkeit von einem bestimmten System es schwierig macht, zu einem anderen zu wechseln.

Evasion Attack

Angriffe, die versuchen, eine Eingabe so zu manipulieren, dass das KI-Modell getäuscht wird.

Explainable AI (XAI)

Ansätze, die darauf abzielen, KI-Systeme verständlicher zu machen.

Werkstatt

Die Visualisierungen generierte die KI DALL-E via Bing, was darin abgebildet ist, existiert in der realen Welt nicht. Die verwendeten Fonts im Beitragsbild oben sind Anton (Google) und Alegreya Sans (Google).

Der Autor

Sven Lennartz AvatarSven Edmund Lennartz ist Fachautor, Schriftsteller und Gründer verschiedener Online-Projekte, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Homepage

1 Gedanke zu „KI Glossar – Begriffe rund um generative KI und ChatGPT erklärt“

Schreibe einen Kommentar