KI-Begriffe einfach erklärt
Die KI-Welt steckt voller Fachbegriffe. Modelle, Tokens, Context Windows, Agents, RAG, Fine-Tuning. Dieses Glossar schafft Klarheit. Jeder Begriff wird verständlich erklärt und mit einem praxisnahen Vergleich veranschaulicht.
Orcha Team
11. Januar 2026
Die Grundlagen
Diese Begriffe begegnen Ihnen in praktisch jedem KI-Gespräch.
LLM (Large Language Model)
Die zentrale KI-Technologie hinter ChatGPT, Claude, Gemini und anderen. Ein mathematisches Modell, das auf riesigen Textmengen trainiert wurde und vorhersagt, was als Nächstes in einer Sequenz kommt.
Stellen Sie sich vor: ein Gehirn, das das gesamte Internet gelesen hat und auf Basis von Mustern menschenähnlichen Text erzeugen kann.
Modell
Eine bestimmte Version eines LLM mit spezifischen Fähigkeiten. Verschiedene Modelle haben unterschiedliche Stärken: Manche sind schnell und günstig, andere langsam und leistungsstark.
Vergleichbar mit: Automodellen – ein Kleinwagen und ein Sportwagen sind beides Autos, aber für unterschiedliche Zwecke gebaut.
Token
Die kleinste Texteinheit, die ein Modell verarbeitet. Entspricht ungefähr 3–4 Zeichen. „Finanzteam“ = 3 Tokens. Modelle rechnen pro Token ab.
Stellen Sie sich vor: die „Wortzahl“, die Kosten und Limits bestimmt. 200 Seiten Text entsprechen etwa 80.000 Tokens. Ein typischer Prompt verbraucht einige hundert Tokens; ein langes Dokument kann 50.000+ umfassen.
Context Window
Die Gesamtmenge an Text, die ein Modell auf einmal „sehen“ kann – Ihre Eingabe und seine Ausgabe zusammen. Aktuelle Modelle haben Context Windows von ca. 200.000 Tokens (etwa 500 Seiten).
Vergleichbar mit: dem Schreibtisch der KI. Ein größerer Schreibtisch bedeutet, dass mehr Dokumente gleichzeitig ausgebreitet werden können, aber alles jenseits der Tischkante ist unsichtbar.
Prompt
Der Text, den Sie an ein KI-Modell senden – Ihre Frage, Anweisung oder Aufgabenbeschreibung. Ein guter Prompt ist spezifisch, enthält Kontext und beschreibt das gewünschte Ausgabeformat.
Vergleichbar mit: einem Briefing an einen Kollegen. Je spezifischer und vollständiger Ihr Briefing, desto besser das Ergebnis.
Modelle & Anbieter
Die grossen KI-Unternehmen und ihre Modell-Familien. Zu wissen, wer was herstellt, hilft Ihnen, sich in der Landschaft zurechtzufinden.
Claude (Anthropic)
Eine Familie von KI-Modellen. Opus ist das leistungsstärkste (komplexes Reasoning), Sonnet ist der Allrounder für den Alltag (schnell, ausgewogen), Haiku ist das günstigste (schnelle Abfragen, einfache Aufgaben).
Stellen Sie sich vor: drei Teammitglieder mit unterschiedlichem Erfahrungsgrad – Sie wählen die richtige Person für die jeweilige Aufgabe.
ChatGPT (OpenAI)
Das KI-Produkt von OpenAI, das Ende 2022 den KI-Boom ausgelöst hat. Hinter ChatGPT steckt eine Reihe von Modellen, die über die Chat-Oberfläche und eine API verfügbar sind. Aktuell der meistgenutzte KI-Assistent weltweit.
Stellen Sie sich vor: das Modell, das die meisten Menschen als Erstes ausprobiert haben. Ein starker Allrounder mit dem grössten Ökosystem an Plugins und Integrationen.
Gemini (Google)
Googles KI-Modell-Familie. Pro ist das leistungsfähigste, Flash ist schnell und erschwinglich. Tief integriert in Google Workspace (Docs, Sheets, Gmail).
Stellen Sie sich vor: die beste Wahl, wenn Sie im Google-Ökosystem zu Hause sind.
Open-Weight Modelle (Llama, Mistral, etc.)
KI-Modelle die auf eigenen Servern betrieben werden können - für volle Datenkontrolle. Aktuell deutlich weniger leistungsfähig als die besten kommerziellen Modelle, aber mit rasanter Entwicklung.
Vergleichbar mit: Linux vs. Windows – mehr Kontrolle, mehr Einrichtungsaufwand, starke Community.
Wie KI funktioniert
Die zentralen Konzepte hinter dem, was passiert, wenn Sie mit einem KI-Modell interagieren.
Training
Der Prozess, einem Modell Milliarden von Beispielen zu zeigen, damit es lernt. Das Training eines grossen Modells kostet Millionen von Dollar und dauert Monate. Nach dem Training ist das Wissen des Modells fixiert – es lernt nicht aus Ihren Gesprächen (es sei denn, es wird fine-getuned).
Vergleichbar mit: Schule. Das Modell macht seinen Abschluss mit Allgemeinwissen und wendet es dann auf spezifische Aufgaben an.
Inference
Wenn ein trainiertes Modell eine Antwort auf Ihren Prompt generiert. Das passiert jedes Mal, wenn Sie eine Nachricht an ChatGPT oder Claude senden.
Vergleichbar mit: der Prüfung. Training war das Lernen; Inference ist der Test, bei dem das Modell zeigt, was es kann.
Halluzinationen
Wenn ein KI-Modell Informationen generiert, die plausibel klingen, aber faktisch falsch sind. Modelle erzeugen wahrscheinlichen Text, keine verifizierte Wahrheit.
Vergleichbar mit: einem selbstbewussten Kollegen, der manchmal Dinge erfindet, ohne es zu merken. Überprüfen Sie kritische Fakten immer.
Temperature
Eine Einstellung, die steuert, wie kreativ bzw. vorhersagbar die Ausgabe eines Modells ist. Niedrige Temperature (0) = sehr vorhersagbar, jedes Mal dieselbe Antwort. Hohe Temperature (1) = kreativer, vielfältiger.
Vergleichbar mit: einem Regler zwischen „strenger Buchhalter“ und „kreativer Brainstormer“.
Fortgeschrittene Konzepte
Begriffe, die fallen, wenn das Gespräch über die grundlegende KI-Nutzung hinausgeht und es um den Aufbau realer Systeme geht.
Agent
Ein KI-System, das Aktionen ausführen kann, nicht nur Text generieren. Ein Agent kombiniert ein LLM mit Werkzeugen (Websuche, Dateizugriff, APIs) und einem Ziel. Er plant, führt Schritte aus, beobachtet Ergebnisse und passt sich an, bis das Ziel erreicht ist.
Vergleichbar mit: dem Unterschied zwischen jemandem eine Frage stellen und ihn bitten, eine Aufgabe komplett zu erledigen.
RAG (Retrieval-Augmented Generation)
Eine Technik, bei der die KI zunächst eine Wissensdatenbank nach relevanten Dokumenten durchsucht und dann auf Basis der gefundenen Informationen eine Antwort generiert. Löst das Problem, dass KI Ihre internen Daten nicht kennt.
Stellen Sie sich vor: Sie geben der KI Zugang zum Aktenschrank Ihres Unternehmens, bevor sie Ihre Frage beantwortet.
Fine-Tuning
Ein vortrainiertes Modell mit Ihren eigenen Daten weiter zu trainieren, um es für Ihren Anwendungsfall zu spezialisieren. Teuer und komplex, aber es entstehen Modelle, die Ihre Domäne tiefgehend verstehen.
Vergleichbar mit: einen Generalisten in ein branchenspezifisches Weiterbildungsprogramm zu schicken.
MCP (Model Context Protocol)
Ein Standard, der es KI-Modellen ermöglicht, sich mit externen Werkzeugen und Datenquellen zu verbinden. Statt Daten in die KI zu kopieren, lässt MCP die KI direkt aus Ihren Systemen lesen.
Vergleichbar mit: einem Benutzer, der Zugriff auf bestimmte Tools bekommt – mit klar definierten Zugriffsrechten und Einschränkungen.
Embedding
Eine Methode, Text in Zahlen (Vektoren) umzuwandeln, die Bedeutung erfassen. „Rechnung“ und „Faktura“ hätten ähnliche Embeddings. Wird für semantische Suche verwendet – Dokumente nach Bedeutung finden, nicht nur nach Stichwörtern.
Vergleichbar mit: einem Fingerabdruck für Text. Ähnliche Bedeutungen haben ähnliche Fingerabdrücke.
KI in der Praxis
Wie diese Konzepte zusammenspielen, wenn Sie KI tatsächlich in Ihrem Arbeitsalltag einsetzen.
Prompt Engineering
Die Fähigkeit, effektive Prompts zu schreiben. Dazu gehören Techniken wie Beispiele geben, das Format vorgeben, eine Rolle zuweisen und komplexe Aufgaben in Schritte aufteilen.
Vergleichbar mit: einer Kommunikationskompetenz. Je besser Ihr Briefing, desto besser das Ergebnis. Finanzprofis haben hier einen natürlichen Vorteil – sie sind bereits in Präzision und strukturiertem Denken geschult.
Zero-Shot vs. Few-Shot
Zero-Shot = die KI bitten, etwas ohne Beispiele zu tun. Few-Shot = 2–3 Beispiele in den Prompt einfügen, damit das Modell das Muster versteht.
Stellen Sie sich vor: Sie zeigen einem neuen Mitarbeiter einen fertigen Bericht, bevor er den nächsten schreiben soll. Wenige Beispiele verbessern die Qualität dramatisch.
Workflow / Automatisierung
Mehrere KI-Schritte zu einer automatisierten Kette verbinden, die ohne menschliches Eingreifen läuft. Beispiel: E-Mail kommt an → KI extrahiert Daten → Abgleich mit ERP → Weiterleitung zur Freigabe.
Vergleichbar mit: einem Fließband, bei dem jede Station von KI statt von manueller Arbeit betrieben wird.
Guardrails
Regeln und Einschränkungen, die auf KI-Systeme angewandt werden, um unerwünschtes Verhalten zu verhindern. Beispiele: Inhaltsfilter, Ausgabe-Validierung, Human-in-the-Loop-Anforderungen bei Entscheidungen mit hohem Risiko.
Vergleichbar mit: Leitplanken. Lassen Sie die KI schnell arbeiten, aber halten Sie sie auf Kurs.
Sie müssen nicht alles wissen
Sie müssen nicht jedes Detail der KI-Funktionsweise verstehen, um sie effektiv einzusetzen. Aber die Fachsprache zu kennen hilft Ihnen, bessere Fragen zu stellen, Werkzeuge kritischer zu bewerten und produktive Gespräche mit Ihrem Team darüber zu führen, was KI kann und was nicht.
Mehr Leitfäden wie diesen erhalten?
Abonnieren Sie unseren Newsletter und erhalten Sie neue Ressourcen direkt in Ihren Posteingang.