KI-Grundlagen 5 Min. Lesezeit

Was ist Harness Engineering? Der Begriff, den CFOs immer öfter hören

Harness Engineering ist die Disziplin, das Drumherum eines Sprachmodells zu bauen. Erklärt in fünf Minuten – und warum CFOs den Begriff im Hinterkopf haben sollten.

OT

Orcha Team

6. Mai 2026

In LinkedIn-Posts taucht er auf, in Konferenz-Slides, in Pitches von Anbietern: Harness Engineering. Der Begriff klingt nach Maschinenbau, kommt aber aus der Softwareentwicklung. Hier eine Erklärung in fünf Minuten – und am Ende eine Pointe für CFOs.

Die Auto-Analogie

Stellen Sie sich ein Sprachmodell wie GPT, Claude oder Gemini als Motor vor. Der Motor ist beeindruckend: Er kann mit Sprache umgehen, Texte verstehen, Code schreiben, Bilanzen analysieren. Aber er fragt nicht von selbst, was er tun soll. Er hat keine Werkzeuge. Er erinnert sich nicht an gestern. Allein, in einer leeren Halle, fährt der Motor kein Auto.

Was den Motor fahrbar macht, ist alles drumherum: Karosserie, Lenkrad, Pedale, Tank, Bordcomputer, Navi. Genau diese Hülle – und die Disziplin, sie zu bauen – nennt sich Harness. Wer ein KI-Produkt entwickelt, baut eigentlich keinen Motor (das macht Anthropic, OpenAI, Google), sondern ein Auto um den Motor herum.

Fünf wiederkehrende Bausteine

Eine kanonische Definition gibt es nicht – je nach Anbieter werden Komponenten anders geschnitten. In der Praxis lassen sich aber fünf Bausteine unterscheiden, die in den meisten ernsthaften KI-Produkten zusammen den Harness ergeben.

1

System-Prompt – die Persönlichkeit

Ein Text, der dem Modell vorgibt, wer es ist und wie es antworten soll: „Du bist Controlling-Assistent. Du antwortest auf Deutsch, in einem professionellen Ton. Du nennst Quellen, wenn du Zahlen verwendest.“ Ohne System-Prompt antwortet der Motor wie ein generischer Chatbot. Mit Prompt antwortet er als bestimmte Rolle.

2

Tools und Connectors – was es kann

Ein Sprachmodell allein kann nur Text produzieren. Ein Harness gibt ihm Werkzeuge: SharePoint öffnen, eine Excel-Datei lesen, eine E-Mail entwerfen, einen Datensatz im ERP suchen. Diese Werkzeuge sind der Unterschied zwischen „Claude erklärt mir, wie eine Buchung aussieht“ und „Claude sucht die Buchung im ERP, vergleicht sie mit dem Beleg und schreibt den Vorschlag“.

3

Memory und Kontext – was es weiß

Das Modell selbst hat kein Gedächtnis über die einzelne Anfrage hinaus. Der Harness reicht ihm den passenden Kontext nach: relevante Dokumente, frühere Entscheidungen, das Glossar des Hauses, der Stand der laufenden Aufgabe. Wer früher schon einmal „RAG“ (Retrieval Augmented Generation) gehört hat – das ist ein Teil dieses Bausteins.

4

Sub-Agenten – Aufgabenteilung

Komplexe Aufgaben zerlegt ein Harness in kleinere Teile, die jeweils ein spezialisierter Agent übernimmt: einer extrahiert die Daten, einer prüft sie gegen Richtlinien, einer schreibt das Ergebnis. Wie in einem Team, in dem die Teamleitung die Arbeit verteilt – nur, dass die Teamleitung selbst auch ein Sprachmodell ist.

5

Loop und Recovery – was passiert, wenn es klemmt

Ein guter Harness erkennt Fehler und wiederholt Schritte intelligent: Eine API-Antwort fehlt, eine Datei ist gesperrt, ein Wert ist offensichtlich unsinnig. Statt aufzugeben, baut der Harness Prüfschleifen ein, fragt nach, korrigiert, gibt am Ende einen sauberen Output zurück – oder meldet ehrlich, dass etwas nicht ging. Dieser Baustein entscheidet, ob ein KI-Produkt im echten Betrieb überlebt oder schon beim ersten Sonderfall stehen bleibt.

Wo man Harness im Alltag sieht

Wer Claude Cowork nutzt, sieht einen Harness von Anthropic im Einsatz: System-Prompt, Connectors zu OneDrive, Outlook und Teams, Memory pro Person, Sub-Agenten für längere Aufgaben, Recovery-Logik für Scheduled Tasks. Wer Claude Code nutzt, sieht einen anderen Harness derselben Firma – auf Code-Aufgaben spezialisiert. Custom GPTs sind ein Harness von OpenAI um GPT-Modelle herum. Microsoft Copilot ist ein Harness um GPT, Claude und Microsofts eigene Daten.

Drei Anbieter, dreimal derselbe Motor (oder ein ähnlicher), drei völlig verschiedene Erlebnisse. Der Unterschied liegt im Harness.

Warum CFOs das interessiert

Modelle werden zur Commodity. Der Harness wird zum Wettbewerbsvorteil.

Sprachmodelle werden alle paar Monate besser, austauschbarer und günstiger. Der Vorsprung des einen Anbieters gegenüber dem anderen schmilzt schneller, als ein Budget-Zyklus dauert. Was nicht schmilzt, ist der Harness eines Hauses: die Tools, die Connectors, die Prüflogiken, die Workflows, das Wissen, das im Lauf der Monate hineingeflossen ist. Wer den Harness selbst kontrolliert, kann den Motor wechseln, wenn ein besserer kommt. Wer ihn nicht kontrolliert, ist vom Anbieter abhängig.

Für Finanzteams hat das eine konkrete Konsequenz: Bei der Bewertung von KI-Anbietern lohnt der Blick darauf, wie viel vom Harness offen liegt. Können wir Skills, Plugins, Workflows selbst pflegen? Sind Connectors standardisiert? Lässt sich das Modell tauschen, ohne den Workflow neu zu bauen? Wenn die Antwort nein lautet, kauft das Haus nicht ein KI-Produkt, sondern eine schwer kontrollierbare Abhängigkeit.

Wer den Begriff Harness Engineering das nächste Mal hört, weiß nun: Es geht nicht um Maschinenbau. Es geht um die Frage, wie viel Kontrolle ein Unternehmen über seine eigenen KI-Workflows behält – und wie austauschbar das Modell darunter sein darf.

Quellen

Ähnliche Artikel

Weitere Artikel aus unserer Serie zu Claude für Finanzteams: KI-Glossar für Fortgeschrittene | Agenten und Sub-Agenten | Vom Chat zum Autopilot

Mehr Leitfäden wie diesen?

Abonnieren Sie unseren Newsletter für neue Ressourcen direkt in Ihrem Postfach.