Die Intent-Lücke

Über die Distanz zwischen dem, was Organisationen wollen, und dem, worauf ihre Systeme zugreifen können.

Handgezeichnete Skizze einer Stadtstraße, die aufbricht und geologische Schichten darunter freilegt — die sichtbare Oberfläche verbirgt tiefere Strukturen
AI-generated illustration
Flux by Black Forest Labs

Bevor ich Organisationen studiert habe, habe ich Gesteinsformationen studiert. In der Geologie lernt man, Schichten zu lesen — was zuerst kam, welcher Druck was geformt hat, wo die Bruchlinien verlaufen. Man lernt, dass die sichtbare Oberfläche selten die ganze Geschichte erzählt.

Danach kamen Beratung, Datenstrategie, eine Firmengründung, Projektmanagement, agile Transformation. Verschiedene Branchen, verschiedene Rollen, aber immer dieselbe Frage: Warum können Organisationen formulieren, was sie wollen, es aber nie so festhalten, dass jemand danach handeln kann?

2025 bin ich zurück zu ORAYLIS gegangen, diesmal als Berater für COO und Board, mit dem Auftrag, die Organisation selbst zu gestalten. Die Arbeit an der Organisation selbst gab mir ein neues Vokabular. Dann gab mir KI eine neue Perspektive. Als ich beobachtete, wie KI-Agents an organisatorischen Aufgaben scheiterten, erkannte ich das Muster, das mich seit fünfzehn Jahren begleitete: Das Problem war nie das Werkzeug. Es war die fehlende Intention darunter: das, was man im Code eine Spezifikation nennen würde.

Dieser Essay handelt von dieser Lücke.


Im Februar 2024 entschied ein kanadisches Tribunal, dass Air Canada für das haftet, was ihr Chatbot einem trauernden Kunden versprochen hatte.1 Die Verteidigung der Airline: Der Chatbot sei eine eigenständige Entität. Die Antwort des Tribunals: Nein, er spricht für Sie.

Der Agent, der für das Unternehmen sprach

Jake Moffatt brauchte einen Last-Minute-Flug nach einem Todesfall in der Familie. Air Canadas Chatbot sagte ihm, er könne jetzt buchen und den Trauertarif innerhalb von 90 Tagen beantragen. Das tat er. Die Airline lehnte ab. Die Richtlinie funktionierte nicht so. Der Chatbot hatte ein Versprechen erfunden, das die Organisation nie gegeben hatte.

Der Agent hatte Zugriff auf Air Canadas Richtlinien. Er hatte den richtigen Kontext. Was ihm fehlte, war ein Verständnis dafür, was er zusagen durfte, und welche Konsequenzen eine falsche Zusage hat. Der Chatbot war nicht defekt. Er operierte ohne Grenzen.

Monate später zeigte Klarna dasselbe Problem im großen Maßstab.2 Ihr KI-Agent wickelte 2,3 Millionen Kundengespräche ab, senkte die Bearbeitungszeit von elf auf zwei Minuten und prognostizierte 40 Millionen Dollar Einsparung jährlich. Dann kamen die Beschwerden. Generische Antworten. Roboterhafter Ton. Kunden fühlten sich abgefertigt, nicht geholfen. CEO Sebastian Siemiatkowski gab zu, was schiefgelaufen war: Optimierung auf Kostenreduktion führte zu schlechterer Qualität. Das Unternehmen kehrte um und begann wieder, menschliche Agenten einzustellen.

Zwei Unternehmen. Zwei gut gebaute Agenten. Beide exzellent — beim falschen Ziel.

Drei Disziplinen

Nate B Jones nennt das die Verschiebung von Prompts zu Intention3, und das Framing ist nützlich. Drei Disziplinen bestimmen, ob KI produktiv wird. Sie bauen aufeinander auf. Die meisten Unternehmen kennen nur die erste.

Prompt Engineering handelt von der richtigen Frage. Individuell, synchron, unmittelbar. Besserer Prompt, bessere Antwort. Hier fangen die meisten an. Und hören auf.

Context Engineering handelt davon, was der Agent wissen muss. RAG-Pipelines, MCP-Server, Wissensdatenbanken, Tool-Zugriffe — die Architektur, die dem Modell die richtigen Informationen zur richtigen Zeit liefert. Hier investieren ernsthafte KI-Teams heute den Großteil ihrer Energie.

Intent Engineering handelt davon, was der Agent wollen soll. Nicht was er weiß, sondern was er wertschätzt. Ziele, Abwägungen, Grenzen, Prioritäten — die Leitplanken für autonomes Handeln. Context gibt dem Agenten Wissen. Intention gibt ihm Urteilsvermögen.

Air Canadas Chatbot hatte Kontext — er konnte die Trauertarif-Richtlinie lesen. Was ihm fehlte, war Intention: die Grenze, die sagt „du darfst informieren, aber nicht zusagen." Klarnas Agent hatte ebenfalls Kontext: Kundendaten, Bestellhistorien, Richtlinien. Was ihm fehlte: dass Kundenvertrauen schwerer wiegt als schnelle Bearbeitung, dass die Marke schützenswert ist, selbst wenn kurzfristige Metriken darunter leiden.

Die Intent-Lücke

Das ist kein Technologieproblem. Es ist ein Alignment-Problem.

Organisationen kodieren ihre Intention in PDFs, PowerPoint-Decks und den Köpfen erfahrener Mitarbeiter. Wer was entscheiden darf, ist nirgends aufgeschrieben. Was Vorrang hat, wissen die Leute intuitiv. Eskalationswege lernt man durch Osmose, über Monate oder Jahre im System.

Das funktionierte, solange Menschen die einzigen Entscheidungsträger waren. Menschen sind langsam, aber sie kommen mit Uneindeutigkeit zurecht. Sie lesen Signale, stellen Rückfragen, urteilen aus jahrelanger Erfahrung.

Autonome Agenten haben keine Jahre. Manche laufen wochenlang ohne menschliche Aufsicht. Ein Agent, der Kreditentscheidungen trifft, Tickets eskaliert, Kunden etwas zusagt — dieser Agent braucht explizites Alignment, bevor er seine erste Entscheidung trifft. Ohne dieses Alignment ist jede Optimierung ein Glücksspiel.

Ein Agent ohne Intent-Alignment ist wie ein neuer Mitarbeiter, der das Organigramm kennt, aber nie erfahren hat, was dem Unternehmen wirklich wichtig ist. Jetzt multipliziere das mit zehntausend.

Intention lesbar machen

Was wäre, wenn der Zweck einer Organisation maschinenlesbar wäre?

Kein Mission Statement im System Prompt. Keine Prosa im Firmen-Wiki. Strukturierte Definitionen: Wer entscheidet was, unter welchen Bedingungen, mit welcher Autorität, innerhalb welcher Grenzen, mit welcher Optimierungsrichtung.

Das ist die Idee hinter Org as Code: Organisationsstruktur, Governance und Entscheidungslogik in versionierten Dateien definieren. Rollen, Teams, Gremien, Eskalationspfade, Entscheidungsframeworks, alles in YAML, das Menschen lesen und Maschinen parsen können.

Im Kern stehen OPIs — Organizational Programming Interfaces. Wo APIs definieren, wie Softwarekomponenten kommunizieren, definieren OPIs, wie Organisationseinheiten interagieren. Jede Einheit deklariert ihr Mandat, ihre Schnittstellen, ihre Governance-Logik, ihre Entscheidungsgrenzen.

Ein Gremium zum Beispiel wird mehr als ein Kalendertermin:

committee:
  name: Steering Committee
  type: governance
  cadence: bi-weekly
  governance:
    framework: DACI
    quorum: 3
  decisions:
    - type: budget
      authority: approve
      condition: "amount > 10k EUR"
      escalation: board
    - type: strategic
      authority: recommend
      escalation: board
  interfaces:
    receives_from:
      - source: delivery-leads
        artifact: budget-requests
    sends_to:
      - target: board
        artifact: recommendations

Es ist eine Alignment-Schicht. Wenn ein Agent eine Budgetentscheidung treffen muss, rät er nicht. Er liest die Spezifikation. Wenn eine Entscheidung seine Autorität übersteigt, weiß er, wohin eskaliert wird. Wenn Zielkonflikte auftreten, sind die Grenzen explizit.

Zumindest ist das die Richtung. Lässt sich organisatorische Intention vollständig codieren? Vermutlich nicht. Organisationen sind lebendig, politisch, unordentlich. Menschliches Urteilsvermögen lässt sich nicht durch Konfigurationsdateien ersetzen. Aber man kann genug der Grenzen explizit machen, dass ein Agent weiß, wann er handeln darf und wann er nachfragen muss. Ich habe hier noch nicht alle Antworten. Aber die Frage fühlt sich richtig an.

Air Canadas Chatbot hätte prüfen können: „Darf ich Erstattungen zusagen?" Klarnas Agent hätte abwägen können: „Dient schnellere Bearbeitung dem Kunden — oder nur der Metrik?" Mit expliziter Intention haben diese Fragen zumindest ein Fundament — kein Ersatz für Urteilsvermögen, aber Leitplanken.

Definieren.
Versionieren.
Weiterentwickeln.

Jede Organisation hat bereits eine Intention. Sie steckt nur an Orten, die Maschinen nicht erreichen.

Wenn ein neuer Mitarbeiter anfängt, nimmt er Kultur durch Osmose auf. Er sitzt in Meetings, beobachtet, wie entschieden wird, lernt, wen man bei welcher Frage anspricht. Das dauert Monate. Oft Jahre, bevor jemand versteht, wie die Organisation jenseits ihres Organigramms funktioniert.

Ein Agent hat keine Monate. Keine Flurgespräche, kein Mittagessen mit einem Mentor, kein Bauchgefühl aus jahrelanger Erfahrung. Er braucht explizites Alignment vor Tag eins. Und dieses Alignment muss sich weiterentwickeln — versioniert, reviewed, gegen die Realität getestet — genau wie Code.

Die Intent-Lücke wird darüber entscheiden, welche Organisationen mit KI erfolgreich sind. Die Organisationen, die aufschreiben, was sie wollen, in einem Format, nach dem Menschen und Maschinen handeln können, werden diejenigen sein, deren Agenten funktionieren.

Die Frage ist nicht, ob die Lücke geschlossen wird. Sondern wer die Spezifikation schreibt und den Intent codiert.

Daran arbeite ich. Nicht weil Konfigurationsdateien die Welt retten, sondern weil Organisationen dieselbe Klarheit verdienen, die wir unserem Code geben. Org as Code ist mein Versuch, diese Lücke zu schließen: Open Source, versioniert, in Entwicklung. Wenn dich diese Fragen auch beschäftigen, melde dich gerne.
/top ← andreassiemes.de