Bevor ich Organisationen studiert habe, habe ich Gesteinsformationen studiert. In der Geologie lernt man, Schichten zu lesen — was zuerst kam, welcher Druck was geformt hat, wo die Bruchlinien verlaufen. Man lernt, dass die sichtbare Oberfläche selten die ganze Geschichte erzählt.
Danach kamen Beratung, Datenstrategie, eine Firmengründung, Projektmanagement, agile Transformation. Verschiedene Branchen, verschiedene Rollen, aber immer dieselbe Frage: Warum können Organisationen formulieren, was sie wollen, es aber nie so festhalten, dass jemand danach handeln kann?
2025 bin ich zurück zu ORAYLIS gegangen, diesmal als Berater für COO und Board, mit dem Auftrag, die Organisation selbst zu gestalten. Die Arbeit an der Organisation selbst gab mir ein neues Vokabular. Dann gab mir KI eine neue Perspektive. Als ich beobachtete, wie KI-Agents an organisatorischen Aufgaben scheiterten, erkannte ich das Muster, das mich seit fünfzehn Jahren begleitete: Das Problem war nie das Werkzeug. Es war die fehlende Intention darunter: das, was man im Code eine Spezifikation nennen würde.
Dieser Essay handelt von dieser Lücke.
Im Februar 2024 entschied ein kanadisches Tribunal, dass Air Canada für das haftet, was ihr Chatbot einem trauernden Kunden versprochen hatte.1 Die Verteidigung der Airline: Der Chatbot sei eine eigenständige Entität. Die Antwort des Tribunals: Nein, er spricht für Sie.
Der Agent, der für das Unternehmen sprach
Jake Moffatt brauchte einen Last-Minute-Flug nach einem Todesfall in der Familie. Air Canadas Chatbot sagte ihm, er könne jetzt buchen und den Trauertarif innerhalb von 90 Tagen beantragen. Das tat er. Die Airline lehnte ab. Die Richtlinie funktionierte nicht so. Der Chatbot hatte ein Versprechen erfunden, das die Organisation nie gegeben hatte.
Der Agent hatte Zugriff auf Air Canadas Richtlinien. Er hatte den richtigen Kontext. Was ihm fehlte, war ein Verständnis dafür, was er zusagen durfte, und welche Konsequenzen eine falsche Zusage hat. Der Chatbot war nicht defekt. Er operierte ohne Grenzen.
Monate später zeigte Klarna dasselbe Problem im großen Maßstab.2 Ihr KI-Agent wickelte 2,3 Millionen Kundengespräche ab, senkte die Bearbeitungszeit von elf auf zwei Minuten und prognostizierte 40 Millionen Dollar Einsparung jährlich. Dann kamen die Beschwerden. Generische Antworten. Roboterhafter Ton. Kunden fühlten sich abgefertigt, nicht geholfen. CEO Sebastian Siemiatkowski gab zu, was schiefgelaufen war: Optimierung auf Kostenreduktion führte zu schlechterer Qualität. Das Unternehmen kehrte um und begann wieder, menschliche Agenten einzustellen.
Zwei Unternehmen. Zwei gut gebaute Agenten. Beide exzellent — beim falschen Ziel.
Drei Disziplinen
Nate B Jones nennt das die Verschiebung von Prompts zu Intention3, und das Framing ist nützlich. Drei Disziplinen bestimmen, ob KI produktiv wird. Sie bauen aufeinander auf. Die meisten Unternehmen kennen nur die erste.
Prompt Engineering handelt von der richtigen Frage. Individuell, synchron, unmittelbar. Besserer Prompt, bessere Antwort. Hier fangen die meisten an. Und hören auf.
Context Engineering handelt davon, was der Agent wissen muss. RAG-Pipelines, MCP-Server, Wissensdatenbanken, Tool-Zugriffe — die Architektur, die dem Modell die richtigen Informationen zur richtigen Zeit liefert. Hier investieren ernsthafte KI-Teams heute den Großteil ihrer Energie.
Intent Engineering handelt davon, was der Agent wollen soll. Nicht was er weiß, sondern was er wertschätzt. Ziele, Abwägungen, Grenzen, Prioritäten — die Leitplanken für autonomes Handeln. Context gibt dem Agenten Wissen. Intention gibt ihm Urteilsvermögen.
Air Canadas Chatbot hatte Kontext — er konnte die Trauertarif-Richtlinie lesen. Was ihm fehlte, war Intention: die Grenze, die sagt „du darfst informieren, aber nicht zusagen." Klarnas Agent hatte ebenfalls Kontext: Kundendaten, Bestellhistorien, Richtlinien. Was ihm fehlte: dass Kundenvertrauen schwerer wiegt als schnelle Bearbeitung, dass die Marke schützenswert ist, selbst wenn kurzfristige Metriken darunter leiden.
Die Intent-Lücke
Das ist kein Technologieproblem. Es ist ein Alignment-Problem.
Organisationen kodieren ihre Intention in PDFs, PowerPoint-Decks und den Köpfen erfahrener Mitarbeiter. Wer was entscheiden darf, ist nirgends aufgeschrieben. Was Vorrang hat, wissen die Leute intuitiv. Eskalationswege lernt man durch Osmose, über Monate oder Jahre im System.
Das funktionierte, solange Menschen die einzigen Entscheidungsträger waren. Menschen sind langsam, aber sie kommen mit Uneindeutigkeit zurecht. Sie lesen Signale, stellen Rückfragen, urteilen aus jahrelanger Erfahrung.
Autonome Agenten haben keine Jahre. Manche laufen wochenlang ohne menschliche Aufsicht. Ein Agent, der Kreditentscheidungen trifft, Tickets eskaliert, Kunden etwas zusagt — dieser Agent braucht explizites Alignment, bevor er seine erste Entscheidung trifft. Ohne dieses Alignment ist jede Optimierung ein Glücksspiel.