Der eigentliche Engpass der KI liegt im Betrieb
Viele Unternehmen erwarten von KI-Agenten einen Produktivitätssprung. Der eigentliche Engpass liegt jedoch oft im Betrieb selbst: in unverbundenen Daten, fehlendem Kontext und unklar modellierten Geschäftsregeln. Die nächste Stufe der Automatisierung wird nicht durch größere Modelle entschieden, sondern durch präziser beschriebene betriebliche Wirklichkeit. Wer Prozesse, Zuständigkeiten und Abhängigkeiten nicht sauber modelliert, macht aus KI kein operatives System, sondern ein Werkzeug mit begrenztem Verständnis.
Die KI-Branche versteht es hervorragend, jede technische Verbesserung als betriebliche Zäsur zu verkaufen. Erst sollte das Sprachmodell den Analysten verdrängen, dann der Agent das Datenproblem lösen. Inzwischen liegt der Engpass offener zutage. Ein Datenagent ohne belastbaren Zusammenhang ist kein digitaler Mitarbeiter. Er klingt gut und versteht zu wenig. Er antwortet schnell, formuliert flüssig und stößt dort an Grenzen, wo Unternehmen präzise sein müssen: bei Definitionen, Zuständigkeiten und der Frage, welche Zahl im Zweifel gilt.
Das ist mehr als ein theoretischer Vorbehalt. OpenAI hat GPT-5.4 Anfang März mit einem Kontextfenster von bis zu einer Million Token sowie stärkerer Werkzeugsuche und Computersteuerung vorgestellt. Die Richtung ist klar. Systeme sollen längere Zusammenhänge, Werkzeuge und Arbeitsschritte konsistent verarbeiten. Darin steckt bereits ein Eingeständnis. Mit wachsendem Anspruch an reale Arbeitsabläufe steigt der Wert des Kontexts.
Wenn Daten keine Bedeutung tragen
Viele Unternehmen haben Daten. Oft sind es viele, oft sind sie brauchbar. Was fehlt, ist ihr betrieblicher Zusammenhang. Das ERP kennt Aufträge, Stücklisten und Bestände. Die Produktionssteuerung kennt Maschinen, Taktzeiten und Auslastung. Das CRM kennt Kunden, Verträge und Vertriebsbeziehungen. Hinzu kommen Dokumentationen, Qualitätsvorgaben, Freigabeprozesse und Erfahrungswissen. Für Menschen wächst daraus mit der Zeit ein belastbares Gesamtbild. Für ein automatisiertes System steht zunächst nur ein Nebeneinander von Datensätzen bereit.
Darum führt die verbreitete Hoffnung in die Irre, ein Agent müsse nur an die vorhandenen Datenquellen angeschlossen werden. Tabellen lesen kann ein System. Verstehen, was ein Unternehmen unter Umsatz, Deckungsbeitrag, terminkritischem Auftrag oder Eskalationsfall fasst, ist etwas anderes. Der Engpass sitzt damit selten im Sprachmodell. Er sitzt in einer Wirklichkeit, die nur teilweise beschrieben ist. Ohne formalisierten Zusammenhang entsteht keine belastbare Automatisierung. Es entsteht eine anspruchsvolle Form des Ratens.
Die Rückkehr der Bedeutungsebene
Daher tauchen in der Debatte derzeit so viele neue Begriffe auf: Kontextschicht, Kontext-Engine, Kontext-OS, Ontologie. Die Terminologie wirkt modisch. Der Gedanke ist es nicht. Gemeint ist eine Ebene, die verstreute Datenbestände mit ihrer betrieblichen Bedeutung verbindet. Geschäftsdefinitionen, Rollen, Zuständigkeiten, Regeln und reale Abläufe machen aus Daten erst ein Bild, das Maschinen verlässlich lesen können.
Unternehmen versuchen damit, ihre Bedeutungsebene formal abzubilden. Produkte werden mit Komponenten verknüpft, Maschinen mit Fertigungsschritten, Kunden mit Verträgen, Entscheidungen mit Zuständigkeiten. Aus einer Sammlung von Datenpunkten wird so ein Beziehungsgefüge. Ein Maschinenstillstand ist dann kein isolierter Eintrag mehr. Er steht im Zusammenhang mit betroffenen Aufträgen, möglichen Lieferverzögerungen und den zuständigen Entscheidern. Für Menschen liegt ein solcher Zusammenhang oft nahe. Maschinen brauchen seine Beschreibung.
Neu ist der Gedanke also nicht. In der Wissensmodellierung existieren Ontologien seit langem. Neu ist der wirtschaftliche Druck, solche Strukturen unternehmensweit aufzubauen. Microsoft beschreibt seine Ontologie in Fabric IQ als Vorschaufunktion, mit der Entitätstypen, Beziehungen, Eigenschaften und weitere Regeln nach dem Geschäftsvokabular eines Unternehmens definiert werden können. Palantir fasst seine Ontology als operative Schicht auf, die digitale Bestände mit ihren Entsprechungen in der realen Organisation verbindet, von Anlagen und Produkten bis zu Kundenaufträgen und Finanztransaktionen. Beide Ansätze zielen auf denselben Punkt. Daten sollen im betrieblichen Zusammenhang modelliert werden.
Was das für den Mittelstand bedeutet
Für den deutschen Mittelstand stellt sich diese Frage sehr konkret. Viele Unternehmen stehen technologisch keineswegs am Anfang. ERP-Systeme strukturieren Aufträge und Materialflüsse, Produktionsdaten werden laufend erfasst, Maschinenparks sind digital angebunden. In vielen Betrieben reicht die operative Digitalisierung weiter, als es die öffentliche Debatte vermuten lässt. Der Engpass liegt folglich seltener bei der Datenerfassung als bei der Frage, wie diese Daten in einen belastbaren Zusammenhang kommen. Typisch für mittelständische Strukturen ist die Verteilung des relevanten Wissens auf mehrere Systeme und Köpfe. Das ERP kennt Aufträge, Stücklisten und Bestände. Die Produktionssteuerung kennt Maschinen, Taktzeiten und Auslastung. Das CRM kennt Kunden, Verträge und Vertriebsbeziehungen. Hinzu kommen technische Dokumentationen, Qualitätsvorgaben, Prozessbeschreibungen und das Erfahrungswissen langjähriger Mitarbeiter. Menschen gewinnen daraus mit Routine ein Gesamtbild. Ein automatisiertes System sieht zunächst getrennte Informationen. An dieser Stelle fällt die Entscheidung. Bleibt künstliche Intelligenz ein Hilfsmittel für Auswertungen, oder wird sie zu einem System, das operative Entscheidungen vorbereiten kann?
Die Debatte über Kontextschichten, Ontologien und semantische Datenmodelle richtet sich auf genau diese Lücke. Daten müssen mit Geschäftslogik verbunden werden: Produkte mit Komponenten, Maschinen mit Fertigungsschritten, Kunden mit Lieferverträgen, Entscheidungen mit Zuständigkeiten. Erst dann leistet ein Agent mehr als die Wiedergabe einzelner Kennzahlen. Dann meldet ein System keinen Maschinenstillstand mehr bloß als Ereignis. Es ordnet ein, welcher Auftrag betroffen ist, welche Liefertermine unter Druck geraten und wer handeln muss.
Für den Mittelstand sind die Voraussetzungen dafür oft besser als in großen, stark zergliederten Organisationen. Prozesse sind vielfach klarer, Verantwortlichkeiten direkter, Produkte und Fertigungsabläufe genauer bekannt. In vielen Unternehmen lässt sich sehr präzise sagen, welche Maschine welches Bauteil fertigt, welche Toleranzen gelten und welche Kunden an bestimmten Abläufen hängen. Dieses Wissen ist vorhanden. Seine Form ist das Problem. Ein Teil steckt in IT-Systemen, ein anderer in Dokumenten, ein weiterer in den Köpfen erfahrener Mitarbeiter. Maschinen können damit wenig anfangen, solange der Zusammenhang unbeschrieben bleibt.
Daraus folgt eine schlichte Konsequenz. Die nächste Phase der Digitalisierung dreht sich weniger um zusätzliche Datenspeicherung als um die systematische Beschreibung der eigenen Wertschöpfung. Unternehmen müssen ihre Begriffe, Prozesse, Zuständigkeiten und Abhängigkeiten so ordnen, dass daraus eine belastbare, maschinenlesbare Struktur wird. Der Hebel liegt damit oft nicht im nächsten KI-Werkzeug, sondern in der disziplinierten Modellierung des eigenen Betriebs.
Vom Analysewerkzeug zum operativen System
An dieser Stelle verläuft die Trennlinie. Solange künstliche Intelligenz Abfragen formuliert, Texte zusammenfasst oder Berichte verdichtet, bleibt sie ein Werkzeug. Sobald sie Prioritäten erkennen, Risiken einordnen oder Entscheidungen vorbereiten soll, genügt bloßer Datenzugang nicht mehr. Das System muss dann wissen, welche Beziehungen gelten, welche Ausnahmen zählen und welche Regeln Vorrang haben.
Dass Plattformanbieter diese Lücke inzwischen offen ansprechen, ist aufschlussreich. Microsoft erläutert bei seinen Data Agents ausdrücklich, dass Beispielabfragen und vorgegebene Logiken nötig sind, damit das System Fragen konsistent und kontextbezogen beantwortet. Auch dort zeigt sich derselbe Befund. Rechenleistung allein trägt nicht. Der fachliche Zusammenhang muss sauber beschrieben sein.
Für Unternehmen beginnt damit vor allem eine organisatorische Arbeit. Sie müssen festlegen, welche Kennzahl gilt, welche Quelle Vorrang hat, welche Sonderfälle dokumentiert werden und wer diese Ordnung pflegt. Das klingt unspektakulär. Dort entscheidet sich jedoch, ob aus einem KI-System ein belastbares Arbeitsmittel wird.
Konsequenz
Die nächste Stufe der Automatisierung scheitert kaum an mangelnder Sprachgewandtheit der Modelle. Die Bruchstelle liegt dort, wo Unternehmen ihre eigene Wirklichkeit unpräzise beschrieben haben. Eine Kontextschicht ist deshalb kein weiteres Zauberwort aus der Produktwelt der KI-Anbieter. Sie ist maschinenlesbare Organisation.
Für den Mittelstand steckt darin keine ferne Zukunftsfrage, sondern eine betriebliche Aufgabe von erheblicher Tragweite. Seine Stärke lag immer in der präzisen Organisation realer Wertschöpfung. Diese Organisationsleistung muss nun in eine Form übersetzt werden, die auch digitale Systeme verstehen. Wer diesen Schritt geht, schafft die Grundlage für verlässliche Agenten im Unternehmen. Wer ihn auslässt, beschleunigt mit leistungsfähiger KI vor allem die bestehende Unordnung.