Was Unternehmen vor dem KI-Ensatz klären müssen.
Ein Beitrag von Klaus Weßing.
New Lean als Ordnungsfrage: Was Unternehmen vor der KI klären müssen
Künstliche Intelligenz scheitert in der Industrie selten an Algorithmen, häufiger an unklaren Entscheidungswegen und nicht beherrschten Prozessen. Wer KI einführt, ohne Verantwortung, Transparenz und Lernroutinen zu ordnen, beschleunigt vor allem die bestehende Unordnung. „New Lean“ ist damit weniger Methode als Voraussetzung für wirtschaftliche Wirkung.
Die deutsche Industrie entdeckt gerade eine alte Wahrheit neu: Nicht jede technische Verbesserung ist schon ein wirtschaftlicher Fortschritt. Künstliche Intelligenz lässt sich in Präsentationen mühelos zu einem Produktivitätssprung aufblasen, im Werk hingegen zeigt sie sich oft als unerquicklich ehrlicher Prüfer. Sie stellt keine Frage nach Rechenleistung, sondern nach Ordnung. Und Ordnung ist in Unternehmen bekanntlich kein Naturzustand, sondern eine Führungsleistung, die man entweder erarbeitet – oder durch Gewohnheit ersetzt.
Wer die Diskrepanz zwischen vielversprechenden KI-Piloten und ernüchternder Wirkung im Betrieb erklären will, muss den Blick von Modellen auf Systeme lenken. KI kann Muster in Daten finden und Vorschläge erzeugen; sie kann aber nicht ersetzen, was in vielen Wertschöpfungssystemen fehlt: eindeutige Verantwortlichkeit, nachvollziehbare Entscheidungen und Prozesse, deren Logik nicht nur funktioniert, sondern erklärbar ist. In historisch gewachsenen Organisationen sind Abläufe häufig so zurechtgeschliffen, dass sie operativ durchlaufen – und doch kaum steuerbar bleiben. Entscheidungen entstehen verteilt, nicht selten implizit; Zuständigkeit wird als Organigrammfrage behandelt, obwohl sie in Wahrheit eine Wertschöpfungsfrage ist. Das Ergebnis ist eine Betriebsform, die Output produziert, aber Lernen nur zufällig organisiert: Korrektur findet statt, wenn es brennt, nicht wenn es sich rechnen würde.
Genau an dieser Stelle wird KI zur Vergrößerungsoptik. Sie kann lokale Engpässe optimieren, Prognosen verfeinern oder Wartung plausibler planen – doch sobald die Organisation nicht klar beantworten kann, wer einen Vorschlag annimmt, wer ihn verwirft, wer ihn testet und wer für den Schaden haftet, beschleunigt die Technik vor allem eines: die bestehende Unübersichtlichkeit. Es ist kein Zufall, dass manche Unternehmen nach der Einführung datengetriebener Assistenzsysteme nicht mehr Klarheit, sondern mehr Diskussion haben. Die Maschine liefert Wahrscheinlichkeiten, der Betrieb verlangt Entscheidungen – und dort, wo die Entscheidungskette unklar ist, entsteht aus Geschwindigkeit nicht Wirkung, sondern Lärm.
Damit ist auch die verbreitete Hoffnung relativiert, man könne die KI-Rendite wie eine Maschine in eine Halle stellen: anschließen, skalieren, fertig. Das klassische Lean-Denken hat vielen Betrieben beigebracht, Verschwendung zu reduzieren, Abläufe zu stabilisieren und Probleme an der Quelle zu lösen. Es war eine Disziplin, die von Nähe zum Prozess lebte: Der Mensch sah, verstand, korrigierte. KI verschiebt diese Logik. Entscheidungen werden häufiger modellgestützt, systemübergreifend und probabilistisch vorbereitet. Damit wächst nicht nur die Effizienzchance, sondern auch das Risiko der Entkopplung: Wer nicht mehr versteht, warum ein Modell empfiehlt, was es empfiehlt, entscheidet entweder blind – oder gar nicht. Beides ist betriebswirtschaftlich unerquicklich.
Was unter dem Schlagwort „New Lean“ sinnvollerweise gemeint sein sollte, ist deshalb keine neue Methodensammlung, sondern eine Rückführung der Digitalisierung auf die Kernfrage industrieller Steuerung: Beherrschbarkeit. Ein Wertschöpfungssystem ist erst dann wirklich digital anschlussfähig, wenn Prozesse nicht nur stabil laufen, sondern in ihrer Ursache-Wirkungs-Logik erklärbar bleiben; wenn Entscheidungswege nicht nur existieren, sondern transparent sind; wenn Verantwortung nicht bloß formal benannt wird, sondern in der Praxis greift – und wenn Lernen nicht als Projektkultur betrieben, sondern als Routine organisiert wird. Das klingt unerquicklich unspektakulär. Es ist aber der Unterschied zwischen Technik als Demonstrator und Technik als Produktivität.
Viele Digitalisierungsprogramme drehen die Reihenfolge um. Sie automatisieren Abläufe, deren Logik sie nicht sauber beschreiben können; sie trainieren Modelle auf Daten, deren Entstehung sie nur begrenzt kontrollieren; sie instrumentieren Kennzahlen, ohne die Entscheidung hinter der Kennzahl zu klären. Technisch mag das imponieren, ökonomisch bleibt es riskant. Denn wer Systeme digitalisiert, die er organisatorisch nicht verstanden hat, konserviert nicht selten seine Schwächen – nur schneller. Die produktive Frage lautet daher nicht zuerst, wo KI eingesetzt werden kann, sondern wo Prozess- und Entscheidungslogiken überhaupt so beschaffen sind, dass KI einen belastbaren Beitrag liefern darf: mit klaren Annahmen, definierten Korrekturschleifen und benannter Haftung.
Damit rückt Führung in den Engpass. Nicht als Motivationskunst, sondern als Ordnungsstiftung. Vorstände und Geschäftsführungen müssen Entscheidungen verantworten, die nicht mehr vollständig aus Erfahrung plausibel abgeleitet werden können. Sie müssen Unsicherheit aushalten, statt sie mit Pseudo-Gewissheiten zu übertünchen. Wer KI ernst nimmt, organisiert Zweifel: als Prüfregeln, als Eskalationspfade, als klare Zuständigkeiten zwischen IT, Fachbereich und Betrieb. Führung wird dabei weniger zur Durchsetzung von Zielen als zur Gestaltung einer Entscheidungsfähigkeit, die auch dann trägt, wenn die Maschine nur Wahrscheinlichkeiten liefert.
Ausgerechnet der Mittelstand könnte hierbei strukturelle Vorteile haben – nicht weil er „digitaler“ wäre, sondern weil viele seiner Systeme noch überschaubar sind. Kürzere Wege, klarere Verantwortung, geringere organisatorische Trägheit: Das sind keine nostalgischen Tugenden, sondern Voraussetzungen für steuerbare Integration. Große Konzerne müssen häufig erst wieder Ordnung herstellen, bevor sie aus KI einen Hebel machen können. Mittelständler können Ordnung eher noch gestalten, statt sie zu entwirren. Der Unterschied liegt weniger im Budget als in der Systemqualität.
Die Lehre ist unbequem, aber nützlich: KI wirkt nicht „im Unternehmen“, sondern in beherrschten Wertschöpfungssystemen. Wer sie einführt, ohne Entscheidungs- und Verantwortungslogik zu klären, digitalisiert nicht seine Stärke, sondern seine Schwäche. Darin liegt der eigentliche Prüfstein der kommenden Jahre: Nicht wie viele Modelle ein Unternehmen trainiert, sondern ob es den Mut hat, seine Organisation so zu ordnen, dass Technik überhaupt wirtschaftlich werden kann. KI ist nicht der Anfang der Transformation. Sie ist ihr Belastungstest – und er fällt nur dort gut aus, wo Führung bereit ist, Ordnung vor Geschwindigkeit zu setzen.
Was lernen wir daraus? Dass KI kein Fortschrittsmotor aus sich selbst ist, sondern ein Diagnoseinstrument: Sie zeigt schonungslos, wo ein Unternehmen seine Wertschöpfung nur „betreibt“, aber nicht wirklich steuert. Wo Verantwortung diffus ist, Daten zufällig entstehen und Entscheidungen aus Gewohnheit statt aus nachvollziehbaren Kriterien getroffen werden, liefert KI zwar Vorschläge – aber keine Wirkung. Wer das ignoriert, baut Rechenleistung auf Sand.
Was muss sich ändern? Zuerst die Entscheidungsfähigkeit, nicht die Tool-Landschaft. Ein Betrieb wird KI-tauglich, wenn er drei Dinge wieder ernst nimmt: eindeutige Verantwortung entlang der Wertschöpfung (nicht entlang der Abteilungen), erklärbare Prozesslogik (nicht nur „läuft irgendwie“) und eine Lernroutine, die Irrtum nicht moralisch bewertet, sondern systematisch auswertet. Das klingt nach Organisationslehre, ist aber in Wahrheit Investitionspolitik im Unternehmen: Ohne klare Zuständigkeit und Korrekturmechanismus bleibt jeder KI-Einsatz ein Risiko mit hübscher Oberfläche.
Wie schnell? Nicht in Jahren denken – in Quartalen. Wenn ein Unternehmen nach 90 Tagen nicht sagen kann, wer bei den kritischen Prozessentscheidungen tatsächlich entscheidet, nach welchen Kriterien und mit welchem Eskalationsweg, wird es in zwölf Monaten zwar mehr Modelle haben, aber nicht mehr Produktivität. Der erste Takt ist daher ein 12-Wochen-Programm zur „Beherrschbarkeit“: Entscheidungslandkarte für die Kernprozesse, Zuordnung von Verantwortlichen mit Mandat, sowie ein definierter Korrekturpfad, der vom Shopfloor bis zur Geschäftsführung reicht. Danach folgen weitere 12 Wochen, in denen die wichtigsten Prozesslogiken so sauber beschrieben und stabilisiert werden, dass sie messbar werden – erst dann lohnt das breite KI-Rollout.
Mit welchen Zielen? Nicht „mehr KI“, sondern weniger Unschärfe – messbar. Ein brauchbarer Zielkorridor wäre, dass binnen drei Monaten für alle geschäftskritischen Entscheidungen ein namentlich verantwortlicher Owner benannt ist und die Entscheidungskette dokumentiert wurde; dass binnen sechs Monaten die entscheidungsrelevanten Datenquellen einen klaren Datenverantwortlichen, eine definierte Entstehungslogik und Mindestqualitätskriterien haben; und dass binnen zwölf Monaten jede produktiv eingesetzte KI-Anwendung mit Monitoring, Drift-Kontrolle, definierten Freigaberegeln und einem klaren „Stop/Override“-Mechanismus betrieben wird. Parallel dazu braucht es ökonomische Effektziele, die nicht nach PowerPoint klingen: spürbar kürzere Durchlaufzeiten, weniger Plan-Ist-Abweichung, sinkender Nacharbeits- und Ausschussanteil, höhere Termintreue. Wenn diese Kennziffern sich nach sechs bis zwölf Monaten nicht bewegen, war die KI nicht „noch nicht gut genug“, sondern das System war nicht beherrscht genug.
Der entscheidende Punkt ist: Geschwindigkeit entsteht erst aus Ordnung. Wer das akzeptiert, gewinnt Zeit – paradoxerweise gerade dadurch, dass er die KI am Anfang bremst und die Organisation zuerst führungsfähig macht.
Deep Dive
Seit Herbst 2025 verdichtet sich bei den großen Beratungen eine Diagnose, die der deutschen KI-Debatte aus der Rhetorik zurück in die Betriebswirklichkeit holt: Der Engpass liegt weniger im Modell als im Betriebssystem der Organisation. Die Boston Consulting Group hat das in ihrer weltweiten Erhebung scharf quantifiziert: In einer Studie mit mehr als 1.250 Unternehmen erreichen nur fünf Prozent „Wertschöpfung in der Breite“, während sechzig Prozent trotz Investitionen „keinen materiellen Wert“ berichten; weitere 35 Prozent sehen zwar erste Erträge, gestehen aber, nicht schnell genug voranzukommen. Das ist kein Argument gegen KI, sondern gegen den Glauben, Skalierung sei vor allem eine Frage weiterer Use Cases. Wer KI auf Systeme trifft, die Verantwortlichkeiten nicht sauber binden, Entscheidungen nicht end-to-end führen und Lernen nicht als Routine organisieren, bekommt Geschwindigkeit – aber nicht zwingend Produktivität.
McKinsey beschreibt denselben Mechanismus mit anderer Sprache: „High performers“ unterscheiden sich weniger durch Zaubermodelle als durch Managementpraktiken, die Wert überhaupt erst möglich machen – von klaren Operating-Model-Strukturen über Daten- und Talentfundamente bis zu Prozessen, die festlegen, wann Modelloutputs menschlich zu validieren sind. Auffällig ist der Befund, dass Praktiken rund um Einbettung in Geschäftsprozesse und konsequentes KPI-Tracking mit höherer, der KI zurechenbarer Wertschöpfung korrelieren; zugleich investieren die Erfolgreichen systematischer und binden KI stärker in die Ablauflogik ein, statt sie als Zusatzschicht zu behandeln. Das ist im Kern „New Lean“, ohne dass McKinsey so sagen muss: Erst Beherrschbarkeit, dann Automatisierung.
Deloitte hat Ende Oktober 2025 die operative Konsequenz zugespitzt: Solange Unternehmen KI als „Technologie-Upgrade“ über alte Arbeitsmodelle legen, bleibt die Rendite spröde. In der zugehörigen Untersuchung geben 59 Prozent der Befragten an, KI vor allem technikzentriert zu investieren; genau diese Gruppe ist laut Deloitte 1,6-mal häufiger mit dem Ergebnis unzufrieden, und nur 16 Prozent berichten, Rollen, Prozesse und Operating Model bereits vollständig für die Integration von KI gestaltet zu haben. EY ergänzt die Risikoseite derselben Medaille: In der Responsible-AI-Pulse-Befragung berichten 99 Prozent der Unternehmen finanzielle Verluste aus KI-Risiken; fast zwei Drittel geben Verluste von mehr als einer Million Dollar an, und fortgeschrittene Governance-Maßnahmen wie Echtzeit-Monitoring korrelieren mit besseren Ergebnisindikatoren. KPMG schließlich zieht daraus die naheliegende Schlussfolgerung für die Unternehmensspitze: Board-Aufsicht ist nicht Dekoration, sondern Voraussetzung, weil Governance über Ausschüsse, Kompetenzen und Prüfpfade in die reale Entscheidungsarbeit integriert werden muss. Zusammen ergibt das eine nüchterne Lektion: KI wird dort ökonomisch, wo Arbeit, Verantwortung und Kontrolle neu zugeschnitten werden – und wo jemand benannt ist, der im Zweifel „ja“, „nein“ oder „stop“ sagt.
Quellen: Boston Consulting Group, „The Widening AI Value Gap“, Oktober 2025; McKinsey, „The State of AI: Global Survey 2025“, 5. November 2025; Deloitte, Press Release „Work Design Essential to Realize AI Return on Investment“, 27. Oktober 2025; EY, Press Release „Responsible AI governance linked to better business outcomes“, 8. Oktober 2025; KPMG, „Generative AI Survey Report 2025“, Dezember 2025.
Bilder: Susanne O´Leary, erstellt mit (c) DALL-E von OpenAI.

Klaus Weßing
Vorstand infpro