Derzeit wird in der Fertigungsbranche viel über künstliche Intelligenz gesprochen. Fortgeschrittene Analytik, maschinelles Lernen, Deep Learning, große Sprachmodelle, Grundmodelle, KI-Agenten … die Liste wird immer länger, und der Hype nimmt ebenfalls zu.
Doch trotz der offensichtlichen technologischen Reife tun sich viele Hersteller nach wie vor schwer damit, KI über vereinzelte Pilotprojekte hinaus zu skalieren. Hier ein Proof of Concept zur vorausschauenden Wartung, dort ein Qualitätsmodell, vielleicht ein Chatbot, der mit einem Historien-System verbunden ist. Interessante Initiativen, die jedoch auf Unternehmensebene selten wirklich transformativ wirken.
In diesem Artikel geht es nicht darum, neue KI-Algorithmen zu entwickeln. Es geht vielmehr darum, wie KI skaliert werden kann und wie sie nachhaltige geschäftliche Auswirkungen über Werke, Produktionslinien und Standorte hinweg erzielt.
Und was wir heute sehen, ist, dass die größten Hindernisse nicht diejenigen sind, die die meisten Menschen vermuten.
Wenn KI-Initiativen nicht skaliert werden können, hören wir oft dieselben Erklärungen:
Unserer Erfahrung nach ist in den meisten Fällen keines davon das eigentliche Problem.
KI-Kompetenzen sind nicht mehr so rar. Sie nehmen rasch zu. Die Hochschulen bringen immer mehr Absolventen hervor, die über solide Grundlagen in den Bereichen Datenwissenschaft, maschinelles Lernen und generative KI verfügen. Es ist ein heißes Thema, und die Talente werden weiterhin in diese Richtung strömen.
Auch KI-Modelle sind nicht das Problem. Für die meisten industriellen Anwendungsfälle (Anomalieerkennung, Prozessprognose und -optimierung, Qualitätsüberwachung in Echtzeit, Entscheidungsunterstützung…) verfügen wir bereits über mehr als genug bewährte Algorithmen. Von klassischen statistischen Modellen bis hin zu Deep-Learning- und LLM-basierten Systemen ist die Toolbox umfangreich und ausgereift.
Die Lösung besteht nicht darin,„auf das nächste bahnbrechende Modell zu warten“. Die eigentlichen Probleme liegen woanders.
Die meisten produzierenden Unternehmen haben in den letzten zehn Jahren massiv in die Datenerfassung und -speicherung investiert. Historien, MES, LIMS, CMMS, ERP, Data Lakes, Cloud-Plattformen … Daten sind überall.
Die Verfügbarkeit von Daten bedeutet jedoch nicht zwangsläufig, dass diese auch verwertbar sind.
Das Kernproblem besteht darin, dass sich Unternehmen nach wie vor zu sehr auf das Sammeln von Daten konzentrieren und nicht genug darauf, diese in einen Kontext zu setzen, zu strukturieren und zu verwalten.
KI versagt nicht, weil es nicht genügend Daten gibt. Sie versagt, weil die Daten über verschiedene Systeme, Standorte und Zeiträume hinweg keine einheitliche Bedeutung haben.
Dies zeigt sich in mehreren immer wiederkehrenden Problemen:
Ja, die Datenqualität ist wichtig; das Datenvolumen ist wichtig. Aber noch wichtiger ist die Governance:
Ohne klare Antworten auf diese Fragen beginnt jedes KI-Projekt damit, immer wieder dieselbe Arbeit zu verrichten: die Daten zu verstehen, sie zu bereinigen, zuzuordnen und Definitionen abzugleichen. Das ist nicht skalierbar.

Viele KI-Initiativen basieren auf lokalen, impliziten Modellen (und sind oft erfolgreich): ein paar Tags, eine Datentabelle, ein für einen bestimmten Anwendungsfall aufbereiteter Datensatz. Was dabei oft fehlt, ist ein gemeinsames, unternehmensweites Datenmodell, das die Geschäftsabläufe genau widerspiegelt. Dazu gehören:
Wenn dieses Geschäftsmodell vorhanden ist und gut umgesetzt wird, sind KI-Lösungen von vornherein wiederverwendbar und skalierbar. Ist dies nicht der Fall, bleibt jede Lösung auf sich beschränkt und bleibt ein netter Pilotversuch.
In der Fertigungsindustrie scheitern KI-Initiativen selten daran, dass der erste Anwendungsfall nicht funktioniert. Sie scheitern vielmehr daran, dass der zweite, dritte oder zehnte Anwendungsfall zu teuer, zu langsam oder zu komplex für die Umsetzung wird. Wenn die Skalierbarkeit nicht von Anfang an berücksichtigt wird, führt jede neue KI-Initiative zu einer Anhäufung von technischem Schuldenberg, Integrationsaufwand und organisatorischen Reibungsverlusten.
Heutzutage werden viele Architekturen so konzipiert, dass sie „die Daten einfach nur bereitstellen“. Die Skalierbarkeit wird, wenn überhaupt, erst später berücksichtigt.
Hier kommt es auf die Wahl der richtigen Technologie an.
Herkömmliche industrielle Konnektivitäts-Gateways eignen sich hervorragend für die Verbindung von Anlagen und Protokollen. Sie sind sehr gut darin, Daten von A nach B zu übertragen. Sie sind jedoch nicht dafür ausgelegt, das Rückgrat eines Unternehmensdatenmodells zu bilden.
Um KI in großem Maßstab einzusetzen, benötigen Unternehmen eine Infrastruktur und Software, die:
Genau aus diesem Grund gewinnen industrielle IoT-Edge-Plattformen und Datenbroker zunehmend an Bedeutung. Sie sind nicht nur reine Datenkanäle, sondern ermöglichen skalierbare Architekturen und sind somit entscheidende Wegbereiter für KI.
Die Digitalisierung in der Fertigung birgt eine unangenehme Wahrheit: Je höher der digitale Reifegrad eines Werks ist, desto schwieriger wird es, neue digitale Lösungen zu integrieren.
Das liegt daran, dass digitale Reife heutzutage oft mit einer Vielzahl digitaler Systeme einhergeht. Und eine Vielzahl digitaler Systeme bedeutet in der Regel auch eine Vielzahl von Punkt-zu-Punkt-Integrationen zwischen diesen Systemen.
Jede neue vielversprechende KI-Anwendung oder -Lösung erfordert dann:
Aus diesem Grund tun sich Vorzeigeunternehmen oft schwer damit, neue Technologien zügig einzuführen, obwohl sie stark digitalisiert sind.
In naher Zukunft werden wir immer mehr KI-Produkte sehen, die als Plug-and-Play-Lösungen für die Fertigung angeboten werden. Einige davon werden leistungsstark sein. Andere werden einen echten Mehrwert bieten.
Aber „Plug-and-Play“ bedeutet nicht, dass man einfach nur ein System anschließen muss und schon ist man fertig.
In einem typischen Betrieb sind die relevanten Daten auf mehrere isolierte Bereiche verteilt. „Plug-and-Play“ bedeutet daher oft:
Und wie wir gesehen haben: Je stärker die Anlage digitalisiert ist, desto höher sind diese Integrationskosten.
Genau aus diesem Grund sind eine zentrale Datenquelle und ein gemeinsames Datenmodell unverzichtbare Voraussetzungen und nicht nur ein „nettes Extra“.
Wenn KI-Lösungen einmalig mit einem gut strukturierten, geregelten Daten-Namespace verbunden werden können, werden sie erst wirklich skalierbar. Nicht weil KI-Modelle intelligenter sind, sondern weil die ihnen zugrunde liegende Datenbasis intelligenter ist.
KI verstärkt das, was bereits vorhanden ist.
Wenn Sie Daten von geringer Qualität haben, erzeugt die KI Modelle von geringer Qualität.
Wenn Ihre Datenlandschaft fragmentiert ist, wird KI diese Fragmentierung noch verstärken.
Wenn Ihr Datenmodell inkonsistent ist, verstärkt die KI diese Inkonsistenz.
Wenn Sie über hochwertige Daten verfügen und Ihre Architektur von Grund auf skalierbar ist, wird die KI endlich ihr Versprechen einlösen.
Die Unternehmen, die in der Fertigungsindustrie mit KI erfolgreich sein werden, sind nicht diejenigen, die dem neuesten Modell hinterherlaufen. Es sind diejenigen, die heute in Kontext, Struktur und Governance investieren, damit jede zukünftige KI-Fähigkeit sich nahtlos einbinden und überall skalieren lässt.
Darin liegt unserer Meinung nach die eigentliche geschäftliche Auswirkung.