Er wordt tegenwoordig veel gesproken over kunstmatige intelligentie in de productiesector. Geavanceerde analyse, machine learning, deep learning, grote taalmodellen, basismodellen, AI-agenten… de lijst wordt steeds langer, en dat geldt ook voor de hype.
Maar ondanks de ogenschijnlijke technologische volwassenheid hebben veel fabrikanten nog steeds moeite om AI op grotere schaal toe te passen dan in geïsoleerde proefprojecten. Hier een proof of concept voor voorspellend onderhoud, daar een kwaliteitsmodel, misschien een chatbot die is gekoppeld aan een historiedatabase. Interessante initiatieven, maar zelden baanbrekend op bedrijfsniveau.
Dit artikel gaat niet over het bedenken van nieuwe AI-algoritmen. Het gaat over wat ervoor zorgt dat AI opgeschaald kan worden en een blijvende impact op de bedrijfsvoering kan hebben in fabrieken, productielijnen en vestigingen.
En wat we vandaag de dag zien, is dat de belangrijkste belemmeringen niet degenen zijn die de meeste mensen denken.
Wanneer AI-initiatieven niet opschaalbaar blijken te zijn, horen we vaak dezelfde verklaringen:
Onze ervaring leert dat dit meestal niet de hoofdoorzaak is.
Vaardigheden op het gebied van AI zijn niet meer zo schaars. Ze nemen snel toe. Universiteiten leveren steeds meer afgestudeerden af met een stevige basis in datawetenschap, machine learning en generatieve AI. Het is een hot topic en er zal steeds meer talent naar deze sector blijven stromen.
AI-modellen zijn ook niet het probleem. Voor de meeste industriële toepassingen (detectie van afwijkingen, procesvoorspelling en -optimalisatie, realtime kwaliteitsbewaking, beslissingsondersteuning…) beschikken we al over meer dan genoeg beproefde algoritmen. Van klassieke statistische modellen tot deep learning en op LLM’s gebaseerde systemen: de toolbox is uitgebreid en volwassen.
De oplossing is niet„wachten op het volgende baanbrekende model“. De echte problemen liggen elders.
De meeste productiebedrijven hebben het afgelopen decennium fors geïnvesteerd in het genereren en opslaan van gegevens. Historians, MES, LIMS, CMMS, ERP, data lakes, cloudplatforms… gegevens zijn overal.
Maar het feit dat gegevens beschikbaar zijn, betekent niet automatisch dat ze ook bruikbaar zijn.
Het kernprobleem is dat bedrijven zich nog steeds te veel richten op het verzamelen van gegevens, en te weinig op het in context plaatsen, structureren en beheren ervan.
AI faalt niet omdat er onvoldoende gegevens zijn. Het faalt omdat de gegevens niet overal – in verschillende systemen, op verschillende locaties en in de loop van de tijd – dezelfde betekenis hebben.
Dit komt tot uiting in een aantal terugkerende knelpunten:
Ja, de kwaliteit van gegevens is belangrijk; het volume is belangrijk. Maar wat nog belangrijker is, is het beheer:
Zonder duidelijke antwoorden op deze vragen begint elk AI-project met het herhalen van hetzelfde werk: de gegevens doorgronden, opschonen, in kaart brengen en definities op elkaar afstemmen. Dit is niet schaalbaar.

Veel AI-initiatieven werken (en zijn vaak succesvol) op basis van lokale, impliciete modellen: een paar tags, een gegevenstabel, een dataset die voor één specifieke toepassing is samengesteld. Wat vaak ontbreekt, is een gemeenschappelijk, bedrijfsbreed gegevensmodel dat een nauwkeurig beeld geeft van hoe het bedrijf functioneert. Dit omvat:
Als dit bedrijfsmodel aanwezig is en goed wordt beheerd, zijn AI-oplossingen standaard herbruikbaar en schaalbaar. Als dat niet het geval is, blijft elke oplossing beperkt en blijft het bij een mooi proefproject.
In de productiesector mislukken AI-initiatieven zelden omdat de eerste use case niet werkt. Ze mislukken omdat de tweede, derde of tiende use case te duur, te traag of te complex wordt om te implementeren. Als schaalbaarheid niet vanaf het begin wordt ingebouwd, leidt elk nieuw AI-initiatief tot een opeenstapeling van technische schulden, integratie-inspanningen en organisatorische wrijving.
Tegenwoordig worden veel systemen gebouwd met als doel „de gegevens gewoon beschikbaar te maken“. Aan schaalbaarheid wordt pas later aandacht besteed, als dat al gebeurt.
Hier komt het aan op de keuze van de juiste technologie.
Traditionele industriële connectiviteitsgateways zijn uitstekend geschikt om apparatuur en protocollen met elkaar te verbinden. Ze zijn zeer geschikt om gegevens van A naar B te verzenden. Maar ze zijn niet ontworpen om de ruggengraat van een bedrijfsdatamodel te vormen.
Om AI op te schalen, hebben bedrijven infrastructuur en software nodig die:
Dit is precies de reden waarom industriële IoT-edgeplatforms en datamakelaars aan populariteit winnen. Het zijn niet zomaar doorgeefluiken, maar ze maken schaalbare architecturen mogelijk en zijn daarmee essentiële bouwstenen voor AI.
Er schuilt een ongemakkelijke waarheid achter de digitalisering van de productiesector: hoe verder een fabriek op digitaal gebied is gevorderd, hoe moeilijker het wordt om nieuwe digitale oplossingen te integreren.
Dat komt omdat digitale volwassenheid tegenwoordig vaak neerkomt op een groot aantal digitale systemen. En een groot aantal digitale systemen betekent meestal ook een groot aantal punt-tot-punt-integraties tussen die systemen.
Elke nieuwe veelbelovende AI-toepassing of -oplossing vereist dan:
Daarom hebben fabrieken die als baken fungeren vaak moeite om snel in te spelen op nieuwe technologieën, ondanks dat ze sterk gedigitaliseerd zijn.
In de nabije toekomst zullen we steeds meer AI-producten zien die worden aangeprezen als plug-and-play-oplossingen voor de productiesector. Sommige daarvan zullen zeer krachtig zijn. Andere zullen echte meerwaarde bieden.
Maar 'plug-and-play' betekent niet dat je ‘alleen maar op één systeem hoeft aan te sluiten en dan ben je klaar’.
In een doorsnee fabriek zijn relevante gegevens verspreid over verschillende afdelingen. Plug-and-play betekent daarom vaak:
En, zoals we hebben gezien, geldt dat hoe meer de fabriek gedigitaliseerd is, hoe hoger deze integratiekosten zijn.
Dit is precies waarom één enkele bron van waarheid en een gedeeld datamodel absolute vereisten zijn, en niet zomaar een ‘leuke extra’.
Pas wanneer AI-oplossingen eenmaal verbinding kunnen maken met een goed gestructureerde, beheerde gegevensruimte, worden ze echt schaalbaar. Niet omdat AI-modellen slimmer zijn, maar omdat de gegevensbasis erachter dat is.
AI versterkt wat er al is.
Als je gegevens van slechte kwaliteit hebt, zal AI modellen van slechte kwaliteit genereren.
Als uw gegevenslandschap gefragmenteerd is, zal AI die fragmentatie nog versterken.
Als je datamodel inconsistent is, zal AI die inconsistentie nog versterken.
Als je over hoogwaardige gegevens beschikt en je architectuur van nature schaalbaar is, zal AI eindelijk zijn belofte waarmaken.
De bedrijven die in de productiesector zullen profiteren van AI, zijn niet de bedrijven die de nieuwste trends najagen. Het zijn de bedrijven die nu investeren in context, structuur en governance, zodat elke toekomstige AI-toepassing na eenmalige integratie overal kan worden ingezet.
Daar ligt volgens ons de echte impact op het bedrijf.