On parle beaucoup aujourd’hui de l’intelligence artificielle dans le secteur manufacturier. Analyse avancée, apprentissage automatique, apprentissage profond, grands modèles linguistiques, modèles fondamentaux, agents IA… la liste ne cesse de s’allonger, tout comme l’engouement qu’elle suscite.
Pourtant, malgré cette maturité technologique apparente, de nombreux fabricants peinent encore à déployer l'IA au-delà de projets pilotes isolés. Ici, une démonstration de faisabilité en matière de maintenance prédictive ; là, un modèle de qualité ; peut-être un chatbot relié à un système d'archivage. Des initiatives intéressantes, mais qui ont rarement un impact transformateur à l'échelle de l'entreprise.
Cet article ne traite pas de la création de nouveaux algorithmes d'IA. Il traite plutôt des facteurs qui permettent à l'IA de se déployer à grande échelle et d'avoir un impact commercial durable dans l'ensemble des usines, des chaînes de production et des sites.
Et ce que l'on constate aujourd'hui, c'est que les principaux obstacles ne sont pas ceux que la plupart des gens imaginent.
Lorsque les projets d'IA ne parviennent pas à se développer à grande échelle, on entend souvent les mêmes explications :
D'après notre expérience, la plupart du temps, aucun de ces éléments n'est à l'origine du problème.
Les compétences en IA ne sont plus si rares. Elles se développent rapidement. Les universités forment de plus en plus de diplômés dotés de solides bases en science des données, en apprentissage automatique et en IA générative. C'est un sujet très en vogue, et les talents continueront d'affluer dans ce domaine.
Les modèles d'IA ne sont pas non plus le problème. Pour la plupart des cas d'utilisation industriels (détection d'anomalies, prévision et optimisation des processus, surveillance de la qualité en temps réel, aide à la décision…), nous disposons déjà d'algorithmes éprouvés en nombre plus que suffisant. Des modèles statistiques classiques aux systèmes basés sur l'apprentissage profond et les grands modèles de langage (LLM), la boîte à outils est riche et aboutie.
La solution ne consiste pas à «attendre le prochain modèle révolutionnaire». Les vrais problèmes se situent ailleurs.
Au cours de la dernière décennie, la plupart des entreprises manufacturières ont massivement investi dans la production et le stockage de données. Systèmes d'archivage, MES, LIMS, GMAO, ERP, lacs de données, plateformes cloud… les données sont partout.
Mais la disponibilité des données ne signifie pas nécessairement qu'elles sont exploitables.
Le problème principal est que les entreprises se concentrent encore trop sur la collecte de données, et pas assez sur leur mise en contexte, leur structuration et leur gouvernance.
L'IA n'échoue pas parce qu'il n'y a pas assez de données. Elle échoue parce que les données n'ont pas de signification cohérente d'un système à l'autre, d'un site à l'autre et au fil du temps.
Cela se traduit par plusieurs problèmes récurrents :
Oui, la qualité des données est importante ; leur volume est important. Mais ce qui importe encore plus, c'est la gouvernance :
Sans réponses claires à ces questions, chaque projet d'IA commence par refaire le même travail : comprendre les données, les nettoyer, les cartographier, harmoniser les définitions. Ce processus n'est pas évolutif.

De nombreuses initiatives en matière d'IA s'appuient (et aboutissent souvent) sur des modèles locaux et implicites : quelques balises, un tableau de données, un ensemble de données préparé pour un cas d'utilisation spécifique. Ce qui fait souvent défaut, c'est un modèle de données partagé à l'échelle de l'entreprise qui reflète fidèlement le fonctionnement de l'activité. Cela comprend :
Lorsque ce modèle d'entreprise est en place et bien géré, les solutions d'IA deviennent par défaut réutilisables et évolutives. Dans le cas contraire, chaque solution reste isolée et ne dépasse pas le stade d'un projet pilote prometteur.
Dans le secteur industriel, les projets d'IA échouent rarement parce que le premier cas d'utilisation ne fonctionne pas. Ils échouent parce que le deuxième, le troisième ou le dixième cas d'utilisation devient trop coûteux, trop lent ou trop complexe à mettre en œuvre. Si l'évolutivité n'est pas prise en compte dès le départ, chaque nouveau projet d'IA entraîne une accumulation de dette technique, d'efforts d'intégration et de frictions organisationnelles.
De nos jours, de nombreuses architectures sont conçues dans le seul but de « rendre les données accessibles ». La question de l'évolutivité n'est abordée que plus tard, voire jamais.
C'est là que le choix de la technologie prend toute son importance.
Les passerelles de connectivité industrielles traditionnelles sont très efficaces pour relier les équipements et les protocoles. Elles sont très performantes pour transférer des données d'un point A à un point B. Mais elles ne sont pas conçues pour constituer l'épine dorsale d'un modèle de données d'entreprise.
Pour déployer l'IA à grande échelle, les entreprises ont besoin d'une infrastructure et de logiciels qui :
C'est précisément pour cette raison que les plateformes IoT industrielles en périphérie et les courtiers en données gagnent du terrain. Elles ne sont pas de simples canaux de transmission, mais des catalyseurs d'architectures évolutives, et constituent donc des éléments clés pour le développement de l'IA.
La numérisation du secteur manufacturier recèle une vérité dérangeante : plus une usine est avancée sur le plan numérique, plus il devient difficile d'y intégrer de nouvelles solutions numériques.
En effet, aujourd'hui, la maturité numérique implique souvent la présence de nombreux systèmes numériques. Et la présence de nombreux systèmes numériques implique généralement de nombreuses intégrations point à point entre eux.
Toute nouvelle application ou solution prometteuse en matière d'IA nécessite alors :
C'est pourquoi les entreprises phares ont souvent du mal à s'adapter rapidement aux nouvelles technologies, bien qu'elles soient très numérisées.
Dans un avenir proche, nous verrons apparaître de plus en plus de produits d'IA présentés comme des solutions « plug-and-play » pour le secteur industriel. Certains seront très performants. D'autres apporteront une réelle valeur ajoutée.
Mais « plug and play » ne signifie pas « il suffit de se connecter à un système et le tour est joué ».
Dans une usine type, les données pertinentes sont dispersées dans plusieurs silos. Le « plug-and-play » se traduit donc souvent par :
Et, comme nous l'avons vu, plus l'usine est numérisée, plus ce coût d'intégration est élevé.
C'est précisément pour cette raison qu'une source unique de vérité et un modèle de données partagé sont des conditions indispensables, et non pas simplement un « plus » appréciable.
Lorsque les solutions d'IA peuvent se connecter à un espace de données bien structuré et géré, elles deviennent véritablement évolutives. Non pas parce que les modèles d'IA sont plus intelligents, mais parce que la base de données qui les sous-tend l'est.
L'IA met en valeur ce qui existe déjà.
Si vos données sont de mauvaise qualité, l'IA produira des modèles de mauvaise qualité.
Si votre environnement de données est fragmenté, l'IA ne fera qu'accentuer cette fragmentation.
Si votre modèle de données présente des incohérences, l'IA ne fera que les accentuer.
Si vous disposez de données de grande qualité et que votre architecture est évolutive de par sa conception, l'IA tiendra enfin ses promesses.
Les entreprises qui tireront profit de l'IA dans le secteur manufacturier ne sont pas celles qui courent après les dernières nouveautés. Ce sont celles qui investissent dès aujourd'hui dans le contexte, la structure et la gouvernance, afin que chaque future fonctionnalité d'IA puisse s'intégrer en une seule fois et être déployée partout.
C'est là, à notre avis, que réside le véritable impact sur l'activité.
Contactez-nous