Ce site n'est pas optimisé pour Internet Explorer 11. Veuillez utiliser un autre navigateur pour une expérience optimale.

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

L'intelligence artificielle à grande échelle dans le secteur manufacturier : le véritable goulot d'étranglement n'est pas l'IA

-

On parle beaucoup aujourd’hui de l’intelligence artificielle dans le secteur manufacturier. Analyse avancée, apprentissage automatique, apprentissage profond, grands modèles linguistiques, modèles fondamentaux, agents IA… la liste ne cesse de s’allonger, tout comme l’engouement qu’elle suscite.

Pourtant, malgré cette maturité technologique apparente, de nombreux fabricants peinent encore à déployer l'IA au-delà de projets pilotes isolés. Ici, une démonstration de faisabilité en matière de maintenance prédictive ; là, un modèle de qualité ; peut-être un chatbot relié à un système d'archivage. Des initiatives intéressantes, mais qui ont rarement un impact transformateur à l'échelle de l'entreprise.

Cet article ne traite pas de la création de nouveaux algorithmes d'IA. Il traite plutôt des facteurs qui permettent à l'IA de se déployer à grande échelle et d'avoir un impact commercial durable dans l'ensemble des usines, des chaînes de production et des sites.

Et ce que l'on constate aujourd'hui, c'est que les principaux obstacles ne sont pas ceux que la plupart des gens imaginent.

Qu'est-ce qui empêche l'IA de se développer à grande échelle ?

Lorsque les projets d'IA ne parviennent pas à se développer à grande échelle, on entend souvent les mêmes explications :

  • « Nous manquons de données pour entraîner des algorithmes complexes »
  • « Les modèles ne sont pas encore assez aboutis »
  • « Nous manquons de data scientists »

D'après notre expérience, la plupart du temps, aucun de ces éléments n'est à l'origine du problème.

Les compétences en IA ne sont plus si rares. Elles se développent rapidement. Les universités forment de plus en plus de diplômés dotés de solides bases en science des données, en apprentissage automatique et en IA générative. C'est un sujet très en vogue, et les talents continueront d'affluer dans ce domaine.

Les modèles d'IA ne sont pas non plus le problème. Pour la plupart des cas d'utilisation industriels (détection d'anomalies, prévision et optimisation des processus, surveillance de la qualité en temps réel, aide à la décision…), nous disposons déjà d'algorithmes éprouvés en nombre plus que suffisant. Des modèles statistiques classiques aux systèmes basés sur l'apprentissage profond et les grands modèles de langage (LLM), la boîte à outils est riche et aboutie.

La solution ne consiste pas à «attendre le prochain modèle révolutionnaire». Les vrais problèmes se situent ailleurs.

Le véritable défi : les données dépourvues de contexte ne sont pas exploitables à grande échelle

Au cours de la dernière décennie, la plupart des entreprises manufacturières ont massivement investi dans la production et le stockage de données. Systèmes d'archivage, MES, LIMS, GMAO, ERP, lacs de données, plateformes cloud… les données sont partout.

Mais la disponibilité des données ne signifie pas nécessairement qu'elles sont exploitables.

Le problème principal est que les entreprises se concentrent encore trop sur la collecte de données, et pas assez sur leur mise en contexte, leur structuration et leur gouvernance.

L'IA n'échoue pas parce qu'il n'y a pas assez de données. Elle échoue parce que les données n'ont pas de signification cohérente d'un système à l'autre, d'un site à l'autre et au fil du temps.

Cela se traduit par plusieurs problèmes récurrents :

  1. La qualité et la quantité des données sont indispensables, mais c'est la gouvernance qui permet de les rendre évolutives. 

Oui, la qualité des données est importante ; leur volume est important. Mais ce qui importe encore plus, c'est la gouvernance :

  • Où se trouve la source unique de vérité en matière de données ?
  • Quel système numérique gère quel processus ?
  • Quels sont les liens entre les événements de production, les états et les mesures ?
  • Comment garantir la cohérence des produits numériques d'une usine à l'autre ?

Sans réponses claires à ces questions, chaque projet d'IA commence par refaire le même travail : comprendre les données, les nettoyer, les cartographier, harmoniser les définitions. Ce processus n'est pas évolutif.

  1. Absence d'un modèle de données d'entreprise complet.

De nombreuses initiatives en matière d'IA s'appuient (et aboutissent souvent) sur des modèles locaux et implicites : quelques balises, un tableau de données, un ensemble de données préparé pour un cas d'utilisation spécifique. Ce qui fait souvent défaut, c'est un modèle de données partagé à l'échelle de l'entreprise qui reflète fidèlement le fonctionnement de l'activité. Cela comprend :

  • Des architectures orientées événements qui indiquent systématiquement ce qui se passe, quand cela se passe et où cela se passe.
  • Une hiérarchie opérationnelle claire
  • Ontologies OT et modèles sémantiques qui codifient les relations
  • Des graphes de connaissances qui permettent de raisonner, et pas seulement d'effectuer des requêtes

Lorsque ce modèle d'entreprise est en place et bien géré, les solutions d'IA deviennent par défaut réutilisables et évolutives. Dans le cas contraire, chaque solution reste isolée et ne dépasse pas le stade d'un projet pilote prometteur. 

  1. L'évolutivité doit être un principe de conception, et non une réflexion après coup.

Dans le secteur industriel, les projets d'IA échouent rarement parce que le premier cas d'utilisation ne fonctionne pas. Ils échouent parce que le deuxième, le troisième ou le dixième cas d'utilisation devient trop coûteux, trop lent ou trop complexe à mettre en œuvre. Si l'évolutivité n'est pas prise en compte dès le départ, chaque nouveau projet d'IA entraîne une accumulation de dette technique, d'efforts d'intégration et de frictions organisationnelles.

De nos jours, de nombreuses architectures sont conçues dans le seul but de « rendre les données accessibles ». La question de l'évolutivité n'est abordée que plus tard, voire jamais.

C'est là que le choix de la technologie prend toute son importance.

Les passerelles de connectivité industrielles traditionnelles sont très efficaces pour relier les équipements et les protocoles. Elles sont très performantes pour transférer des données d'un point A à un point B. Mais elles ne sont pas conçues pour constituer l'épine dorsale d'un modèle de données d'entreprise.

Pour déployer l'IA à grande échelle, les entreprises ont besoin d'une infrastructure et de logiciels qui :

  • Respecter la structure et la sémantique
  • Intégrer des modèles de données d'entreprise complets
  • Prise en charge des modèles basés sur les paires
  • Dissocier les producteurs et les consommateurs
  • Rendre les données accessibles et réutilisables

C'est précisément pour cette raison que les plateformes IoT industrielles en périphérie et les courtiers en données gagnent du terrain. Elles ne sont pas de simples canaux de transmission, mais des catalyseurs d'architectures évolutives, et constituent donc des éléments clés pour le développement de l'IA.

Le paradoxe de la maturité numérique

La numérisation du secteur manufacturier recèle une vérité dérangeante : plus une usine est avancée sur le plan numérique, plus il devient difficile d'y intégrer de nouvelles solutions numériques.

En effet, aujourd'hui, la maturité numérique implique souvent la présence de nombreux systèmes numériques. Et la présence de nombreux systèmes numériques implique généralement de nombreuses intégrations point à point entre eux.

Toute nouvelle application ou solution prometteuse en matière d'IA nécessite alors :

  • Connexions à plusieurs systèmes d'archivage
  • Interfaces avec les systèmes MES, les systèmes de gestion de la qualité et les systèmes de maintenance
  • Briser les silos de données
  • Logique personnalisée permettant de harmoniser les modèles de données associés à chacun de ces systèmes

C'est pourquoi les entreprises phares ont souvent du mal à s'adapter rapidement aux nouvelles technologies, bien qu'elles soient très numérisées.

Le mythe des produits d'IA « prêts à l'emploi »

Dans un avenir proche, nous verrons apparaître de plus en plus de produits d'IA présentés comme des solutions « plug-and-play » pour le secteur industriel. Certains seront très performants. D'autres apporteront une réelle valeur ajoutée.

Mais « plug and play » ne signifie pas « il suffit de se connecter à un système et le tour est joué ».

Dans une usine type, les données pertinentes sont dispersées dans plusieurs silos. Le « plug-and-play » se traduit donc souvent par :

  • De nombreuses connexions point à point
  • Mappages personnalisés
  • Une complexité cachée répercutée en aval

Et, comme nous l'avons vu, plus l'usine est numérisée, plus ce coût d'intégration est élevé.

C'est précisément pour cette raison qu'une source unique de vérité et un modèle de données partagé sont des conditions indispensables, et non pas simplement un « plus » appréciable.

Lorsque les solutions d'IA peuvent se connecter à un espace de données bien structuré et géré, elles deviennent véritablement évolutives. Non pas parce que les modèles d'IA sont plus intelligents, mais parce que la base de données qui les sous-tend l'est.

L'IA est un catalyseur, pas un fondement

L'IA met en valeur ce qui existe déjà.

Si vos données sont de mauvaise qualité, l'IA produira des modèles de mauvaise qualité.

Si votre environnement de données est fragmenté, l'IA ne fera qu'accentuer cette fragmentation.

Si votre modèle de données présente des incohérences, l'IA ne fera que les accentuer.

Si vous disposez de données de grande qualité et que votre architecture est évolutive de par sa conception, l'IA tiendra enfin ses promesses.

Les entreprises qui tireront profit de l'IA dans le secteur manufacturier ne sont pas celles qui courent après les dernières nouveautés. Ce sont celles qui investissent dès aujourd'hui dans le contexte, la structure et la gouvernance, afin que chaque future fonctionnalité d'IA puisse s'intégrer en une seule fois et être déployée partout.

C'est là, à notre avis, que réside le véritable impact sur l'activité. 

Vous souhaitez en savoir plus ?

Contactez-nous

Télécharger maintenant

Merci ! Votre soumission a été reçue !
Oups ! Quelque chose s'est mal passé lors de l'envoi du formulaire.

Demandez la présentation:

Merci ! Votre soumission a été reçue !
Oups ! Quelque chose s'est mal passé lors de l'envoi du formulaire.

Intitulé

Oups ! Quelque chose s'est mal passé lors de l'envoi du formulaire.

Histoires liées

Centres d'expertise connexes

Industries connexes