Vos données valent-elles de l’or ?

Vos données valent-elles de l’or ?

 

Avant-propos

Pour innover et survivre, les entreprises industrielles doivent constamment adopter de nouvelles techniques, de nouvelles compétences, de nouvelles configurations de travail. Au confluent de ces trois novations, les technologies numériques et plus particulièrement l’internet des objets (IoT) leur ouvrent des perspectives prometteuses. Parce qu’il fait dialoguer entre elles des machines-outils qui n’étaient pas originellement conçues pour cela, parce qu’il permet d’élaborer le jumeau numérique d’un atelier ou d’une supply chain pour en optimiser le fonctionnement, ou encore parce qu’il permet de « garder le contact » avec les objets vendus une fois ceux-ci en fonctionnement (qu’il s’agisse d’ascenseurs, de poids-lourds ou de brosses à dents), l’IoT met au service de la fabrication industrielle la fluidité du réseau et la puissance de l’intelligence artificielle.

De cette prémisse, certains en déduisent que la donnée serait devenue une nouvelle matière première : en passant de l’optimisation à la génération volontaire de data, l’industrie accéderait à de nouvelles sources de valeur, comme l’ont indubitablement réussi Google et Facebook, et donc à de nouveaux modèles d’affaires. Le rêve d’un nouvel eldorado est d’autant plus palpable que quiconque aujourd’hui peut ériger des montagnes de données pour une bouchée de pain. Mais d’autres experts du métier, sceptiques, ne manquent pas de rappeler que la ruée vers l’or n’a jamais enrichi que les vendeurs de pioches et qu’il vaudrait mieux pour les entreprises continuer à fabriquer aussi bien que possible ce qu’elles savent déjà vendre…

La vérité se niche bien entendu à saine distance des récits excessifs. Savoir si l’IoT constitue plutôt une évolution industrielle radicale à diffusion rapide ou une opportunité de niche réservée à quelques chanceux réclame de s’adresser aux experts et, surtout, d’aller enquêter sur le terrain. C’est le propos de cet ouvrage, volontairement factuel et accessible, qui traite de la mise en œuvre des projets d’IoT industriel, de leurs promesses et de leurs limites. On y verra notamment l’importance déterminante, pour répondre aux questions précédentes, des modalités choisies pour la gestion des projets en question et, plus encore, de leur articulation avec les autres transformations de « l’art de faire » dans l’industrie, à commencer par le lean manufacturing.

La collection des « Docs de La Fabrique » rassemble des textes qui n’ont pas été élaborés à la demande ni sous le contrôle de son conseil d’orientation, mais qui apportent des éléments de réflexion stimulants pour le débat et la prospective sur les enjeux de l’industrie. Nous ne doutons pas que ce document offrira aux industriels et aux salariés des pistes de réflexion sur les axes de transformation des entreprises.

L’équipe de La Fabrique

Préface

Oseriez-vous confier à un inconnu croisé dans la rue vos nom, adresse, e-mail, mais aussi vos date/lieu de naissance sans oublier votre numéro de carte de crédit et son précieux cryptogramme… ? Certainement pas !

Alors réfléchissez-y maintenant à deux fois lorsque vous commanderez en ligne votre article préféré auprès de l’entreprise qui gardera pour toujours ces informations dans son coffre-fort numérique : son Data Center !

D’après vous, ces entreprises sont-elles respectueuses des échanges qu’elles effectuent avec vos données confidentielles et sont-elles toutes en mesure de les exploiter ou de les protéger correctement ?

Dans cet ouvrage didactique, très « terrain », vous trouverez de nombreux exemples concrets, des analyses mais aussi des pistes de réflexion quant à la propriété mais aussi et surtout la juste valeur de vos fameuses données.

Je travaille depuis plus de trente ans dans le monde des data, de la sécurité de l’information, en France comme à l’international, et je peux témoigner que le wake-up call – sur les avantages concurrentiels que procure la donnée, ainsi que l’importance d’en maîtriser la sécurité – a été aussi soudain que violent.

La première secousse de magnitude 9+ a été déclenchée par les Américains.

En effet, pour mettre fin à une bataille judiciaire opposant Microsoft à l’administration américaine, la loi fédérale du Cloud Act (Clarifying Lawful Overseas Use of Data Act) du 23 mars 2018, permet désormais aux forces de l’ordre ou aux agences de renseignement américains d’obtenir, des opérateurs télécoms et des fournisseurs de services Cloud opérant depuis les États-Unis, l’accès à tout ou partie des informations personnelles ou de contenu stockées sur leurs serveurs, que ces données soient situées aux États-Unis ou à l’étranger, et cela sans que la personne « ciblée » ou que le pays où sont stockées ces données n’en soit informé.

C’est tout à coup assez parlant et beaucoup moins plaisant… n’est-ce pas ?

La réplique, deux mois plus tard, a été conduite par l’Union européenne en votant le RGPD (Règlement Général sur la Protection des Données personnelles) entré en application en mai 2018.

Celui-ci vise à mieux protéger les données personnelles des internautes européens et à renforcer certains de leurs droits, dont la rectification des données par l’utilisateur (CNIL).

Cette mesure, comme vous l’avez compris, avait pour objectif numéro un de renforcer les droits des citoyens européens contre les géants du Net, très souvent américains… en bref, contre « les méchants » !

Une fois le pavé de la protection des données jeté dans la mare, les décideurs ont entre leurs mains celui de la transformation digitale… Et c’est tout l’objet de ce livre. Le sujet de la valorisation des données pour développer l’entreprise reste entier ! À tous les niveaux de l’entreprise, ces données « pleuvent », à tel point qu’il devient impossible pour le cerveau humain de traiter à la fois le volume, la vélocité de production, et de s’assurer de leur véracité sans une aide cognitive… et voilà, la fameuse Intelligence Artificielle qui déboule dans l’entreprise… sans frapper !

Les données apportent des avantages concurrentiels sur tous les fronts : elles permettent notamment d’améliorer l’efficacité opérationnelle, de détecter des failles de sécurité, de repérer des fraudes, d’identifier des axes de développement, d’optimiser les stocks et les flux logistiques, de mieux protéger le « critique » cash-flow face à la crise sanitaire…

Enfin, les données clients se révèlent être un sésame extrêmement précieux pour capter les comportements d’achat, pour créer des circuits de distribution plus courts, pour permettre aux industriels de renouer des contacts forts et intimes avec leurs clients et, enfin, de proposer des offres extrêmement personnalisées.

Les conversations business que j’ai avec nos clients et partenaires stratégiques se focalisent de plus en plus sur les données. C’est maintenant devenu pour les entreprises un axe de différenciation majeur, voire de survie. En cas d’attaque cyber, cela devient critique.

En me projetant dans cinq ou dix ans, donc pas si loin que ça, il me semble possible que nos données soient au cœur de 100 % de nos transactions ! Rien ne passera à côté.

Le xxie siècle sera certainement celui de la révolution de la « data-sécurisée-souveraine-cryptée ». La bataille est bien lancée et elle ne fera de cadeau à personne, individus ou entreprises. Certains vont s’en sortir, d’autres pas… mais lesquels ?

Pendant ce temps, il revient aux dirigeants d’entreprise et aux opérationnels de préparer leur futur dès aujourd’hui : d’embrasser pleinement cette transformation pour avancer durablement.

Bienvenue dans un monde où la data est au cœur des enjeux de création de valeur, du Cloud Public/Souverain, de l’Internet des Objets, de l’Industrie 4.0… bref, de la transformation digitale à marche forcée, cœur de batailles entre les poids hyper-lourds que sont les GAFAM.

Bienvenue dans le monde où vos données valent de l’or !

Jean-François Connan, International Sales Digital Transformation, Cloud, Cyber Security & Strategic Alliances, Thales

Résumé

La donnée est présentée comme le carburant du futur. Pour les entreprises manufacturières, les projets dits d’Internet industriel des objets (IIoT) sont ceux qui permettent d’extraire la valeur de leurs données de production et de leurs produits. Ces projets s’appuient sur un continuum de technologies variées, allant des capteurs jusqu’à l’intelligence artificielle, en passant par les réseaux de télécommunications et les plateformes d’analyse et de stockage. La concaténation de ces technologies permet de suivre le « voyage » de la donnée et de la transformer en information utile pour l’entreprise. L’IIoT, compris comme ce continuum, représente l’ossature de l’industrie 4.0, car il permet l’alignement potentiel des flux physiques et des flux de données.

Les promesses de l’IIoT sont très ambitieuses et s’appliquent à de nombreux domaines : a) le smart metering dans les industries de réseau ; b) l’efficacité opérationnelle de l’usine (diminution des consommations de matières et d’énergie, amélioration du temps de passage et du taux de rendement synthétique, réduction de la taille des lots, etc.), avec des résultats probants ; c) le passage à la maintenance prédictive (ou plus souvent, à une nette amélioration de la maintenance préventive) ; d) la mise à disposition de nouveaux outils numériques pour les opérateurs, avec des interfaces adaptées ; e) les projets de connexion de la supply chain et la traçabilité des produits pour le consommateur. Ces cas d’usage de l’IIoT constituent un levier puissant pour générer des gains de productivité ou de flexibilité sur un site de production ou sur une chaîne de valeur.

Il existe aussi un deuxième champ de promesses de l’IIoT qui offre l’opportunité aux chefs d’entreprises industrielles de regarder différemment leur modèle économique et d’ouvrir des chemins d’avenir. Ce qu’imaginent quelques visionnaires, c’est un glissement du modèle manufacturier vers les services, ainsi que la perspective de revenus supplémentaires issus de la monétisation des données captées. La réflexion ainsi proposée ouvre la voie à un monde « tout-connecté », mais les concrétisations dans le domaine industriel restent pour l’heure embryonnaires et limitées.

La manière dont les projets IIoT sont gérés est capitale pour leur réussite, et quelques bonnes pratiques à suivre peuvent être recensées. Il faut que ces projets s’insèrent dans une feuille de route numérique cadrée, que leur pilotage puisse inclure plusieurs fonctions stratégiques et que les cas d’usage soient bien définis afin de pouvoir tirer toutes les leçons de l’expérimentation menée. Embarquer les métiers et les équipes, construire une culture et un langage commun entre les DSI et les Opérations, sont des conditions indispensables pour réussir ces projets et une fréquente pierre d’achoppement. Choisir entre le make or buy sur les différentes familles de technologies est propre à chaque entreprise et dépend de sa maturité IT, mais il sera le plus souvent conseillé de choisir, dans un premier temps, des technologies « sur étagère », même si elles nécessitent des adaptations. Enfin, l’attention à la cybersécurité devient une question de plus en plus prégnante à mesure que les équipements matériels sont investis par les logiciels. Sans cette vigilance portée à la gestion de projets, les preuves de concept (ou PoC) risquent fort de le rester et de ne jamais passer à l’échelle.

Le ROI de ces projets est encore mal connu. Les investissements nécessaires pour produire des effets de seuil visibles doivent être cumulatifs sur une certaine durée (entre trois et cinq ans), et certains bénéfices sont indirects et difficiles à mesurer (qualité de vie au travail, satisfaction des collaborateurs, attractivité de l’usine). De nombreuses aides financières nationales et régionales existent pour inciter PME et ETI à enclencher les premiers cas d’usage. En définitive, le premier des bénéfices de ces déploiements pourrait bien être de rester dans la course et de réussir à pérenniser son activité.

Enfin, l’Internet industriel des objets, et plus généralement les technologies de l’industrie du futur, suscitent des préoccupations sociales et sociétales qui ne peuvent être ignorées. Sur le plan du travail, et selon l’état d’esprit avec lequel les technologies sont mises en œuvre, l’IIoT peut ouvrir la voie à une surveillance généralisée des travailleurs et à un pilotage étroit de leurs actions via les outils numériques, au détriment de leur autonomie. De plus, il permet souvent de faciliter l’intégration de personnels peu qualifiés, battant ainsi en brèche le discours institutionnel sur la montée en compétences des opérateurs de l’usine à l’ère numérique. Sur le plan environnemental, la consommation énergétique de l’Internet des objets et des data centers pose la question de la compatibilité entre transition énergétique et transition numérique. L’enjeu de sobriété numérique est au cœur des débats qui ont récemment entouré en France le développement de la 5G, présentée comme indispensable à l’avènement généralisé de l’industrie 4.0.

Cependant, la crise sanitaire et économique a confirmé les fragilités du tissu industriel français. Celle-ci doit inciter plus que jamais les industriels à un passage à l’acte rapide. Il est vital de ne plus retarder encore la mise en œuvre réelle et à l’échelle de la transformation numérique si souvent annoncée. Elle seule permettra aux entreprises de s’adapter à la complexité et de sortir de cette crise, vivantes et renforcées.

Introduction

Depuis plusieurs années, on entend abondamment parler de l’enjeu que représentent les données : les données personnelles, mais aussi les données publiques, les données d’usage et les données de production. La donnée est présentée comme un nouvel or noir, un carburant de l’économie, dont les data centers seraient les nouvelles raffineries. Sa maîtrise et son exploitation seraient au cœur de la transformation numérique des entreprises « traditionnelles » et de la construction de nouveaux modèles d’affaires, à la manière de ce qu’ont réussi les GAFAM et autres géants du numérique.

Pour les entreprises manufacturières, les données valent-elles vraiment de l’or ? Si oui, pour quels domaines d’application ? Et surtout comment faire pour les capter, les stocker, les protéger, les traiter et en extraire la valeur latente ?

Prenons un exemple. Inditex (Zara), l’un des géants mondiaux de la mode de masse, collecte les données sur les ventes en magasin (points de vente physiques et digitaux). Ces données proviennent des transactions (achats), mais également des informations qualitatives fournies par le personnel et les avis clients (notations des produits et de l’expérience client). Ces données sont utilisées pour gérer les approvisionnements des magasins au rythme de deux réassorts par semaine. Elles alimentent tout le système industriel amont, permettant d’orienter le travail de conception des stylistes et d’impulser la fabrication dans les 14 usines du groupe et le réseau des fournisseurs et sous-traitants partout dans le monde (flux tirés1). Grâce à cette chaîne logistique et de production fortement intégrée à partir des achats et comportements des clients, il s’écoule environ trois semaines entre la décision de commercialiser un vêtement et sa disponibilité dans les boutiques, contre deux à trois mois en moyenne pour les autres acteurs. Son système intégré de bout en bout et communiquant est incontestablement un avantage concurrentiel : l’une des forces de Zara, c’est sa capacité à s’adapter rapidement aux attentes des clients. C’est génial, ça a l’air simple… mais c’est très compliqué.

La promesse centrale de l’industrie 4.0 est bien cette articulation – ce bouclage, pourrait-on dire – entre les flux physiques et les flux digitaux permettant d’assurer la continuité et le pilotage du processus industriel de l’aval vers l’amont et de l’amont vers l’aval, en augmentant la vitesse, la réactivité et la flexibilité, et en assurant une qualité constante.

Aujourd’hui, chez Zara et bien d’autres industriels de la grande consommation, c’est le code barre de l’étiquette qui « parle » au système industriel et logistique. Mais que se passerait-il si la robe elle-même pouvait « parler » – autrement dit si l’objet-robe émettait des données tout au long de sa vie, chaque fois qu’elle est enfilée, passée en machine, prêtée ou revendue ?

Ce qui relève dans cet exemple de la métaphore futuriste est déjà une réalité pour des voitures connectées, des montres connectées, de la domotique ou des compteurs intelligents. Nous entrons ici dans ce qu’il est convenu d’appeler l’Internet des objets ou IoT. Ce champ pluridisciplinaire veut réussir à faire parler entre eux des objets, que ce soit à travers Internet ou de la même manière que s’ils étaient connectés au réseau internet. Ces objets communiquent entre eux (machine to machine ou M2M) mais aussi avec les humains (hommes-machines) : ces derniers donnent des informations aux objets et en reçoivent pour orienter leurs décisions et leurs comportements de façon plus pertinente et efficace. Ces objets génèrent des montagnes de données qui peuvent être traitées et analysées grâce au progrès des capacités de calcul et aux systèmes d’informatique cognitive capables d’en extraire le sens.

En théorie, l’IoT fait donc naître un potentiel d’innovations important tant du point de vue des usages que du commercial ou de la production : mieux comprendre et connaître les clients, innover dans les produits et les services, développer de nouvelles sources de revenus à travers la monétisation des données, etc.

Dans ce livre, nous nous intéressons plus précisément aux cas d’usage de l’Internet des objets appliqué au système de production industriel (ou IIoT – Internet industriel des objets) pour des entreprises manufacturières qui souhaitent atteindre des objectifs tels que l’amélioration de l’efficience du système productif, l’amélioration de leur offre de produits existants ou encore l’offre de nouveaux services liés à ces produits.

Sont donc exclus de notre champ d’investigation les enjeux liés à la conception d’objets connectés destinés au grand public, par exemple dans le domaine de la santé, des services de mobilité, des loisirs ou des médias. Pour reprendre notre exemple de Zara, nous ne traiterons pas de la robe connectée, mais plus prosaïquement, de la manière dont l’Internet industriel des objets peut améliorer encore l’efficacité de production de la robe, développer des services autour de la robe et changer les manières de travailler pour produire cette robe.

L’Internet industriel des objets ne représente encore qu’une part mineure des investissements dans l’IoT, mais il est extrêmement prometteur. Dans le monde, 189 milliards de dollars ont été investis en 2018 en solutions d’IoT industriel sur 772 milliards pour l’ensemble du marché mondial IoT (IDC 2017), soit à peu près un quart, avec une croissance moyenne estimée entre 15 et 20 % ces dernières années. En Europe, les dépenses totales IoT étaient prévues pour dépasser 241 milliards de dollars en 2022 (IDC, 2018). Les industries manufacturières dépenseraient autour de 20 milliards de dollars dans ces projets, soit moins d’un dixième, ce qui peut sembler comparativement faible.

L’objet de cette étude est de proposer un bilan d’étape sur les promesses de cette famille de technologies pour les industriels, sur ses effets réellement mesurables sur le terrain et sur de possibles écarts, permanents ou provisoires, entre théorie et pratique. Elle a pour but de livrer des conseils utiles aux dirigeants et responsables industriels voulant se lancer dans cette voie, leur signalant les bénéfices qu’ils peuvent raisonnablement en attendre, les difficultés à surmonter et quelques erreurs à éviter. A contrario, elle n’a pas vocation à s’adresser aux technologues et spécialistes des systèmes d’information. Elle fait œuvre de vulgarisation et n’entre pas dans le détail des technologies disponibles ou attendues sur le marché, mais s’intéresse aux enjeux « business » et aux enseignements des premiers cas d’usage, afin d’aider en pratique les responsables industriels confrontés à cette question.

  • 1 – Un flux de production est dit « tiré » lorsque la production (nature et volume) est organisée en fonction de la demande (constatée ou anticipée avec le plus de précision et de réactivité possible). Le but est de ne produire que ce qui sera vendu.
Chapitre 1

L’Internet industriel des objets, lignes de repère

L’Internet industriel des objets n’est pas un domaine facile à cerner. En croisant plusieurs définitions, on peut dire sommairement que :

L’IIoT est un sous-ensemble de l’internet des objets permettant de faire communiquer entre eux des « objets » industriels (machines, produits en cours de fabrication, approvisionnements, systèmes d’information des fournisseurs et des clients, infrastructures et bâtiments), afin d’améliorer l’efficacité du système industriel et de rechercher de nouvelles sources de valorisation des données ainsi captées.

Industrie 4.0 et besoins des industriels

Une façon d’entrer dans l’IIoT consiste à partir des besoins des industriels. Comme l’a souligné une étude conduite par Bpifrance Le Lab2, ceux-ci sont souvent désarçonnés et perplexes quand on leur parle des promesses de l’industrie 4.0 sous l’angle des seules technologies. Ils comprennent bien mieux de quoi il retourne dès lors qu’on évoque la continuité des processus dans l’usine et aux interfaces de l’usine, c’est-à-dire le pilotage de la production par des flux d’informations, la capacité à produire des séries courtes de façon rentable, ou encore lorsqu’on parle de productivité, sécurité, traçabilité et qualité des process et des produits (voir Figure 1.1). C’est à ce niveau que se situent les enjeux « business » perçus par les industriels.

Figure 1.1 – L’industrie du futur vue par les industriels

Source : Bpifrance. https://www.bpifrance.fr/A-la-une/Actualites/Comprendre-l-industrie-du-futur-44825. Consulté le 15 juin 2020

Si l’on définit l’IIoT comme ce qui permet l’interconnexion entre les machines, les hommes et les systèmes d’information dans une logique d’alignement des flux physiques et des flux de données, alors l’IIoT n’est pas une simple brique technologique de l’industrie 4.0 mais la pierre angulaire de la transformation des usines. Bien des industriels, à la manière de modernes M. Jourdain, ont commencé à faire de l’IIoT sans le savoir ni jamais utiliser ce terme.

L’avis de l’expert − Michaël Valentin, associé chez Opeo, auteur de Hyper-manufacturing3

Quelle est la place de l’IIoT dans l’industrie 4.0 ?
L’industrie 4.0 comprend, selon moi, trois types de technologies qui fondent des promesses différentes et complémentaires :
1. Des technologies physiques innovantes qui incorporent de l’automatisation, de l’électronique et de la connectivité comme la robotique ou l’impression 3D. Elles ont un effet essentiellement local et visent principalement une amélioration des process au sein du site industriel.

2. L’IIoT qui permet d’assurer l’interconnexion des machines, hommes et architecture IT. C’est une promesse centrale et structurante puisqu’elle fonde l’articulation du monde physique avec le monde digital au sein de l’usine et bien au-delà.

3. Tout ce qui concerne le stockage, la structuration et le traitement de la donnée à travers une couche de système cognitif ou d’intelligence artificielle, qui fonde l’analyse et la prise de décision, donnée qui pourrait aussi être à la source de nouveaux modèles d’affaires tournés vers les services.

Il y a une continuité évidente entre 2 et 3 pour structurer l’industrie du futur, même si elle n’est pas forcément facile à mettre en œuvre.

Un continuum de technologies

Loin d’être simplement une technologie parmi d’autres à côté de la robotique, de la réalité virtuelle et augmentée, de la fabrication additive, du cloud, du big data ou de l’intelligence artificielle4, l’IIoT est en réalité un concept qui fait appel à un continuum de technologies.

Il est donc parfois difficile d’en appréhender clairement les contours et les limites, puisque chaque fournisseur − et ce sont eux qui en parlent le plus – tend à mettre l’accent sur le champ technologique qu’il maîtrise le mieux. Ces différentes technologies, une fois articulées, visent à collecter, transmettre, traiter et communiquer un « objet » essentiel qui est la donnée, selon la séquence suivante :

• Capter les données émises par des objets physiques (équipements, machines, bâtiments) grâce à des capteurs, des caméras et autres devices.

• Transmettre les données sans intervention humaine grâce à des systèmes de télécommunications majoritairement non filaires (Bluetooth, RFID, NFC, Wi-Fi, 3G, 4G, 5G).

• Interfacer les systèmes qui produisent et collectent les données grâce à toutes sortes de « passerelles » (ou middleware).

• Stocker, sauvegarder, archiver et protéger ces données de toute nature sur des plateformes (cloud, datalake, data warehouse).

• Transformer les données en information : nettoyer, croiser et corréler les données via des systèmes d’information et y ajouter, le cas échéant, une couche d’informatique cognitive (machine learning) afin de leur donner du sens, en fonction des besoins.

• Restituer les informations via la conception d’applications (logiciels de dataviz, tableaux de bord) adaptées aux besoins de chaque type d’utilisateurs.

• Lire les informations sur différents types de terminaux (écrans géants, ordinateurs, tablettes, smartphones, montres connectées, etc.)

La sécurité des données est un élément à part entière, présent à chacune des étapes de ce continuum.

Figure 1.2 – Les étapes d’un projet IIoT

Source : digora.com

La diversité des technologies impliquées à toutes les étapes engendre donc par nature une assez grande complexité des projets IIoT. Il est facile de se noyer rapidement dans le choix et la concaténation des solutions technologiques et de perdre de vue le projet « business » auquel on souhaite répondre.

Un écosystème de fournisseurs très large

À la variété des technologies impliquées correspond un écosystème de fournisseurs très large.

On trouve d’abord les fournisseurs historiques d’automatismes, équipements machines, lignes de production, robots et de la couche logicielle qui permet de les opérer et contrôler (Operations Technology ou OT ou technologies d’exploitation), tels que Schneider, Siemens, Bosch, Omron, etc.

Il est important de garder à l’esprit que l’immense majorité des machines qui équipent les usines ne sont pas des ordinateurs : elles n’ont pas été à l’origine conçues pour émettre des données, d’où la nécessité de les doter de capteurs et de passerelles pour les rendre « communicantes ». Ce n’est que plus récemment que les fournisseurs ont incorporé directement des technologies « communicantes » dans le hardware. Coexistent donc dans les usines des générations d’équipements non seulement de marques différentes mais encore avec des niveaux de maturité très variables, qui doivent « communiquer » entre eux et avec les systèmes d’information selon des protocoles différenciés.

Les acteurs historiques des technologies de l’information (IT) (IBM, Cisco, SAP, etc.) ont été rejoints par les acteurs du numérique, tels que Microsoft, Google ou Amazon, qui les concurrencent sur certains aspects de leur offre comme le cloud, le middleware (permettant les communications entre les systèmes) ou les systèmes d’intelligence cognitive à base de machine learning. Les frontières entre les différents types d’acteurs de l’IT deviennent de plus en plus poreuses : dans cette chaîne de valeur, il est souvent compliqué de savoir qui fait exactement quoi et jusqu’où.

Sur ce point aussi, les entreprises doivent faire face à un problème de legacy IT, c’est-à-dire d’héritage technique, avec la présence de systèmes informatiques hérités, souvent archaïques, mais difficiles à « débrancher », qui doivent pouvoir s’interfacer avec des applicatifs souples et beaucoup moins structurés qu’auparavant, occasionnant de nombreux problèmes d’interfaçage et de compatibilité.

Les rôles respectifs de l’OT et de l’IT sont donc de moins en moins cloisonnés. Les frontières se brouillent et cette tendance s’accélère depuis quelques années. Les fournisseurs OT proposent à leurs clients des solutions IT, et les fournisseurs IT fournissent des solutions qui incluent de l’OT.

On constate que bon nombre de matériels et infrastructures informatiques « physiques » sont maintenant disponibles de manière « virtuelle », ce qui contribue à rendre cette frontière entre IT et OT extrêmement ténue. Nombreux sont les logiciels qui apportent un service similaire à ce que le matériel délivrait, il y a encore quelques années. Les fonctions réseau sont les premières à subir cette digitalisation. Nombre de robots ou outils numériques embarquent nativement des protocoles de communication. À titre d’exemple, cette convergence a notamment un très fort impact pour le monde des télécommunications qui doit lui-même s’adapter à ces « Virtual Function Networks ». Il y a quelques années, les fonctions réseaux des opérateurs étaient livrées sous forme de boîtiers matériels physiques (switch, routeurs, passerelles et autres firewalls, etc.), elles existent désormais en tant que logiciels virtuels qu’il est plus facile de mettre en œuvre dans des équipements informatiques traditionnels. Autre exemple dans le monde du grand public, les smartphones qui ont aujourd’hui besoin de cartes SIM physiques pour fonctionner intègreront demain une carte SIM virtuelle, et ils ont tous la capacité d’agir comme des routeurs et point d’accès de connexion. Dès lors, les capacités IIoT sont devenues des arguments de vente à part entière pour les fabricants d’outils de production et autres systèmes de production.

Cette convergence entre l’OT et l’IT conduit les grands acteurs du secteur à constituer des alliances technologiques et commerciales ad hoc. Ces alliances se reconfigurent selon les besoins spécifiques des projets. Des vitrines technologiques ou des démonstrateurs permettent de montrer aux futurs clients comment ces technologies issues de différents types de fournisseurs peuvent être combinées au service d’un projet (voir encadrés : IBM FabLab et Collectif Continuité Numérique).

Un exemple : l’IBM FabLab

Parce qu’une usine ne peut pas interrompre ses lignes de production pour tester des solutions d’optimisation, l’IBM FabLab reconstitue l’environnement technologique de l’usine pour chercher et expérimenter des solutions innovantes. Il intègre les acteurs clés d’un projet : client et partenaires technologiques. Aux solutions d’IBM en matière d’IoT, d’intelligence artificielle et de cloud, s’ajoutent celles de partenaires pour les réseaux de communication, le hardware ou les automates. Ces collaborations permettent de mettre au point des prototypes fonctionnels.

Un exemple : le Collectif Continuité numérique

et la « concept machine » Axelle

Né en 2016, le Collectif Continuité numérique (CNN) réunit huit leaders industriels et informatiques : Festo, SAP, Inetum, ifm electronic, Phoenix Contact, SICK, SEW Usocome et Stäubli, qui opèrent depuis le capteur jusqu’au pilotage intelligent des usines. Longtemps, les mondes de l’OT et de l’IT ont évolué parallèlement. Aujourd’hui, ils convergent pour mettre au point des solutions technologiques interopérables afin d’aider les industriels à évoluer vers l’usine 4.0, même à partir d’un parc machines hétérogène. En octobre 2020, le CNN a lancé la « concept machine » Axelle, une petite ligne de production opérationnelle fabriquée par ATS, une société d’ingénierie industrielle bourguignonne. Axelle matérialise la convergence OT-IT et vise à montrer aux entreprises manufacturières qu’il n’est pas nécessaire de renouveler de fond en comble son parc machines pour le faire communiquer différemment et capitaliser ainsi sur les données. Le CNN se présente comme un modèle de collaboration industrielle, y compris entre concurrents. Il ne commercialise aucune solution intégrée, mais offre un cadre d’action pour combiner chez un client plusieurs solutions, ATS pouvant, le cas échéant, jouer un rôle d’intégrateur de solutions.

À cette liste de fournisseurs, s’ajoutent encore les opérateurs de réseaux non filaires qui peuvent être des opérateurs cellulaires généralistes (Orange Business Services, Bouygues Entreprise, SFR Business, etc.) ou des acteurs utilisant des protocoles dédiés à l’Internet des objets (alliance LoRa, Sigfox, etc.).

Zoom sur… LoRa et LoRaWAN

LoRaWAN est un protocole de télécommunication permettant la communication à bas débit, par radio, d’objets à faible consommation électrique, communiquant selon la technologie LoRa et connectés à l’Internet via des passerelles, et participant ainsi à l’Internet des objets. La cible de LoRaWAN est clairement les communications longues portées à bas coût et basse consommation plutôt que les communications à débit élevé.

Enfin, il existe un nombre très important de start-up spécialisées – dont certaines incorporent des briques technologiques des gros acteurs du secteur −, consultants ou experts intégrateurs qui gravitent autour de ces projets, selon les besoins.

La complexité du système fournisseurs de l’IIoT constitue en soi une barrière à l’entrée pour de nombreux industriels. Nous verrons qu’il est important de choisir des fournisseurs qui soient adaptés à la nature et à la culture de l’entreprise.

L’avis de l’expert − Samir Djendoubi, expert IIoT indépendant

Pourquoi les projets IIoT sont-ils complexes ?
L’IIoT repose sur la concaténation de quatre blocs de technologies, globalement assez anciennes :
1. des systèmes embarqués ;
2. des réseaux de télécommunications ;
3. du middleware, c’est-à-dire des solutions logicielles qui assurent les interfaces entre les systèmes ou encore qui façonnent les données pour leur donner du sens ;
4. des solutions applicatives capables d’amener la donnée vers les utilisateurs.

Articuler ces quatre blocs de technologies n’a déjà rien d’évident. Mais en outre, elles doivent être placées au service d’un objectif business qui nécessite de comprendre assez finement les processus industriels « métiers ». Il faut donc être capable de « traduire » les besoins des métiers en solutions technologiques, et inversement. Ce qui nécessite d’être pertinent à la fois sur le socle technologique et la compréhension critique des solutions des fournisseurs, mais aussi sur la réalité du terrain industriel.

Des promesses très ambitieuses

À lire les sites, articles, conférences, des acteurs et accompagnateurs de l’Internet industriel des objets, les promesses de ces technologies sont considérables.

Elles peuvent être regroupées en quatre grandes catégories (voir figure 1.3) :

• Améliorer l’efficacité opérationnelle directe et indirecte d’une fonction industrielle ou d’un site : réduction des délais, meilleure utilisation des machines, diminution des ressources employées (efforts humains, matières, énergie), information en temps réel et partagée, etc.

• Améliorer l’efficacité du système industriel s’étendant des fournisseurs jusqu’aux clients : sécurisation des approvisionnements, logistique et transport, planification industrielle, meilleure utilisation des actifs, etc.

• Créer de la valeur additionnelle sur les produits existants : stabilisation des recettes (agro-alimentaire, cosmétiques) pour une meilleure qualité, traçabilité via, par exemple, des puces RFID embarquées dans les produits conjuguées à des blockchains, transparence vis-à-vis des consommateurs sur la composition et la provenance des produits, etc.

• Créer de nouvelles sources de revenus ou faire évoluer les modèles d’affaires : monétisation des données collectées, création de nouveaux services innovants à partir des données.

Figure 1.3 – Les 4 grandes catégories de promesses de l’IIoT

Ces quatre grandes catégories de promesses recouvrent de multiples sous-objectifs qui peuvent se traduire, chacun, par un projet IIoT spécifique. Nous verrons qu’il y a souvent une logique de progressivité et de petits pas dans la manière d’apprivoiser l’IIoT. Compte tenu de la complexité de ces projets, ceux-ci commencent souvent par une expérimentation sur un périmètre très circonscrit ou peuvent ne concerner qu’un problème ponctuel à résoudre. Petit à petit, les projets s’enchaînent et s’étendent jusqu’à concerner toute une usine, voire tout un système productif. Sans en avoir la preuve formelle, nous constatons que les projets réussissent mieux lorsqu’ils s’inscrivent dans une vision stratégique et un projet global de transformation digitale de l’entreprise (feuille de route).

Les projets IIoT ayant souvent vocation à poursuivre plusieurs bénéfices conjoints, la structuration en liste ci-après a uniquement une vertu pédagogique (voir figure 1.4).

Figure 1.4 – Une grande diversité de bénéfices directs et indirects

En 2017, une étude menée conjointement par Wavestone, EBG et Agrion auprès de 90 responsables et décideurs au sein d’entreprises industrielles, principalement de l’énergie, de la logistique et des transports, de la construction aéronautique, ferroviaire et navale, indiquait que l’IIoT était perçu comme une source de transformation pour : créer de nouveaux services (63 %), trouver de nouvelles manières de travailler (46 %) ou automatiser les processus (43 %) (voir figure 1.5).

Figure 1.5 – Les bénéfices attendus de déploiements IoT selon une enquête Wavestone (2017)

Source : « L’IoT industriel : du POC à l’industrialisation », Wavestone, ebg, Agrion, 2017

  • 2 – Bpifrance Le Lab, « L’avenir de l’industrie : le regard des dirigeants de PME-ETI sur l’industrie du futur et le futur de l’industrie », 2018.
  • 3 – M. Valentin, Hyper-manufacturing, L’après Lean, Dunod, 2020.
  • 4 – Voir, par exemple, T. Bidet-Mayer, L’industrie du futur : une compétition mondiale, Les Notes de La Fabrique, 2016.
Chapitre 2

Les promesses de l’IIoT à l’épreuve du réel

Si les promesses de l’IIoT sont ambitieuses, les cas d’usage auxquels notre enquête nous a permis d’avoir accès restent pour l’heure concentrés sur quelques domaines d’application. La plupart de ces projets ont moins de cinq ans.

L’absence de recul peut expliquer la réticence des entreprises à être citées, à communiquer le montant de leurs investissements ou la mesure des retombées de ces projets. Beaucoup de projets sont encore à un stade expérimental avec des déploiements souvent plus longs qu’initialement anticipé.

Ces cas d’usage témoignent cependant du potentiel que présentent les projets IIoT.

Smart metering

Pour 100 projets IIoT, 70 concernent le « smart metering » ou compteurs qui permettent d’effectuer de la mesure à distance. Ces compteurs intelligents sont capables de capter la donnée, puis de l’envoyer à des plateformes où elle sera stockée, sécurisée et partagée, notamment pour suivre en temps réel les consommations, équilibrer l’offre et la demande, maîtriser ou lisser les consommations, produire des factures, repérer les pannes ou défauts du réseau, faire des économies d’énergie, affiner les modèles de prévision, etc. Ces déploiements concernent prioritairement les opérateurs de réseaux (énergie, eau, transports et bâtiments)5. Certains exemples étant assez connus (compteurs Linky, compteurs d’eau intelligents, par exemple) et ces entreprises n’étant pas strictement des entreprises manufacturières, nous n’approfondissons pas ce domaine d’application dans cet ouvrage.

Efficacité opérationnelle de l’usine

C’est l’un des sujets les plus prometteurs et c’est aussi celui qui offre le plus d’opportunités de transformation et de progrès pour les ETI et PME.

La vie d’une usine est une suite d’aléas. La performance des lignes de production est affectée par de nombreux facteurs : les temps d’attente (on attend des composants, des emballages, etc.), les micro-arrêts ou pertes de cadence, la variabilité des matières premières qui peut influer sur les réactions des machines, les problèmes de qualité, les changements de produits sur la ligne ou encore les pannes. En cumul, tous ces « incidents » peuvent finir par représenter de 5 à 30 % de performance en moins pour un site.

Une tendance de fond affecte également la performance : la réduction de la taille des lots, pouvant aller jusqu’à l’extrême personnalisation des produits (lots unitaires). Cette réduction de la taille des lots augmente la fréquence des changements de séries sur les lignes de production. Lors d’un changement de fabrication, la partie mise en train (l’amorce de la fabrication) génère une quantité importante de rebuts (non qualité). Le but est de diminuer le temps de passage d’une série à une autre, en obtenant des changements d’outils rapides ou des réglages instantanés, pour arriver plus vite à un produit « bon du premier coup ». Si les temps de changement de série deviennent plus courts, le taux de rendement synthétique (TRS)6 s’améliore. Les consommations de matières, d’énergie et de travail, se réduisent, ce qui a un impact direct sur les coûts. Le seuil de rentabilité du produit, appelé aussi point mort, peut ainsi être abaissé, ce qui permet d’envisager des lots de plus en plus petits.

La plupart du temps, les opérateurs comme les directeurs de production ne savent pas avec exactitude d’où proviennent les pertes qu’ils subissent. Mettre en place des solutions IIoT peut permettre d’objectiver les sources de pertes et de gagner en performance sur de multiples critères. Il s’agit en fait de piloter toujours davantage l’usine sur la base de données. On retrouve ici l’une des grandes leçons des GAFAM et une source d’inspiration : les données valent mieux qu’une intuition.

« Ces entreprises [les GAFAM], qui ont été immédiatement numériques, sont pilotées par les faits, les tableaux de bord, les chiffres. Il y a des sondes un peu partout, dans le parcours client par exemple. L’impact d’une décision peut être analysé très rapidement. Pour ne donner qu’un exemple, Amazon a montré le lien entre le temps d’affichage d’une page et le taux de conversion d’une commande. Ces entreprises sont dans l’optimisation permanente et instantanée grâce à toutes les données recueillies. »

Fabernovel, Gafanomics7

De façon très simplifiée, un projet IIoT pour l’usine comporte plusieurs séquences. La première consiste à faire « parler » les machines qui n’ont en général pas été conçues pour fournir de la donnée. Ce premier niveau de collecte des données machines va permettre de fournir aux opérateurs une première série d’informations pour mieux comprendre ce qui se passe sur leur machine ou sur leur ligne. Une fois ces données agrégées, il est possible « d’historiser » les incidents. On peut produire de simples diagrammes de Pareto permettant de visualiser les causes les plus importantes des arrêts machines, de formuler les problèmes et de les résoudre les uns après les autres, en se basant sur des faits, plutôt que sur des opinions ou des intuitions. Enfin, la troisième séquence consiste à nourrir un système de machine learning avec les données ainsi recueillies. L’algorithme va alors procéder à des liens et à des corrélations entre les données de façon à formuler des recommandations. Ces recommandations peuvent ensuite être testées pour s’assurer de leur validité, et ces tests viendront à leur tour alimenter le système pour améliorer la qualité du modèle prédictif.

C’est à un projet smart factory appliqué à toute une usine, processus par processus et fonction par fonction, que s’est attelé depuis sept ans Olivier Maho, responsable industrie et logistique de BG Security au sein du groupe Somfy.

Business Case n°1 – BG Security – Piloter la performance par les données industrielles

Fiche d’identité
• Métier : Systèmes électroniques connectés pour la maison
• Site industriel : Rumilly (40 personnes)
• Groupe : Somfy (motorisations de stores électriques et volets roulants,
portes et portails, maison connectée)
• Salariés groupe : 8 000
• CA groupe : 1 milliard d’euros dont 75 % réalisé à l’étranger

Au sein du groupe Somfy, BG Security est le centre de profit qui traite des systèmes pour la maison connectée. Le site de Rumilly, près d’Annecy, est la plus petite des usines du groupe (40 personnes), mais aussi la plus spécialisée. Elle fabrique des systèmes électroniques connectés pour la maison – alarmes, box domotique, visiophones et caméras de sécurité – pour un marché d’installateurs professionnels et une variété de distributeurs (grandes surfaces de bricolage, grandes surfaces spécialisées et e-commerce), selon un modèle BtoBtoC. Elle gère environ 1000 références de composants pour 350 références de produits finis.

Lorsqu’Olivier Maho devient responsable industrie et logistique chez BG Security en 2014, le site de Rumilly n’est pas encore passé au Lean manufacturing. C’est le début d’un projet de transformation de l’outil industriel qui, avec une logique de petit pas, va faire du site de Rumilly une « vitrine de l’industrie du futur », label que l’usine recevra à fin 2018.

Dès le départ, l’intention est de numériser la chaîne de valeur de l’usine « end to end », depuis les fournisseurs jusqu’aux clients. L’usine veut devenir un centre d’excellence pour les usines du groupe : aux produits connectés qu’elle fabrique doit correspondre une usine-modèle connectée. Les concurrents de Somfy sont des géants comme Nest de Google, et l’ETI savoyarde, en dépit de sa spectaculaire internationalisation, ne peut rivaliser avec eux sur le terrain de la production de masse, mais doit se concentrer sur la personnalisation (sur-mesure) de produits à coût compétitif, ce qui implique des séries courtes et la capacité à être très flexible en matière de production.

Un projet Smart Factory centré sur la data de l’usine

La transformation va être articulée en trois grandes phases.

De juillet 2014 à mai 2016, l’usine intègre les bases du Lean manufacturing pour dessiner, optimiser et maîtriser ses processus. Cette étape n’est pas conçue comme une fin en soi, mais comme un préalable nécessaire pour éviter de numériser des gaspillages. C’est à cette étape que sont introduits entre autres le suivi du TRS (taux de rendement synthétique) sur la base de fiches papier et fichiers Excel, ainsi que les AIC (animations à intervalle court), caractéristiques du Lean manufacturing.

De mai 2016 à octobre 2018 se déploie le projet Smart Factory avec la mise en place d’une nouvelle architecture SI, la mise en réseau de l’ensemble des machines, la numérisation des processus et procédés, et le passage au zéro papier.

À compter de 2019 s’est ouverte une nouvelle étape marquant le passage de la Smart à l’Intelligent Factory qui a pour but de mieux exploiter la data, de passer à des modèles plus prédictifs incluant une couche d’informatique cognitive (IA) et de connecter la supply chain. Cette étape est toujours en cours.

Le projet est entièrement centré autour de la donnée :

1. Collecter les données industrielles et logistiques : données de production et données des produits.

2. Gérer et analyser les données de façon dynamique et en temps réel.

3. Visualiser les données en temps réel pour piloter la performance.

Architecture SI globale

L’architecture SI est marquée par l’introduction d’un MES (Manufacturing Execution System) – qui désigne un logiciel de pilotage de la production capable de collecter en temps réel les données de production de l’usine –, là où il n’y avait auparavant qu’un ERP. Les ERP s’adressent traditionnellement plutôt aux fonctions tertiaires qui font de l’analyse après coup, alors que le MES collecte et fournit des informations qui intéressent directement le fonctionnement de l’atelier.

L’ERP travaille à la demi-journée et traite les données techniques des produits, la gestion des stocks, les commandes et les ordres de fabrication. Le MES travaille à la seconde, à l’interface avec les opérateurs, et traite la gestion de la production, l’ordonnancement, le pilotage du TRS, la qualité et la maintenance. Les ordres de fabrication descendent de l’ERP vers le MES, puis vers les terminaux de l’atelier, et les informations remontent en sens inverse, en temps réel.

En plus des serveurs (ERP, MES et Bases Produits), Olivier Maho a anticipé l’étape suivante, en créant d’emblée un data lake dans le cloud qui stocke les données de toute nature, permettant à terme d’envisager des traitements plus sophistiqués à base de machine learning (ordonnancement, maintenance ou qualité prédictives).

Parallèlement, c’est au niveau de l’atelier que sont collectées les données machines grâce à des capteurs placés aux bons endroits. Toutes les machines de l’atelier sont connectées entre elles en full wifi, ce qui donne de la flexibilité pour reconfigurer les lignes sans avoir à déplacer des câbles. Tous les opérateurs, qui, à Rumilly, sont exclusivement des opératrices, sont équipés de tablettes qui interagissent avec le système.

Différents niveaux de restitution des données ont été définis, avec des interfaces hommes-machines adaptés à la visualisation des informations pertinentes pour chacun : le niveau de l’opérateur, des services supports et du management de l’usine.

Architecture globale d’une Usine Lean à une Smart Factory

Source : Olivier Maho, Somfy.

Une fois l’architecture globale définie, la transformation va ensuite être séquencée en plusieurs étapes afin d’aller rechercher de la performance dans chaque domaine de l’usine. Pour Olivier Maho, cette politique des « petits pas » est essentielle à la réussite du projet, car elle permet de convaincre et d’engager les équipes au vu des résultats et des succès des étapes précédentes.

Premier groupe de sujets traités : TRS et changements de séries

La première étape du projet va s’intéresser à l’amélioration du TRS – indicateur synthétique qui permet de suivre le taux d’utilisation des machines et des pertes de production – via, entre autres, la capacité à effectuer plus rapidement et avec plus de fiabilité les changements de séries sur les lignes.

Auparavant, il y avait des feuilles de TRS remplies manuellement et consolidée dans des fichiers Excel, il y avait aussi des fiches papier au poste décrivant le montage de chaque type de produit. Désormais, tout se trouve dans le MES. Premier résultat : l’usine zéro papier devient une réalité. Débarrassées de ces tâches fastidieuses de saisie et de doublons, les équipes voient leur temps libéré pour faire un travail plus centré sur l’amélioration continue et le contrôle qualité.

Plus les changements de série sont rapides et fluides, plus le TRS s’améliore. Le pilotage usine gère les dossiers de fabrication ; la ligne de production se configure automatiquement selon les ordres de fabrication émis, puis envoie un signal pour dire qu’elle est prête. La nomenclature à suivre apparaît alors sur la tablette de l’opératrice, sur laquelle elle peut « appeler » la fiche opératoire et suivre en temps réel sa propre performance… Aux dires d’Olivier Maho, ce suivi n’a pas été perçu comme un outil de « flicage », mais comme un instrument d’autocontrôle et de progrès personnel.

Résultats de cette première étape : des gains de rapidité lors des changements de séries, des opératrices beaucoup plus autonomes, la suppression des contrôles croisés au démarrage d’une série et la réduction du nombre d’erreurs liées à des problèmes de production. Et au final, un gain de 5 points de TRS, de 82,3 à 87,5, soit une réduction de 30 % du temps pendant lequel les machines ne produisent pas !

Deuxième groupe de sujets traités : automatisation du suivi qualité et animation d’équipes

La deuxième étape s’est focalisée sur l’automatisation du suivi des pièces non conformes (PNC). Dès qu’un défaut est détecté, l’opératrice vient renseigner sur sa tablette la référence qui a un défaut, et elle peut aussi caractériser le type de défaut selon la nomenclature proposée. Le technicien qualité visualise l’alerte sur son écran de supervision, et en cliquant sur la référence, peut déjà avoir un premier retour sur la nature des problèmes. Il peut ainsi décider d’intervenir ou non, selon que le défaut concerne une carte électronique à 70 euros ou un emballage à 10 centimes. Cela lui permet de prioriser ses actions et de stopper les défauts au plus tôt. Finies les feuilles de contrôle qualité.

La consolidation automatique des données qualité permet à tout moment de visualiser le taux de défaut par type de produit et par poste, ainsi que la distribution des défauts par catégorie, et d’adopter les actions correctives. Résultat : une baisse de 42 % de la non qualité.

Cette deuxième étape a aussi abouti à la numérisation des animations d’équipe dans le cadre de la méthode Lean (points 5 minutes, 15 minutes, etc.) qui se font désormais debout à côté de l’écran tactile où se déversent les données du MES mises en forme. Ces écrans sont également consultables à distance si les responsables sont en télétravail ou en déplacement.

Troisième groupe de sujets traités : maintenance, planification et gestion numérique des approvisionnements sur poste

Maintenance. Puisque, grâce à la numérisation, les temps d’utilisation des machines sont désormais connus, les interventions de maintenance peuvent être ajustées sur les temps d’utilisation réels des machines (plus une machine a été utilisée, plus elle a des chances de tomber en panne), et non plus sur la base d’une fréquence théorique (par exemple, tous les 6 mois). Il ne s’agit cependant pas encore de maintenance prédictive, mais d’une amélioration de la maintenance préventive. Le système est aussi utilisé pour visualiser les actions de maintenance à réaliser, ainsi que l’historique des interventions, ce qui réduit le temps d’intervention. Résultat sur ce poste : une réduction de 30 % des temps de maintenance, qui participe à l’amélioration du TRS.

Planification. L’ordonnancement de l’usine est entièrement numérisé, ce qui permet d’optimiser le temps de préparation du planning de production, mais aussi d’effectuer l’ordonnancement à distance. Sur ce point, une couche d’IA est utilisée qui permet à l’algorithme de faire une première proposition d’ordonnancement en fonction de multiples paramètres, puis le responsable de production intervient pour procéder aux ajustements et ajouter sa plus-value.

Gestion numérique de l’approvisionnement des composants sur les postes. Cette brique permet d’aligner le flux physique des composants entre le magasin, le picking et les lignes de production, avec le flux d’information en temps réel, ce qui permet des réapprovisionnements automatisés aux différentes étapes ainsi que la génération automatique des commandes de composants.

Prochaine étape : Intelligent Factory

Pour Olivier Maho, la prochaine étape consiste à ouvrir le système à des données extérieures à l’usine en provenance des fournisseurs et des clients. L’objectif final est de maîtriser la supply chain de bout en bout, en de « tracer » les composants en provenance des fournisseurs, puis le produit fini jusqu’à sa livraison chez le client. Olivier Maho se donne à nouveau trois ans pour y parvenir. Les produits Somfy étant eux-mêmes des produits connectés (domotique), il est aussi envisageable à terme de collecter les données de vie et d’usage des produits eux-mêmes, une fois installés chez les clients finaux, à condition de respecter le RGDP. Mais cette page reste encore à écrire.

Impacts et bénéfices

Les impacts du projet peuvent se mesurer à l’aune de la performance du site (TRS), de la satisfaction client (réduction des non conformités) et de la rentabilité du site.

Impacts et bénéfices du projet

Source : Olivier Maho, Somfy

Mais au-delà des seuls impacts directs et attendus, Olivier Maho met l’accent sur de nombreux bénéfices secondaires.

La simplification des processus, le zéro papier, rendent le travail plus agréable et satisfaisant. Les personnels intérimaires deviennent plus faciles à intégrer sans impact sur la performance immédiate, car la prise en main des interfaces est très intuitive. Les salariés passent plus de temps à analyser les situations, et moins de temps à des tâches fastidieuses et inintéressantes comme les saisies. Et tout le monde devient plus autonome et proactif. Cela insuffle un esprit général d’amélioration continue et d’innovation où chacun vient avec des idées et des sujets à traiter par le numérique.

Les relations deviennent plus fluides et plus collaboratives, car les personnes discutent sur la base de faits et de données, plutôt qu’avec des impressions subjectives et des ressentis ou en se renvoyant la balle entre services.

Enfin, l’attractivité du site de Rumilly s’est fortement renforcée sur le bassin d’emploi, car le numérique rend l’usine plus « fun ». L’image globale du groupe Somfy en bénéficie aussi via la labellisation « vitrine de l’industrie du futur ».

Cette expérience reste pour le moment isolée au sein du groupe et limitée au site de Rumilly.

Efficacité opérationnelle des usines : le défi du passage à l’échelle

Ce qu’Olivier Maho a réalisé à l’échelle d’une usine, il faut maintenant l’imaginer porté à l’échelle d’un groupe disposant d’un grand nombre d’usines à travers le monde.

De tels projets ne sont guère fréquents. Même dans les grands groupes, on procède plutôt par la transformation d’au maximum quelques usines dans le monde qui deviennent les « vitrines du groupe ». D’une part, parce que ce sont des projets coûteux. D’autre part, parce qu’un groupe mondialisé recouvre fréquemment une grande hétérogénéité de situations industrielles. S’il existe souvent une logique centralisée et globale qui anime les dirigeants, il est rare que soit appliqué un moule uniforme à toutes les usines. Une assez grande autonomie et latitude sont laissées aux directeurs d’usine en fonction des besoins réels de chaque site industriel.

L’avis de l’expert − Alexandre Pinot, consultant associé « transformation digitale » pour IBM

Pourquoi la transformation digitale des sites industriels d’un groupe se fait-elle rarement à l’échelle mondiale, mais plutôt au cas par cas ?

Il peut y avoir une vision mondiale, mais rarement un passage à l’échelle mondial de ces projets. Cela s’explique par plusieurs raisons :
1. Les activités : dans beaucoup de grands groupes, les usines et les métiers ne sont pas au même niveau d’automatisation et ne produisent pas exactement les mêmes biens. S’il est courant de dire que les groupes industriels doivent être compétitifs et réactifs, le degré d’exigence diverge quand même selon le type d’activités. En conséquence, il y a des cas d’usage qui seront pertinents sur certaines activités, et pas sur d’autres. Évaluer les vrais besoins des sites et des situations est un pré-requis.
2. La règlementation : la règlementation du travail et les exigences de sécurité varient d’un pays à l’autre. Dans certains pays comme la France ou l’Allemagne, les exigences à l’égard de la sécurité des travailleurs sont fortes, et on va donc créer des équipements connectés adaptés. Dans d’autres pays malheureusement, la sécurité des travailleurs n’est guère une préoccupation et les entreprises ne vont donc pas investir sur de tels équipements.
3. Le coût de la main d’œuvre : la décision d’investir sur l’automatisation de certains processus complexes dépend beaucoup du coût du travail. Si la main d’œuvre est bon marché, le ROI de ces projets est moindre que dans un pays comme la France. En revanche, dans nos pays, cette modernisation peut permettre de maintenir localement l’activité productive.
4. Infrastructures : d’un pays à l’autre, le tissu économique, la connectivité varient beaucoup. Un capteur très sophistiqué ne pourra pas être installé dans certains pays.

Porter à l’échelle de tout un groupe la modernisation des usines, c’est pourtant le défi qu’a su relever le groupe L’Oréal, à un rythme assez impressionnant.

Business Case n°2 – L’Oréal – Renforcer la performance industrielle des sites de production

Fiche d’identité
• Activité : leader mondial de la cosmétique
• Siège social : Clichy (France)
• 86 000 collaborateurs, dont 18 000 dédiés aux opérations
• Slogan : Parce que nous le valons bien (depuis 2011)

L’Oréal est un industriel de la beauté. Si tout le monde connaît les marques de luxe, grand public, cosmétique active et professionnelles du leader mondial de la cosmétique, beaucoup ignorent que le groupe est aussi une grande entreprise manufacturière qui produit 7 milliards de produits par an, soit 20 millions de produits chaque jour, dans 39 usines réparties à travers le monde.

Sous l’impulsion de Jean-Paul Agon, avec l’appui de Lubomira Rochet, CDO nommée en 2014, et Barbara Lavernos, Executive Vice-President Chief Technology and Operations Officer, L’Oréal a entrepris une transformation digitale de grande ampleur qui concerne tous les métiers et tous les pays de l’entreprise. Jean-Paul Agon a coutume de dire que « le numérique, ce n’est pas la cerise sur le gâteau, c’est le gâteau, le nouveau gâteau. »

Les Opérations de L’Oréal – qui ont la responsabilité de l’ensemble de la chaîne de valeur, depuis la conception packaging, le développement produits, la production (c’est-à-dire les usines) et la distribution – sont également concernées par cette transformation. Les innovations organisationnelles et technologiques ont vocation à être menées en mode Test&Learn (avec son corollaire « fail fast »), c’est-à-dire sur de petits périmètres et des cas d’usage bien identifiés, et si les résultats sont probants, à être déployées ensuite avec rapidité à l’échelle internationale.

L’évolution de l’outil industriel commence en 2017 via un partenariat mondial avec IBM. Parmi les usines de L’Oréal, 35 fonctionnent déjà, depuis plus de dix ans, avec un core model ERP/SAP commun, parfaitement maîtrisé. C’est parmi celles-ci que seront choisies les usines pilotes pour déployer les premiers cas d’usage.

Cas d’usage : les lignes de production connectées

Les lignes de production peuvent subir de multiples arrêts : des temps d’attente, des micro-arrêts, des pertes de cadences ou encore des pannes. En cumul, cela peut représenter une perte de performance de 5 à 30 %. Pour pouvoir réduire ces arrêts et améliorer la performance, encore faut-il comprendre ce qui se passe : quelle est la nature de ces arrêts, et quelles en sont les causes. Cela nécessite de « faire parler » les machines. Or, une remplisseuse, un palettiseur, une encartonneuse, sont pilotés par des automates industriels qui n’ont pas été conçus pour fournir de la donnée.

La première étape de ce type de projet consiste donc à aller capter la donnée contenue dans les machines, et donc à connecter deux catégories de technologies − les automatismes industriels (OT) et les systèmes d’informations (IT) − et à faire travailler ensemble automaticiens et informaticiens qui n’ont pas toujours la même culture, ni les mêmes savoir-faire, ni le même langage.

Une fois cette donnée captée, il faut la restituer aux opérateurs via des interfaces adaptées. Ce premier niveau d’information en temps réel permet aux opérateurs une meilleure autonomie et rapidité dans les prises de décisions de pilotage de la ligne, et d’adopter de nombreuses mesures correctrices pour optimiser les opérations sur la base de faits et de chiffres. La consolidation des données permet ensuite d’enregistrer un historique des incidents et de visualiser les causes les plus fréquentes (par ex. 80 % des arrêts sur cette machine sont dus à…).

Cela permet de s’attaquer aux problèmes les plus récurrents : changer les réglages, améliorer les procédures, sensibiliser les opérateurs à certaines mesures, etc. Enfin, la troisième étape consiste à nourrir un système de machine learning (en l’occurrence la plateforme Watson IoT) avec les données ainsi recueillies. L’algorithme va alors procéder à des liens et à des corrélations entre les données. C’est à ce stade que l’on commence vraiment à apprendre des choses nouvelles, puisque le système produit des recommandations qui pourront ensuite être testées : par exemple, conseiller sur de nouvelles valeurs de réglage des machines adaptées aux composants et aux conditions de travail.

Cas d’usage : l’opérateur augmenté et les changements de séries

Comme de nombreux groupes de grande consommation, L’Oréal doit faire face à des comportements de consommation qui changent vite. Le groupe sert plus d’un milliard de consommateurs autour du globe qui exigent à la fois une grande variété et une haute qualité de produits. La diversité des références s’agrandit. Cela entraîne une réduction de la taille des lots à produire, pouvant aller jusqu’au lot unitaire : la personnalisation à l’unité est une promesse très attractive pour les cosmétiques (une crème adaptée à ma peau, une ombre à paupière assortie à l’exacte couleur de mes yeux, une coloration bien adaptée à ma couleur d’origine et à la nature de mes cheveux8), rendue possible par le développement des commandes en ligne (e-commerce).

Cette réduction de la taille des lots augmente le nombre de changements de séries sur les lignes de production. Les tâches liées à ces changements sont parmi les plus complexes pour les opérateurs. Le but est de diminuer le temps de passage d’une série à une autre, en obtenant des changements d’outils rapides ou des réglages instantanés, et d’arriver plus vite à un produit « bon du premier coup » (ou jidoka). Cette assurance de la qualité par une prescription des tâches relatives au changement, permet également de réduire les consommations de matières, d’énergie et de travail, et a donc un impact direct sur les coûts. Si les temps de changement de série deviennent plus courts, les coûts diminuent, le TRS s’améliore et l’on peut dès lors envisager des lots de plus en plus petits tout en garantissant une maîtrise parfaite de la qualité.

Le projet mené chez L’Oréal a consisté à apporter une solution numérique aux opérateurs, afin de faciliter les changements de produits, plus rapidement et de manière plus fluide, en limitant les déplacements le long de la ligne.

La solution retenue est un smartphone doté d’une app, qui permet un fonctionnement aisé en mobilité le long de la ligne. Lors d’un changement de série, le MES envoie l’information à l’opérateur et l’application affiche automatiquement la meilleure procédure à suivre, ainsi qu’au besoin, des photos couleur pour visualiser la procédure et des tutoriels vidéo. L’opérateur renseigne les étapes de la procédure avec de simples clics ou scans, informations qui remontent dans le MES, puis dans le cloud. L’analyse de cette data pourra servir à améliorer encore la procédure.

Matériel et interfaces ont été conçus avec les opérateurs lors de séances de design thinking et améliorées par itération agile, ce qui en a grandement facilité l’appropriation. En 2020, ces nouvelles façons de travailler ont déjà été déployées dans la majorité des usines, et les indicateurs (TRS, volumes de production, coûts de non qualité) se sont largement améliorés.

À mesure que les cas d’usage sont validés par L’Oréal puis déployés, de nouveaux entrent dans le jeu. La numérisation de l’outil de production est un travail au long cours.

D’après : https://www.loreal.fr/groupe/loreal-et-la-beautytech
https://www.lesechos-digital.fr/29/club-les-echos-digital-avec-jean-paul-agon-et-lubomira- rochet
http://www.mbadmb.com/loreal-la-transformation-du-leader-mondial-de-la-cosmetique- en-pionnier-de-la-beautytech/
Think Summit Paris 2019 : Table ronde « Plateformes et transformation ». L’Oréal, Barbara Lavernos, Executive Vice-President Chief Technology and Operations Officer https://www. youtube.com/watch?v=utJP5FAS5qs&ab_channel=IBMFrance
Think Summit Paris 2019: Talk «IOT et IA dans l’industrie». L’Oréal, François Ly, Domain manager Operations 4.0 https://www.youtube.com/watch?v=Im4xGcKvT5o&ab_ channel=IBMFrance
L’Oréal + IBM : Un relooking pour l’Industrie 4.0 https://mediacenter.ibm.com/media/L% 27Or%C3%A9al+%2B+IBM+A+Un+relooking+pour+l%27Industrie+4.0/1_l18i2pdm

Détection visuelle, automatisation et opérateur « augmenté »

Avez-vous déjà vu une trieuse-calibreuse de fruits et légumes en action ? Quand la machine est filmée, il est quasiment impossible de saisir à l’œil le moment de l’éjection des produits non conformes tant la cadence est rapide. Pendant longtemps, les opérations de tri reposaient essentiellement sur la vision et la vitesse manuelle des collaborateurs le long d’un convoyeur. Aujourd’hui, la plupart des trieuses sont basées sur la reconnaissance optique appuyée sur des logiciels qui permettent de définir les critères de calibrage désirés, les couleurs, etc. La détection visuelle des défauts s’opère via des caméras à haute résolution (les capteurs), à grand angle de vision et sous un éclairage à haute intensité lumineuse. Les images viennent nourrir un système à base d’intelligence artificielle qui renforce au fur et à mesure sa capacité de reconnaissance visuelle pour améliorer la qualité du tri et diminuer le nombre d’erreurs.

De la même manière, de nombreux processus de précision qui reposaient intégralement sur les compétences humaines peuvent aujourd’hui être automatisés ou assistés par le digital : par exemple, la détection des défauts des peaux dans la confection des sacs de luxe ou encore l’appréciation de la gomme des pneus. On parle parfois d’opérateur « augmenté ».

Comme nous le discuterons au chapitre 5, cette notion d’opérateur « augmenté » par le numérique est assez ambiguë : parfois l’opérateur peut être tout simplement remplacé (cas des anciens trieurs de fruits et légumes), parfois ses compétences sont assistées par le numérique (capacités de détection renforcées comme dans le cas des grutiers ci-dessous), parfois le processus est effectivement automatisé et l’opérateur devient un contrôleur machines/processus − il vérifie que le processus se déroule conformément au protocole et sans anomalies −, enfin le processus peut être partiellement automatisé mais le niveau de qualité requis sollicite des compétences humaines en de nombreux points de contrôle. Dans de nombreux secteurs où la qualité prime (luxe, horlogerie, par exemple), le savoir-faire humain patiemment développé par une longue expérience reste indispensable pour détecter les défauts.

Business Case n°3 – L’intelligence artificielle au service des opérateurs sur les sites de recyclage

Un groupe français, opérateur de services aux entreprises et à l’environnement, spécialisé dans le recyclage, la valorisation des biens en fin de vie et la gestion des déchets industriels et ménagers, a exploré différents moyens de moderniser et valoriser ses sites de recyclage de métaux.

Problématique

L’activité de recyclage des métaux débute invariablement par le tri de ceux-ci : les produits ou éléments métalliques (déchets d’équipements électriques et électroniques, véhicules hors d’usage, éléments de construction, machines industrielles, vélos, trottinettes… ) sont recueillis en tas et peuvent contenir un grand nombre de pièces différentes, susceptibles de poser problème au moment du passage dans le broyeur : bouteille de gaz, barre de fer trop longue, élément en métal trop épais, bidons contenant des produits chimiques… Les risques sont élevés en cas de passage d’objets dits « imbroyables » : explosions, pollution, blocage ou destruction du système de broyage, etc.

Dès lors, le principal enjeu lors des opérations de tri, réalisées par des conducteurs de pelles mobiles et de grues, est de repérer les « imbroyables » pour les isoler. Une bouteille de gaz dans le broyeur et c’est tout le site qui risque de prendre feu. Dans ces conditions, le grutier a un rôle clé dans la performance et la sécurité d’un site de recyclage. Il doit savoir manipuler avec une extrême précision les griffes de sa machine pour sélectionner, extraire et isoler les objets potentiellement inadaptés au broyage ou dangereux. Sa vigilance et la précision de son geste sont déterminantes dans la bonne marche des opérations. Ce savoir-faire très technique s’acquiert avec l’expérience qui est au moins aussi importante que la qualification. Il est donc toujours difficile de recruter des grutiers expérimentés.

Quels objectifs ?

La réduction du nombre des imbroyables mal orientés, a été diagnostiquée par la direction comme le sujet n°1 à résoudre, pour des raisons à la fois économiques et de sécurité. Si les grutiers ont développé un sens aiguisé de l’observation, leur capacité à identifier les objets peut être altérée par la fatigue, les intempéries ou tout autre facteur gênant pour l’œil humain. En reconnaissant les objets dangereux, l’intelligence artificielle pourrait accompagner le travail du grutier et lui signaler les objets à isoler. Si les grutiers travaillent de pair avec les technologies, alors c’est autant d’accidents, de fermetures de sites et de coûts supplémentaires qui sont évités. Suite à la consultation d’opérateurs sur le terrain, le projet prend forme : la mise en place d’un système de caméras connectées sur les sites de recyclage visant à aider l’opérateur dans son quotidien.

Comment ça marche ?

Le projet a d’abord été expérimenté au sein d’un site de recyclage, choisi pour son taux relativement élevé d’imbroyables. Des caméras très robustes, capables de supporter des chocs et des conditions météorologiques extrêmes, ont été installées sur les grues de façon à pouvoir visualiser la montagne de ferrailles présente sur le site. Les images collectées sont ensuite transmises en temps réel par un système de wifi renforcé à un service d’intelligence artificielle qui est hébergé localement sur un serveur du site (on parle ici de « edge computing ») et également relié à un cloud.

Le principe a d’abord consisté à apprendre au système à identifier le maximum d’objets susceptibles d’être des imbroyables. Le système de Machine Learning, s’est ainsi nourri de l’ensemble des images captées sur le site d’expérimentation, pour apprendre à détecter les imbroyables. Plus un système de Machine Learning reçoit de données, plus il apprend et plus il gagne en précision. L’algorithme d’apprentissage a été perfectionné jusqu’à obtenir un taux satisfaisant de reconnaissance qui peut toutefois varier en fonction de la météorologie, de la luminosité ou encore de l’état de propreté des caméras. Le système n’est donc pas infaillible mais il apporte une contribution à la vigilance de l’opérateur et, dans certains cas, lui permet de repasser sur une zone lorsqu’il y a un doute détecté par le système.

Le système de edge computing analyse en temps réel les images de toutes les caméras installées et transmet ensuite des alertes de détection des imbroyables sur une tablette présente dans la cabine du grutier et sur le poste du superviseur du site. Les images détectées ne sont accessibles qu’aux utilisateurs du site. La confidentialité des modes opératoires sur le site est ainsi préservée.

Accompagnement des opérateurs de terrain

Ce projet d’identification des imbroyables par caméra a d’abord suscité des interrogations chez les salariés du site d’expérimentation. Ils avaient en particulier deux sources d’inquiétude : la première, d’être progressivement remplacés par des robots et la seconde, d’être mis sous surveillance par des caméras. Un travail d’accompagnement et de démonstration a donc été réalisé pour gagner la confiance des salariés : ces nouveaux outils n’ont pas vocation à se substituer au grutier dont les tâches sont très complexes mais plutôt à faciliter son action et à l’aider à maintenir sa vigilance. La tablette l’accompagne, en effet, dans la lourde tâche que constitue la détection des imbroyables et les opérateurs ont pu observer que le système ne servait pas à d’autres fins que celles de les aider. À l’instar des systèmes d’alerte à la vigilance disponibles dans certains véhicules, l’intelligence artificielle vient ici contribuer au repérage des objets mais ne pourra pas remplacer l’œil (et l’oreille) de l’opérateur.

Résultats et déploiement

Une fois le dispositif mis au point, il a contribué à une diminution des erreurs commises dans l’identification des imbroyables. Les conclusions en termes de retour sur investissement ne peuvent pas être encore établies mais la direction est confiante sur l’effet d’échelle dans un déploiement prévu sur l’année 2021. La réduction des erreurs sur imbroyables relève non seulement de l’efficience économique mais surtout, elle contribuera à l’amélioration de la sécurité des personnes et des équipements industriels.

Maintenance

Un champ d’application très important de l’IIoT concerne la maintenance, et plus spécifiquement la capacité d’une entreprise à passer d’une maintenance préventive à une maintenance prédictive.

Pour toutes les entreprises qui vendent ou utilisent des machines industrielles, la maintenance est un poste de coûts qui touche le cœur des opérations industrielles. Une machine en panne, c’est une production qui s’arrête, des temps morts, des pertes, des délais, une qualité de service dégradée, des clients insatisfaits. Pour éviter les pannes, la plupart des entreprises font de la maintenance préventive, c’est-à-dire qu’elles immobilisent périodiquement les machines pour les inspecter et changer préventivement certaines pièces usées, selon des modèles statistiques donnés par les fournisseurs ou des coefficients « maison ». Quand une entreprise progresse dans sa connaissance du taux d’utilisation de ses machines, elle peut commencer à organiser une maintenance préventive plus efficace et ciblée, affiner ses propres statistiques, et donc immobiliser moins souvent et moins longtemps ses machines. Mais quand elle devient capable d’anticiper les pannes grâce à des alertes lui indiquant la probabilité d’une défaillance imminente, alors elle passe à la maintenance prédictive : elle n’intervient plus qu’à bon escient et peut ainsi faire baisser les coûts directs et indirects du poste maintenance. Tel est le principe.

Un exemple : Évolution de la maintenance à la SNCF

La SNCF s’appuie de plus en plus sur l’IoT et l’IA pour faire circuler ses trains et prévenir les défaillances. Mais comment vérifier l’état des 50 000 km de voies et des 15 000 trains qui circulent quotidiennement en France ? La majorité des vérifications se font encore par des sondages des agents sur le terrain.

Depuis déjà quelques années, ces derniers s’appuient sur l’application TSP (Tournées de surveillance périodique) qui permet de charger des données avant de partir sur le terrain, de prendre des notes, de réaliser le compte-rendu en temps réel et de l’agrémenter par des photos pour faciliter le travail des techniciens qui interviendront ensuite. Les TSP sont typiquement de la maintenance préventive. Mais les choses évoluent.

La compagnie ferroviaire s’appuie de plus en plus sur une armée de capteurs installés sur le réseau ferroviaire à des endroits stratégiques (ponts, postes d’aiguillage, passages à niveau, etc.) mais aussi à bord des trains – le smartphone du conducteur permettant d’enregistrer la vibration du train en circulation. Ces capteurs font parvenir en temps réel des données sur la tension, l’intensité, la température, la vibration, etc. Une fois les données analysées par un système d’IA sous le contrôle d’experts data, des alertes indiquent aux agents où aller sur le terrain pour vérifier si l’alerte nécessite réellement une intervention de maintenance.

Selon la SNCF, les calculs de l’IA ne sont pas destinés à remplacer les observations des spécialistes, mais à faire de la pré-analyse dont les résultats doivent ensuite être contrôlés par les techniciens.

Pour assurer ce passage progressif de la maintenance préventive à une maintenance plus prédictive, les investissements ont été de l’ordre de 300 millions d’euros en 2018. La SNCF compte à moyen terme réussir à faire 20 % d’économies sur les coûts de maintenance et à diviser par deux le nombre de pannes sur le réseau.

Source : D’après L’Usine nouvelle, 19 août 2020 et L’Usine digitale, 29 août 2018.

Mais l’enjeu de la maintenance prédictive va encore plus loin. Si vous vendez des machines en BtoB, la promesse de machines « qui ne tombent (quasiment) pas en panne » a pour certains clients une valeur telle qu’elle peut permettre d’augmenter d’un facteur 10 le prix de vente de certaines machines stratégiques. Le client est prêt à payer plus cher l’assurance que son équipement s’arrêtera beaucoup moins souvent. Prenons le cas d’un fabricant de machines à emballer de la viande. Pour ses clients – les industriels de la viande pré-emballée –, les règlements d’hygiène imposent qu’une viande qui n’est pas emballée dans les 24 heures est bonne à jeter. Si la machine d’emballage tombe en panne, c’est donc une perte sèche pour cet industriel. En conséquence, pour avoir l’assurance d’une disponibilité augmentée de la machine, il est prêt à payer un surcoût proportionnel au risque de pertes qu’occasionnerait un arrêt machines : il y a là un levier marketing très puissant pour les fabricants de machines.

Seulement voilà ! Pour parvenir à un taux de prédiction fiable des pannes d’un vaste parc de machines sophistiquées, l’investissement peut se chiffrer en centaines de millions d’euros. Les coûts pour atteindre la promesse d’un taux de panne quasi nul sont extrêmement élevés, et il faut donc soigneusement faire ses comptes.

Business Case n°4 – KONE et la maintenance prédictive

Fiche d’identité
• L’un des leaders mondiaux des ascenseurs et escalators, 2e acteur du marché en France.
• Origine : Finlande
• CA : 10 milliards d’euros en 2019
• Salariés : 60 000 collaborateurs, dont 3 000 en France
• Slogan : Dedicated to People Flow

Spécialiste des ascenseurs, escalators, portes automatiques et tourniquets, KONE (qui signifie « machine » en finnois) a pris un virage digital avec la volonté de rendre ses équipements « intelligents » et de se différencier ainsi sur un marché fortement exposé à la concurrence. L’IoT est l’une des dimensions de cette transformation numérique globale qui a été décidée en mode centralisé au siège finlandais (top-down), puis déclinée par pays.

Coté au Nasdaq d’Helsinki depuis 1967, le groupe est présent sur deux métiers : la maintenance des équipements et leur réparation (47 % du CA) ; la fabrication et la vente d’appareils neufs (53 % du CA). KONE assure l’entretien d’un parc de 1,5 million d’équipements multimarques – dont 50 % sont de marques concurrentes – et vend chaque année 180 000 nouveaux ascenseurs. La maintenance représente donc un enjeu majeur pour KONE.

Quels objectifs ?

Début 2016, KONE a conclu un accord mondial avec IBM pour utiliser sa plateforme Cloud IoT, ainsi que les solutions d’intelligence cognitive du système Watson. Les deux objectifs préalablement identifiés dans ce projet étaient la réduction des pannes par la maintenance prédictive des équipements et la construction de nouveaux services aux clients à partir des données fournies par les équipements connectés.

Le projet est né d’une réflexion sur les retours clients : la panne dans les ascenseurs est toujours vécue par les utilisateurs avec beaucoup d’irritation ou d’anxiété. La réduction des pannes et dysfonctionnements (portes automatiques bloquées ou décalées par rapport au palier) est donc une priorité pour les clients et disposer d’une solution pour anticiper ou empêcher les pannes est un élément de différenciation majeur pour un ascensoriste.

La règlementation impose des visites périodiques d’entretien des équipements. Durant ces visites, les techniciens réalisent l’entretien et le contrôle des différents composants afin d’assurer un fonctionnement optimal. Des visites de maintenance corrective sont également déclenchées en cas d’appels pour pannes ou personnes bloquées en cabine. Dans le cas de pannes intermittentes ou répétitives, il est parfois difficile pour le technicien de résoudre le dysfonctionnement, s’il ne se produit pas au moment où il est sur site.

Si en revanche, les techniciens de maintenance pouvaient être alertés et intervenir en cas de signaux faibles annonciateurs de pannes à venir, alors une nette augmentation de la disponibilité des ascenseurs et des escaliers mécaniques serait possible. C’est la logique de la maintenance prédictive des équipements, basée sur des modèles nourris par les données, qui permet d’anticiper les pannes, les éventuelles défaillances, et de réduire les durées de mise à l’arrêt des équipements.

Comment ça marche ?

Concrètement, KONE installe désormais un boîtier sur le toit de cabine des ascenseurs. Cet équipement non intrusif, de la taille d’une petite box Internet, est capable de prendre de nombreuses mesures : vitesse, température, vibration, ouverture et fermeture de porte, bruit, etc. Au total, environ 200 paramètres sont relevés grâce à ce boîtier, ce qui représente 15 000 données par jour et par ascenseur équipé. Les données sont ensuite transmises en temps réel par le réseau cellulaire au Cloud IoT d’IBM et traitées par l’informatique cognitive Watson.

Les données dont disposaient préalablement KONE ont été intégrées dans le système, comme par exemple toute la documentation relative aux équipements, y compris les plus anciens, ainsi que les statistiques de pannes issues du passé, etc. Watson y a intégré d’autres jeux de données, par exemple les données météorologiques pouvant affecter le bon fonctionnement des équipements. Celles-ci peuvent alors être rapprochées des données émises par les capteurs. Le principe est que plus le système intègre de données, plus les algorithmes « travaillent » ces données, plus le modèle prédictif s’améliore en vue de détecter une probabilité de défaillance, ainsi que la nature et les causes possibles de ladite défaillance.

Le système lance alors une alerte. Ces alertes peuvent être de différentes natures : si l’alerte est urgente, le technicien reçoit un ordre de service pour intervenir sur l’équipement. Si l’alerte est moins urgente, elle peut être analysée par des techniciens experts en plateau pour affiner le diagnostic à distance et l’intervention peut alors être planifiée à un autre moment.

Au moment d’intervenir, le technicien reçoit sur son smartphone de service une recommandation d’intervention générée par le système : sur quoi il doit intervenir, avec quelles pièces, etc. L’intervention est donc en principe plus rapide et plus efficace, puisque le technicien cible directement le problème et qu’il a avec lui le matériel et les pièces nécessaires. En retour, le technicien a également la possibilité d’évaluer la pertinence de la recommandation que le système lui a faite. Ces informations viennent à leur tour nourrir le modèle Watson.

La communication avec les équipes d’intervention est rendue possible par le fait que les techniciens partout dans le monde disposaient déjà sur leur smartphone de service d’une application appelée Field Mobility App. C’est l’outil de travail du technicien de maintenance. Chacun s’y connecte quotidiennement pour connaître le planning des visites, qu’elles soient de maintenance ou de réparation. L’application contient l’historique des interventions passées (qui les a effectuées, à quelle date, quelle était la nature du problème, comment a-t-il été résolu). L’application inclut également une fonction de géolocalisation, afin de suggérer le meilleur itinéraire et d’optimiser l’organisation des tournées et les temps de déplacements. Elle fonctionne aussi hors ligne, car il est fréquent de perdre le réseau quand on travaille dans un ascenseur. Le technicien peut aussi utiliser l’application pour commander du matériel ou des pièces qui lui manqueraient à partir d’un catalogue inclus dans l’application.

Le bouclage de ce système permet de réduire le taux de défaillance des équipements, d’allonger leur durée de vie, et d’assurer une meilleure sécurité pour les utilisateurs puisque l’ascenseur est sous surveillance permanente. L’avantage du système réside également dans l’optimisation du nombre et de la durée des interventions – le technicien a la possibilité de regrouper les visites règlementaires et celles dédiées à la maintenance prédictive ; il peut également accélérer les délais de réparations en ayant les pièces détachées à changer avec lui lors de son intervention.

Résultats

KONE revendique aujourd’hui une réduction de 30 % à 50 % des pannes sur les ascenseurs équipés de ce nouveau service.

En France, plus de 10 000 ascenseurs gérés en 24/7 étaient déjà équipés de boîtiers en 2020. La prochaine étape est d’étendre ce concept à d’autres équipements comme les escaliers mécaniques et les portes automatiques. La force de cette solution est qu’elle peut être activée sur tous types d’ascenseurs de toutes marques. Ainsi 50 % des ascenseurs où ce service a été mis en place sont des équipements d’autres marques que KONE.

KONE collecte ainsi un volume très important de données qui lui permettent non seulement d’optimiser les activités de maintenance mais aussi de délivrer une meilleure expérience de déplacement à ses clients et de leur offrir des services innovants.

Ce système a déjà donné lieu à une nouvelle proposition de valeur pour les clients KONE : les Services connectés 24/7. Cette offre est commercialisée depuis février 2018 auprès des propriétaires de bâtiments, professionnels de l’immobilier ou syndics de copropriétés, en tant que service additionnel au contrat initial de maintenance. L’interface du service permet à chaque client de connaître l’état de ses ascenseurs, les paramètres critiques et le nombre d’interventions effectuées et surtout celles ayant été déclenchées via l’analyse cognitive. Des contrats à la carte prévoyant un service de maintenance sur-mesure peuvent également être souscrits par le client.

Évolution du modèle d’affaires

À moyen et plus long terme, une évolution importante du modèle d’affaires de KONE se profile sur la base de la connectivité des équipements et l’analyse de la donnée.

Les capteurs installés sur tous les types d’équipements (ascenseurs, portes automatiques, escaliers mécaniques) serviront à connaître les flux de personnes à l’intérieur des bâtiments ainsi que les temps de déplacement entre un équipement et un autre. Les parcours des usagers pourront ainsi être repensés selon différents objectifs d’optimisation de circulation, comme dans les hôpitaux, les tours de bureaux, les centres commerciaux, les aéroports, les gares ou les métros. Sur ce point, KONE a d’ailleurs annoncé en juillet 2019 avoir gagné un contrat pour une nouvelle ligne du métro de Shanghai, comprenant 203 escalators et 65 ascenseurs dans 16 des 30 stations que couvrira la ligne. Il est néanmoins difficile d’affirmer si c’est l’existence du système qui lui a permis de remporter ce marché.

La connectivité et la data ouvrent le champ au développement de solutions qui améliorent la gestion des flux de personnes au sein des bâtiments et dans les immeubles intelligents (smart buildings) : solutions d’appels de l’ascenseur via smartphone ou assistant personnel, intégration avec des systèmes de gestion des immeubles ou avec un écosystème de partenaires via des API. KONE devient ainsi un acteur de premier plan de la smart city, visant à faciliter les déplacements verticaux et horizontaux dans les villes.

Suivi logistique et traçabilité

La logistique est l’une des fonctions qui peut le mieux, à l’évidence, bénéficier des apports de l’IIoT pour « tracer » et géolocaliser les déplacements d’un produit et les étapes vers sa livraison, afin de garantir à tout moment une information fiable au client sur l’état d’avancement de sa livraison. Certains logisticiens et opérateurs du e-commerce sont passés maîtres dans ce domaine.

Dans le cadre plus limité de la logistique industrielle inter-sites, c’est dans un projet de ce type que s’est lancé PSA, avec un objectif d’optimisation de l’utilisation de ses actifs.

Business Case n°5 – PSA Track and Trace

Fiche d’identité
• Groupe PSA
• Deuxième constructeur automobile européen
• CA : 74,7 milliards d’euros en 2019
• 3,5 millions de véhicules vendus en 2019
• Salariés : 209 000 dans le monde

Dans le cadre de son plan « excellence opérationnelle », PSA a entrepris d’optimiser la gestion du parc de conteneurs.

L’entreprise a décidé de mettre en place, en partenariat avec IBM et Sigfox, une nouvelle solution IoT de gestion du parc d’emballages de pièces (conteneurs) qui circulent entre ses fournisseurs équipementiers et ses sites industriels en Europe. La solution doit permettre au constructeur de savoir à tout moment et de manière détaillée où se trouvent les conteneurs d’emballage, et de sécuriser ainsi ses flux logistiques (gestion et suivi des actifs). L’objectif de cette solution IoT est de diviser par 2 les pertes d’emballages, de diviser par 4 les coûts liés au conditionnement, et de venir en appui des situations de litiges avec la chaîne logistique (fournisseurs, affréteurs, transporteurs).

Une démarche de design thinking est alors engagée pour réunir et recueillir les témoignages et les perceptions des principales parties prenantes de la supply chain (logisticiens, opérateurs de terrain, managers).

Deux principaux constats apparaissent lors des séances de design thinking. Dans un premier temps, l’importance de reposer la problématique de départ et l’objectif de performance recherché. L’optimisation du fonctionnement de la supply chain ne consiste pas à se demander comment connecter l’ensemble des conteneurs mais plutôt à identifier les lieux, les moments et les partenaires pour lesquels on observe des anomalies par rapport au plan prévisionnel (retard, changement de boucle de rotation, etc.). Dans un second temps, le besoin de renforcer le rôle du packaging manager, dans une optique préventive et d’optimisation des mouvements de conteneurs, est apparu comme déterminant pour le succès du projet.

Au terme des ateliers, la décision est prise de suivre 130 000 conteneurs représentatifs de la majorité des flux en Europe. Reste à trouver une solution technique qui permette à la fois de connecter ces blocs de métal et de les faire parler.

C’est dans la ScaleZone et dans le Fablab d’IBM, un lieu d’expérimentation technologique qui reconstitue l’environnement de l’usine, qu’est mis au point un capteur spécifique, doté d’intelligence et adapté aux conditions réelles d’utilisation des conteneurs (étanchéité, résistance à de grandes amplitudes de températures, taille, robustesse, autonomie…). Les capteurs sont connectés au cloud d’IBM avec la technologie « 0G » du français Sigfox. Peu gourmand en énergie, le réseau Sigfox permet à la batterie du boîtier de durer au moins 5 ans sans intervention humaine, ce qui était également un critère de performance important. Le réseau présente également l’avantage de couvrir l’ensemble du territoire européen.

Les équipes ont positionné le boîtier sur le conteneur de façon à lui permettre la réception d’émissions radio et d’éviter sa détérioration lors des déplacements. Une fois le boîtier installé de façon optimale sur le conteneur, il doit être capable d’envoyer des informations permettant sa géolocalisation. Plus le capteur émet, plus il consomme de l’énergie, réduisant ainsi la durée de vie de la batterie. IBM a donc intégré au boîtier un système d’intelligence embarquée qui lui permet d’émettre sa position à des moments opportuns du cycle d’utilisation du conteneur. La géolocalisation des conteneurs permet de visualiser en temps réel sur une carte la position des conteneurs. Les données collectées par les capteurs sont ensuite analysées grâce à l’informatique cognitive Watson et permettent de détecter les non-conformités d’utilisation, les anomalies (retards, itinéraires) par rapport au plan prévisionnel. Les analyses permettent d’optimiser le stockage sur les différents sites, d’optimiser les boucles de rotation des conteneurs et d’anticiper et de prévenir les ruptures de conteneurs.

Les ateliers de design thinking ont également permis de construire des tableaux de bord de suivi correspondant aux besoins des logisticiens, afin qu’ils puissent :

• visuliser les données (listes des états par type de conteneurs, types de pertes, etc) et rechercher des gisements de valeur ;
• suivre les alertes de non conformité ;
• investiguer les anomalies et prioriser les actions d’intervention en fonction
de la valeur et de la quantité des conteneurs concernés ;
• contribuer à la prévention ou à la résolution des litiges en documentant les
anomalies à l’égard des correspondants de la chaîne logistique ;
• ajuster les stocks de conteneurs en fonction de ce qui est réellement
constaté.

Une première version opérationnelle du système a été testée sur une vingtaine de conteneurs, puis sur 200 pendant trois mois. Au vu de ses résultats satisfaisants, elle est en cours de déploiement. La solution pourra se développer et évoluer au rythme des besoins métiers et des nouveaux usages de logistique, au travers des technologies d’intelligence artificielle et de partage au sein d’écosystèmes blockchain.

D’après :
Think Summit Paris 2019 – Talk : « Entreprise apprenante : collaborateur augmenté ». Groupe PSA, Éric Lambert, Vice-président Supply chain-Packaging https://www.youtube.com/ watch?v=2YcnaVw2kqk&ab_channel=IBMFrance
Vidéo de présentation de Track and Trace: https://www.youtube.com/watch?v=cgr3 FweJdHo&ab_channel=IBMClientCenters
https://fr.newsroom.ibm.com/31-janv-2019-ibm-revolutionne-avec-sigfox-le-suivi-des- conteneurs-au-sein-du-groupe-psa
https://www.sigfox.com/en/news/ibm-revolutionizes-container-tracking-groupe-psa-sigfox
https://www.usine-digitale.fr/article/psa-deploie-une-solution-iot-de-suivi-des-conteneurs- avec-sigfox-et-ibm.N800840

Traçabilité des produits et transparence

Les consommateurs sont de plus en plus regardants sur les produits qu’ils consomment. Ils veulent connaître la composition des produits et savoir si ceux-ci contiennent des ingrédients nocifs pour leur santé. Un révélateur : ils sont aujourd’hui plus de 12 millions dans six pays à utiliser l’application Yuka qui permet de connaître la composition des produits alimentaires, de beauté et d’hygiène, en scannant le code-barres du produit. Et ils regardent aussi de près le « Nutriscore » des produits alimentaires. Ils sont également sensibles à la provenance des produits et à leur impact carbone (produits locaux versus dont le transport émet beaucoup de CO2) ou encore aux conditions de travail des pays dans lesquels le produit a été fabriqué. Et comme ils sont aussi de plus en plus « informés » (ou influencés par les réseaux sociaux), ils peuvent très rapidement se détourner d’une marque qui les déçoit et le faire savoir.

Il en ressort que l’enjeu de transparence et d’information sur les produits devient un enjeu de plus en plus stratégique. Il y a là un gisement de valeur, auquel certains secteurs commencent à s’intéresser de près, par exemple l’agro-alimentaire. Les marques les plus concernées par ces exigences peuvent alors prendre une longueur d’avance, en « traçant » la chaîne de valeur de chaque produit et en permettant aux consommateurs d’en prendre directement connaissance au moment de l’acte d’achat. Des solutions technologiques à base d’une combinaison de puces RFID et de blockchain existent pour qui voudrait « jouer » cette carte. Mais cela implique aussi et avant tout d’agir sur sa propre supply chain, de revoir le sourcing des approvisionnements, sélectionner les fournisseurs sur de nouveaux critères et vérifier l’application de chartes éthiques… La politique de l’entreprise à l’égard de sa chaîne fournisseurs d’abord, la technologie ne viendra qu’après !

Cette idée d’application paraît très attractive, mais elle semble pour l’heure en être encore à un niveau expérimental.

Business Case n°6 – L’Oréal, la BeautyTech et la traçabilité

Comme dans le secteur alimentaire ou dans l’industrie du médicament, l’industrie cosmétique doit apporter de la transparence et une bonne traçabilité pour donner aux consommateurs des réponses sur les composants chimiques, les conditions de travail, l’origine des ingrédients, les certifications qualité, etc.

L’Oréal a conscience que la transparence à l’égard des consommateurs est un enjeu crucial aujourd’hui et pour les prochaines années. À l’avenir, le consommateur exigera de pouvoir « lire » le cycle de vie du produit qu’il achète, en flashant simplement avec son smartphone le QR Code apposé sur le produit.

Côté supply chain, la condition de la transparence, c’est la traçabilité du produit sur toute sa chaîne de valeur, ce qui implique une inter-relation renforcée avec les fournisseurs. Une solution est d’engager l’ensemble des parties prenantes de la chaîne d’approvisionnement dans une blockchain qui permet à chaque étape de garantir, par un « contrat », la provenance du lot et de ses composants : quels fournisseurs, quelles matières, quelles localisations, quelles certifications, quelles dates ?

Ce type de traçabilité est actuellement testé sur quelques gammes de produits chez L’Oréal, grâce à un QR Code sérialisé qui permet de rendre compte de l’origine des ingrédients, de montrer par des vidéos les lieux d’approvisionnement de certaines matières premières, de donner des informations sur l’empreinte environnementale et les certifications qualité du produit. In fine, c’est ainsi un lien fort et chaud qui se crée entre le consommateur et son produit.

D’après :
Think Summit Paris 2019 : Table ronde « Plateformes et transformation ». L’Oréal, Barbara Lavernos, Executive Vice-President Chief Technology and Operations Officer https://www.youtube.com/watch?v=utJP5FAS5qs

Services additionnels, monétisation des données et transformation des modèles économiques

Dans les cas d’usage que nous venons de décrire, l’IIoT peut s’avérer un levier puissant pour générer des gains de productivité et de flexibilité à l’échelon des sites de production. Certes, les projets peuvent parfois être compliqués à gérer, les investissements importants et les gains mesurables seulement à moyen terme (entre 3 et 5 ans), mais il semble assez clair que la connexion et l’exploitation des données de production auront un impact de plus en plus évident sur la performance du système productif.

En revanche, il existe un deuxième champ de promesses de l’IIoT dont il paraît plus difficile aujourd’hui d’attester les réalisations concrètes et mesurables. Nous nous référons à l’idée souvent entendue (et sur-vendue) que le traitement et l’exploitation des données d’activité pourraient permettre de créer de nouvelles sources de revenus, voire de transformer le modèle d’affaires de l’entreprise manufacturière « traditionnelle ». La plateforme IoT jouerait ainsi un rôle d’« enabler » permettant d’imaginer et construire de nouveaux services et de nouvelles sources de revenus. En filigrane, ce qu’imaginent quelques visionnaires, c’est une sorte d’hybridation entre le modèle d’affaires des pure players du digital et le modèle d’affaires manufacturier, à l’image de ce qu’a réussi Tesla9.

Zoom sur… le modèle Tesla

Le modèle de Tesla repose sur plusieurs idées : un produit physique (une voiture électrique) fabriqué dans une usine, mais bardé de logiciels et qui dispose de la capacité à se mettre à jour à distance sur certaines fonctionnalités ;
un système de production boosté par la donnée et interconnecté de bout en bout ; une relation client très largement dématérialisée (peu de concessionnaires) et directe ; une appréhension du marché en mode réseau trans-sectoriel (une série de services liés à l’objet physique mais parfois sans rapport avec lui) ; un story-making10 très ambitieux qui inscrit l’entreprise dans un projet de société qui la dépasse.

Tesla se présente comme un écosystème complet de mobilité et d’énergie dans lequel la fabrication d’un véhicule électrique n’est qu’une petite brique : Tesla fabrique ses propres batteries dans la Gigafactory ; via sa filiale Solar City qui équipe des maisons avec des tuiles photovoltaïques, la maison génère de l’énergie électrique qui vient alimenter les batteries des voitures dans leurs garages ; les logiciels qui équipent les voitures permettent de générer des données d’usage sur l’utilisation des véhicules et sur les déplacements, ces données pouvant permettre d’améliorer la conception des véhicules, mais aussi de proposer de nouveaux services connectés aux acheteurs de la marque ou aux villes dans lesquelles ils circulent ; une plateforme de partage de véhicules permet à chaque propriétaire de mettre sa voiture en location sur des créneaux horaires donnés, de façon à amortir plus rapidement le véhicule mais aussi à réduire le nombre de véhicules thermiques en circulation, et ainsi de suite…

C’est ainsi que, de fil en aiguille, on part d’une voiture pour passer au projet de transformer le modèle de mobilité et d’énergie dans la ville du futur. Moralité : Tesla affichait une capitalisation boursière stratosphérique de 500 milliards de dollars à fin novembre 2020, c’est-à-dire bien plus que celle des trois géants automobiles américains réunis (General Motors, Ford et Fiat Chrysler). On comprend que cela fasse rêver !

Aussi excitante qu’elle soit, cette idée de mutation du modèle d’affaires reste cependant assez théorique pour la majorité des entreprises manufacturières, et les exemples sont encore limités.

Nous avons vu, par exemple, que cette ambition stratégique est inscrite dans le projet de l’ascensoriste KONE (Business Case n°4) mais, à l’heure actuelle, les boîtiers connectés intégrés aux ascenseurs permettent surtout de faire baisser les coûts de maintenance − ce qui n’est pas rien ; les revenus additionnels générés par le service 24/7 que les boîtiers ont permis de créer, apparaissent encore modestes. Quant au projet de devenir un acteur de la smart city via la monétisation des données de déplacement des usagers entre un équipement et un autre, elle n’est encore qu’une vue de l’esprit.

Les acteurs manufacturiers qui semblent pouvoir tirer profit de ces opportunités sont les producteurs de systèmes et sous-systèmes d’équipement, que ce soit en BtoB ou encore en BtoBtoC, capables d’ajouter directement aux produits qu’ils commercialisent des fonctions de connectivité IoT et des solutions logicielles associées − comme la domotique, par exemple.

Ces fonctions de connectivité peuvent poursuivre plusieurs objectifs :

• Mieux connaître le client final (ou client du client). C’est le cas, par exemple, quand l’entreprise passe par des distributeurs et n’a aucun contact avec le client final utilisateur du produit, ou encore lorsque le produit de l’entreprise n’est qu’un sous-système inclus dans un plus gros système. Cette meilleure connaissance du client final peut permettre d’améliorer la conception des produits et ouvrir à des idées de services complémentaires à proposer aux clients.

• Donner de la visibilité au client sur le fonctionnement du produit, en lui permettant de piloter à distance sa consommation ou son usage via des applications, ou de gérer à distance un parc via des solutions cloud. C’est le cas, par exemple, dans les champs du smart metering et de la smart city. Il n’est cependant pas certain que les clients soient vraiment prêts à payer plus cher pour ces services complémentaires, d’autant plus que ceux-ci auront tendance à se banaliser.

• Offrir des services innovants (ou la perspective de services innovants) pour se démarquer de la concurrence, même si la demande pour ces services est encore inexistante ou embryonnaire, et donc difficilement monétisable. C’est une façon de préparer l’avenir, de mettre l’accent sur les capacités d’innovation de l’entreprise et de construire un story-telling « enthousiasmant » à usage interne et externe − l’une des grandes leçons à retenir des leaders du digital étant justement leur capacité à construire des récits permettant des levées de fonds et des capitalisations boursières sans rapport avec leur rentabilité à court terme.

Exemple : Socomec et la connaissance des clients finaux11

Depuis près d’un siècle, Socomec propose des solutions d’efficacité énergétique dédiées à la performance des installations électriques, tout particulièrement lorsqu’elles sont critiques. En particulier, cette entreprise indépendante conçoit et fabrique de l’appareillage électrique dans le domaine de l’isolation et de la coupure basse tension, qui est inclus dans d’autres systèmes plus vastes.

Socomec ne connaît donc pas directement l’usage que les clients finaux (gestionnaires et exploitants de bâtiments industriels, tertiaires et de collectivités) font des appareillages électriques. C’est ce qui lui a donné l’idée de créer une activité dédiée à la mesure de la performance énergétique des bâtiments : il s’agit de greffer à ses produits des systèmes de mesure communicants, appuyés par des logiciels de monitoring à distance. Ces solutions sont désormais utilisées par des clients équipés avec du matériel Socomec mais aussi avec du matériel concurrent.

Le bénéfice est triple : Socomec enrichit son offre de solutions, elle se rapproche de son client final pour mieux connaître ses besoins, elle vient capter de la donnée issue des clients de ses concurrents.

Exemple : Sunna Design, éclairage solaire intelligent et services innovants

Basée à Blanquefort, en Gironde, Sunna Design est un des pionniers en matière de lampadaires solaires intelligents. Cette entreprise, récompensée par 11 prix depuis sa création en 2011, a effectué avec succès trois tours de levées de fonds et a ouvert « une usine du futur » (labellisée par l’AIF en 2016). En mars 2020, elle a acquis SOL Inc., un leader de l’éclairage solaire en Amérique du Nord. Les caractéristiques des lampadaires solaires de Sunna Design, c’est qu’ils sont autonomes, intelligents et connectés.

Autonomes. Le candélabre muni d’un panneau solaire et d’une batterie n’a besoin d’être raccordé à aucun réseau électrique. Il est donc particulièrement adapté à des situations et des régions où le raccordement au réseau est difficile ou inexistant. C’est pourquoi, Sunna Design s’est développé initialement dans des pays en développement, particulièrement en Afrique et au Moyen-Orient, ou dans des zones arides et isolées.

Intelligents. Les candélabres sont pilotés par une carte électronique, la SunnaCore, système d’intelligence embarquée qui permet un profil d’éclairage dynamique. Ce système embarqué peut être couplé à un système de détection de présence pour déclencher l’éclairage seulement en cas d’utilité de façon à optimiser l’usage de l’énergie stockée dans la batterie.

Connectés. Le programme d’éclairage est entièrement paramétrable par l’utilisateur (une ville, une entreprise) via une application, la Sunnapp, qui permet également de suivre la performance ou les dysfonctionnements des produits. Les données remontent ensuite dans un cloud qui consolide les données et permet d’avoir une vue d’ensemble du parc installé.

Services innovants. Les candélabres permettent de concevoir d’autres applications d’internet des objets au service des villes où ils sont installés, puisque les batteries peuvent alimenter d’autres applications à l’aide de l’énergie solaire : par exemple, en installant des prises de chargeurs de téléphone au service des nomades urbains, ou encore en alimentant des panneaux publicitaires, des cartes géographiques interactives ou en permettant la diffusion sonore d’informations d’intérêt général ou de messages vocaux. Les candélabres deviennent alors en eux-mêmes des plateformes IoT. Ces nouveaux services sont avant tout des arguments marketing (bénéfices secondaires) présentés aux clients.

Exemple : PSA et la Métropole Nice Côte d’Azur

Bardées de capteurs, les voitures du groupe PSA collectent une multitude de données en temps réel (kilométrage, alertes mécaniques, consommation de carburants, etc.) qui fournissent de nombreuses informations sur le véhicule lui-même, mais aussi sur l’environnement qui l’entoure. Ces données, une fois traitées, ont de la valeur pour toutes sortes d’acteurs parmi lesquels les assureurs, les cartographes ou encore les villes.

Parallèlement, depuis 2008, la Métropole Nice Côte d’Azur a lancé une politique d’innovation et de développement durable. Cela s’est traduit, à partir de 2014, par le déploiement d’un réseau expérimental de 3 000 capteurs dont les données nourrissent la plateforme Watson d’IBM. Ce système de monitoring urbain environnemental permet d’optimiser le trafic urbain, mais aussi d’étudier son impact sur la pollution ou l’accidentologie de la route. Pour enrichir et nourrir la plateforme en données, PSA monétise, depuis juillet 2015, les données de circulation de ses véhicules auprès de la métropole de Nice. Les données des véhicules connectés font partie intégrante d’un projet plus large qui est celui de la smart city.

Si ces cas d’enrichissement des modèles d’affaires par le développement de services restent encore marginaux, ils ont néanmoins le grand mérite d’ouvrir le champ de la réflexion stratégique des dirigeants d’entreprises manufacturières et de les amener à regarder différemment leur activité pour élargir leur champ d’intervention.

  • 5 – Pour en savoir plus sur l’IIoT pour les opérateurs de réseau, voir par exemple : Wavestone, Ebg, Agrion, L’IoT industriel : du POC à l’industrialisation, 2017.
  • 6 – Le taux de rendement synthétique est influencé par trois paramètres : la disponibilité opérationnelle qui est impactée par les arrêts non planifiés des machines (changements de série, réglages, pannes ou absence du personnel) ; le taux de performance impacté par les ralentissements et les écarts dans les cadences ; le taux de qualité influencé par le nombre de défauts ou les pertes au redémarrage. C’est sur ces facteurs qu’il faut agir pour améliorer le TRS.
  • 7 – Guillaume Gombert, François Druel (dir.), Gafanomics, Fabernovel, Eyrolles, 2020.
  • 8 – Notons que L’Oréal a racheté en 2018 la start-up canadienne ModiFace, pionnière de la réalité augmentée. Des applications de tests virtuels de coloration, de maquillage mais aussi de diagnostics de peau, à partir d’un selfie pris sur smartphone, sont lancées grâce à cette acquisition. Cela révèle que l’extrême personnalisation est une option stratégique très sérieusement prise en considération par L’Oréal.
  • 9 – M. Valentin, Le Modèle Tesla, Dunod, 2018.
  • 10 – À la différence du story-telling, le story-making a un effet performatif mesurable : par exemple, Elon Musk raconte une belle histoire et le cours de bourse augmente.
  • 11 – Nous remercions Michaël Valentin pour nous avoir autorisé à reprendre cet exemple cité in Hyper-manufacturing, l’après Lean, Dunod, 2020, p. 77.
Chapitre 3

La data dans tous ses états

La finalité d’un projet IIoT, c’est la maîtrise, l’analyse puis la circulation des données produites par les objets industriels pour créer de la valeur. Mais la donnée est un minerai brut qu’il s’agit de raffiner par étapes pour le transformer en information utile. Entre les données brutes émises par les objets connectés et les données transformées s’opère une profonde et complexe transformation qui permet de passer de la donnée brute à une véritable information, avec toute sa sémantique associée : son sens métier, son sens pour l’entreprise, pour le site industriel, pour l’atelier, pour l’opérateur et, le cas échéant, pour le client. Cette transformation de bout en bout nécessite la mise en place d’une chaîne continue d’activités. Par quels mécanismes et selon quel processus la donnée peut-elle devenir exploitable ? Quelles sont les opérations pour y parvenir ?12

L’avis de l’expert − Samir Djendoubi, consultant IIoT

Comment une donnée peut-elle créer de la valeur ?
Pour faire comprendre le gisement de valeur que représente la donnée, je donne souvent l’exemple pédagogique suivant. Considérons un processus comme le fait de marcher : vous percevez immédiatement la différence entre marcher les yeux bandés (i.e. sans la donnée) ou marcher avec des capteurs performants comme les yeux (i.e. avec la donnée). La première capacité de l’IIoT, c’est donc de rendre visible un processus ; sa 2e capacité, c’est d’analyser ce qui est ainsi rendu visible (la configuration de la route, les obstacles) ; sa 3e capacité, c’est de vous permettre d’agir sur la base de ces analyses (marcher dans une certaine direction avec une relative assurance d’où vous allez), et enfin, au 4e niveau, la donnée doit vous permettre d’anticiper (prendre un autre chemin pour éviter les obstacles).

Collecter les données

De nombreuses usines disposent d’une grande variété de lignes de fabrication, d’équipements, de capteurs, mettant en œuvre une grande variété de systèmes OT et IT hérités de tous âges et de toutes générations. En outre, ces équipements s’appuient sur différents fournisseurs. Les automates programmables industriels, les systèmes de contrôle ou d’acquisition des données ainsi que la gestion des processus industriels coordonnent les flux de fabrication, mais leur manque d’intégration au monde IT a contribué à développer des silos organisationnels dans l’usine. Aujourd’hui, la tendance est d’intégrer l’informatique aux lignes de fabrication et d’assemblage.

La diversité des générations d’équipements implique que toutes les machines ne « communiquent » pas de la même manière. Certaines n’émettent pas de données et il faudra donc les faire « parler ou insuffisantes, et il faudra amplifier la volumétrie ou la connexion, d’autres enfin sont déjà extrêmement « bavardes ». La question des capteurs à installer ou à déployer dépend donc considérablement des équipements existants et de la volumétrie requise par le problème « business » que l’on veut résoudre.

Une étude préalable sur la nature des équipements et sur les objectifs à atteindre va permettre de déterminer s’il est nécessaire de :

a) développer une nouvelle génération de capteurs ;

b) améliorer la connectivité existante, par exemple en passant d’une connectivité locale (Edge) à 3G, 4G ou 5G, ou en passant sur des technologies à longue portée type LoRa ou Sigfox ;

c) augmenter les capacités du capteur existant à l’aide d’un complément technologique non intrusif sur l’objet (Tag Beacon, RFID, utilisation d’un smartphone pour accéder à Internet ou comme rendu visuel…) ;

d) modifier physiquement l’objet connecté, en lui ajoutant une capacité ;

e) opérer des modifications sur le logiciel embarqué du capteur afin d’augmenter sa capacité de traitement.

Par exemple, dans le cas PSA Track and Trace (Business Case n°5), les capteurs ont dû être adaptés pour résister aux chocs (robustesse), aux conditions météorologiques (étanchéité), aux variations de température, et ont fait aussi l’objet d’une réflexion sur les conditions d’arrimage aux conteneurs.

L’appréhension de la relation entre l’objet connecté et le capteur nécessite de déterminer la part d’intelligence, ou plutôt d’autonomie à attribuer à l’objet. En fait, il s’agit de trouver un équilibre entre la nature du cas d’usage à résoudre et les capacités intrinsèques des capteurs du marché.

Tous les projets n’ont pas besoin que tous les équipements émettent des données en « temps réel ». En outre, la notion de « temps réel » varie selon les projets. Prenons l’exemple de votre compteur d’eau, il n’y a pas si longtemps que cela, un technicien se déplaçait une fois par an pour relever votre index de consommation. Puis pour améliorer la prévision de consommation et mensualiser votre facture, deux visites annuelles ont été nécessaires. Cela produit 100  % de données supplémentaires certes, mais cela reste une fréquence de deux fois par an ! Avec un compteur d’eau connecté, l’index est relevé deux fois par jour. Ce qui permet de développer (et commercialiser) de nouveaux services à valeur ajoutée, telle que la détection de fuites, la maintenance préventive des canalisations etc. On est donc sur du temps quotidien et non plus semestriel : l’IoT permet ce changement d’échelle. Cette accélération de la capacité à générer et collecter un volume de données toujours plus important pose la question de savoir jusqu’où cela est utile et créateur de valeur.

Si les traitements envisagés nécessitent une corrélation et un rapprochement de plusieurs flux de capteurs différents, alors il conviendra de s’appuyer sur une plateforme analytique pour agréger toutes ces données avant de restituer les résultats.

Mettre au point la chaîne de transformation de la donnée

La donnée brute n’est pas directement consommable. Elle est en effet produite par les systèmes télématiques des objets connectés, par exemple un capteur en usine. La donnée brute est souvent de type binaire et très liée à l’équipement physique. La donnée transformée, quant à elle, sera valorisée à travers des traitements et restituée à l’utilisateur par des services de publication (application mobile, portail web…) et devra posséder un vrai sens pour le métier.

Figure 3.1 – Chaîne continue de transformation de la donnée

Source : Objets connectés : le mariage avec l’analytique. Épisode 2 : La donnée est brute : apprenez à la dompter, IBM, 2019

Décoder les données

En premier lieu, la donnée brute doit être « décodée », souvent au rythme de sa production par l’équipement de télémétrie ou le capteur. De manière à disposer d’une fonction de décodage générique, qui puisse résister aux changements imposés par la variété des modèles d’objets connectés, une base de règles indépendante du traitement de décodage sera préconisée. En effet, une telle base de règles permet de réduire le couplage entre l’étape de décodage (adhérence au capteur) et les étapes suivantes de transformation.

Améliorer la qualité de la donnée

Une fois la donnée brute décodée, une étape d’amélioration de la qualité est en général nécessaire. Cette étape n’est pas à négliger, car le bénéfice qui pourra être tiré de la donnée, ou la capacité à appliquer des modèles de traitement des données en dépend. Cette étape est souvent sous-estimée en termes de charge, de ressources et d’efforts associés et représente fréquemment une « root cause » d’échec, ne permettant pas d’atteindre la valeur recherchée.

Suivant les projets, plusieurs types de problèmes liés à la qualité de la donnée peuvent en effet survenir : des données manquantes non émises par le capteur ; des données émises ou reçues dans un ordre non attendu ; des données identiques émises plusieurs fois ; des données incorrectes ou fausses au niveau de leurs valeurs ; des données exactes, mais émises ou traitées dans un contexte non attendu.

La solution passe par la mise en place d’une couche logicielle spécialisée et chargée d’améliorer la qualité des données. Cette couche prend en entrée la donnée après décodage, puis produit en sortie la même donnée, mais avec une qualité améliorée afin de ne pas propager en cascade une sémantique imprécise.

Étude des corrélations

L’étape suivante consiste à étudier les corrélations entre les données d’un même capteur ou de plusieurs capteurs. Prenons, par exemple, des véhicules connectés. Une voiture moderne contient environ 1500 capteurs reliés à un système de communication (Bus CAN). Ces capteurs n’ont pas uniquement vocation à fournir des informations à l’échelle du véhicule. C’est toute la flotte de voitures qui peut être analysée en corrélant les capteurs entre eux. En effet, la supervision de l’état d’une flotte de véhicules connectés s’apparente à une prédiction météo. Chaque capteur de chaque véhicule contribue à fournir l’état d’une pièce au niveau global. Puis, à partir de ces analyses à l’échelle de la flotte, des prévisions de maintenance ou des programmations d’entretien des véhicules peuvent être réalisées.

Traitements analytiques

Une fois la donnée décodée, améliorée au niveau de sa qualité et corrélée, il devient en théorie possible de l’utiliser sans risque dans des traitements. Ces traitements peuvent relever de l’informatique traditionnelle comme les applications centrales d’entreprise (MES, ERP, CRM, GMAO, etc.)13, ou d’analyses plus avancées (traitements analytiques).

La variété des traitements analytiques est aujourd’hui vaste et peut concerner un objet ou une collection d’objets :

• Géospatial : traitement simple à base de règles visant à exploiter essentiellement les informations de géolocalisation de l’objet : calcul de surface, volume, distance entre deux points sur des géodésiques, corrections GPS et association sur des cartes (map matching).

• Descriptif : rapport sur les données historiques de l’objet, dont l’objectif est de représenter un état de l’objet (par métadonnées) sur un ou plusieurs axes. Ce domaine se réfère souvent à la Business Intelligence.

• Statistique : calcul statistique sur les données de l’objet visant à expliquer une situation actuelle, comprendre un phénomène ou un comportement en fonction de variables (moyenne mobile, droite de régression…).

• Prédictif : algorithme sur les données de l’objet (arbre de régression, réseau bayésien) visant à prédire et expliquer dans une fenêtre temporelle donnée un phénomène ou une variable à partir de données issues de l’historique.

• Prescriptif : élaboration d’alertes, de recommandations et de consignes afin de traiter le phénomène prédit (exemples : empêcher un évènement, réduire un risque, inspection de maintenance afin de traiter un évènement pouvant amener à un arrêt de production, une panne…). Les prescriptions sont souvent calculées par des moteurs de règles ou d’optimisation et tiennent compte des carnets d’intervention de maintenance des objets, par exemple.

• Cognitif : algorithmes basés sur trois principes immuables − comprendre, raisonner, apprendre − dont les champs d’application peuvent être : l’analyse sémantique du langage naturel, l’analyse du sens d’équations chimiques ou mathématiques, l’analyse de la vidéo ou des réseaux sociaux, de la météo, du contenu textuel, de la voix ou encore la construction de bases sémantiques de connaissances, etc. Ces traitements basés sur des solutions d’intelligence artificielle sont parmi les plus prometteurs.

Il existe donc des traitements de nature plus ou moins avancée. Prenons par exemple, deux tableaux de bord utilisés dans le domaine industriel. L’un sera descriptif : il fournira des indicateurs permettant le pilotage de l’usine à partir des données collectées, comme les évolutions de tendances, le nombre de pièces en défaut produites, les anomalies dans le fonctionnement des machines, etc. L’autre sera prédictif : il permettra, par exemple, d’estimer le nombre futur de pièces en défaut par machines à partir d’un modèle de type régression linéaire-arbre de décision, il sélectionnera des variables prédictives influençant l’apparition des défauts, il calculera un score de prédiction des pannes.

L’existence de traitements analytiques avancés nécessitera une plateforme analytique qui doit pouvoir s’intégrer au reste du système d’information de l’entreprise.

Restitution des données transformées aux utilisateurs

Ces traitements analytiques, une fois assemblés, sont autant de « services » rendus aux utilisateurs. Les traitements sont encapsulés à l’aide d’interfaces standardisées, et ce sont ces interfaces qui seront vues par l’utilisateur final comme la seule expression visible de toute la chaîne de transformation de la donnée. Via des API, l’utilisateur pourra appeler le « service » depuis un portail ou une application mobile. L’expérience utilisateur (UX) et l’interface homme-machine devront être pensées pour faciliter une adoption rapide par les utilisateurs souvent habitués à l’ergonomie et à l’instantanéité des applications grand public. La conception des interfaces sera donc déclinée selon les rôles et profils des utilisateurs en fonction du type d’indicateurs dont ils ont besoin pour leur travail. Dans ce but, des profils utilisateurs ou persona seront préalablement définis : par exemple, directeur d’usine, responsable maintenance, technicien, opérateur de fabrication, etc.

Échanger les données de façon sécurisée dans un écosystème: la blockchain

En fonction des cas d’usage, la technologie blockchain peut venir compléter des projets IIoT. Apparue d’abord pour des échanges financiers, la blockchain permet de réaliser des échanges en temps réel, sécurisés au sein d’un réseau d’entreprises partenaires ou d’un écosystème (l’entreprise et ses clients ou ses fournisseurs), sans risque de falsification, tout en respectant la propriété de la donnée. Comme son nom l’indique, la blockchain est une « chaîne de blocs » de données qui sont sécurisées dans un registre numérique appelé « bloc ». Chaque bloc est vérifié par des algorithmes qui contrôlent la qualité de la donnée, la légitimité de l’expéditeur, etc. Une fois que le bloc est validé, il rejoint la chaîne de blocs inaltérable.

Figure 3.2 − Fonctionnement d’une blockchain

Source : site Renault − https://group.renault.com/news-onair/actualites/la-blockchain-vecteur-de-transformation-du-futur-de-lindustrie-automobile/

Dans certaines applications, la technologie blockchain peut être couplée à des équipements IoT. C’est le cas, par exemple, chez Renault qui a utilisé la blockchain pour faciliter et industrialiser la certification des véhicules et de leurs composants. La valeur recherchée est celle de l’efficacité apportée aux demandes croissantes de respect des normes et de régulations de la part des autorités, et les attentes de transparence de la part des consommateurs… et d’éviter des condamnations coûteuses comme celles que le groupe Volkswagen a connu lors du « dieselgate ».

Un exemple : Renault, blockchain et traçage de la conformité

Le projet blockchain XCEED, pour eXtended Compliance End to End Distributed, a été initié par le groupe Renault avec la collaboration de grands acteurs de l’industrie automobile tels que Continental, Faurecia, Plastic Omnium et Saint-Gobain. Il a pour objectif de certifier via la technologie blockchain la conformité des composants d’un véhicule, de la conception à la production. Le contexte réglementaire relatif à la conformité des véhicules est en effet de plus en plus exigeant. L’ensemble de la chaîne de production doit ainsi adapter sa structure pour répondre aux autorités dans des délais réduits. Le projet XCEED vise à tracer et à certifier la conformité réglementaire des composants et sous-composants des véhicules, en partageant les informations de conformité au sein de l’écosystème fournisseurs, puis avec les distributeurs et les clients.

Le couplage avec l’IIoT provient du fait que les informations relatives aux pièces détachées entrant dans la composition du véhicule proviennent pour beaucoup de capteurs IIoT, qui remontent des données tout au long de leur cycle de vie. En d’autres termes, sans ces données, la chaîne de valeur blockchain n’aurait pas de valeur.

Le test effectué à l’usine de Douai a permis de consolider la valeur et la performance de la technologie blockchain pour l’industrie automobile, avec plus d’un million de documents archivés et une vitesse de 500 transactions par seconde.

Le concept de plateforme IIoT

Une plateforme IIoT sert de système central pour stocker des données non structurées, mais elle est beaucoup plus qu’un simple lieu de stockage. Elle est aussi capable d’exécuter des modèles analytiques au moyen de logiciels et de proposer de nouveaux services aux lignes métiers, aux opérateurs et directeurs de production. Elle est généralement logée dans un cloud. La plateforme peut être propriétaire ou open source (voir chapitre 4).

Cependant, une plateforme IIoT n’est jamais directement connectée aux opérateurs, aux produits et aux équipements ; elle s’y articule par le biais d’une couche de connectivité qu’on appelle des bus d’intégration et de communication couplés à des « passerelles » (ou gateways). Le bus de communication et d’intégration va permettre de gérer, d’une part, la connectivité avec le cloud et, d’autre part, la connectivité avec l’environnement physique et les applications IT existantes (ERP, MES, CRM, GMAO, etc.).

Figure 3.3 – Architecture IoT simplifiée

En amont du bus, on trouvera parfois des edge analytics, qui sont des traitements logiciels spécifiques chargés de prétraiter la donnée brute des équipements (décodage, filtrage, agrégation, etc.), en général déployés à l’intérieur de boîtiers physiques de type passerelles. On parlera alors de déploiement « at the edge » (voir Zoom).

Zoom sur… l’Edge computing

L’edge computing est une architecture informatique décentralisée, destinée principalement aux environnements IoT. Elle permet de maintenir au plus près des équipements générateurs de données la capacité de stockage et de calcul, soit directement par les objets connectés, soit par un serveur local. L’objectif recherché par l’Edge computing est de traiter la donnée et produire de la valeur au plus près de l’endroit où elle est produite.

Dans un premier temps, les objets connectés génèrent des données, les pré-traitent et les compressent. Ces données sont ensuite transmises au niveau local aux ordinateurs ou serveurs dédiés. Dans un second temps, la partie Edge s’occupe de traiter et d’analyser les données qui nécessitent une grande réactivité. Enfin, la partie Cloud va s’occuper du traitement des données moins sensibles au facteur temps, de l’analytique et du stockage à long terme.

Ce processus permet de réduire la distance entre les objets et les centres de traitement, et donc les temps de traitement. Seules certaines données sont remontées aux data centers, réduisant le trafic réseau et répondant au risque de saturation de la bande passante. Dans le cas d’objets connectés ayant une faible connectivité, le traitement Edge permet de remédier à la problématique de connexion permanente au Cloud pour plus d’efficacité et une moindre consommation d’énergie.

Du côté des inconvénients, l’Edge computing ajoute une couche de complexité au système d’information des entreprises, par rapport à une solution Cloud centralisée. Enfin, cette solution peut poser certains problèmes en matière de sécurité : les appareils en périphérie du réseau sont a priori plus vulnérables que le Cloud ou les data centers.

Pour assurer le succès de l’Edge computing, il faut donc veiller à apporter un soin particulier à la sécurité et s’assurer de pouvoir gérer les systèmes distants avec les mêmes outils que ceux choisis par l’entreprise (et éviter ainsi de créer des silos informatiques non compatibles qui créeraient une complexité préjudiciable et coûteuse).

Internet des objets + analyse cognitive

En central, la plateforme IoT va disposer de suites logicielles qui traiteront les données pour répondre aux besoins des différents métiers. Ces logiciels peuvent (ou non) comporter des capacités cognitives aux performances variées, basées sur le machine learning (ou apprentissage machine), souvent qualifié d’intelligence artificielle dans le langage courant.

Ces systèmes sont destinés à extraire du sens d’un grand nombre de données non structurées. Ils sont capables : a) d’identifier les facteurs qui influencent un événement ; b) prédire la survenance de l’événement dans le futur ; c) prescrire des recommandations. Ce sont des assistants cognitifs permettant de soutenir les décisions prises par des experts humains, dans la mesure où ils sont capables de proposer des recommandations à partir de l’analyse et d’améliorer la qualité de leurs recommandations au fur et à mesure de leur apprentissage.

Certains cas d’usage sont adaptés à l’usage du cognitif, d’autres le sont moins. Parmi les raisons qui peuvent pousser à l’usage du cognitif : a) quand le corpus de données non structurées et hétérogènes est important ; b) quand ce grand volume de données doit être traité en temps réel (mais nous avons vu que ce besoin n’existe pas toujours) ; c) quand il y a un fort besoin d’amélioration continue par l’apprentissage.

Zoom sur… l’apprentissage machine ou machine learning

L’apprentissage machine regroupe un ensemble de pratiques et d’approches permettant de bâtir des modèles de classification auto-adaptatifs et auto-apprenants. L’apprentissage y est souvent supervisé et des échantillons sont nécessaires pour entraîner le modèle et catégoriser ce que l’on cherche à détecter.
L’immense majorité des « chatbots » et « assistants cognitifs » se basent sur des services de reconnaissance de la parole, de texte, de services de traduction ou d’analyse du contenu d’images ou de sons (par exemple à des fins de maintenance ou de contrôle qualité) et tous utilisent typiquement des modèles de machine learning.
Les « assistants cognitifs », dont les données et les recommandations sont intégrées au processus de l’entreprise et dont les modèles s’ajustent au fur et à mesure que les données affinent l’algorithme, ont le vent en poupe. Ils permettent de produire une forte valeur ajoutée de réduction de coûts, tout en délivrant une expérience utilisateur enrichie. On parle ici d’utilisateur augmenté et d’« hyper automation » qui, avec l’IA, font partie des « top 10 technology trends de 2020 » selon un rapport du cabinet Gartner.

Source : https://www.gartner.com/smarterwithgartner/gartner-top-10-strategic-technology-trends-for-2020/

Ce qu’il importe de retenir est qu’un projet IIoT n’a pas besoin (ou en tout cas pas d’emblée) de capacités de traitement de type cognitif. Beaucoup des traitements requis sur les données captées peuvent continuer à se baser sur des approches statistiques ou probabilistes. Cependant, face à l’afflux de données générées par les nouveaux équipements, l’informatique traditionnelle risque d’éprouver des difficultés à tenir le rythme. L’analyse cognitive peut donc utilement être combinée à un projet IIoT, surtout dans la perspective de traitements analytiques futurs sur les données. En particulier, l’architecture informatique du projet pourra être conçue pour anticiper ce besoin et le soutenir (création d’un datalake par exemple).

Zoom sur… 4 bonnes raisons de passer à l’informatique cognitive

1. La quantité de données que la plupart des entreprises devront gérer augmentera d’un facteur 10 tous les 5 ans au fur et à mesure de la modernisation des équipements. Il devient impossible à un humain de gérer, utiliser et prendre des décisions pertinentes sur ce volume de données.

2. La nouvelle génération de lignes de production et d’équipements est très « bavarde » et génère énormément de données opérationnelles.

3. Les données non structurées dites « dark data » (rien à voir avec le dark web !) représentent 80 % de toutes les données générées aujourd’hui et devraient atteindre 93 % dans les prochaines années.

4. Le temps réel devient un défi clé au niveau des ateliers et des lignes de fabrication, et il requiert beaucoup de données.

Data Literacy

Pour pouvoir bénéficier à moyen terme des retombées des investissements opérés sur la captation, le traitement et la circulation de la donnée, il est nécessaire de développer au sein des personnels une culture de la donnée (ou data literacy) qui aille plus loin qu’une simple acculturation au digital. Il s’agit de partager au sein de l’organisation l’idée de l’importance de la donnée : le coût de production de la donnée, la qualité de la donnée, la compréhension des tableaux de bord et des indicateurs choisis, la capacité à l’exploiter, l’intérêt de la partager en interne et en externe. Dans la plupart des organisations, il s’agit de passer d’une culture de la donnée « IT centric » à une culture « data business centric », centrée sur les besoins des métiers, pour ouvrir les utilisateurs aux nouveaux usages de la donnée. Cela nécessite souvent de sortir d’une organisation traditionnelle qui affectait au département IT la responsabilité exclusive des sujets traitant des données. D’où la création de nouveaux services de data science capables d’assurer la passerelle entre l’IT et les métiers.

Un vecteur de diffusion des pratiques dans les organisations est la mise en place de « data champions » qui sont des rôles métiers bénéficiant d’un lien naturel avec l’IT et d’un intérêt pour la dimension technique de la donnée. Ces ambassadeurs discutent avec les collaborateurs, amènent les sujets métiers à la DSI en étant force de proposition, tout en communiquant aux métiers les avancées technologiques qui peuvent leur être utiles. Cela ira souvent de pair avec un changement vers des outils « user-friendly » permettant aux collaborateurs de manipuler et d’analyser la donnée, depuis le commercial jusqu’à l’opérateur de ligne de fabrication.

Exemple : Radiall et la data literacy

En 2012, Hubert Rufin rejoint Radiall, une ETI d’environ 3 300 collaborateurs spécialisée dans la fabrication de connecteurs électroniques, en tant que contrôleur de gestion. À ce poste, il réalise que tous les managers consacrent un temps important à la production d’états de reporting que personne n’a vraiment le temps de lire ni d’analyser. Il s’interroge alors sur la valeur ajoutée de ce reporting par rapport à son « coût » en temps de production. Il est aussi frappé par l’hétérogénéité des états de reporting et la diversité de leurs modes de production : chacun a son propre format d’analyse des données et ses propres tableaux.

Lui vient ainsi l’idée de proposer à Radiall de créer une structure interne en charge de piloter des projets de tableaux de bord pour accompagner les métiers dans la valorisation et l’exploitation de leurs données. Cela a représenté l’occasion d’interroger les collaborateurs sur leurs besoins, de se détacher d’une culture de l’Excel, dont l’usage récurrent, à tous les niveaux, impactait la productivité des collaborateurs, et de remplacer Excel par des outils de visualisation de données dont les métiers se sont emparés. Hervé Rufin est ensuite devenu data & analytics manager chez Radiall.

Source : D’après Alliancy, « Data Literacy : la compétence clé du 21ème siècle à l’épreuve de la crise », juillet 2020.

  • 12 – Nous remercions pour leur aide dans la rédaction de ce chapitre, Serge Bonnaud et Christophe Didier, tous deux ingénieurs chez IBM.
  • 13 – MES : Manufacturing Execution System. ERP : Enterprise Resource Planning. CRM : Customer Relationship Manager. GMAO : Gestion de maintenance assistée par ordinateur.
Chapitre 4

Déployer un projet IIoT : obstacles et leviers

Quelles que soient les sources consultées, un constat semble s’imposer : entre 60 % et 75 % des projets IoT n’aboutissent pas ou restent à l’état de « preuve de concept » (POC).

Selon une étude Cisco de 201714, seuls 26 % des répondants affirment avoir mené un projet IoT avec succès. Encore faut-il d’ailleurs préciser le profil du répondant : 35 % des cadres des SI font état de succès, alors que 15 % parmi les responsables métiers considèrent que le potentiel d’affaires du projet n’a pas été mis en évidence. Cependant, 64 % des entreprises considèrent que ces PoC sans lendemain ont nourri leur réflexion sur leurs investissements futurs en matière d’IoT.

Même écho dans une étude menée par Intel en 201915. Les causes des échecs ou du non passage à l’échelle serait à rechercher selon Intel dans des facteurs récurrents : pour 36 % des répondants, c’est le déficit de compétences internes qui est déterminant (ingénierie logicielle, science des données, connectivité et cybersécurité) ; 27 % citent la sensibilité des données comme un obstacle (confidentialité, propriété, RGPD) ; 23 % estiment que leurs investissements dans l’IIoT se heurtent à un manque d’interopérabilité entre les protocoles, les composants, les machines et les systèmes ; 22 % évoquent les menaces de sécurité liées à ces technologies ; enfin, 18 % indiquent que la hausse du volume et de la vélocité des données est difficile à gérer et qu’ils peinent à leur donner sens (voir figure 4.1).

Figure 4.1 − Les principaux obstacles aux projets IIoT

Source : Petrick & McCreary, « Creating Lasting Value in the Age of AI + IoT – Futureproofing your Business », Intel Corp., 2019

Pour autant, 83 % des entreprises manufacturières n’entendent pas s’arrêter à ces constats et prévoient de continuer à investir dans « l’usine intelligente » et les applications IIoT. Certes, il existe une complexité inhérente à ce type de projets, mais aussi des bonnes pratiques à mettre en œuvre et des points de vigilance à garder en tête pour mettre toutes les chances de son côté. L’organisation et la gestion de projet restent des défis majeurs pour la réussite des projets IIoT (voir figure 4.2).

Figure 4.2 – Démarche itérative de déploiement d’un projet IIoT

Source : Wavestone, ebg, Agrion, L’IoT industriel : du POC à l’industrialisation, 2017

Feuille de route digitale

Un projet IIoT n’est pas un « stand alone ». Personne ne se réveille un matin avec l’idée subite d’implémenter un projet IIoT dans son usine. Il résulte souvent d’une réflexion amont autour d’une feuille de route digitale visant à transformer l’entreprise pour maintenir sa compétitivité et renforcer sa stratégie. Cette feuille de route digitale peut être portée en central par les dirigeants, comme nous l’avons vu dans le cas de Jean-Paul Agon chez L’Oréal ou encore pour les dirigeants de l’ascensoriste KONE. Mais elle peut aussi provenir de l’initiative d’un directeur de site industriel ayant une sensibilité geek, comme dans le cas d’Olivier Maho chez Somfy. Ou encore elle peut provenir d’un subtil mélange de top-down et de bottom-up, comme dans le cas de Lynred.

Lynred épisode 1 : Partir des usages plutôt que des technos

Lynred est une entreprise française de 1000 salariés basée à Grenoble et spécialisée dans la conception et la fabrication de détecteurs infrarouges. C’est une entreprise de haute technologie avec des compétences héritées du CEA16, n°1 mondial sur les applications « spatiales » (hors USA) et n°2 mondial sur l’imagerie infrarouge. En 2018, quelques personnes au sein de différents métiers réfléchissent au potentiel des technologies numériques qui pourraient être mises en œuvre chez Lynred, parmi lesquelles Éric Mallet au sein de la direction Stratégie, communication et technologie. Une solution d’IA appliquée à un process sensible de l’entreprise vient d’être mise en œuvre avec succès et cela donne des idées à ces « évangélisateurs » internes du numérique. Ils poussent l’idée de transformation numérique auprès de la direction générale.
Dans un premier temps, toute à son enthousiasme, la petite équipe qui milite pour la transformation numérique se montre un peu trop « technopush » et ne trouve pas le sponsoring attendu auprès de la direction générale. L’équipe décide alors de revoir sa copie et de recueillir les besoins des collaborateurs, depuis les opérateurs jusqu’aux responsables des différentes entités. Elle commence par une journée de sensibilisation des personnels avec des partenaires porteurs de différentes solutions technologiques de l’industrie du futur. Comme dans un mini-salon, les collaborateurs sont invités à visiter des stands et à assister à de petites démonstrations concernant l’IoT, l’IA, la réalité virtuelle et augmentée. À l’issue de cette action de sensibilisation, l’équipe conduit un sondage pour voir si les personnes qui ont participé à la session sont intéressées et si elles voient des applications possibles de ces technologies dans leur quotidien. 77 % des salariés ayant participé à cette journée se déclarent prêts à s’engager dans la transformation numérique.
Fort de cette adhésion, éric Mallet avec le support de sa direction met au point un mode de fonctionnement très pragmatique et obtient une enveloppe budgétaire annuelle de 100 000 € pour engager quelques premières expérimentations. Un comité projet 4.0 se met en place, qui veille à réunir des représentants des principales fonctions de l’entreprise, depuis la production jusqu’aux RH en passant par les SI et la R&D. Ce comité transverse n’a aucun pouvoir hiérarchique et la participation y est volontaire. Il détecte les signaux faibles, écoute les porteurs d’idées qui viennent le voir, et ne s’interdit pas d’avoir aussi quelques idées. Il se réunit toutes les deux semaines et s’intéresse principalement à l’amélioration de l’outil industriel et de la qualité de vie au travail des collaborateurs, alors qu’une autre entité, l’App Lab, s’intéresse de son côté aux améliorations d’usage dont pourraient bénéficier les clients.

De ce démarrage, Éric Mallet tire une conclusion : sans une mobilisation de quelques ambassadeurs convaincus qui vont rechercher activement l’implication de la base, rien n’est possible. Mais sans la volonté du Codir d’y aller, rien ne se fera. C’est le « subtil » mélange de bottom-up et de top-down.

Source : Lynred, avec leur aimable autorisation

Priorisation des cas d’usage : comment les choisir ?

Voir les choses en trop grand ou avoir mal défini le bénéfice recherché, sont les principales pierres d’achoppement des projets 4.0. L’approche par petits pas et découpage en petits sous-projets, qui seront considérés comme des expérimentations et conduits de façon itérative, a largement fait ses preuves. Mais comment choisir les cas d’usage parmi les multiples idées possibles, surtout si celles-ci ont été stimulées à juste titre par des dispositifs participatifs visant à embarquer les équipes ?

S’il existe des situations où le cas d’usage s’impose car il existe un problème urgent et évident à résoudre et où la valeur est tangible, dans la majeure partie des situations en revanche, le projet va faire l’objet d’une phase d’idéation, c’est-à-dire d’un accompagnement à la définition même du concept : quel problème « business » voulons-nous précisément résoudre ? Quel est le niveau d’intérêt des équipes pour ce sujet ? Quels seraient les sponsors internes ? Avec quels partenaires pourrions-nous le développer ? La technologie numérique est-elle la bonne manière de résoudre le problème qu’on se pose ?

Attention à la techno-illusion

Il n’est pas rare pour une entreprise de faire preuve de « techno-illusion », c’est-à-dire de penser que la solution numérique va résoudre un problème qu’elle se pose depuis longtemps, sans jamais s’être attaquée à le régler d’une autre manière.
Comme le souligne Michaël Valentin d’Opeo, « avant d’être 4.0, il faut être 2.0 »17. Il ne peut y avoir de numérisation réussie, si les fondamentaux ne sont pas respectés, c’est-à-dire si les principes du « bon » Lean manufacturing18 n’ont pas été préalablement implémentés : value stream mapping, design de processus, routines managériales, réflexes d’observation dans l’atelier, animations à intervalles courts, implication des équipes dans l’amélioration continue, etc. Quand Olivier Maho chez Somfy a commencé son programme de transformation de l’usine de Rumilly, il a d’abord passé deux ans à implanter le Lean dans l’usine de façon à éviter de numériser des gaspillages préexistants. L’oubli de cette condition préalable est une cause fréquente d’échec des projets numériques.

La phase d’idéation du projet aura lieu le plus souvent via des ateliers de design thinking, que ce soit en interne ou dans les espaces du ou des prestataires considérés, qui permettront de préciser le concept et ses objectifs, voire parfois de changer l’approche initialement envisagée.

L’idée de départ va alors passer par différents filtres jusqu’à être cadrée avec un certain niveau de précision, de façon à ce que sa mise en œuvre puisse a minima apporter des enseignements ou au mieux être étendue ou généralisée. Le premier de ces filtres est évidemment la cohérence de l’idée avec les priorités de l’entreprise et les enjeux identifiés dans le plan stratégique.

LYNRED épisode 2 : Trois filtres de cadrage pour la sélection des cas d’usage

Tout projet ou suggestion qui arrive au comité projets 4.0 de LYNRED est filtré selon trois critères : désirabilité, faisabilité et viabilité.

La désirabilité permet de vérifier que les porteurs du projet sont vraiment intéressés par ce sujet, qu’ils sont prêts à le défendre, à s’engager dans sa réalisation et qu’ils ont fait un recueil complet des besoins.

La faisabilité se réfère essentiellement aux technologies : LYNRED n’ayant pas vocation à développer des technologies 4.0, le comité valide qu’il existe des briques technologiques « sur étagère » et recherche les partenaires de l’écosystème qui pourraient contribuer aux adaptations locales (clients, universités, laboratoires, start-up, fournisseurs). Le budget potentiel est bien entendu pris en compte.

La viabilité du projet : le but n’est jamais de faire un simple POC, mais de faire la démonstration de l’intérêt économique et de l’intérêt pour le travail des collaborateurs avant de déployer le projet. Des objectifs cibles et des indicateurs de réussite sont donc mis en place dès l’amont du projet (gains de rendement, gains de délai, etc.). C’est pourquoi, on parle chez LYNRED de POV (preuve de valeur) et non de POC.

Source : Lynred

Embarquer et accompagner les métiers et les équipes

Embarquer les métiers et les équipes dans la transformation est une condition sine qua non de réussite et recouvre plusieurs dimensions.

À un échelon global, il s’agit d’abord de donner du sens à la transformation à la phase de démarrage du projet

Il s’agit ensuite d’embarquer les métiers et de « sortir » les projets numériques des « murs » de la direction des systèmes d’information. Rappelons qu’un projet numérique est toujours au service d’un objectif métier.

Pour y parvenir, il faut veiller à ce que le comité de pilotage des projets englobe assez largement les différentes fonctions de l’entreprise (y compris les Ressources humaines, la communication ou le Juridique pour les projets ayant une composante RGDP), comme nous l’avons vu dans l’exemple de Lynred. Pour donner un autre exemple, le projet de maintenance IoT de Kone, en France, a été piloté conjointement par la direction Services en charge des actions de maintenance et réparation des ascenseurs, la division Technologie et Innovation, le service Marketing et Expérience client, ainsi que la DSI. La façon dont le changement est piloté est en lui-même un vecteur de transformation.

Pour embarquer les équipes, il est important d’avoir recours à des méthodes participatives à différents stades du projet : a) en permettant aux équipes de terrain de remonter au comité de pilotage des sujets qui pourraient être traités par le numérique et en leur apportant des explications si le sujet qu’elles ont proposé n’est pas retenu ou renvoyé à une échéance ultérieure ; b) en associant les équipes aux phases d’idéation et/ou de prototypage ; c) en co-construisant les interfaces des applications et les indicateurs réellement utiles aux métiers. Si ces différentes conditions sont réunies, il n’y aura guère besoin de « gestion du changement », car les équipes se seront approprié la démarche et les outils à toutes les étapes.

Chez BG Security (voir chapitre 2, Business Case n°1), les interfaces hommes-machines ont été définies au sein d’équipes projets pluridisciplinaires où figuraient toujours des représentants des personnels concernés, participant sur une base volontaire (les opératrices pour les sujets de production, les équipes maintenance pour la maintenance, etc.). Comme l’indiquait une opératrice, « Comme nous avons été impliquées tout au long du projet, la prise en main a été simple ».

Il est recommandé qu’un ou plusieurs représentants des utilisateurs finaux soient toujours impliqués dans la conception de ce qu’ils devront utiliser. Cela signifie aller nettement plus loin que le simple Test&Learn d’un applicatif réalisé par les équipes de développement et corrigé ensuite en fonction des besoins des utilisateurs – ce qui est bien le moins. Il s’agit d’associer les utilisateurs, dès l’amont, par l’observation du terrain et le recueil précis des besoins, puis à plusieurs étapes du projet avec des « mini-demos » qui favoriseront le dialogue sur les usages. Un tel processus permet de tenir compte de la façon dont les personnes effectuent réellement le travail au quotidien – et pas seulement de la manière dont leur manager pense et dit qu’ils opèrent19.

Dans le cas contraire, les déconvenues sont nombreuses : même si le projet est parfaitement réussi sur un plan technologique, il peut ne pas être adopté par les acteurs de terrain, occasionnant des délais multiples et une re-conception de l’application. Mais surtout, c’est à cette occasion que la confiance est rompue : les équipes de terrain sont alors promptes à dénoncer que, « comme d’habitude », « ceux d’en haut » ne les ont pas consultées et ne connaissent rien au travail réel. La nouvelle application, en dépit de son intérêt, reste inutilisée pendant que continuent à proliférer les « petits » fichiers Excel et les anciens modes opératoires. Les nouveaux projets numériques deviennent alors de plus en plus difficiles à implanter, suscitant d’emblée de vraies résistances là où n’existait initialement qu’une « saine et tolérante méfiance »20. Rendez-vous au cimetière des occasions perdues… À l’inverse, un projet qui a démontré son utilité pour le travailleur fait tache d’huile, et les utilisateurs concernés deviennent les ambassadeurs des projets futurs. CQFD.

Aligner les équipes SI et les équipes métiers, et développer de nouvelles compétences

La réussite des projets IIoT nécessite une collaboration très forte entre les Métiers et l’IT qui n’ont souvent ni les mêmes préoccupations, ni les mêmes cultures. Selon l’étude Wavestone/ebg/Agrion précitée, cette collaboration est jugée insuffisante par 76 % des entreprises répondantes. C’est une pierre d’achoppement fréquente des projets qui nécessitera, pour être surmontée, une hybridation progressive des compétences et le recours à des « passeurs culturels » ou « cultural brokers » (voir Zoom ci-après). Ce besoin de « passeurs culturels » est aussi ressenti chez les fournisseurs de l’IIoT : c’est la raison pour laquelle la plupart des ingénieurs d’affaires (commerciaux et responsables de comptes) sont d’anciens responsables de production ou des personnes ayant eu une expérience industrielle.

C’est à l’issue de cette hybridation vécue sur des projets réels que pourront se développer à terme des équipes poly-compétentes dites « devops » ou « geekops » spécifiques.

Lynred épisode 3 – Compétences Data + compétences Métiers

Éric Mallet, chez Lynred, donne ainsi l’exemple de leur récent Data Lab dont la fonction est de servir des projets internes en matière de data analytics, big data et IA. Le data scientist qui anime le Data Lab, Augustin Cathignol, n’est pas un data scientist « pur jus ». Il s’occupe aussi de la fiabilité des produits/process et est expert en statistiques. ; il s’est ensuite formé à la science des données par intérêt personnel et c’est d’ailleurs son travail de mémoire qui a fait l’objet d’une application chez Lynred. Il a alors commencé à proposer des solutions basées sur la donnée, qui ont donné naissance au Data Lab. La majorité des collaborateurs du Lab sont dans le même cas et continuent d’exercer parallèlement une autre fonction, même si l’entreprise a recruté récemment un data scientist de formation initiale. Ce fonctionnement représente un atout pour l’entreprise car, d’emblée, les projets data prennent en compte les exigences des métiers et du terrain. Un des rôles du Data Lab est d’ailleurs de contribuer à la sensibilisation des collaborateurs sur les enjeux et les usages de la donnée (voir chapitre 3, data Literacy)

Zoom sur… les passeurs culturels21

On les appelle passeurs culturels, cultural brokers, knowledege angels ou gatekeepers. Leur rôle consiste à faire circuler les connaissances dans l’organisation et à créer les conditions pour que ces nouvelles connaissances soient comprises, mais aussi combinées avec des savoirs déjà présents dans l’entreprise. Ces passeurs culturels peuvent se trouver à l’intérieur de l’entreprise mais aussi dans l’écosystème d’affaires quand des relations partenariales dépassent la relation contractuelle client-fournisseurs.

On peut distinguer deux types de cultural brokers : ceux qui font le pont entre des domaines et initient des collaborations (ou bridge) et ceux qui vont plus loin, en développant un langage commun ou une capacité de traduction et de compréhension entre des mondes hétérogènes (ou adhesive). D’une façon générale, les passeurs n’ont pas de pouvoir hiérarchique, maîtrisent l’art de l’interrogation bienveillante et de l’écoute active, et savent faire dialoguer entre elles des personnes qui, habituellement, ne se côtoient pas. De la capacité des passeurs à ouvrir les horizons en équipe, dépend la capacité de l’entreprise à ouvrir les silos. C’est pourquoi on parle aussi, à leur endroit, de « cross-silo leadership ».

Mais au-delà des passeurs culturels, il sera souvent nécessaire de s’appuyer sur de nouvelles compétences liées au digital, telles que des data scientists, data analysts, product owners22, développeurs, designers d’interface, animateurs agiles, spécialistes de la cybersécurité, etc. Ces compétences digitales peuvent être introduites dans l’organisation par des recrutements, mais également via d’autres approches souvent concourantes afin de limiter dans un premier temps les investissements :
a) former des personnes présentes dans l’entreprise qui ont manifesté un intérêt pour ces questions (voir encadré Lynred ci-dessus) ;
b) s’appuyer sur un réseau de start-up, étudiants, chercheurs pour plancher sur les cas d’usage ;
c) accueillir des start-up dans des incubateurs au sein même de l’organisation ou constituer des équipes mixtes avec des consultants extérieurs. Ces différentes sources de compétences peuvent alors être réunies dans des Digital Labs, sortes de centres de ressources disposant des méthodes, du socle technique et de la capacité à rechercher des partenaires, permettant de mettre au point la solution technologique expérimentale que l’on souhaite tester. Certaines entreprises dont la taille le permet, choisissent de s’organiser autour de « digital factories » pour accélérer le passage à l’échelle des projets IoT et de digitalisation de leur organisation. Rien à voir avec l’usine au sens industriel du terme, même si le concept est le même. Il s’agit d’industrialiser et de définir un processus réplicable du cycle de collecte, d’enrichissement, de sécurisation et d’utilisation des données pour permettre à l’ensemble des collaborateurs de disposer de données fiables en vue d’améliorer leur performance et prendre les décisions pertinentes. Cette tendance organisationnelle s’est accélérée pendant la pandémie du Covid-19 en 2020.

Exemple : Bosch Mondeville et le I4.0 Students’ incubator

À l’origine, il n’y avait que 4 développeurs IT salariés à l’usine Bosch de Mondeville. Les projets numériques se multipliant, il a semblé nécessaire de renforcer l’équipe pour assurer le passage en production et l’industrialisation des nouvelles solutions digitales ayant fait leur preuve. Choix a été fait de recourir principalement à l’alternance en lien avec les différentes écoles d’informatique de la région de Caen. Dix alternants avec différents niveaux (du BTS au doctorant) travaillent donc sur des projets réels (programmation de robots ou réalisations de PoC), pendant une durée moyenne de 7 à 18 mois.

C’est ainsi que vont se diffuser progressivement les pratiques de nouvelles méthodes de travail issues du numérique, à la fois au sein des équipes IT et dans les métiers : observation des usages et des comportements sur le terrain, méthode de design thinking, définition de persona (archétype de profils utilisateurs), pratique du Test&Learn (itérations en boucles courtes) etc., impulsant dans toute l’entreprise un nouvel état d’esprit orienté vers plus de flexibilité, plus de réactivité et plus d’innovation organisationnelle.

Choisir les technologies et les partenaires

Pour mettre en place une solution IIoT, il est nécessaire pour l’entreprise de définir comment elle souhaite la développer : le fera-t-elle en interne ou via un prestataire extérieur ? Cette question se pose pour chaque étape du développement de la solution d’ensemble : les capteurs, la connectivité, la plateforme et les solutions d’IA.

Le choix du Make or Buy dépend bien entendu de très nombreux paramètres, tels que la taille du projet (volume de capteurs à mettre en place par exemple), les compétences détenues par l’entreprise sur les différentes expertises requises, la maturité digitale ou encore la spécificité du secteur d’activité ou de l’environnement machines (milieux confinés ou sites présentant des contraintes très fortes d’exploitation et de sécurité).

D’une façon générale, et afin d’obtenir la valeur recherchée dans le délai le plus court possible, il est cependant conseillé à toutes les entreprises qui débutent de privilégier des technologies et des produits « sur étagère », même si ceux-ci nécessiteront des adaptations.

Capteurs. Pour les capteurs, par exemple, il est souvent difficile de se contenter d’acheter un produit standardisé et peu personnalisé. De nombreuses adaptations sont fréquemment nécessaires selon le cas d’usage considéré : renforcer la résistance du capteur par rapport à son exposition, trouver une solution d’arrimage ou d’interaction avec un autre objet physique, augmenter l’autonomie des batteries, etc. L’entreprise se positionnera alors en «designer» par rapport à un bureau d’études et impliquera sa propre équipe dans une phase de prototypage, afin d’obtenir l’adaptation personnalisée du produit sur étagère. Par la suite, en phase d’industrialisation, c’est évidemment le volume de capteurs à produire qui dictera le choix du fournisseur de production selon des critères d’achat traditionnels – le seuil pour passer à de gros fabricants d’électronique se situant le plus souvent au-dessus de 50 000 « objets » à produire. Ce cas n’est guère fréquent pour des applications « machines usines », mais un tel seuil peut en revanche être atteint beaucoup plus rapidement pour des cas d’usage en logistique : nous avons vu, par exemple, que 130 000 conteneurs devraient être équipés de capteurs chez PSA.

Connectivité. La stratégie de connectivité est, elle aussi, profondément liée au cas d’usage considéré. Parmi les critères à prendre en compte, joueront : la mobilité de l’objet impliquant par exemple sa géolocalisation ; le volume et la fréquence des données à émettre ; l’autonomie des objets en énergie ; l’environnement matériel de l’objet – certaines installations pouvant venir perturber les ondes électromagnétiques des transmissions radio –, mais aussi la sécurité des communications qui peuvent dépendre du protocole choisi, ainsi que la couverture existante dans la zone industrielle considérée, certaines usines étant situées dans des zones rurales « blanches ».

Les technologies de connectivité sans fil pour les objets sont aujourd’hui très nombreuses entre fournisseurs traditionnels, nouveaux entrants ou alliances industrielles de type LoRA. On trouve donc : des réseaux radio classiques (LTE, LPWAN, GSM), le wi-fi, le Bluetooth, NFC ou encore le RFID, des réseaux qui reposent sur des standards ouverts comme LoRA ou les réseaux IP, des réseaux privés comme Sigfox.

Les industriels ne doivent donc pas se laisser freiner par les questions de connectivité. Ce qui est sûr en tous cas, c’est qu’il n’est pas besoin d’attendre le déploiement des solutions sur bande 5G pour se lancer, même si celles-ci se révèleront facilitatrices pour un certain nombre de cas d’application.

Zoom sur… Que fait la 5G que la 4G ne permet pas ?23

La 4G a été une innovation technologique majeure en matière de réseaux mobiles par rapport aux générations précédentes, principalement parce que le réseau est « tout IP ». Cela signifie que, du mobile jusqu’aux plateformes de services, l’information circule dans un réseau parfaitement homogène, conforme de bout en bout au protocole internet. Néanmoins, certaines limites sont apparues : les débits constatés sont parfois éloignés des débits théoriques ; des difficultés existent dans la couverture de certains usages comme les grandes manifestations sportives et les concerts géants ; la transmission n’est pas toujours instantanée ni en temps réel.

La 5G représente un saut qualitatif pour trois grandes catégories d’usage, même s’ils ne sont pas forcément cohérents entre eux :
1. Permettre la communication entre une grande quantité d’objets ayant des besoins de qualité de service variés grâce à une densité de connexion décuplée. L’Internet des objets nécessite une couverture étendue, une assez faible consommation énergétique et se contente souvent de débits relativement restreints.
2. Permettre la connexion en ultra haut débit pour tous les services et applications qui nécessitent une connexion toujours plus rapide et puissante, comme, par exemple, le visionnage des vidéos en ultra haute définition, le « streaming » ou des applications de réalité virtuelle ou augmentée.

3. Permettre le temps réel et garantir la transmission pour des applications nécessitant une haute sécurité des transmissions, comme les voitures autonomes, la téléchirurgie ou encore la conduite à distance de robots et de machines.

La 5G promet l’ultra-connectivité des objets et de la société. Contrairement à la 4G, elle présente l’intérêt d’être multi-usages (haut ou bas débit) et pallie ainsi le manque d’interopérabilité entre les réseaux.

Concernant l’interopérabilité des protocoles de communication au sein de l’usine traditionnellement assurée par des bus, le standard OPC UA24 est en train de s’imposer. OPCUA est une sorte de traducteur de protocoles, disponible librement, et compatible avec un très grand nombre de protocoles propriétaires jusqu’ici très difficiles à interopérer. En raison de son développement constant par la Fondation OPC et de sa forte adoption par les fabricants et l’industrie dans son ensemble, OPC UA représente actuellement le standard de communication le plus répandu, toutes plateformes confondues, pour assurer l’interopérabilité et l’échange d’informations entre machines et systèmes. Des entreprises telles que IBM, Microsoft, Fujitsu, Bosch ou encore l’institut de recherche Fraunhofer sont impliqués dans le développement d’une norme basée sur OPC UA.

Plateforme IoT. Enfin, parmi les choix à opérer, celui de la plateforme IoT est sans doute le plus stratégique, dans la mesure où la plateforme doit prendre place dans une architecture SI préexistante, mais qu’elle représente aussi la brique qui ouvre la voie à l’exploitation future des données.

Le choix d’une plateforme IoT repose donc principalement sur les besoins présents d’exploitation des données – les « services » – mais il doit aussi prendre en compte la capacité de la plateforme à évoluer pour répondre demain à l’ajout de nouveaux objets et de nouveaux « services » dont l’entreprise aura besoin (temps réel, par exemple).

Il existe deux types de plateformes : a) les plateformes propriétaires qui sont des solutions de type PaaS (Platform as a Service) avec un modèle d’abonnement, hébergées dans le cloud la plupart du temps ; b) les solutions « maison » qui demandent des connaissances avancées et des investissements importants – une voie qui est plutôt ouverte à des entreprises disposant de gros départements SI. Une plateforme conçue en interne peut conduire à des délais de livraison allongés, mais elle offrira en revanche une totale maîtrise de l’outil.

Le marché des plateformes IoT propriétaires est récent et encore très atomisé : plus de 300 plateformes sont aujourd’hui proposées sur le marché25, ce qui peut représenter un vrai casse-tête avec la peur au ventre de faire des mauvais choix qui obèreront l’avenir.

Sur ce marché encore en structuration, il est important de jouer la prudence. Des éditeurs de petite taille peuvent proposer des solutions en apparence très personnalisées, mais la pérennité de ces acteurs n’est pas toujours assurée, ce qui peut mettre en péril la solution de l’entreprise.

Quelle que soit la voie retenue, trois idées sont à retenir : a) il faut se défaire de l’idée d’une plateforme universelle couvrant tous les besoins fonctionnels ; b) toute plateforme nécessitera des efforts de développement spécifiques et souvent plus importants qu’anticipés – il suffit de se souvenir des difficultés rencontrées lors de l’introduction des premiers ERP; c) il est crucial d’anticiper l’intégration de la plateforme avec le système SI de l’entreprise, même si cette nécessité n’est pas encore impérative au niveau des premiers cas d’usage – le passage à plus grande échelle de la solution doit être anticipé.

De facto hétérogène de l’écosystème de l’IoT à la sécuriser, la déployer, en assurant une qualité de service égale quel que soit l’environnement choisi : en Edge,

Pour Olivier Maho chez BG Security (Somfy) comme pour Éric Mallet (Lynred), si l’on veut mettre la technologie au service de la simplicité et ne pas construire des usines à gaz, il importe de recourir à des partenaires technologiques qui soient cohérents avec la taille de l’entreprise, ou en tout cas capables de comprendre ses valeurs et ses contraintes. « Avec 40 salariés, on n’allait pas choisir un géant du numérique » s’exclame Olivier Maho.

Les défis de la cybersécurité

Selon une étude Atout DSI de 201926, 73 % des DSI interrogés perçoivent l’IIoT comme une nouvelle source de vulnérabilité des systèmes et réseaux. Les automatismes industriels (robots, machines à commande numérique, automates programmables) devenant beaucoup plus interconnectés, ouverts et accessibles depuis le réseau informatique de gestion d’une entreprise, voire depuis Internet, des cyberattaques visant les réseaux de gestion se propageraient donc plus facilement vers les systèmes OT. Réciproquement, la couche logicielle incorporée dans les objets physiques et les accès distants peuvent constituer des failles potentielles et mettre en risque certaines applications industrielles de pilotage et de suivi de production. De plus, puisque les objets collectent de plus en plus de données sensibles, l’entreprise doit se soucier de leur protection aussi bien à la source (dans l’objet) que pendant leur circulation et leur stockage. Enfin, des attaques plus complexes peuvent aussi être imaginées : par exemple, une modification malveillante des fichiers de conception d’un produit interconnecté avec le système de fabrication pourrait avoir un impact direct sur la fabrication des pièces, et donc sur la qualité du produit fini en bout de chaîne.

Tous ces risques ne doivent pas être sous-estimés, mais les fournisseurs de solutions sont particulièrement conscients de ces problèmes. Ils coopèrent en permanence pour assurer la sécurité des équipements et veillent à intégrer la sécurité et la protection des données à toutes les étapes et dans toutes les composantes de la solution.

De son côté, l’entreprise doit activement participer à sa propre sécurité :

• Au niveau stratégique, en évaluant les risques, et en mettant en place une structure de gouvernance de la sécurité et en anticipant la réponse à la crise en cas d’attaque ;

• Au niveau des opérations, en procédant à des audits réguliers, en formant les collaborateurs à la cybersécurité, en cloisonnant et en renforçant la sécurité sur les parties critiques du système.

En août 2020, l’ANSSI (Agence nationale de la sécurité des systèmes d’information) a publié un guide « d’hygiène numérique » à la portée de toutes les entreprises auquel chacun pourra utilement se référer27.

Mesurer les résultats : le RETEX avant le ROI

Beaucoup d’entreprises petites ou moyennes hésitent à se lancer dans des projets « usine du futur », car le ROI de ces projets semble difficile à estimer. Ce problème de ROI immédiat doit en réalité être mis en balance avec la question : mon activité existera-t-elle encore dans cinq ans ?

Il existe indéniablement des effets de seuil pour que les résultats des projets IIoT deviennent mesurables à l’échelle d’une usine : ce ne sont pas trois capteurs sur trois machines qui vont permettre une amélioration du TRS. En revanche, ces trois capteurs pourront permettre à l’entreprise de prendre conscience du potentiel de cette transformation.

Certains « petits » projets peuvent produire des effets à un an : LYNRED donne l’exemple de l’introduction d’un algorithme prédictif sur un procédé métallurgique délicat ayant permis un gain de capacité équivalent à plusieurs centaines de milliers d’euros ; ou encore des fiches d’instruction de poste sous format vidéo rassemblant les meilleures pratiques et ayant permis de diviser le temps de process par deux, avec des effets positifs sur la qualité de vie au travail des opérateurs. Mais de façon plus générale, on estime en moyenne de trois à cinq ans la durée pour que les projets déploient des effets pleinement mesurables (voire chapitre 1, indicateurs dans le cas de BG Security). C’est pourquoi, nous avons insisté sur l’importance d’inscrire chaque projet dans le cadre d’une feuille de route numérique et, sur le plan de la méthode, de procéder par petits pas expérimentaux, tout en faisant très tôt la démonstration de valeur grâce aux méthodes agiles, afin de se convaincre de l’utilité d’aller plus loin.

Avant même de parler de ROI, il importe donc de parler de RETEX28 (ou REX). L’entreprise devra engager une démarche méthodique d’analyse de la solution testée et de ses résultats. Ce conseil peut sembler enfoncer des portes ouvertes, mais il n’est souvent pas si facile de mettre en œuvre un RETEX structuré. La méthodologie permettant le retour d’expérience doit être définie en amont de la mise en œuvre du projet : il peut s’agir d’une boucle PDCA (Plan, Do Check, Act) classiquement utilisée en amélioration continue, ou d’un processus moins formel, mais néanmoins structuré :

• Identifier les objectifs et le périmètre précis du projet sur lequel portera le retour d’expérience.

• Définir des indicateurs quantitatifs et qualitatifs.

• Prévoir la méthode de collecte des données permettant le RETEX (formulaires, fichiers Excel de commentaires partagés, sondage, etc.).

• Analyser les données, mesurer les écarts par rapport à l’attendu.

• Prendre les éventuelles mesures correctives.

• Partager les résultats.

Les résultats du RETEX permettront de : corriger, poursuivre ou abandonner l’action, ou encore l’élargir à un nouveau périmètre.

Aides financières aux investissements « Industrie du futur »

La pandémie du Covid-19 aura souligné l’importance pour chaque pays de détenir un capital industriel solide au sein de la concurrence mondiale. Dans le cadre du plan de relance annoncé en septembre 2020, le gouvernement met l’accent sur la modernisation de l’outil industriel à travers une subvention « industrie du futur », qui permet aux PME et aux ETI industrielles de bénéficier d’un soutien financier de l’État pour leurs investissements dans les technologies de l’industrie du futur.

Cette aide s’appliquerait aux investissements relevant des catégories suivantes (la liste précise doit encore être fixée par arrêté) : équipements robotiques et cobotiques ; équipements de fabrication additive ; logiciels utilisés pour des opérations de conception, de fabrication, de transformation ou de maintenance ; machines intégrées destinées au calcul intensif ; capteurs physiques collectant des données sur le site de production de l’entreprise, sa chaîne de production ou sur son système transitique ; machines de production à commande programmable ou numérique ; équipements de réalité augmentée et de réalité virtuelle utilisés pour des opérations de conception, de fabrication ou de transformation ; logiciels ou équipements dont l’usage recourt, en tout ou partie, à de l’intelligence artificielle.

La subvention permet aux entreprises de bénéficier d’un appui en trésorerie concomitamment à leur investissement. L’aide représente au minimum 20 % du coût d’investissement pour les petites entreprises et de 10 % pour les moyennes entreprises et les ETI sous certaines conditions. Ce mécanisme se substitue au sur-amortissement fiscal en vigueur en 2019 et 2020. La gestion du guichet de soutien est confiée à l’Agence de service et paiement (ASP) qui sera chargée de réceptionner, instruire et payer les demandes. Le gouvernement a annoncé mobiliser 260 millions d’euros pour soutenir cette dynamique d’investissement, avec une montée progressive de la disponibilité des fonds d’ici à la fin 2022.

Une nouvelle enveloppe de « Prêts French Fab » sera également opérée par Bpifrance dans le cadre du plan de relance. Ce dispositif, doté de 45 millions d’euros par l’État, permettra à Bpifrance de mettre en place entre 400 et 500 millions d’euros de prêts aux entreprises pour favoriser leurs investissements industriels. D’un montant compris entre 100 000 et 5 millions d’euros, ce prêt est proposé sur une durée modulable de deux à douze ans, avec un différé d’amortissement de trois ans maximum. Il est nécessairement adossé à un cofinancement bancaire d’un montant au moins équivalent. Entre 2016 et juin 2019, le « Prêt French Fab » avait bénéficié à environ 350 entreprises.

Par ailleurs, les Régions continuent à être en première ligne du financement de la modernisation industrielle. De nombreuses Régions ont mis en place des aides pour financer les prestations de conseil, expertises, preuves de concept, liées à un projet « Industrie du futur » en robotique, automatisme, modernisation de site industriel, gestion et production de données, etc.

  • 14 – Conduite auprès de 1845 décideurs du digital aux États-Unis, au Royaume-Uni et en Inde, en 2017.
  • 15 – Menée auprès de 404 entreprises dont 211 entreprises manufacturières et 193 fournisseurs de l’écosystème.
  • 16 – Commissariat à l’énergie atomique et aux énergies alternatives.
  • 17 – M. Valentin, Hypermanufacturing, op. cit.
  • 18 – Pour une discussion sur ce qu’est le bon Lean, voir entre autres F. Pellerin et M-L Cahier, Organisation et compétences dans l’usine du futur, Les Notes de La Fabrique, Presses des Mines, 2019.
  • 19 – Cette conception est développée par la Chaire Futurs de l’industrie et du travail de Mines ParisTech sous le nom de « design du travail »®.
  • 20 – Dixit un technicien qualité interrogé.
  • 21 – Merci à Julie Bastianutti, maître de conférences en gestion à l’université de Lille, pour ses explications sur les cultural brokers.
  • 22 – Le product owner est un chef de projet numérique en mode agile qui a une dimension IT. Les projets dont il pilote la réalisation sont des outils digitaux tels que des sites, des applications ou encore des logiciels. Il travaille méthodiquement en découpant le processus de création en plusieurs petites étapes de quelques semaines, appelées itérations. Il est en charge de satisfaire les besoins des clients en menant à bien la livraison d’un produit de qualité. Il sert d’interface entre l’équipe technique, l’équipe marketing et les clients. Si le product owner est en général orienté vers les clients externes de l’entreprise, il n’est pas interdit d’imaginer des rôles de « product owner » à vocation interne.
  • 23 – Cet encadré est directement inspiré des travaux de l’Académie des technologies, « La 5G : des convergences, une ambition, des technologies et des risques » Bulletin trimestriel de l’intelligence technologique n°3, Fondation de l’Académie des technologies, mai 2018, https://www.academie-technologies.fr/blog/categories/autres-publications/posts/la-5g-des-convergences-une-ambition-des-opportunites-et-des-risques
  • 24 – Pour Open Platform Communications Unified Architecture.
  • 25 – Étude Wavestone, Ebg, Agrion, L’IoT industriel : du POC à l’industrialisation, 2017, p. 53.
  • 26 – Enquête menée en partenariat avec Mitel et Orange Business Services auprès de 102 DSI de la communauté Atout DSI.
  • 27 – ANSSI, « Attaques par rançongiciels, tous concernés : comment les anticiper et réagir en cas d’incident ? », août 2020. https://www.ssi.gouv.fr/guide/attaques-par-rancongiciels-tous-concernes-comment-les-anticiper-et-reagir-en-cas-dincident/
  • 28 – Retour d’expérience.
Chapitre 5

Craintes sociétales à l’égard de l’IIoT

Nous l’avons vu, l’IIoT, et plus généralement l’industrie 4.0, sont porteurs d’une ambition renouvelée pour l’industrie française et européenne, en termes de maintien local des usines, compétitivité économique, économies de ressources, etc. Cependant, des craintes sociétales s’expriment aussi à l’égard de cette transformation.

Parmi celles-ci, l’impact des technologies numériques sur le travail occupe une place de choix dans le débat public. Si les approches retenues consistent souvent à estimer les conséquences macroéconomiques de la numérisation sur les volumes d’emploi, plus rares sont celles qui s’intéressent à son impact sur la nature et l’organisation du travail. Il convient pourtant de souligner que les effets produits par les technologies sur le travail ne sont pas dépourvus d’ambiguïté et méritent d’être explicités.

Un deuxième sujet, que la 5G vient de remettre sur le devant de la scène, porte sur les enjeux environnementaux du numérique. Là encore, les termes du débat sont assez complexes, car ils soulignent le paradoxe de ces nouvelles générations de technologies qui, d’une part, réduisent la consommation énergétique mais qui, d’autre part, contribuent à la multiplication des usages, et donc à l’intensification des consommations. Comment alors concilier transition numérique et environnementale ?

Le mythe de l’opérateur augmenté : un travail plus ou moins qualifié ?

La kyrielle de technologies en développement, parmi lesquelles l’internet des objets, recompose les métiers et modifie le contenu du travail. Selon l’Alliance Industrie du futur (AIF), « la technologie et l’organisation permettent de décharger [l’opérateur] des tâches pénibles, répétitives, pour qu’il se concentre sur les tâches à forte valeur ajoutée »29. De nombreuses observations montrent que la réalité est plus complexe et parfois ambivalente.

La notion de tâches à plus forte valeur ajoutée, qui seraient permises par les technologies 4.0, renvoie à l’idée d’un enrichissement du contenu du travail pour les opérateurs de production. Mais est-ce toujours le cas ?

Dans les usines 4.0, l’opérateur exerce son métier à côté ou doté lui-même d’équipements et de machines « intelligentes ». Dans ce système mixte, l’opérateur devient polyvalent et passe de la supervision ou du travail sur une seule machine au pilotage de plusieurs machines connectées, le long d’une ligne de production ou au sein d’un îlot30. Pour ces raisons, il doit être à l’aise avec les terminaux numériques et avoir une vision d’ensemble du processus de production. Si la polyvalence peut s’apparenter à une élévation des compétences, elle peut également prendre le pas sur les compétences « métiers » (soudure, montage, etc.) de l’opérateur. « Ce n’est plus un expert, mais il sait un peu de tout », résument certains dirigeants industriels interrogés dans le cadre d’une étude sur l’industrie du futur en Italie31. De ce point de vue, le travail nécessite moins un savoir-faire technique fondé sur des connaissances acquises par l’expérience mais relève davantage de compétences génériques centrées sur la médiation de machines ou de robots. Dit autrement, l’opérateur n’est plus totalement expert d’une étape de production ou d’un savoir-faire spécifique, mais dispose de connaissances génériques sur une fraction plus grande du processus. Beaucoup de connaissances « métiers » sont en effet intégrées dans les machines « intelligentes », puis restituées aux opérateurs sous la forme d’instructions tout le long du processus de production. Il en résulte une simplification des tâches qui présente l’avantage d’insérer plus rapidement les nouveaux embauchés dans l’entreprise, mais aussi un personnel intérimaire à faible qualification lors des pics d’activités. Des dispositifs multimédia permettent par ailleurs, via des tutoriels, de prendre le relais des salariés expérimentés dont le temps passé à former les nouveaux arrivants est dégagé pour effectuer d’autres tâches à plus forte valeur ajoutée. La tendance est donc de parler de « collaborateur augmenté ». Assister un utilisateur dans son quotidien avec des solutions cognitives dédiées aux taches répétitives ou à faible valeur ajoutée, permet de mettre en avant des compétences d’intelligence émotionnelle plus fortes pour les employés et est souvent perçu comme un facteur de regain d’intérêt pour eux.

Le Marmiton des modes opératoires

Dans nombre d’entreprises industrielles, l’une des premières étapes d’un projet de modernisation consiste à numériser tous les documents ou fiches papier décrivant les différentes étapes d’une tâche de production (montage, assemblage, changement de séries, etc.), que l’on appelle habituellement le standard ou le mode opératoire, et qui figuraient traditionnellement dans des classeurs sur le poste32.

Le numérique permet d’enrichir ces « manuels » des opérations par l’adjonction de tutoriels vidéos, ce qui les rend plus ludiques et accessibles, sans la barrière de la lecture ou de la langue. Ces « tutos » peuvent être réalisés par le bureau des méthodes, mais une démarche intéressante peut être de les compléter via les opérateurs de production eux-mêmes. C’est ce qu’a entrepris cette entreprise fabriquant des produits de grande consommation.

Après une courte initiation à la captation d’images à l’aide de leur smartphone, les opérateurs réalisent leurs propres tutos, de manière à partager leurs bonnes pratiques, leurs trucs et astuces sur le poste, avec leurs collègues actuels ou futurs. Les vidéos sont ensuite évaluées par le bureau des méthodes pour vérifier qu’elles ne véhiculent pas des contradictions flagrantes avec le standard. Il se pourrait même que les Méthodes y apprennent des choses nouvelles à incorporer à leurs instructions ! L’ensemble de ces vidéos postées sur un site constitue alors une sorte de Marmiton des modes opératoires.

Mais le dispositif a été encore sophistiqué grâce à l’installation de QR codes sur les machines. En flashant le QR code de la machine avec le smartphone, le tuto correspondant est immédiatement appelé à l’écran et l’opérateur dispose ainsi de toutes les étapes du mode opératoire lié à ladite machine, et peut les visionner autant de fois que nécessaire. Ce mode de transmission des connaissances permet de décloisonner les savoirs, de former plus rapidement les nouveaux embauchés et de dégager du temps pour les salariés plus expérimentés. Il pallie ainsi un problème récurrent dans les usines : le besoin de formation lié au turn-over ou aux pics de charge. Par ce système de tutoriels vidéo, des salariés même peu qualifiés et sans grande connaissance des métiers de l’entreprise peuvent s’insérer et devenir plus rapidement opérationnels. Et en outre, c’est plus amusant !

Mais si le travail et la formation aux métiers se fait de plus en plus par l’intermédiaire des machines, cela ne risque-t-il pas d’induire une perte des compétences par la disparition de la maîtrise des gestes manuels ? Et le travail devient-il vraiment plus intéressant, lorsque les tâches sont intégralement assistées par des consignes ou des tutoriels vidéo affichés sur un écran ? Chaque geste (assemblage, montage, etc.) est en effet assisté étape par étape par un système qui contrôle les erreurs et propose des mesures correctives en cas de besoin. Dans certaines entreprises, chaque station de montage est reliée à une tablette qui dicte à l’opérateur quelle pièce il doit prendre, où précisément il doit la monter, et envoie ainsi des instructions précises sur toutes les opérations de montage33. De tels dispositifs peuvent difficilement s’apparenter à une élévation des compétences ou à un gain d’autonomie. Dans certains cas, si les opérateurs ont une vision plus large du processus de production, ils perdent ou n’acquièrent jamais une connaissance approfondie du fonctionnement de la ou des machines qu’ils utilisent.

Ces changements ont inévitablement un impact sur les compétences et les profils recherchés par les entreprises. La capacité à décoder des informations fournies par des écrans et à effectuer des tâches très diverses (adaptabilité) seront des compétences plus recherchées que les savoirs et savoir-faire spécialisés d’antan souvent acquis par l’expérience, comme, par exemple, celle des grutiers dans le détectage des imbroyables (voir chapitre 2, Business Case n°3). Dès lors, les profils recrutés peuvent être peu expérimentés à condition toutefois de savoir utiliser les terminaux numériques et de se sentir à l’aise avec ces interfaces. Du point de vue de l’opérateur, il paraît donc prématuré d’affirmer que l’introduction des technologies enrichit systématiquement le travail.

D’autres exemples révèlent au contraire le potentiel de ces technologies pour un enrichissement du contenu du travail. L’exemple de la PME manufacturière SORI34, fabricante de servantes d’ateliers, montre ainsi que les nouvelles technologies peuvent libérer les salariés des tâches les plus ingrates et répétitives au profit de tâches plus intéressantes et plus riches. Là où les opérateurs se qualifiaient eux-mêmes auparavant de « secoueurs de tôle », ils sont désormais devenus, pour certains d’entre eux, des « opérateurs-programmeurs » qui naviguent entre la salle de production et la salle des ordinateurs où ils programment les machines et les robots. La polyvalence liée ici à l’élargissement des tâches (ou poly-compétence) correspond bien à un enrichissement de celles-ci. La programmation de machines lors de changements de séries constitue en effet une nouvelle compétence pour les salariés.

De même, les nouveaux modèles de production basés sur des séries courtes obligent les opérateurs, qui restaient autrefois longtemps sur un même poste de travail, à intervenir plus souvent pour modifier les paramètres de production. Ce changement de modèle implique nécessairement une connaissance de base plus élevée, une plus grande capacité d’adaptation mais également une meilleure connaissance des problèmes opérationnels et de leurs solutions.

Une autre transformation − encore peu observée − que les nouvelles technologies pourraient faire advenir, est la plus grande proximité entre ingénieurs et opérateurs. L’usine intelligente exige en effet une collaboration de plus en plus étroite entre la production et les bureaux d’études, composés majoritairement d’ingénieurs. Ces derniers doivent en effet intégrer dans leur réflexion, dès la phase de conception, la façon dont seront fabriqués les produits. Cette nouvelle façon de travailler permet aussi d’impliquer les opérateurs dans les choix technologiques dès l’amont d’un projet et facilite ainsi leur adhésion. Tant pour les ingénieurs que pour les opérateurs, cela exige d’être plus coopératifs, polyvalents et enclins au changement. Comme en témoigne l’entreprise SORI, de telles collaborations fonctionnent bien lorsque le bureau d’études se situe au cœur de l’atelier de production. Reste que l’ingénierie de conception est encore souvent coupée du travail de production dans de nombreuses entreprises.

Dans l’industrie du futur, l’opérateur sera-t-il « augmenté » ou diminué ? L’ensemble de ces constats montrent qu’il est n’est pas aisé de répondre à cette question. Une chose est sûre : les nouvelles technologies redessinent et recomposent les métiers, les compétences et les qualifications. Elles ouvrent aussi bien la voie à des tâches plus gratifiantes et enrichies qu’à une nouvelle forme d’aliénation 4.0 qui rappellerait, sous certains aspects, les tâches parcellisées du modèle tayloriste.

Surveillance généralisée des travailleurs ?

Dans le champ de la sécurité et de la santé au travail, des transformations majeures vont être apportées par les objets connectés. En effet, l’une des propriétés de l’IIoT est de capter une multiplicité de phénomènes plus ou moins en lien avec l’opérateur ou avec son environnement. Un objet connecté peut, par exemple, évaluer la posture d’un salarié ou enregistrer en temps réel des informations sur son environnement de travail en termes de niveau sonore, de vibration, d’humidité ou encore fournir des informations sur sa localisation. En suivant en permanence plusieurs paramètres préétablis, les objets connectés peuvent ainsi anticiper ou détecter des risques d’accidents de travail, et lancer des alertes pour prévenir, dans une certaine mesure, les TMS (troubles musculo-squelettiques). Certaines applications peuvent fournir au jour le jour un diagnostic détaillé à partir d’une batterie d’indicateurs en lien avec la santé au travail. Le fournisseur de technologies Altran a, par exemple, créé un système qui permet de calculer un score de pénibilité35 qui pourrait, à terme, être mis au regard de seuils fixés par la loi. Ce type d’indicateurs offre l’opportunité aux travailleurs de s’auto-monitorer, de même qu’il incite l’employeur à prendre des mesures rapides et efficaces en faveur de la santé ou de la sécurité36.

Certains domaines industriels nécessitent des interventions dans des environnements critiques ou potentiellement dangereux (sous terre, par exemple, dans des canalisations), ou un travail en mobilité et en autonomie comportant de nombreux aléas et imprévus. L’équipement du travailleur peut alors embarquer des objets connectés sophistiqués – par exemple une caméra dans un casque, des oreillettes à transmission osseuse, ou un bracelet qui lance une alerte par un simple « click » – mais, le plus souvent, l’objet communiquant sera un simple smartphone professionnel. Ces différents objets permettent de rester en contact avec les services support pendant des opérations délicates, de filmer les lieux ou les objets d’intervention de manière à obtenir de l’aide en cas de difficultés ou encore de documenter a posteriori l’intervention par des photos. Cela augmente l’efficacité et la qualité des interventions, tout en permettant de faire face à l’imprévu. Exactement comme un astronaute reste en contact avec sa base ou un commando d’intervention en opération spéciale reste en contact avec son commandement.

L’IIoT porte ainsi la promesse d’une connaissance en temps réel des situations et conditions de travail. L’envers de cette connaissance, c’est la mise en visibilité permanente des faits et gestes des travailleurs, et donc un contrôle accru sur ceux-ci. Au moment même où l’autonomie est valorisée comme le fondement des nouvelles formes d’organisation du travail, les technologies numériques peuvent, en effet, exercer une surveillance en s’immisçant dans le quotidien de salariés hyperconnectés. De plus, l’usage de ces technologies risque d’encadrer l’activité de chaque opérateur sans tenir compte de l’écart qui existe toujours entre les prescriptions – aussi louables soient-elles – et la réalité du travail. À la pointe de cette critique, on trouve les ergonomes qui considèrent que les travailleurs peuvent être confrontés à deux injonctions contradictoires. D’un côté, ils doivent s’adapter aux contraintes quotidiennes, se montrer flexibles et être en capacité de réagir en temps réel à des imprévus. De l’autre, ils sont encadrés par les prescriptions que véhiculent en elles-mêmes les technologies : par exemple, l’optimisation des tournées, le temps imparti pour se déplacer d’un point à un autre au risque de se mettre en danger, comme dans le cas des livreurs à bicyclette, etc.

Plus encore, les entreprises peuvent utiliser les données collectées en ayant pour seul objectif d’augmenter la productivité individuelle. Dès lors, il s’agit de déterminer, pour chaque individu, le geste optimal, le parcours optimal ou encore les pertes de cadence. Cette obsession de la productivité individuelle, documentée par des données objectives, pourrait s’apparenter à un taylorisme « augmenté » par la donnée, bien plus performant que le précédent. Ce n’est pas une simple vue de l’esprit. Un récent article du Figaro37 décrivait comment Amazon avait recours à des logiciels pour surveiller le niveau de productivité de ses salariés. Quand le nombre de paquets scannés par un salarié n’est pas suffisant au regard de critères préétablis, le logiciel envoie un message d’alerte, afin que le salarié soit « recadré », voire licencié. Tandis que l’une des promesses des technologies 4.0 est justement d’affranchir les travailleurs des tâches aliénantes, on voit bien ici comment l’usage de ces technologies peut conduire à des dérives.

Comme toujours, la technologie est porteuse d’autant de risques que d’opportunités. La crise du Covid-19 a montré tout l’intérêt de pouvoir piloter à distance des machines ou des lignes de production. Néanmoins, l’IIoT présente aussi des risques pour les travailleurs qu’il convient de ne pas ignorer. Ces effets ambivalents montrent que l’impact des technologies numériques sur l’organisation du travail dépendra beaucoup du contexte dans lequel les projets seront lancés et des objectifs poursuivis par l’entreprise. La qualité du dialogue social, les possibilités de formation, la communication avec les équipes, sont autant de paramètres qui entrent en jeu pour réussir la transition vers l’industrie du futur. C’est la promesse des « Entreprises Apprenantes » dont la presse s’est fait récemment le relai38. Ce type d’organisation assume pleinement ses responsabilités dans l’accompagnement des collaborateurs et le développement de nouvelles compétences.

Les enjeux environnementaux de l’industrie numérisée

Le lien entre le numérique et les questions environnementales commence à occuper une place centrale dans le débat public. Du terminal numérique de l’utilisateur au lieu de stockage des données, en passant par les infrastructures réseaux, se pose la question de leur empreinte énergétique et environnementale. D’un bout à l’autre de la chaîne, la consommation énergétique du numérique a nécessairement un impact sur l’environnement, contrairement à ce qu’affirmaient les discours initiaux sur les vertus écologiques de la dématérialisation de l’économie.

Selon le think tank The Shift Projet39, l’empreinte énergétique du numérique progresse de 9 % chaque année. Ainsi, la part du numérique dans les émissions de gaz à effet de serre a augmenté de moitié entre 2013 et 2018, passant de 2,5 % à 3,7 % du total des émissions mondiales. L’impact du numérique ne se résume toutefois pas aux seuls usages. Dans le cas des smartphones, une grande partie des impacts environnementaux provient de l’énergie nécessaire à leur fabrication : selon The Shift Projet, 90 % des gaz à effet de serre associés à un smartphone proviennent de la phase de fabrication.

Les data centers sont également de grands consommateurs d’électricité à la fois pour alimenter les serveurs mais aussi pour les refroidir via des systèmes de climatisation. En outre, la demande d’emplacement pour le stockage et l’analyse de données risque d’augmenter fortement avec la démultiplication en cours ou à venir des terminaux numériques et de leurs usages. Depuis plusieurs années cependant, de nombreux acteurs – scientifiques, entreprises, institutions – développent des solutions visant à réduire la consommation énergétique des data centers. L’une des principales marges de manœuvre consiste à réduire le nombre d’équipements physiques nécessaires dans les data centers sans altérer leur capacité de traitement. La solution actuellement la plus répandue, est la virtualisation des serveurs40. De façon très schématique, cela consiste à accueillir, sur une même machine physique, de multiples systèmes d’exploitation et applications qui tirent parti de la puissance de calcul sous-jacente, comme s’ils se trouvaient sur des machines physiques distinctes. Les avantages de la virtualisation sont nombreux, à commencer par la réduction des factures d’électricité pour les entreprises. Elle permet également d’optimiser la consommation énergétique des data centers puisque les « machines virtuelles » (VM) peuvent migrer d’un serveur physique à l’autre en fonction des besoins réels. Très prometteuse, la « contenairisation » des applications vise encore à accélérer l’optimisation de ces data centers. Cela consiste à découper les applications en « microservices » et de les gérer comme des containers « standards » dans des data centers de plus en plus denses. À l’image des containers de fret ayant la même dimension de façon à être empilés de manière optimale sur un cargo, l’objectif recherché par la containerisation est de déployer plus d’applications sans avoir à augmenter la capacité de traitement.

Figure 5.1 – Distribution de la consommation énergétique du numérique par poste pour la production et l’utilisation

Source : Lean ICT – The Shift Projet 2018

Le paradoxe de ces innovations moins gourmandes en énergies est qu’elles contribuent à la multiplication des usages et des technologies énergivores. C’est ce qu’on appelle « l’effet rebond » ou le paradoxe de Jevons. Ce dernier avait décrit comment l’usage des machines à vapeur avait induit une augmentation de la consommation de charbon. De ce point de vue, l’utilisation plus efficace d’une ressource n’implique pas forcément une réduction de son utilisation, bien au contraire.

Ce paradoxe a largement été mis en avant lors du débat sur le déploiement de la 5G en France. La 5G est en effet une technologie réputée moins énergivore que les générations précédentes. Elle intègre des innovations permettant de mieux gérer la consommation énergétique des réseaux et offre une meilleure densité d’utilisation de la bande passante (plus de capteurs/plus de données au km2). De plus, contrairement à une idée reçue, la 5G ne nécessite pas toujours l’implantation de nouvelles antennes sur le territoire puisqu’elle pourra s’appuyer sur les infrastructures 4G existantes. Toutefois, l’arrivée de la 5G stimulera l’essor de multiples objets connectés (voitures connectées, industrie 4.0, réalité augmentée, smart city, etc.) et une intensification des usages qui contribueront à l’augmentation de la demande énergétique globale. La promesse de la 5G, c’est un monde du tout-connecté. Si on élargit la perspective, le déploiement de la 5G va à l’encontre de la stratégie qui consiste à limiter l’obsolescence − programmée ou désirée – des terminaux numériques. En effet, des millions d’appareils vont être mis au rebut de façon prématurée, au profit de nouveaux appareils dont la fabrication nécessitera l’extraction de tonnes de minerais et de terres rares. Cela explique notamment l’engouement de certains industriels pour la R&D dans le domaine des batteries « propres » ne nécessitant plus de métaux lourds dans leur fabrication. À cet égard, il conviendra de suivre l’aboutissement de l’annonce conjointe de Mercedes Benz et IBM sur ce sujet41.

Quelle que soit la technologie réseau utilisée (fibre, radiofréquences émises par des réseaux terrestres ou par satellites), l’accès à internet est essentiel pour le fonctionnement de beaucoup d’entreprises. Il constitue une priorité pour les territoires encore insuffisamment couverts par l’internet haut débit, malheureusement encore trop nombreux en France.

La transition numérique, nécessaire à notre industrie, ne peut se faire au détriment de l’urgente transition environnementale.

Les deux sont heureusement compatibles. Même avec les technologies actuelles, la croissance de l’empreinte environnementale des technologies de l’information (TIC) ne représenterait qu’une fraction des émissions qu’elles permettent de réduire, comme l’indique un rapport de l’Académie des technologies42. Pour donner un exemple, l’énergie nécessaire pour utiliser un logiciel de navigation qui permet d’éviter les embouteillages reste modeste par rapport au carburant économisé par le conducteur. Selon différents scénarios, les TIC permettraient de réduire les émissions de CO2 de 4 à 9 gigatonnes (Gt) en 10 ou 20 ans43. À titre de comparaison, les émissions liées à leur utilisation seraient estimées à 1,3 Gt en 2020.

Par ailleurs, les technologies numériques présentent de grande marge d’amélioration de leur efficacité énergétique et peuvent être utilisées avec plus de discernement. Une piste de réflexion intéressante est la frugalité ou sobriété numérique, qui mise sur un usage raisonnable et raisonné des technologies numériques. Ce concept, théorisé en 2015 par Navi Radjou44, repose sur l’idée selon laquelle la frugalité, directement inspirée de la débrouillardise des pays du sud, peut aussi s’appliquer à l’usage du numérique. Il ne s’agit pas d’opposer « environnement » à « numérique » mais de réfléchir, au contraire, à la façon d’utiliser les nouvelles technologies au juste niveau.

L’un des défis de la sobriété numérique consiste à pouvoir quantifier précisément le coût énergétique et environnemental de l’ensemble d’une chaîne de production numérisée. En la matière, les technologies numériques offrent elles-mêmes l’opportunité de pouvoir collecter plus facilement les données concernant les façons de produire et leurs impacts environnementaux. Les entreprises doivent alors internaliser dans leur bilan, les impacts environnementaux de leurs produits et services numériques, mais aussi de la façon de produire des biens physiques à l’aide de technologies numériques. Cette approche concerne à la fois l’alimentation des data centers, la fabrication des objets connectés utilisés dans l’entreprise, la consommation énergétique des bâtiments, etc. mais aussi la façon dont sont conçus les algorithmes45. En plaçant ces dimensions au regard des économies de matières et de ressources engendrées par la numérisation de certains processus industriels, l’entreprise peut alors mesurer sa contribution nette numérique à l’impact environnemental. La quantification des coûts énergétiques et environnementaux vise à fournir aux dirigeants une information claire et globale du bien-fondé ou non du déploiement d’une technologie numérique. Autrement dit, il s’agit de piloter d’un point de vue environnemental la transition numérique. Selon une étude de Harvard, une entreprise comme Dassault Systèmes pourrait se prévaloir d’un facteur 10 000 entre les émissions de gaz carbonique évitées grâce à l’usage, par ses clients du secteur automobil, de ses solutions intégrées de conception, de gestion de la vie des produits, d’optimisation des processus de fabrication, d’approvisionnement et de distribution et les émissions provoquées par la mise au point et l’usage de ses logiciels46.

Reste que les outils dont disposent les entreprises pour mesurer leur empreinte numérique ne sont pas toujours faciles à mettre en place. Le PUE (Power Usage Effectiveness), développé par le consortium Green Grid, s’est imposé comme un indicateur universellement reconnu pour mesurer l’efficacité énergétique des data centers. Il s’agit de rapporter, chaque année, la quantité d’énergie consommée sur le site à la quantité d’énergie nécessaire aux équipements informatiques. Toutefois, toutes les entreprises ne disposent pas de leurs propres serveurs et il leur est difficile de collecter ce type d’information auprès de leurs fournisseurs. Il devient alors impératif d’engager toutes les parties prenantes sur la question de la responsabilité environnementale. C’est aujourd’hui la démarche de fond promue en France par le think tank The Shift Project avec l’idée de « pertinence énergétique » des projets47. Le modèle STERM (Smart Technologies Energy Relevance Model), permet d’évaluer la pertinence énergétique nette de solutions connectées pour des cas d’étude définis et constitue un embryon d’outil, qui a vocation à être repris et développé pour mettre en place des outils adaptés à la prise de décision des acteurs privés ou publics.

  • 29 – Le Guide des technologies de l’industrie du futur, Alliance Industrie du futur, mars 2018, p. 8.
  • 30 – F. Pellerin et M.-L. Cahier, Organisation et compétences dans l’usine du futur, Les Notes de la Fabrique, Presses des Mines, 2019.
  • 31 – A. Magone et T. Mazali, Voyage dans l’industrie du futur italienne, Les Notes de la Fabrique, Presses des Mines, 2018.
  • 32 – Dans un ouvrage à paraître en 2021, Alain Verna, PDG du site industriel de Toshiba TEC Europe, les appelle les « Manuels tout savoir » du nom que leur ont donné les opérateurs de production.
  • 33 – Voir le cas d’Alstom Ferroviaria en Italie décrit dans Voyage dans l’industrie du futur italienne, op. cit.
  • 34 – Voir le cas SORI dans Organisation et compétences dans l’usine du futur, op. cit. 2019.
  • 35 – Grosjean V., Govaere V., « TIC et objets connectés : quels enjeux de santé au travail ? », Hygiène et sécurité du travail, 2016.
  • 36 – Certaines données peuvent être jugées comme sensibles par la Cnil (Commission nationale de l’informatique et des libertés) ou la RGPD (Règlement européen sur les données personnelles) et leurs traitements ne sont donc pas toujours autorisés.
  • 37 – https://www.lefigaro.fr/secteur/high-tech/amazon-utilise-des-logiciels-pour-surveiller-la-productivite-de-ses-employes-et-les-licencier-20190426
  • 38 – https://www.hbrfrance.fr/chroniques-experts/2019/12/28596-entreprise-apprenante-10-actions-pour-passer-du-mythe-a-la-realite/
  • 39 – Créé en 2010, The Shift Project est un think tank qui travaille « en faveur d’une économie libérée de la contrainte carbone ».
  • 40 – https://www.journaldunet.com/solutions/cloud-computing/1173222-5-raisons-de-choisir-la-virtualisation
  • 41 – https://www.ibm.com/blogs/nordic-msp/ibm-research-reshaping-scene-of-sustainable-batteries
  • 42 – Impact des TIC sur la consommation d’énergie à travers le monde, Rapport de l’Académie des technologies, EDP Sciences, décembre 2015
  • 43 – Estimations réalisées respectivement par WWF (World Wildlife Fund) et le GeSI (Global e-Sustainability Initiative)
  • 44 – Radjou N., Prabhu J., L’Innovation frugale : Comment faire plus avec moins, Diateino, 2015.
  • 45 – https://www.cnetfrance.fr/news/pourquoi-l-intelligence-artificielle-est-un-desastre-ecologique-39886927.htm
  • 46 – https://hwpi.harvard.edu/files/chge/files/handprints_of_product_innovation.pdf
  • 47 – La pertinence énergétique se définit comme la capacité à quantifier la diminution ou l’accroissement net de consommation d’énergie permis par l’introduction d’une couche connectée (en comptabilisant le coût énergétique de la phase de production et de la consommation du matériel connecté en fonctionnement). The Shift Project, « Déployer la sobriété numérique », octobre 2020.

 

Conclusion – Le temps du passage à l’acte

Lors de l’événement Think Digital en mai 2020, le directeur général du groupe IBM, Arvind Krishna, indiquait que la crise du Covid-19 était un accélérateur de la transformation numérique de la société et des entreprises, avec à la clé, un bouleversement des modes de consommation, de production, d’approvisionnement, d’interaction ou encore de travail. De son côté, McKinsey publiait un long article intitulé « Coronavirus : Industrial IoT in challenging times ». Selon sa thèse, l’Internet industriel des objets représente une clé majeure pour réaliser les 3 R : résolution, c’est-à-dire assurer la continuité du business même par très gros temps comme ce fut le cas en 2020, résilience, c’est-à-dire assurer une plus grande flexibilité pour gérer le « new normal », ré-imaginer un avenir dans un monde qui aura profondément changé.

Il ne fait pas de doute que les technologies numériques et d’automatisation appliquées au monde industriel auront démontré toute leur utilité au cours de la période tourmentée que nous traversons : pour faire fonctionner certaines activités à distance (contrôles visuels et contrôles d’équipements à distance) ou pour ne garder qu’un faible nombre de salariés dans les ateliers dans le respect des barrières sanitaires et faire quand même tourner l’usine ; pour réduire les interventions de maintenance ; pour diminuer les stocks et produire en juste-à-temps face à l’incertitude des consommations ; pour piloter plus finement la performance grâce à des tableaux de bord mieux renseignés avec des données fiables ; pour modifier et adapter rapidement les lignes de production en fonction de la demande (rappelons-nous des masques et des respirateurs) ; pour s’assurer des approvisionnements en composants et matières ou pour en rechercher rapidement des nouveaux et adapter les quantités commandées, etc. Que ce soit sur la ligne ou le long de la chaîne de production, les solutions IIoT auront permis à certains industriels d’être plus résilients et réactifs que d’autres.

En France, nous avons à cette occasion pu réaliser que non seulement notre base industrielle était trop resserrée pour assurer notre autonomie en cas de rupture des chaînes mondiales, mais qu’en outre, notre outil industriel ne tirait pas tout le parti possible des solutions technologiques de pointe pour devenir plus souple, flexible et adaptable et pouvoir ainsi faire face à des temps aussi incertains. Le plan de relance du gouvernement tient compte de ce diagnostic et incite les entreprises industrielles, y compris les moyennes et petites, à se lancer hardiment dans l’intégration de ces technologies nouvelles. Ce n’est pas parce que les temps sont difficiles qu’il faut renoncer à investir, mais parce qu’ils le sont, qu’il faut accélérer les stratégies de changement.

La durée pour que les projets IIoT produisent des effets qui incitent à un passage à l’acte rapide. C’est également la thèse défendue par Michel Morvan. Si celui-ci préside aujourd’hui les destinées d’une entreprise privée directement intéressée à la transformation numérique de l’industrie48, il est avant tout connu pour être un mathématicien, spécialiste de la modélisation des systèmes complexes, président de l’Institut de recherche technologique SystemX et membre du réseau d’experts en intelligence artificielle de l’OCDE. Dans une récente chronique parue dans le JDD, il interpelle ainsi les industriels français : « Le choc auquel vient d’être confrontée notre économie n’est que le premier d’une longue série. […] les effets en cascade d’événements imprévus de toute sorte nous impacteront de plus en plus souvent. […] il est vital de ne plus retarder encore la mise en œuvre réelle et à l’échelle de la transformation numérique si souvent annoncée. Elle seule permettra aux entreprises de s’adapter à cette complexité et de sortir de cette crise, vivantes et renforcées. La bonne nouvelle : les outils existent pour faire face à ces défis. »49 Et il conseillait, il y a déjà quelques années, de transformer l’industrie, mais « à la française » : « J’ai aussi la conviction qu’il existe une voie française sinon européenne, qui doit se faire entendre. Une voie différente de la voie américaine ou de la voie chinoise. Nous, Français et Européens, avons des choses à dire et à faire à notre manière. » Ce qui inclut notre capacité à prendre en compte dans la réalisation de cette voie aussi bien le travail et les salariés que l’environnement.

  • 48 – Cosmo Tech.
  • 49 – https://www.journaldunet.com/ebusiness/internet-mobile/1494697-industrie-la-convergence-des-technologies-numeriques-n-est-plus-une-option/

 

Bibliographie

Académie des technologies, « Impact des TIC sur la consommation d’énergie à travers le monde », EDP Sciences, décembre 2015.

Alliance Industrie du futur, « Le Guide des technologies de l’industrie du futur », mars 2018.

Alliancy, « Data Literacy : la compétence clé du 21ème siècle à l’épreuve de la crise », juillet 2020.

ANSSI, « Attaques par rançongiciels, tous concernés : comment les anticiper et réagir en cas d’incident ? », août 2020.

Benhamou B., « L’internet des objets : défis technologiques, économiques et politiques », Esprit, 2019/3, p. 137-150.

Bidet-Mayer T., L’industrie du futur : une compétition mondiale, Les Notes de La Fabrique, Presses des Mines, 2016.

Bonnaud S., Didier C., « Industrie 4.0 et fabrication cognitive », IBM Corp., juillet 2019.

Bonnaud S., Didier C., « Intelligence artificielle : sa genèse, son histoire, ses cas d’usage », IBM Corp., janvier 2019.

Bonnaud S., Didier C., « L’homme et les objets connectés, épisode 1 : L’IoT, moteur de la transformation digitale », IBM Corp., 2017.

Bonnaud S., Didier C., « Objets connectés, le mariage avec l’analytique, épisode 2 : la donnée est brute, apprenez à la dompter », IBM Corp., 2017.

Bonnaud S., Didier C., « Le Cognitif, moteur de la transformation digitale, épisode 3 : IoT + Cognitif, le carburant pour alimenter vos services digitaux », IBM Corp., 2017.

Bpifrance Le Lab, « L’avenir de l’industrie : le regard des dirigeants de PME-ETI sur l’industrie du futur et le futur de l’industrie », 2018.

Fondation de l’Académie des technologies, « La 5G : des convergences, une ambition, des opportunités et des risques », Bulletin trimestriel de l’intelligence technologique n°3, mai 2018.

Gombert G., Druel F., Gafanomics : Comprendre les superpouvoirs des GAFA pour jouer à armes égales, Fabernovel, Eyrolles, 2020.

Grosjean V., Govaere V., « TIC et objets connectés : quels enjeux de santé au travail », Hygiène et sécurité au travail, 2016.

Harvard Business Review with Siemens, « Accelerating The Internet of things timeline », 2019.

Magone A., Mazali T., Voyage dans l’industrie du futur italienne, Les Notes de la Fabrique, Presses des Mines, 2018.

McKinsey, « Coronavirus : Industrial IoT in challenging times », April 22, 2020, https://www.mckinsey.com/industries/advanced-electronics/our-insights/coronavirus-industrial-iot-in-challenging-times#.

Microsoft Corp., « IoT Signals, Summary of research learnings », 2019.

Pellerin F., Cahier M-L., Organisation et compétences dans l’usine du futur, Les Notes de La Fabrique, Presses des Mines, 2019

Petrick Irene, McCreary F., « Creating Lasting Value in the Age of AI + IoT – Futureproofing your Business », Intel Corp., Decembre 2019.

Radjou N., Prabhu J., L’Innovation frugale : Comment faire plus avec moins, Diateino, 2015.

The Shift Project, « Déployer la sobriété numérique », octobre 2020.

The Shift Project, « Lean ICT », octobre 2018.

Valentin M., Hyper-manufacturing, l’après Lean, Dunod, 2020.

Valentin M., Le Modèle Tesla, Dunod, 2018

Wavestone, ebg, Agrion, « L’IoT industriel : du POC à l’industrialisation », 2017.

Remerciements

Nos remerciements à toute l’équipe d’IBM France pour leur implication dans ce projet : Serge Bonnaud, Richard Boyer, Christophe Burgaud, Christophe Didier, Bruno Fernandez, Christophe Laurence, Rémi Lissajoux, Alexandre Pinot et Frédéric Sampré, ainsi qu’à Romain Canonge de l’agence Ad Tatum.

Aux experts et fournisseurs de l’écosystème de l’industrie 4.0 : Samir Djendoubi (expert indépendant), Gilles Gomila (Omron), François Pellerin (Chaire Futurs de l’industrie et du travail, design du travail) et Michaël Valentin (Opeo).

Aux entreprises citées : BG Security (groupe Somfy ; un très grand merci à Olivier Maho), KONE, L’Oréal, LYNRED (une reconnaissance particulière à Éric Mallet), PSA, Radiall, SNCF, Socomec, Sunna Design, Renault.

À Marie-Laure Cahier : ce livre n’aurait pas pu voir le jour sans son concours rédactionnel.

À nos relecteurs : Vincent Charlet (La Fabrique de l’industrie) et Thierry Weil (Chaire Futurs de l’industrie et du travail de Mines Paris PSL).

Rémy Mandon et Sonia Bellit, Vos données valent-elles de l’or ? L’Internet industriel des objets à l’épreuve du réel, Les Docs de La Fabrique, Paris, Presses des Mines, 2021. ISBN : 978-2-35671-637-8

© Presses des MINES – TRANSVALOR, 2021
60, boulevard Saint-Michel – 75272 Paris Cedex 06 – France presses@mines-paristech.fr
www.pressesdesmines.com

© La Fabrique de l’industrie
81, boulevard Saint-Michel – 75005 Paris – France info@la-fabrique.fr
www.la-fabrique.fr