Smart Manufacturing : si votre facteur limitant était le service informatique ?

Parmi les obstacles à un déploiement rapide des solutions et systèmes composant l’usine 4.0 se trouvent potentiellement les services informatiques des entreprises. Mise à part la possible réticence des responsables à engager des ressources sur un projet dont ils ne comprennent pas toujours la dimension métier*, les responsables informatiques peuvent être confrontés à un problème plus basique qui est celui de la limite de capacité de leur service.

*Constat fréquent dans le cadre des explorations et projets 4.0, initiés par les opérationnels métier

Ainsi, confrontés à une charge de travail excédant la capacité du service, leurs arbitrages pourraient bien défavoriser les projets :

  • Dans lesquels le service informatique n’a été impliqué que tardivement et par nécessité
  • Auxquels ils ne comprennent pas grand chose et surtout pas les bénéfices opérationnels pour les métiers
  • Qui n’ont pas (encore) le plein soutien de la Direction Générale

Entre autres.

Le service informatique : le goulot d’étranglement ?

Si on laisse de côté les aspects de politique interne et de rivalités inter services, il peut s’agir d’une réponse qui se veut pragmatique à un “simple” problème d’inadéquation entre charge et capacité.

En effet, de manière plus générale, l’expérience récente montre que le service informatique est souvent le goulot d’étranglement dans un processus ou un projet. Ceci s’explique par la digitalisation croissante engagée dans les entreprises et la multiplication des projets nécessitant l’expertise et/ou le soutien de l’informatique.

Plus récemment, la multiplication des PoC (Proof of Concept) autour de solutions 4.0 a également augmenté la charge de travail sans toujours clore les projets ou initiatives qui les portent, laissant supposer d’autres sollicitations à venir.

Dans un tel cas, le service informatique est la ressource contrainte qui limite le débit de l’ensemble du système, en l’occurrence la délivrance de projets. Ceux-ci prennent place dans la file de backlog et leurs délais d’achèvement s’allongent en vertu de la loi de Little.

Or dans un environnement d’exécution de plus en plus 4.0 et plus généralement dans un contexte de lutte concurrentielle dans laquelle la réactivité et la vitesse sont de réels Facteurs Critiques de Succès, l’allongement des délais devient rapidement intolérable.

Penser Théorie des Contraintes et low code

L’engorgement du service informatique en termes de sollicitations a de fortes probabilités d’entraîner des frustrations, des tensions et une embolisation du processus de management de projets et surtout de dégrader la compétitivité de toute l’entreprise.

Pour améliorer le “débit” du service informatique, il est recommandé de procéder comme l’on ferait pour un processus physique : appliquer les principes et règles de la Théorie des Contraintes afin d’utiliser au mieux la capacité non extensible d’une ressource critique.

Le premier principe est d’éliminer de la file d’attente tout ce qui ne requiert pas impérativement une contribution du service informatique. Il faut raisonner en attributions selon la matrice RASCI et décharger par délégation, à chaque fois que possible, à une ressource différente non contrainte. Ainsi, plutôt que d’intégrer systématiquement le service informatique, l’informer peut suffire.

Nombre de projets 4.0 mettent en oeuvre des apps qu’il faut configurer. Des solutions low code de plus en plus nombreuses permettent de configurer des tableaux de bord et de personnaliser des interfaces en fonction des besoins par glisser-déposer, de créer des app sur mesure avec des codes simples, proche de la logique de création de macros sur MS Excel.

Ce type de solutions permet aux directions métiers de prendre en main les outils de création / adaptation de logiciels, sans forcément faire appel à l’équipe de développeurs du service informatique.

Le principe de subsidiarité

Découvrez en vidéo

Découvrez en vidéo

En jouant la délégation contrôlée, on met en oeuvre le principe de subsidiarité. Celui-ci stipule que la responsabilité d’une action, lorsqu’elle est nécessaire, doit être allouée à la plus petite entité capable de résoudre le problème par elle-même.

Appliqué à un service informatique surchargé, le principe de subsidiarité doit permettre d’alléger sa charge et de ne laisser à la DSI que les sujets qui requièrent effectivement et de manière impérative les expertises qui sont les siennes.


A propos de l'auteur, Christian HOHMANN

A propos de l’auteur, Christian HOHMANN

View Christian HOHMANN's profile on LinkedIn

Publicités

Quel futur 4.0 pour le TRS/OEE ?

Avec le déploiement croissant et celui encore attendu des solutions 4.0, les opérationnels tout comme les décideurs peuvent se demander si les démarches et programmes, les outils et méthodes mis en place jusqu’alors resteront pérennes et pertinents.

L’indicateur TRS (Taux de Rendement Synthétique, également utilisé sous son acronyme anglais d’OEE) fait partie du décor industriel depuis quelques décennies, il est populaire au sens de connu et apprécié, aussi peut-on se poser la question de sa survie à une transformation 4.0.

Le TRS restera le TRS, même en environnement 4.0

Rassurons les inquiets et inquiétons ceux qui espéraient sa disparition, le Taux de Rendement Synthétique restera le Taux de Rendement Synthétique, même en environnement 4.0. Non seulement les données de base sur lesquelles le TRS est construit vont perdurer, mais elles vont gagner en véracité et pertinence. Par ailleurs la performance, l’efficience que l’on mesure, analyse et améliore au travers du TRS resteront également au coeur des préoccupations du futur, qu’elles soient humaines ou artificielles.

Un investissement, une décision structurante se prendra toujours avec un éclairage sur le retour sur investissement et une performance attendue. Autrement dit, une projection du TRS. Par ailleurs, il n’aura pas échappé aux observateurs attentifs que les premières applications du 4.0 se sont emparées prioritairement du calcul et de l’affichage du TRS. Cela eut été très maladroit de la part des offreurs de solutions que de baser leurs démonstrateurs sur un cas d’usage, le TRS en l’occurence, en voie de disparition.

Un TRS/OEE plus juste, plus automatisé, plus systématique et moins sujet aux manipulations

A mesure que les machines nouvelles vont être installées, les données issues de leurs divers capteurs et calculateurs seront disponibles pour alimenter le lac de données de l’entreprise, le MES (Manufacturing Execution System) et d’une manière ou d’une autre le calcul du Taux de Rendement Synthétique. Les machines anciennes qui seront rendues communicantes par rétrofit ou par adjonction de systèmes de capteurs intelligents alimenteront elles aussi ces mêmes canaux.

Le TRS par machine pourra se calculer facilement, automatiquement, en continu et pourra être affiché instantanément sur la maille de temps choisie par les superviseurs et/ou les analystes. Au moment d’écrire ces lignes (mai 2019) ceci est d’ailleurs déjà une réalité pour bien des entreprises.

Les données remontées directement par les équipements, à haute fréquence (selon les paramétrages) seront d’autant plus juste qu’il n’y a aucune retranscription ni intervention humaine et que la fréquence d’échantillonnage sera élevée.

Pour ce dernier point ce sont les micro-arrêts qui pourront être détectés et analysés plus finement mais également le scénario juste avant panne ou arrêt qui pourra être rejoué finement dans le jumeau numérique, grâce à l’historisation des données à maille fine.

Un TRS généré automatiquement c’est alléger la tâche de celles et ceux qui devaient (doivent) le calculer à partir de relevés manuels ou semi-automatiques. C’est éliminer les erreurs et les tâches de peu d’intérêt mais de grande importance.

Un TRS plus systématique, mesuré partout sera une possibilité disponible sans plus d’effort. Encore que mesurer le TRS partout n’est pas nécessaire pour le pilotage de la performance, mais le fait que l’on puisse le faire est un avantage dans les cas de reconfigurations dynamiques et/ou fréquentes, dans lesquelles la machine contrainte risque de changer.

Pour mémoire, la contrainte par sa définition même contrôle le débit de tout le système, par conséquent la mesure de performance est critique à cet endroit, optionnelle, voire distrayante, ailleurs.

Enfin, l’automatisation du recueil des données et du calcul du TRS rendra les erreurs, les manipulations et la fraude très difficiles. De nombreuses (dé)corrélations auront vite fait de révéler les incohérences dans une masse de données, que les humains non spécialistes ne pourront masquer.

S’en sera fini des TRS de complaisance gonflés aux astuces pour afficher une réalité factice et les benchmarks gagneront en signification, pour peu que les paramétrages suivent un standard ou une norme commune.

Ce qui ne changera pas (tout de suite)

Si cette analyse prospective semble favorable au futur 4.0 du TRS, ce n’est pas une révolution, au mieux une accélération et une généralisation d’un mouvement qui était déjà initié avant le hype du 4.0.

Malheureusement, ce qui ne changera pas, du moins pas tout de suite est la saisie des causes d’arrêts et perturbations, qui resteront encore manuelles pour un temps. Bien entendu, elles seront rendues plus faciles, plus rapides, plus 4.0 mais nécessiteront encore cette appréciation humaine pour qualifier l’évènement.

C’est là le talon d’Achile du TRS, qui n’est rien en lui-même s’il n’est pas accompagné des causes explicatives. Les tablettes généreusement distribuées par les pionniers du 4.0 (4.0 d’apparence s’entend) avaient pour but de simplifier la saisie des causes du bout des doigts ou du stylet, mais il n’en demeure pas mois qu’il reste nécessaire d’informer le système sur ce qu’il se passe.

C’est là que demeure l’imprécision, les erreurs volontaires ou non, les manipulations, les tâches peu appréciées, etc. Un paradoxe à l’ère du 4.0 et de la sensibilité croissante à la validité des données.

Je gage que les intelligences artificielles vont dans un premier temps servir de contrôleur virtuel de la cohérence et de la vraisemblance des données saisies, avant qu’elles puissent (enfin) se substituer aux humains pour qualifier les évènements affectant le TRS sans interventions humaines.

Conclusion

Quoi qu’il en soit, le TRS restera un indicateur de première importance dans l’usine 4.0. Il sera certainement accompagné d’une foule d’autres indicateurs, que les solutions 4.0 rendent facilement disponibles et consultables. Mais avant que le nombre de likes sur la page Facebook de l’entreprise ne détrône le TRS pour piloter la performance de la production, il reste de la marge.

N’hésitez pas à partager votre propre analyse ou vos commentaires.

Cet article est disponible en version podcast

Disponible en vidéo sur ma chaine Youtube :


A Propos de l'auteur, Christian HOHMANN

A propos de l’auteur, Christian HOHMANN

View Christian HOHMANN's profile on LinkedIn

Qu’est-ce que la Deep Tech ?

On connaissait déjà la high-tech depuis belle lurette, rejointe plus récemment par son antonyme low-tech, désignant les technologies rudimentaires au sens propre et les solutions simplifiées et accessibles au plus grand nombre au sens plus large. Voilà donc la Deep Tech qui identifie les start up travaillant à des avancées disruptives dans les domaines scientifiques et/ou technologiques.

La Deep Tech vise des innovations de rupture, à forte intensité technologique et basées sur la recherche scientifique. La Deep Tech se préoccupe des grands défis de notre siècle, tels que les problèmes environnementaux, les avancées attendues en matière de santé, l’innovation en industrie, la mobilité, etc.

Wikipedia (https://en.wikipedia.org/wiki/Deep_tech) nous indique que ces startups de la deep tech nécessitent des investissements plus importants et un temps d’aboutissement plus long, car leur recherches mettront du temps à aboutir à une solution commercialisable, aboutissement par ailleurs hypothétique jusqu’à un certain point. De ce fait, elles créent des barrières à l’entrée et dissuadent les concurrents de les imiter.

La Deep Tech prendrait en quelque sorte le relai des innovations de nouveaux usages de solutions existantes, rendus possibles par les outils numériques et plonge dans une recherche plus profonde d’innovations de ruptures.

L’antonyme de Deep Tech est Shallow Tech, la première étant “profonde” (deep) et la seconde “peu profonde” (shallow). Si la Deep Tech se rencontre fréquemment dans les articles relatifs aux startups, la Shallow Tech est beaucoup plus discrète et.. moins techno-glamour.

View Christian HOHMANN's profile on LinkedIn

Les 5S à l’épreuve du 4.0

Avril 2019, dans les couloirs de nos bureaux j’entends un échange entre deux jeunes consultants à propos d’un client : “C’est le bordel dans leur magasin, ils ne rangent rien et n’ont pas d’emplacements définis. La mise en place d’étiquettes RFID leur permettrait de géolocaliser leurs marchandises.” Assentiment vigoureux de son binôme.

>Read the English version of this article: Will 5S resist 4.0 tech?
>Ecouter en podcast
>Voir en vidéo

Cette micro-scène est symptomatique de l’échec des 5S à s’imposer comme un prérequis fondamental à une exécution efficiente et de qualité du travail, de l’irrésistible attrait de la technologie et du risque d’automatiser le bordel.

Les 5S, sans cesse recommencés…

Guide pratique des 5S et du management visuel

Guide pratique des 5S et du management visuel

La première édition de mon guide pratique des 5S a été publié en 2007, la seconde augmentée de la partie management visuel date de 2009. Je croyais ces publications bien trop tardives, les 5S étant en vogue depuis la fin des années 1980. A ma surprise, ces guides ont connu un indéniable succès et pour le second continue à se vendre plutôt bien encore 10 ans plus tard.

Hélas, les 5S en tant que discipline ne se sont pas réellement imposés. Sans arrêt dans les entreprises des Lean managers nouvellement promus, des alternants ou des débutants, voire des stagiaires, se voient confiés les programmes de relance des 5S. Au point d’ailleurs que je crains de voir s’installer durablement ce raccourci : Lean = 5S, qui a inspiré un billet d’humeur vidéo

L’irrésistible attrait de la technologie

L’irrésistible attrait de la technologie est le titre d’une autre vidéo, déjà ancienne, dans laquelle je mettais en garde les ingénieurs, techniciens et les personnes issues de cursus scientifiques contre ce quasi réflexe de rechercher la solution à tous les problèmes dans la technologie.

Ce raccourci tend à satisfaire leur goût pour la chose technique autant, bien souvent, qu’à éviter de se confronter au problèmes de management et les insaisissables caractéristiques des comportements humains.

Avec l’arrivée des technologies 4.0, dont je me fais moi-même l’écho, mon avertissement est vain. La palette des solutions technologiques s’est enrichie à un point et à une vitesse incroyables. Pourtant, d’autres que moi ont également averti sur le risque d’…

Automatiser le bordel

Vouloir installer des solutions 4.0 avant de s’être assuré que les prérequis étaient en place expose au risque d’automatiser le bordel. Car plaquer une solution technologique sur un processus défaillant ne va pas l’améliorer fondamentalement.

Ainsi, pour revenir à la conversation qui a inspiré ce billet d’humeur, mettre des étiquettes RFID ou des tags intelligents sur des marchandises afin de mieux les retrouver, plutôt que de commencer à mettre de l’ordre et de la rigueur dans la gestion des stocks et une mauvaise idée.

Certes on pourra géolocaliser – dans une certaine mesure – les marchandises recherchées, mais avec un gain d’efficience probablement marginal. La géolocalisation ne réglera pas les problèmes d’accessibilité physique si le magasin est effectivement en désordre, ne diminuera pas les risques d’accidents, les éventuels risques qualité liés au manque d’attention à la préservation des marchandises, etc.

Mais bien sûr, jouer du pouce sur un smartphone ou tapoter sur une tablette est plus fun que d’organiser le magasin, se doter de règles et d’une discipline, puis de veiller à leur maintien.

View Christian HOHMANN's profile on LinkedIn

Industrie 4.0 au bord du gouffre

Mars 2019, huit ans après son lancement officiel et de nombreuses expérimentations, Industrie 4.0 est au bord du gouffre. Pour que le concept devienne réalité, il lui faut passer d’une collection de Proofs of Concept épars à des projets pleine échelle. Il lui faut convaincre une masse critique d’adhérents, d’utilisateurs ou de clients, au-delà des techno-enthousiastes et des visionnaires de la première heure.

>Voir la version vidéo
>Read this article in English

Le gouffre

Les promoteurs de la première heure, qui ont alimenté le hype industrie 4.0, sont arrivés au bord du gouffre, le fameux ‘chasm’ révélé par Geoffrey Moore dans son livre référence “Crossing the chasm” publié en 1991.

Selon le modèle de Moore, ce sont les innovateurs ou techno enthousiastes suivis des visionnaires qui se sont lancés les premiers dans les expérimentations. Les innovateurs par intérêt pour les technologies, les visionnaires pour se démarquer de leurs compétiteurs grâce à un/des avantage(s) concurrentiel(s) qu’ils entrevoient.

Pour que les solutions et le concept global agrègent une masse critique en termes de déploiements, ventes, installations, etc. il faut intéresser en premier lieu le gros du marché constitué des pragmatiques, aussi appelés “adopteurs précoces”, puis les conservateurs ou “majorité tardive” dans un second temps.

Or, un gouffre sépare la minorité des enthousiastes de la première heure de la masse des autres utilisateurs. Ce gouffre figure la rupture qui distingue les attentes des deux groupes.

Autant les acteurs du premier groupe sont capables de se lancer par simple curiosité, mûs par leur intuition ou un acte de foi, autant le second groupe attend des preuves tangibles de l’intérêt de ce qui est vanté, des références vérifiables, des éléments qui donnent confiance.

Franchir le gouffre est essentiel pour toute offre ou solution qui cherche à passer d’un marché de niche à un marché de masse. Le gouffre est un obstacle bien nommé, une fracture, un écart important dans les attentes des prospects. Selon Moore, nombre de startup s’abîment dans le gouffre en ratant le passage au marché de masse.

Franchir le gouffre

Côté métaphorique, Geoffrey Moore a choisi le terme ‘gouffre’ (chasm en anglais, prononcez Kaz’m) et non pas fissure, écart ou trou pour qualifier la séparation entre deux groupes très distincts de prospects, de clients ou de marchés. Il s’agit donc d’une différence importante qui éloigne et distingue les deux groupes. La notion de gouffre met ainsi l’emphase sur la difficulté à franchir cette séparation importante.

L’autre analogie utilisée par l’auteur et celle du débarquement allié en Normandie en juin 1944. En résumé, franchir le gouffre (la Manche) n’est pas l’obstacle le plus important. Ce qui importe c’est d’établir une tête de pont de l’autre côté et de s’y maintenir.

Pour convaincre les prospects avec les solutions Industrie 4.0, ce n’est pas décrocher un rendez-vous commercial ou placer une démonstration qui est le plus difficile, c’est d’aller au-delà une fois ceci fait. Car comme la force d’invasion en Normandie, au-delà du gouffre, les promoteurs d’industrie 4.0 sont attendus par les forces en défense ; les sceptiques, les compétiteurs; etc.

Au-delà du gouffre, du côté des marchés de masses, les ‘pragmatiques’ ne s’enflamment pas sur de simples discours technophiles, il leur faut du concret. Les promesses – souvent rationnellement mal présentées – ne leur suffisent pas.

Côté promoteurs, pour établir la tête de pont et éviter de se faire rejeter, il faut donc passer d’un discours sur ce que les solutions permettent de faire, même avec des Proof of Concept (PoC) à l’appui, à la démonstration ce qu’ils ont (ou mieux encore, ce que leurs clients ont) pu réaliser de tangible, quelle valeur a été créée, quels problèmes ont été résolus ou encore quels coûts ont été réduits et passer ainsi au Proof of Value (PoV).

Geoffrey Moore, avec son livre dont c’est précisément le sujet, est une excellente source d’inspiration quant aux tactiques pour franchir le gouffre.

Note pour les expérimentateurs en interne

Pour les expérimentateurs en interne, qui tentent une promotion bottom-up d’une solution technologique au travers d’un PoC, le conseil est le même. Trop souvent ces techniciens postulent que leur hiérarchie partage leur passion pour la technique et s’enflammera au simple énoncé des potentialités et d’une “démonstration” de fonctionnement.

Or la hiérarchie est généralement composite, avec des membres non-techniciens et des visions très différentes sur les moyens pour exécuter une stratégie, conduire un business ou assumer une promesse de vente. Le gouffre existe donc aussi entre ces deux populations et il faudra le franchir, et donc convaincre de la même manière que les prestataires externes.

En attendant

En attendant les premières têtes de ponts et les cas emblématiques qui feront office de démonstrateurs à grande échelle, le marché restera essentiellement un marché de niche. Les attentistes de l’autre côté du gouffre continueront à réclamer des benchmarks et des estimations de ROI que les promoteurs peineront à fournir.

L’ironie de cette situation est que les expérimentations limitées (PoC) ne fourniront que des estimations basées sur des hypothèses plus ou moins optimistes. N’importe quel guesstimate un tant soit peu rationnel fournira des valeurs tout autant crédibles et au bout du bout, là plupart des prospects déclareront que de toute façon “chez nous c’est pas pareil”, “chez nous c’est particulier” ou une autre variation de ce genre.

Ceci tend à donner raison à mon premier patron dans le conseil qui un jour me déclara : “lorsqu’on a pas de benchmark, on en invente”.


Merci à Frédéric G. qui se reconnaitra et qui, d’une certaine manière, a inspiré cet article.

Espérant que vous y avez trouvé de l’intérêt. Vos commentaires sont bienvenus.

View Christian HOHMANN's profile on LinkedIn

Industrie 4.0 à domicile : utiliser un système cyber-physique

Pour le grand public l’expression système cyber-physique semble sortir d’un film de science-fiction. Pour les personnes familières d’Industrie 4.0, cela désigne un système intégré combinant des capteurs, un logiciel – une intelligence – embarqué et des actionneurs. Que diriez-vous d’un exemple du quotidien pour l’appréhender plus facilement?

>Read this post in English

Segway PT

Segway PT

Peut-être êtes vous plus familier des hoverboards ou le célèbre Segway PT (Personal Transporter), que l’on a francisé en “gyropode”, ou encore ces monoroues électriques qui font slalomer leurs pilotes entre les passants. Ce sont des systèmes cyber-physiques (CPS, de l’anglais Cyber-Physical System).

En prenant l’exemple du gyropode, ces systèmes sont construits autour de capteurs qui détectent les mouvements du corps et la vitesse des roues entre autres, d’un logiciel embarqué pour analyser les données des capteurs et des actionneurs (moteurs) permettant d’entraîner les roues et, bien sûr, d’une batterie électrique pour alimenter tout cela.

Pour l’essentiel, l’analyse en temps réel des données des capteurs d’un hoverboard ou d’un Segway PT permet de déterminer les objectifs à atteindre : avancer, accélérer, tourner à gauche ou à droite, garder l’équilibre, inverser le sens de déplacement, etc. Les moteurs sont ensuite actionnés en conséquence pour obtenir l’effet attendu.

On nomme un tel système cyber-physique car le système est capable d’interagir avec le monde physique, et d’interpréter avec intelligence et en temps réel les données (la partie cybernétique), puis dans notre exemple, faire tourner les roues.

Un tel système est autonome, permettant à un hoverboard de fonctionner sans connexion à un serveur ni à aucun système externe. Ainsi, un système cyber-physique est un peu moins “science fiction” et peut-être que vos enfants ou vous-mêmes en utilisez sans même le savoir !


View Christian HOHMANN's profile on LinkedIn

Lean 4.0 : rien qu’une resucée du bon vieux Lean Manufacturing ?

Face à Lean 4.0, les sceptiques et les esprits critiques (au rang desquels je me compte) peuvent arguer que c’est là rien de plus qu’une resucée du bon vieux Lean Manufacturing, une nouvelle opportunité de vendre de la formation et du conseil en Lean Manufacturing rhabillé de neuf et stimulé par le battage médiatique autour d’industrie 4.0.

Vous n’avez aucune idée de quoi il est question ? Lisez mon article : Qu’est-ce que Lean 4.0 ?

Lisez cet article en anglais : Lean 4.0: nothing but rebranding good old Lean Manufacturing?

C’est peut-être vrai. Lean 4.0 est peut-être plus que cela. N’en déplaise aux sceptiques et aux critiques, si la communauté adopte et utilise cette dénomination, elle perdurera.

Lean était connu sous plusieurs noms avant de s’appeler Lean

L’ironie de la critique à l’éventuelle évolution du nom Lean est qu’au début des années 1980, Lean était connu sous de nombreuses autres appellations noms avant que “Lean” ne soit finalement adopté.

Je ne me souviens pas, mais je suppose que les puristes de l’époque avaient accueilli le terme “Lean” comme rien d’autre qu’un autre nom pour “juste à temps” ou “méthodes japonaises”, parmi les nombreuses dénominations qui circulaient à l’époque.

Néanmoins, Lean (Manufacturing) a fait son chemin dans le langage et les pratiques industriels avant de s’étendre à l’ensemble des secteurs d’activité, laissant tomber son suffixe Manufacturing à mesure que Lean séduisait hors des seules activités industrielles.

Moins d’une décennie plus tard, les mêmes critiques sur le changement de dénomination auraient ridiculisé leurs auteurs, le terme Lean étant totalement accepté, à la mode et utilisé.

Le marketing des opportunistes

Chaque fois qu’un (nouveau) concept attire l’attention, profite du battage publicitaire, des opportunistes apparaissent du néant et s’en proclament experts de longue date. C’est ce qui s’est passé avec Lean Manufacturing, Six Sigma, Excellence opérationnelle, DDMRP et bien d’autres. Avec ces opportunistes surfant sur la tendance, les formations et les offres de conseil se multiplient.

Certaines organisations proposent ensuite de mettre bon ordre en séparant le bon grain de l’ivraie avec des programmes de certification, des systèmes de ceintures de couleur, etc. Mais, au fond, ce ne sont là que d’autres opportunistes, surfant sur la même vague.

Il ne faut pas longtemps aux organismes “sérieux” pour proposer des normes et des audits de conformité, payants, naturellement. C’est le business et c’est inévitable. Ainsi pourra-t-il en être de Lean 4.0, si le concept séduit.

J’aime bien l’idée de Lean 4.0

N’en déplaise aux sceptiques et aux opportunistes, j’aime bien l’idée de Lean 4.0 comme une évolution du Lean à l’ère numérique. Au moment de la rédaction de cet article (mars 2019), je n’ai que l’intuition que, même si Lean est adaptatif, la vague technologique et la numérisation croissante auront un impact sur Lean. Ses adaptations et les changements de paradigme pourraient bien justifier de l’appeler Lean 4.0.

Nous verrons sur la durée si davantage de personnes partagent mes points de vue, si le nom Lean 4.0 va être adopté. Sinon, j’écrirais un dernier article qui clôturera le sujet. D’ici-là, vous serez peut-être intéressé à vous abonner à ce blog et à être averti à chaque nouvelle publication.


View Christian HOHMANN's profile on LinkedIn