Article
Septembre
2023
Jean-Michel Pou
Président Fondateur Deltamu
Connaître l’incertitude de mesure n’est plus une option !

Les technologies qui émergent en ce début de XXIe siècle remettent en cause les pratiques historiques. En pensant – à tort – que les mesures sont justes, on a engendré, sans vraiment s’en rendre compte, des dispositions coûteuses. L’exemple qui me paraît le plus probant est ce que des experts du domaine du tolérancement (définition des exigences) ont eux-mêmes écrit dans un livre blanc sur ce thème. Partant du « pire des cas », qu’ils présentent comme la règle actuelle, ces experts expliquent qu’il est aisément possible, voire impératif, de changer de pratiques pour améliorer la performance industrielle. Dans ces approches plus efficientes, la qualité des mesures devient essentielle. En laissant plus de place aux produits (tolérances plus grandes), on laisse moins de place aux erreurs de mesure, et le rôle du métrologue, devenu « smart », est valorisé : il participe à l’inévitable révision des pratiques pour pouvoir s’inscrire dans une démarche visant le « juste nécessaire » en garantissant des mesures, et non uniquement des instruments de mesure, compatibles avec le besoin.

Au-delà même des préconisations du livre blanc, qui s’appuient sur des méthodes statistiques déjà éprouvées, l’émergence des algorithmes de l’intelligence artificielle (IA) change également radicalement la donne. S’appuyant sur le Big Data (les données massives disponibles), ces algorithmes permettent de comprendre des phénomènes jusqu’alors difficilement accessibles. Tous les procédés sont influencés par différents facteurs (les fameux « 5M ») et notre attention est généralement retenue par les plus influents. D’autres peuvent cependant agir, de façon moins sensible et surtout de manières conjointes les uns avec les autres – des situations difficiles à mettre en évidence avec les méthodes traditionnelles. Il est probable que ces facteurs moins visibles soient parfois à l’origine d’événements considérés aujourd’hui comme des aléas inexplicables auxquels nous devons nous soumettre, un peu comme s’il s’agissait d’une forme de fatalité…

Avec le Big Data, il devient possible de prendre en compte les facteurs les moins influents et leurs interactions complexes. Pour donner un exemple, le numéro de la revue Sciences et Vie de juillet 2017 (n° 1198) titrait en première page : « Une nouvelle intelligence est née ». L’article fait part d’une étude sur l’un des algorithmes utilisés en IA dans le cadre de l’analyse d’images. Le chercheur montre que l’algorithme a trouvé, pour « deviner » la présence d’un lion sur une photo, une signature particulière liée aux yeux du lion. Chacun comprendra que si la photo est un peu floue, les yeux du lion ne sont plus vraiment visibles et l’animal ne sera pas repéré. Cette question du « flou » est au cœur des enjeux du Big Data. Pour que les algorithmes donnent des résultats, il est impératif que les données qu’ils analysent soient « le moins floues » possible. Lorsque les données sont des résultats de mesure, l’incertitude de mesure doit donc être le plus faible possible et toutes les dispositions utiles doivent être prises pour améliorer leur fiabilité.

Dans ce nouveau monde, il n’est plus question d’attendre des dates arbitraires pour se rendre compte de dérives. Chaque donnée est importante pour comprendre les procédés, elle appartient au capital numérique de l’entreprise et doit, par conséquent et plus que jamais, être choyée.

Partagez cet article !

0
theme by teslathemes