Single post

Nasce una nuova intelligenza …

Che piacere leggere questo promettente titolo nel numero 1198 di Science & Life (luglio 2017)! Che felicità, in particolare, di aver toccato con mano, appena di recente, ciò che questa affermazione significava nel mondo industriale …

Nel 2015, Deltamu ha lanciato il sito mesuronsbienlebigdata.com perché abbiamo sentito il movimento allora ancora balbuziente verso l’interesse dei Big Data per la competitività industriale. Questa data non è molto remota, ma da allora sono successe tante cose: i concetti di digitalizzazione delle aziende, la continuità digitale nel servizio dell’industria del futuro … L’impatto dell’Intelligenza Artificiale, un termine generico che ricopre tutti i nuovi strumenti algoritmici sta cominciando ad essere oggetto di comunicazioni e domande.

Deltamu lavora dal 2015 per introdurre questi nuovi strumenti e, naturalmente, le nuove sfide della metrologia in questo mondo emergente. Il progetto AGORA, svolto nella sua dimensione “formazione iniziale” dalle scuole di ingegneria di Clermont Ferrand, SIGMA Clermont e ISIMA, mira a formare dati scientifici per l’industria. Deltamu, tra gli iniziatori di questo progetto, è anche coinvolta in un nuovo servizio.

Convinta che questo orizzonte sia ormai ineluttabile, Deltamu aderisce ad un consorzio * il cui obiettivo è quello di offrire una soluzione rilevante per il sostegno delle aziende nella loro trasformazione digitale, consolidando tutti gli aspetti:

  • Struttura informatica;
  • Consolidamento dei dati;
  • Modellazione predittiva;
  • Controllo del processo;
  • Veridicità dei dati;
  • Accompagnamento allo stanziamento per le squadre operative.

Dall’idea alla concretizzazione, c’è solo un passo e il consorzio ha appena presentato i suoi risultati e le raccomandazioni alla prima azienda che gli ha dato fiducia. Che piacere vedere negli occhi dei molti interlocutori presenti che hanno rappresentato tutti i servizi della società un’enorme sorpresa per quanto riguarda la capacità predittiva che abbiamo dimostrato su un processo industriale complicato. Quando la direzione generale, la gestione operativa, il reparto finanziario, i responsabili della produzione, il manager di qualità, il gestore di metrologia sono conquistati, è un buon segno!

La stima, a partire dai parametri di ingresso, della probabilità di conformità finale senza conoscere il modello matematico sottostante e la verifica della probabilità sui dati storici esistenti si sono manifestati, ed è normale, più che promettenti. Predire la conformità finale significa padroneggiare il controllo di un processo in modo da produrre la conformità “al primo colpo, e ogni volta”! Una specie di Graal per l’industria …

Questa “promessa” non va fatta senza sforzo. Il primo è ovviamente quello di raccogliere tutti i dati disponibili, dai controllori programmabili al controllo finale attraverso tutte le supervisioni e la gestione della produzione, in un “datalake” che rappresenta il patrimonio digitale dell’azienda.

Il blocco “Data Science” nel diagramma sopra riportato rappresenta tutto il lavoro di ricerca di valore nei dati disponibili. L’obiettivo è trovare modelli predittivi che permettano di anticipare la conformità della produzione, quindi le chiavi del controllo dei processi.

Se tutti gli ingegneri di produzione sono abituati a modelli analitici (dalla forma Dati di uscita = F [Dati di input], di solito derivanti da progetti sperimentali), è ora necessario adattarsi a modelli diversi, Algoritmi analitici, che si presentano sotto forma di algoritmi di autoapprendimento. Come suggerisce il nome, questi algoritmi (questa nuova intelligenza) imparano da soli, sulla base di informazioni precedenti. Essi “regolano” automaticamente, in modo molto simile ad un sistema mix (sistema di missaggio) che si regola autonomamente in una determinata sala “ascoltando” alcuni pezzi conoscendo esattamente, presupposto essenziale, le aspettative degli ascoltatori in termini di qualità uditiva.

Nel dossier Science & Life del luglio 2017, un esempio spiega che un algoritmo ha imparato a “indovinare” la presenza di un leone in una foto (ricorda che visto da un computer, un’immagine è una raccolta di 0 e 1), non dal colore dell’animale o dalla forma della sua criniera, che sarebbe decisivo per un essere umano, ma da una peculiarità degli occhi dei leoni che ha scoperto sfruttando una biblioteca di immagini.

Questo esempio mostra la capacità degli algoritmi di trovare elementi differenziali che non appaiono naturalmente. Quanti di tali “segnali deboli” sono ancora nascosti nei processi di produzione industriale e pongono problemi influendo negativamente sulle prestazioni delle imprese a causa di scarti o di durate di vita alterate?

I Big Data e l’Intelligenza Artificiale renderanno possibile, è quasi certo, capire meglio e quindi controllare meglio i fenomeni ancora complicati per il fatto di essere bloccati con i nostri strumenti convenzionali. Certamente, il gioco vale la candela! Alcuni non esitano ad affermarlo: ” Do it or die “!

Una volta che i modelli predittivi sono operativi, è necessario offrire agli utenti un’interfaccia semplice ed intuitiva che consenta di controllare i processi in modo ottimale. E qui ancora, gli specialisti di dati hanno gli strumenti per realizzare rapidamente e facilmente tali interfacce. Dedicati ad ogni contesto e capaci di imparare nuovamente quanto necessario per migliorarsi continuamente, fanno parte del cerchio virtuoso promosso dagli standard ISO 9001. Come possiamo non vedere in questi Big Data e nei suoi Algoritmi “, il famoso cerchio Deming (PDCA)?

Il nostro consorzio propone di accompagnare le aziende in questa strada, con gli strumenti di oggi e di domani (Intelligenza Artificiale), senza trascurare quelli di ieri (ad esempio Lean Management). Naturalmente, conosciamo la resistenza al cambiamento che può derivare da un tale approccio, poiché alcune credenze possono essere messe in discussione. E poiché è legittimo che gli uomini della azienda si approprino di questo cambiamento, noi integriamo questa dimensione essenziale.

Avendo visto che gli algoritmi lavorano concretamente, sono stato in grado di misurare l’importanza della metrologia in questo nuovo mondo. Se le nostre tolleranze correnti sono state definite empiricamente dalle nostre osservazioni e senza tenere conto delle incertezze di misurazione, esse possono essere messe in discussione in modo significativo per una maggiore efficienza soltanto se i dati disponibili sono affidabili, vale a dire la cui veracità è garantita (4° V dei Big Data). Sia sui dati di ingresso (controllo) che sui dati di uscita (conformità), le misurazioni devono essere il più vicino possibile alla realtà. E la conformità degli strumenti a uno standard e ad una data non basta! Un articolo recente in questo blog descrive le nuove sfide …

Ad oggi è indispensabile ricordare che gli algoritmi predittivi possono essere regolati solo se i dati di input e output sono affidabili. Per “imparare” (spesso chiamato ” Machine Learning “), devono avere dati affidabili, ma soprattutto una storia di dati precedenti affidabili.

E poiché è inesorabile che questo nuovo PDCA finalmente si stabilisca nelle società perché è più “predittivo” grazie alla possibilità di scoprire i segnali deboli, il metrologo deve immediatamente rivedere il suo ruolo e focalizzarsi sulle misure, piuttosto che solo sugli strumenti di misura!

* In collaborazione con le società Pyramis, Phimeca e Agaetis (membri dell’e-cluster Auvergne Efficiency Industrielle)

PS: Per ulteriori informazioni sul consorzio e sui suoi servizi, contattare Deltamu Italia !

Share this article !

0
theme by teslathemes