Article

Data science pour l’ingénieur, mise en application – Sigma Clermont

Parce que la Data Science est devenue un enjeu immédiat et incontournable pour les entreprises industrielles, les écoles Sigma et Isima se sont associés à des partenaires experts du e-cluster Auvergne Efficience Industrielle. Au printemps de cette année, une première session de 3 jours avait rassemblé plus d’une vingtaine de participants, élèves ingénieurs et salariés d’entreprises. Suite logique à ce succès, une seconde session aura lieu à l’automne mais nul besoin d’avoir suivi la première pour participer à la seconde. De nouvelles connaissances et de nouveaux exercices pratiques seront proposés par les intervenants.

Objectifs de l’enseignement

  • Former à la data science de l’ingénieur les élèves ingénieurs et les salariés d’entreprises
  • Exprimer le type de données nécessaires, choisir la méthodologie, les outils de traitement ad hoc pour déployer son travail et distinguer un problème de statistiques d’un problème de big data
  • Formaliser un problème industriel et porter un regard métier en utilisant les outils du data scientist complémentairement à l’ensemble des outils disponibles dans l’ingénierie
  • Porter un regard d’ingénieur sur le monde des données, de la donnée à la prise de décision
  • Pour les étudiants Sigma : susciter l’envie d’approfondir ses connaissances
  • Pour les salariés d’entreprises : introduire la data science parmi les outils à leur disposition.

En résumé, ce cours propose de fournir les bases des outils pour la résolution de problèmes industriels par la modélisation et l’algorithmie, en s’appuyant sur des données fiables et en grand nombre.

Plan de l’enseignement

Après l’avènement des DataSciences d’abord dans les domaines de la vente et du marketing, les activités de l’industrie – de la conception à la fabrication – doivent aujourd’hui savoir prendre en compte un élément nouveau très important : collecte et mise à disposition de plus en plus faciles de données de natures variées (mais pas toujours en très grand nombre au sens du Big Data). Les méthodes d’analyse de données sont également de plus en plus accessibles du fait de leur démocratisation via, par exemple, de nombreuses librairies Python. Dans ce contexte, Phimeca et Michelin ont mis en place des démarches de traitement des données disponibles s’appuyant une approche pragmatique adaptée à chaque contexte : quantité de données, modélisation numérique disponible ou non, … La journée sera articulée autour du rappel de quelques concepts théoriques important et d’application à des exemples simples et concrets à l’aide du langage Python

Mots-clés : Traitement de la donnée, modèles, lien simulation données, propagation d’incertitude, méta modèle, régression, outil Jupiter

 

  • 28 novembre 2017 : V Barra (ISIMA)

L’avènement de l’apprentissage profond (Deep Learning) au début des années 2000, couplé à la mise à disposition toujours plus importante de données expertes et la performance sans cesse croissante des matériels, change complètement le paysage de l’apprentissage automatique tel qu’il était connu jusqu’à lors, et ouvre des perspectives immenses et captivantes. Aujourd’hui, tous les domaines sont impactés, de la biologie à la robotique, en passant par l’usine du futur ou l’économie . Tout ce qui implique un processus de décision, la prévision d’un évènement ou la manipulation de données peut bénéficier du paradigme de l’apprentissage profond.

Dans cette intervention, nous proposons de revenir sur quelques modèles fondamentaux en apprentissage profond, d’esquisser quelques applications, et de rapidement mettre en pratique des modèles simples de classification, de régression et de prévision, à l’aide de la librairie TensorFlow (https://www.tensorflow.org/) de Google. »

Mots-clés : Apprentissage profond, algorithmie, analyse, fouille de données industrielles, règles de décision

Références : 

– Y LeCun, Y Bengio, G Hinton, Deep Learning, Nature 521(7553):436-44 · May 2015, disponible à l’adresse https://www.researchgate.net/publication/277411157_Deep_Learning

– Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning, MIT Press, 2016, disponible à l’adresse http://www.deeplearningbook.org/

 

  • 05 décembre 2017 : J-M Pou (Deltamu)

La métrologie n’est pas perçue à sa juste valeur dans l’entreprise. Focalisés sur la certification, les industriels ont souvent oublié qu’il ne suffisait pas de coller des étiquettes neuves tous les ans pour régler la question de mesures.

Toutes les mesures sont fausses et cette journée est consacrée à comprendre pourquoi et savoir comment il est possible d’améliorer les choses. Les outils statistiques nécessaires à l’évaluation des incertitudes de mesure sont rappelés et les techniques d’évaluation de l’incertitude sont passées en revue : GUM, GUM S1 et ISO 5725.

Mots-clés : Mesures, données, probabilités, statistique

Note : Chaque journée comprendra au moins 2 heures de travaux pratiques.

 

Témoignages et retour d’expérience

Pour finir de vous convaincre de participer, quelques retours des stagiaires de la première session :

Loïc JEAN-FULCRAND, Prospective & Innovation – Intelligence Engineer
Pfeiffer Vacuum

La formation data scientist AGORA a été pour moi un véritable rite initiatique digital. J’ai pu raccrocher mes vieux wagons technologiques à ces nouveaux concepts, je situe bien mieux à présent mes propres compétences et mes besoins latents dans ce nouveau territoire 4.0

Yannick SANSONNET, Consultant Business Intelligence &  Data Science

Enfin une formation qui ne se limite pas aux algorithmes et qui aborde la Data Science dans son intégralité. On y retrouve évidemment les piliers de cette discipline : statistiques, régressions, classifications ainsi que les impressionnants réseaux neuronaux.Mais elle a l’immense mérite de couvrir également toute la chaîne de données : la qualité et l’incertitude de la mesure, la sécurité des données et les obligations légales, l’internet des objets, les capteurs et leurs réseaux. Le tout est ponctué de vrais cas concrets industriels indispensables pour se projeter et faire germer les graines de la transformation numérique.
On en ressort avec des bases solides pour aborder un projet … et surtout l’envie de pousser les murs ! 

 

Liens avec d’autres enseignements

Informatique, analyse numérique, approches probabilistes

Ouvrages de référence

  • La Smart Metrology – De la métrologie des instruments à la métrologie des décisions.
  • Data science : fondamentaux et études de cas : Machine learning avec Python et R.
  • Big data et machine learning. Les concepts et les outils de la data science

Évaluation

Contrôle de connaissances, 6 questions par modules (2 heures).

Mots clés

Big data, ingénieur, classification, réseau de neurones, modélisation, algorithmie, approche probabiliste, inférence statistique, High Performance Computing, entrepôt de données, fouille de données, apprentissage automatique, réseaux convolutifs, autoencodeurs, fiabilité des données, simulation, parallélisation, objets connectés, data privacy, industrie du futur

theme by teslathemes