AJC FORMATION : 20. Machine learning, l'état de l'art
Organisme
75009 PARIS 9Voir toutes ses formationsAutres organismes proposant cette formation
Durée
Modalités
- Classe virtuelle
- Présentiel
Evaluation des acquis : Les apprenants réalisent tout au long de la formation des exercices, QCM, mises en situation, TP, TD qui seront corrigés pour faciliter l’acquisition de compétences
Prix
Public
Toute personne souhaitant comprendre les mécanismes et les bénéfices du Machine Learning : dirigeants d'entreprise, DSI, responsables informatiques, consultants, responsables de projets Big Data…
Pré-requis
Avoir une culture informatique générale. Posséder des notions de probabilités et statistiques est recommandé.
Objectifs pédagogiques
Comprendre les concepts d’apprentissage automatique et l’évolution du Big Data vers le Machine Learning
Appréhender les enjeux de l'utilisation du Machine Learning, incluant les bénéfices attendus et des exemples d’usage
Identifier le positionnement du Machine Learning dans la chaîne de traitement de la donnée
Connaitre les outils et les acteurs leaders du marché
Découvrir les principaux algorithmes et la démarche projet à appliquer selon les cas d'usages en entreprise
Identifier les clés de réussite d'un projet intégrant du Machine Learning
Programme détaillé
Histoire du Machine Learning et contexte du Big Data
▪ Replacer à leur échelle les concepts d'Intelligence Artificielle, apprentissage automatique (machine learning)...
▪ Le lien avec les mathématiques, les statistiques (inférentielles), le data
mining et la data science
▪ Passer de l'analyse descriptive à l'analyse prédictive puis prescriptive
▪ Les applications du Machine Learning (moteurs de recherche, détection
des spams, lecture des chèques)
▪ La typologie des algorithmes de Dominique CARDON
▪ La communauté Data Science et les challenges Kaggle (ex. de Netflix)
Les données à disposition : collecte et préparation
▪ Données structurées, semistructurées et non structurées
▪ Nature statistique des données (qualitatives ou quantitatives)
▪ Objets connectés (IoT) et streaming
▪ Opportunités et limites de l'Open Data
▪ Identification des corrélations, problème de la multicolinéarité
▪ Réduction des dimensions par Analyse des Composantes Principales
▪ Détection et correction des valeurs aberrantes
▪ Les ETL (Extract Transform Load)
▪ Le Web scraping
Travaux pratiques : Identification de la structure de la donnée à récupérer pour
normalisation
Les outils du marché pour le traitement de la donnée et le Machine Learning
▪ Les logiciels traditionnels (SAS, SPSS, Stata...) et leur ouverture à l'Open Source
▪ Choisir entre les deux leaders Open Source : Python et R
▪ Plateformes Cloud (Azure, AWS, Google Cloud Platform) et solutions
SaaS (IBM Watson, Dataïku)
▪ Nouveaux postes en entreprises : data engineer, data scientist, data analyst, etc.
▪ Associer les bonnes compétences à ces différents outils
▪ Les API en ligne (IBM Watson, Microsoft Cortana Intelligence...)
▪ Les chatbots (agents conversationnels)
Travaux pratiques : Choix d’un outil pour la récupération, le traitement et la prédiction
Les différents types d'apprentissage en Machine Learning
▪ Apprentissage supervisé : répéter un exemple
▪ Apprentissage non supervisé : découvrir les données
▪ Online (Machine) Learning par opposition aux techniques batch
▪ Reinforcement learning : optimisation d'une récompense
▪ Autres types d'apprentissage (par transfert, séquentiel, actif...)
▪ Illustrations (moteurs de recommandation...)
Travaux pratiques : Choix d’un type d’apprentissage
Les algorithmes du Machine Learning
▪ Régression linéaire simple et multiple. Limites des approches linéaires
▪ Régression polynomiale (LASSO) Séries temporelles
▪ Régression logistique et applications en scoring
▪ Classification hiérarchique et non hiérarchique (KMeans)
▪ Classification par arbres de décision ou approche Naïve Bayes
▪ RamdomForest (développement des arbres de décision)
▪ Gradiant Boosting. Réseaux de neurones. Machine à support de vecteurs
▪ Deep Learning : exemples et raisons du succès actuel
▪ Text Mining : analyse des corpus de données textuelles
Travaux pratiques : Réalisation d’un algorithme de prédiction
Procédure d'entraînement et d'évaluation des algorithmes:
▪ Séparation du jeu de données : entraînement, test et validation
▪ Techniques de bootstrap (bagging)
▪ Exemple de la validation croisée
▪ Définition d'une métrique de performance
▪ Descente de gradient stochastique (minimisation de la métrique)
▪ Courbes ROC et de lift pour évaluer et comparer les algorithmes
▪ Matrice de confusion : faux positifs et faux négatifs
Travaux pratiques : Elaboration d’un programme d’entrainement et d’évaluation
Mise en production d'un algorithme de Machine Learning
▪ Description d'une plateforme Big Data
▪ Principe de fonctionnement des API
▪ Du développement à la mise en production
▪ Stratégie de maintenance corrective et évolutive
▪ Evaluation du coût de fonctionnement en production
Aspects éthiques et juridiques liés à l'Intelligence Artificielle
▪ Missions de la CNIL et évolutions à venir
▪ Question du droit d'accès aux données personnelles
▪ Question de la propriété intellectuelle des algorithmes
▪ Nouveaux rôles dans l'entreprise : Chief Data Officer et Data Protection Officer
▪ Question de l'impartialité des algorithmes
▪ Attention au biais de confirmation
▪ Les secteurs et les métiers touchés par l'automatisation
Travaux pratiques : Elaboration d’une chaine de mise en production de l’algorithme de prédictions et stockage des données prédites