Aller au contenu principal
Afficher le fil d'ariane

ORSYS : 21. Deep Learning : les fondamentaux

Organisme

ORSYS
LA GRANDE ARCHE PAROI NORD
92044 PARIS LA DEFENSE CEDEX
Voir toutes ses formationsAutres organismes proposant cette formation

Durée

21 heures

Modalités

Formation

  • Classe virtuelle
  • Présentiel

Évaluation

Le formateur évalue la progression pédagogique du participant tout au long de la formation au moyen de QCM, mises en situation, travaux pratiques…

Prix

Inter
La formation en Inter est dispensée pour un groupe de salariés d’entreprises différentes.
1197€ HT / personne
Intra
La formation en Intra est dispensée pour un groupe de salariés d’une seule et même entreprise.
5070€ HT / groupe
4 stagiaires minimum

Public

Toute personne intéressée par le Deep Learning et les réseaux de neurones : Ingénieurs, Analystes, Data Scientists, Data Analysts, Data Scientists, Data Steward, Développeurs…

Pré-requis

Avoir des bases en programmation et une bonne maîtrise des outils informatiques et statistiques. Connaitre les bases du Machine Learning est recommandé.

Objectifs pédagogiques

Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds)

Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs

Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement

Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones

Comprendre les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils

Programme détaillé

Deep Learning et réseaux de neurones : les fondamentaux

La présentation de l'Intelligence Artificielle dans les grands médias relève souvent du fantasme. Ce séminaire vous permettra de clarifier les concepts clés des réseaux de neurones profonds (Deep Learning) ainsi que leurs différents domaines d'utilisation. Des démonstrations présenteront des cas d'utilisations variés.

 

Type de pédagogie

Ce séminaire se base sur des présentations, des échanges et des études de cas. Des outils comme Lasagne ou Keras seront présentés.

 

Objectifs pédagogiques

  1. Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds)
  2. Maîtriser les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
  3. Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
  4. Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils
  5. Connaître les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  6. Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement

 

Déroulement de la formation :

  1. Introduction IA, Machine Learning et Deep Learning
  2. Concepts fondamentaux d'un réseau de neurones
  3. Outils usuels Machine Learning et Deep Learning
  4. Convolutional Neural Networks (CNN)
  5. Recurrent Neural Networks (RNN)
  6. Modèles générationnels : VAE et GAN
  7. Deep Reinforcement Learning

 

Programme détaillé de la formation :

 

1. Introduction IA, Machine Learning et Deep Learning

1/4 jour

- Historique, concepts de base et applications de l'Intelligence Artificielle loin des fantasmes portés par ce domaine.

- Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels.

- Algorithmes génétiques : faire évoluer une population d'agents virtuels par sélection.

- Machine Learning usuel : définition.

- Types de tâches : Supervised Learning, Unsupervised Learning, Reinforcement Learning.

- Types d'actions : classification, régression, clustering, estimation de densité, réduction de dimensionalité.

- Exemples d'algorithmes Machine Learning : régression linéaire, Naive Bayes, Random Tree.

- Machine Learning versus Deep Learning : pourquoi le ML reste aujourd'hui l'état de l'art (Random Forests & XGBoosts) ?  

 

 2. Concepts fondamentaux d'un réseau de neurones

1/2 jour

- Rappel de bases mathématiques.

- Le réseau de neurones : architecture, fonctions d'activation et de pondération des activations précédentes...

- L'apprentissage d'un réseau de neurones : fonctions de coût, back-propagation, stochastic gradient descent...

- Modélisation d'un réseau de neurones : modélisation des données d'entrée et de sortie selon le type de problème.

- Appréhender une fonction par un réseau de neurones. Appréhender une distribution par un réseau de neurones.

- Data Augmentation : comment équilibrer un dataset ?

- Généralisation des résultats d'un réseau de neurones.

- Initialisations et régularisations d'un réseau de neurones : L1/L2 Regularization, Batch Normalization.

- Optimisations et algorithmes de convergence.

Démonstration

Approximation d'une fonction et d'une distribution par un réseau de neurones.

 

 3. Outils usuels Machine Learning et Deep Learning

1/4 jour

- Outils de gestion de donnée : Apache Spark, Apache Hadoop.

- Outils Machine Learning usuel : Numpy, Scipy, Sci-kit.

- Frameworks DL haut niveau : PyTorch, Keras, Lasagne.

- Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow.

Démonstration

Applications et limites des outils présentés.

 

 4. Convolutional Neural Networks (CNN)

1/2 jour

- Présentation des CNNs : principes fondamentaux et applications.

- Fonctionnement fondamental d'un CNN : couche convolutionnelle, utilisation d'un kernel, padding et stride...

- Architectures CNN ayant porté l'état de l'art en classification d'images : LeNet, VGG Networks, Network in Network...

- Utilisation d'un modèle d'attention.

- Application à un cas de figure de classification usuel (texte ou image).

- CNNs pour la génération : super-résolution, segmentation pixel à pixel.

- Principales stratégies d'augmentation des Feature Maps pour la génération d'une image.

Etude de cas

Innovations apportées par chaque architecture CNN et leurs applications plus globales (convolution 1x1 ou connexions résiduelles).

 

 5. Recurrent Neural Networks (RNN)

1/2 jour

- Présentation des RNNs : principes fondamentaux et applications.

- Fonctionnement fondamental du RNN : hidden activation, back propagation through time, unfolded version.

- Évolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory).

- Problèmes de convergence et vanising gradient.

- Types d'architectures classiques : prédiction d'une série temporelle, classification...

- Architecture de type RNN Encoder Decoder. Utilisation d'un modèle d'attention.

- Applications NLP : word/character encoding, traduction.

- Applications vidéo : prédiction de la prochaine image générée d'une séquence vidéo.

Démonstration

Différents états et évolutions apportées par les architectures Gated Recurrent Units et Long Short Term Memory.

 

 6. Modèles générationnels : VAE et GAN

1/2 jour

- Présentation des modèles générationnels Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN).

- Auto-encoder : réduction de dimensionnalité et génération limitée.

- Variational AutoEncoder : modèle générationnel et approximation de la distribution d'une donnée.

- Définition et utilisation de l'espace latent. Reparameterization trick.

- Fondamentaux du Generative Adversarial Networks.

- Convergence d'un GAN et difficultés rencontrées.

- Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.

- Applications de génération d'images ou de photographies, génération de texte, super résolution.

Démonstration

Applications des modèles générationnels et utilisation de l'espace latent.

 

 7. Deep Reinforcement Learning

1/2 jour

- Reinforcement Learning.

- Utilisation d'un réseau de neurones pour appréhender la fonction d'état.

- Deep Q Learning : experience replay et application au contrôle d'un jeu vidéo.

- Optimisations de la politique d'apprentissage. On-policy et off-policy. Actor critic architecture. A3C.

- Applications : contrôle d'un jeu vidéo simple ou d'un système numérique.

Démonstration

Contrôle d'un agent dans un environnement défini par un état et des actions possibles.

Sessions

Filtrer les résultats

63 résultats

Modalités pédagogiques
Formation synchrone se déroulant avec la présence physique du (des) formateur(s) et du (des) apprenant(s) réunis dans un même lieu de formation.
Formation combinant des séquences en présentiel et des séquences à distance synchrones ou asynchrones.
Formation à distance, asynchrone, s’appuyant sur une plateforme d’apprentissage, pouvant être complétée par d’autres modalités de formation à distance (visio-conférence…)
Formation à distance, synchrone, s’appuyant sur un dispositif de visio-conférence. La classe virtuelle recrée à distance les conditions d’une formation en salle traditionnelle.
Type de formation
La formation en Inter est dispensée pour un groupe de salariés d’entreprises différentes.
La formation en Intra est dispensée pour un groupe de salariés d’une seule et même entreprise.
Options
Ces sessions ne peuvent être ni annulées ni reportées par l’organisme de formation.

0 résultat