null

Technologies, état de l'art

Deep Learning

Objectif

Comprendre l'évolution des réseaux de neurones et les raisons du succès actuel du Deep Learning
Utiliser les bibliothèques de Deep Learning les plus populaires
Comprendre les principes de conception, les outils de diagnostic et les effets des différents verrous et leviers
Acquérir de l'expérience pratique sur plusieurs problèmes réels

Durée : 2 jours (14 heures)

Dates :
-15/02/23
-07/06/23
-13/09/23
-13/11/23
-06/12/23

Bonnes connaissances en statistiques
Bonnes connaissances du Machine Learning

Programme de la formation

Introduction

  • Créer un premier graphe et l’exécuter dans une session.
  • Cycle de vie de la valeur d’un nœud.
  • Manipuler des matrices.
  • Régression linéaire.
  • Descente de gradient.
  • Fournir des données à l’algorithme d’entraînement.
  • Enregistrer et restaurer des modèles.
  • Visualiser le graphe et les courbes d’apprentissage.
  • Portées de noms. Partage des variables.

Introduction aux réseaux de neurones artificiels

  • Du biologique à l’artificiel.
  • Entraîner un PMC (perceptron multicouche) avec une API TensorFlow de haut niveau.
  • Entraîner un PMC (perceptron multicouche) avec TensorFlow de base.
  • Régler précisément les hyperparamètres d’un réseau de neurones.

Entraînement de réseaux de neurones profonds

  • Problèmes de disparition et d’explosion des gradients.
  • Réutiliser des couches pré-entraînées.
  • Optimiseurs plus rapides.
  • Éviter le sur-ajustement grâce à la régularisation.
  • Recommandations pratiques.

Réseaux de neurones convolutifs

  • L’architecture du cortex visuel.
  • Couche de convolution.
  • Couche de pooling.
  • Architectures de CNN.

Deep Learning avec Keras

  • Régression logistique avec Keras.
  • Perceptron avec Keras.
  • Réseaux de neurones convolutifs avec Keras.

Réseaux de neurones récurrents

  • Neurones récurrents.
  • RNR de base avec TensorFlow.
  • Entraîner des RNR. RNR profonds.
  • Cellule LSTM. Cellule GRU.
  • Traitement automatique du langage naturel.

Autoencodeurs

  • Représentations efficaces des données.
  • ACP avec un autoencodeur linéaire sous-complet.
  • Autoencodeurs empilés.
  • Pré-entraînement non supervisé avec des autoencodeurs empilés.
  • Autoencodeurs débruiteurs. Autoencodeurs épars. Autoencodeurs variationnels. Autres autoencodeurs.
Menu