Aperçu du cours
Objectif de formation : Comprendre le Deep Learning et savoir utiliser PyTorch dans ce contexte.
Prérequis
- Maîtriser les bases du langage Python et de Numpy
Objectifs pédagogiques
- Appréhender le concept de Deep Learning
- Savoir utiliser PyTorch pour un usage de Deep Learning
- Être capable d’utiliser les ressources web pour construire un bibliothèque de cas d’usage
- Pouvoir installer et utiliser PyTorch / Fastai
- Appréhender le concept de Machine Learning et se servir de PyTorch pour cette utilisation
Public ciblé
- Développeur, architectes, data analysts, data scientists…
Programme de formation
-
Présentation du Deep Learning
-
Définition du Machine Learning
-
Typologies d’algorithmes de Machine learning: supervisé, non-supervisé, semi-supervisé, auto-supervisé, apprentissage par renforcement
-
L’apprentissage: sous-apprentissage, sur-apprentissage, généralisation, métrique, évaluation
-
Les mathématiques appliquées au Machine Learning
-
Les apports et limites du Deep Leaning
-
Pourquoi passer au Deep Learning
-
Introduction de PyTorch
-
Introduction aux surcouches fastai & PyTorch lightning
-
-
Installation et premiers pas avec PyTorch
-
Installation de PyTorch
-
Google Collab
-
Utilisation de Python comme Numpy
-
Les divers cas d’usages
-
Construire un module réseau de neurones
-
Charger un DataSet, le découper en version d’entrainement et de test avec PyTorch & Sklearn
-
Visualisation des résultats par les métriques Sklearn et Tensorboard
-
Optimiser les hyperparamètres et principes du AutoML
-
Sauvegarder et restaurer un modèle
-
Les callbacks
-
-
Les CNN et le traitement d'images
-
Application et architecture d’une CNN
-
Appréhender et visualiser un CNN & le produit de convolution
-
Couches de convolution et de mise en commun dans une CNN
-
Transfert d’apprentissage
-
Réglages des réseaux de neurones convolutionnels
-
Backpropagation et implémentation en PyTorch
-
Classification d’images
-
Création de CNN avec PyTorch vs avec FastAI
-
-
MLP et données tabulaires
-
Concept d’embedding & réduction de dimension sémantique
-
Charger de données CSV par Pandas
-
Créer des variables quantitatives depuis des variable qualitative/catégorielles
-
Traiter les données manquantes
-
Normalisation par Pandas puis FastAI
-
Créer un autoencodeur
-
Les applications à la visualisation et au clustering
-
-
Traitement du texte
-
Les words embeddings
-
Utilisation avec Spacy
-
Les sentences embeddings
-
La librairie Universal Sentence Encoder
-
Flair et HuggingFace : le NLP
-
-
Pour aller plus loin
-
LSTM : applications et architectures
-
RNN, LSTM & GRU
-
Le mécanisme d’attention
-
Créer un LSTM
-
Application à la prédiction de séries temporelles
-