Détails
- 12 Sections
- 86 Lessons
- 21 heures
Expand all sectionsCollapse all sections
- Présentation du Deep Learning8
- 1.1Définition du Machine Learning
- 1.2Typologies d’algorithmes de Machine learning: supervisé, non-supervisé, semi-supervisé, auto-supervisé, apprentissage par renforcement
- 1.3L’apprentissage: sous-apprentissage, sur-apprentissage, généralisation, métrique, évaluation
- 1.4Les mathématiques appliquées au Machine Learning
- 1.5Les apports et limites du Deep Leaning
- 1.6Pourquoi passer au Deep Learning
- 1.7Introduction de PyTorch
- 1.8Introduction aux surcouches fastai & PyTorch lightning
- Présentation du Deep Learning8
- 2.1Définition du Machine Learning
- 2.2Typologies d’algorithmes de Machine learning: supervisé, non-supervisé, semi-supervisé, auto-supervisé, apprentissage par renforcement
- 2.3L’apprentissage: sous-apprentissage, sur-apprentissage, généralisation, métrique, évaluation
- 2.4Les mathématiques appliquées au Machine Learning
- 2.5Les apports et limites du Deep Leaning
- 2.6Pourquoi passer au Deep Learning
- 2.7Introduction de PyTorch
- 2.8Introduction aux surcouches fastai & PyTorch lightning
- Installation et premiers pas avec PyTorch10
- 3.1Installation de PyTorch
- 3.2Google Collab
- 3.3Utilisation de Python comme Numpy
- 3.4Les divers cas d’usages
- 3.5Construire un module réseau de neurones
- 3.6Charger un DataSet, le découper en version d’entrainement et de test avec PyTorch & Sklearn
- 3.7Visualisation des résultats par les métriques Sklearn et Tensorboard
- 3.8Optimiser les hyperparamètres et principes du AutoML
- 3.9Sauvegarder et restaurer un modèle
- 3.10Les callbacks
- Installation et premiers pas avec PyTorch10
- 4.1Installation de PyTorch
- 4.2Google Collab
- 4.3Utilisation de Python comme Numpy
- 4.4Les divers cas d’usages
- 4.5Construire un module réseau de neurones
- 4.6Charger un DataSet, le découper en version d’entrainement et de test avec PyTorch & Sklearn
- 4.7Visualisation des résultats par les métriques Sklearn et Tensorboard
- 4.8Optimiser les hyperparamètres et principes du AutoML
- 4.9Sauvegarder et restaurer un modèle
- 4.10Les callbacks
- Les CNN et le traitement d'images8
- 5.1Application et architecture d’une CNN
- 5.2Appréhender et visualiser un CNN & le produit de convolution
- 5.3Couches de convolution et de mise en commun dans une CNN
- 5.4Transfert d’apprentissage
- 5.5Réglages des réseaux de neurones convolutionnels
- 5.6Backpropagation et implémentation en PyTorch
- 5.7Classification d’images
- 5.8Création de CNN avec PyTorch vs avec FastAI
- Les CNN et le traitement d'images8
- 6.1Application et architecture d’une CNN
- 6.2Appréhender et visualiser un CNN & le produit de convolution
- 6.3Couches de convolution et de mise en commun dans une CNN
- 6.4Transfert d’apprentissage
- 6.5Réglages des réseaux de neurones convolutionnels
- 6.6Backpropagation et implémentation en PyTorch
- 6.7Classification d’images
- 6.8Création de CNN avec PyTorch vs avec FastAI
- MLP et données tabulaires7
- 7.1Concept d’embedding & réduction de dimension sémantique
- 7.2Charger de données CSV par Pandas
- 7.3Créer des variables quantitatives depuis des variable qualitative/catégorielles
- 7.4Traiter les données manquantes
- 7.5Normalisation par Pandas puis FastAI
- 7.6Créer un autoencodeur
- 7.7Les applications à la visualisation et au clustering
- MLP et données tabulaires7
- 8.1Concept d’embedding & réduction de dimension sémantique
- 8.2Charger de données CSV par Pandas
- 8.3Créer des variables quantitatives depuis des variable qualitative/catégorielles
- 8.4Traiter les données manquantes
- 8.5Normalisation par Pandas puis FastAI
- 8.6Créer un autoencodeur
- 8.7Les applications à la visualisation et au clustering
- Traitement du texte5
- Traitement du texte5
- Pour aller plus loin5
- Pour aller plus loin5
Créer un LSTM
Préc.