Détails
- 14 Sections
- 52 Lessons
- 28 heures
Expand all sectionsCollapse all sections
- Installation & utilisation de TensorFlow5
- 1.1Installation
- 1.2Google Collab
- 1.3Tenseurs et opérations
- 1.4Les variables
- 1.5Travaux pratiques: présentation de divers cas d’usage (importation d’image, Huber Loss…)
- Installation & utilisation de TensorFlow5
- 2.1Installation
- 2.2Google Collab
- 2.3Tenseurs et opérations
- 2.4Les variables
- 2.5Travaux pratiques: présentation de divers cas d’usage (importation d’image, Huber Loss…)
- Les API de TensorFlow2
- 3.1TensorFlow Data API: concepts, l’enchainement de transformations, mélange de la donnée (Shuffle), entrelacement, construction d’un pipeline de lecture de CSV complet, les optimisations possibles
- 3.2L’API de prétraitement TensorFlow: utilité, les colonnes (numériques, catégorielles), l’utilisation comme layer
- Les API de TensorFlow2
- 4.1TensorFlow Data API: concepts, l’enchainement de transformations, mélange de la donnée (Shuffle), entrelacement, construction d’un pipeline de lecture de CSV complet, les optimisations possibles
- 4.2L’API de prétraitement TensorFlow: utilité, les colonnes (numériques, catégorielles), l’utilisation comme layer
- Keras, réseaux neuronaux & MLP7
- 5.1Neurones biologiques vs neurones artificiels
- 5.2Les calculs logiques avec des neurones
- 5.3Le perceptron
- 5.4Le multi layer perceptron et la rétropropagation
- 5.5MLP de régression
- 5.6MLP de classification
- 5.7L’implémentation des MLP: sauvegarder et restaurer un modèle, utiliser des callbacks
- Keras, réseaux neuronaux & MLP7
- 6.1Neurones biologiques vs neurones artificiels
- 6.2Les calculs logiques avec des neurones
- 6.3Le perceptron
- 6.4Le multi layer perceptron et la rétropropagation
- 6.5MLP de régression
- 6.6MLP de classification
- 6.7L’implémentation des MLP: sauvegarder et restaurer un modèle, utiliser des callbacks
- Le Vanishing Gradient3
- 7.1La réutilisation de modèles entrainés
- 7.2Optimiseurs plus rapides
- 7.3Travaux pratiques: créer optimiser un classificateur d’image, d’une régression et des modèles complexes avec l’API Séquentielle
- Le Vanishing Gradient3
- 8.1La réutilisation de modèles entrainés
- 8.2Optimiseurs plus rapides
- 8.3Travaux pratiques: créer optimiser un classificateur d’image, d’une régression et des modèles complexes avec l’API Séquentielle
- CNN6
- 9.1La vision par ordinateur
- 9.2L’architecture du cortex visuel
- 9.3Les couches: de convolutions, de Pooling
- 9.4Les types d’architectures de réseaux de neurones conventionnels
- 9.5Data augmentation
- 9.6Travaux pratiques: intégrer un CNN sur TensorFlow, utiliser un modèle entrainé pour du transfer learning, classifier et localiser des objets
- CNN6
- 10.1La vision par ordinateur
- 10.2L’architecture du cortex visuel
- 10.3Les couches: de convolutions, de Pooling
- 10.4Les types d’architectures de réseaux de neurones conventionnels
- 10.5Data augmentation
- 10.6Travaux pratiques: intégrer un CNN sur TensorFlow, utiliser un modèle entrainé pour du transfer learning, classifier et localiser des objets
- RNN2
- 11.1Traiter des données séquentielles avec des RNN et des CNN: les neuronnes récurrents, les layers récurrentes, l’entrainement d’un RNN, prédiction d’une série temporelle
- 11.2Le NLP & le RNN: la préparation de données textuelles, séparation du dataset en plusieurs fenêtres, classification de texte
- RNN2
- 12.1Traiter des données séquentielles avec des RNN et des CNN: les neuronnes récurrents, les layers récurrentes, l’entrainement d’un RNN, prédiction d’une série temporelle
- 12.2Le NLP & le RNN: la préparation de données textuelles, séparation du dataset en plusieurs fenêtres, classification de texte
- Autoencoders1
- 13.1Representation Learning & Generative learning avec des Autoencoders et des GAN: créer un PCA avec une partie d’AutoEncodeur, établir un Stacked Autoencoders avec TensorFlow
- Autoencoders1
- 14.1Representation Learning & Generative learning avec des Autoencoders et des GAN: créer un PCA avec une partie d’AutoEncodeur, établir un Stacked Autoencoders avec TensorFlow