Détails
- 42 Sections
- 262 Lessons
- 28 heures
Expand all sectionsCollapse all sections
- Introduction9
- 1.1Conception d’un graphe & exécution au sein d’une session
- 1.2Cycle de vie de la valeur d’un nœud
- 1.3Manipulation des matrices
- 1.4Régression linéaire
- 1.5Descente de gradient
- 1.6Fourniture des données à l’algorithme d’entraînement
- 1.7Enregistrement et restauration des modèles
- 1.8Visualisation du graphe & courbes d’apprentissage
- 1.9Travaux pratiques : cas concrets de ML en classification & régression
- Introduction9
- 2.1Conception d’un graphe & exécution au sein d’une session
- 2.2Cycle de vie de la valeur d’un nœud
- 2.3Manipulation des matrices
- 2.4Régression linéaire
- 2.5Descente de gradient
- 2.6Fourniture des données à l’algorithme d’entraînement
- 2.7Enregistrement et restauration des modèles
- 2.8Visualisation du graphe & courbes d’apprentissage
- 2.9Travaux pratiques : cas concrets de ML en classification & régression
- Introduction9
- 3.1Conception d’un graphe & exécution au sein d’une session
- 3.2Cycle de vie de la valeur d’un nœud
- 3.3Manipulation des matrices
- 3.4Régression linéaire
- 3.5Descente de gradient
- 3.6Fourniture des données à l’algorithme d’entraînement
- 3.7Enregistrement et restauration des modèles
- 3.8Visualisation du graphe & courbes d’apprentissage
- 3.9Travaux pratiques : cas concrets de ML en classification & régression
- Introduction9
- 4.1Conception d’un graphe & exécution au sein d’une session
- 4.2Cycle de vie de la valeur d’un nœud
- 4.3Manipulation des matrices
- 4.4Régression linéaire
- 4.5Descente de gradient
- 4.6Fourniture des données à l’algorithme d’entraînement
- 4.7Enregistrement et restauration des modèles
- 4.8Visualisation du graphe & courbes d’apprentissage
- 4.9Travaux pratiques : cas concrets de ML en classification & régression
- Introduction9
- 5.1Conception d’un graphe & exécution au sein d’une session
- 5.2Cycle de vie de la valeur d’un nœud
- 5.3Manipulation des matrices
- 5.4Régression linéaire
- 5.5Descente de gradient
- 5.6Fourniture des données à l’algorithme d’entraînement
- 5.7Enregistrement et restauration des modèles
- 5.8Visualisation du graphe & courbes d’apprentissage
- 5.9Travaux pratiques : cas concrets de ML en classification & régression
- Introduction9
- 6.1Conception d’un graphe & exécution au sein d’une session
- 6.2Cycle de vie de la valeur d’un nœud
- 6.3Manipulation des matrices
- 6.4Régression linéaire
- 6.5Descente de gradient
- 6.6Fourniture des données à l’algorithme d’entraînement
- 6.7Enregistrement et restauration des modèles
- 6.8Visualisation du graphe & courbes d’apprentissage
- 6.9Travaux pratiques : cas concrets de ML en classification & régression
- Introduction aux réseaux de neurones artificiels3
- 7.1Entrainement d’un PMC avec une API TensorFlow de haut niveau
- 7.2Entrainement d’un PMC à l’aide de TensorFlow
- 7.3Configuration précise des hyperparamètres d’un réseau de neurones
- Introduction aux réseaux de neurones artificiels3
- 8.1Entrainement d’un PMC avec une API TensorFlow de haut niveau
- 8.2Entrainement d’un PMC à l’aide de TensorFlow
- 8.3Configuration précise des hyperparamètres d’un réseau de neurones
- Introduction aux réseaux de neurones artificiels3
- 9.1Entrainement d’un PMC avec une API TensorFlow de haut niveau
- 9.2Entrainement d’un PMC à l’aide de TensorFlow
- 9.3Configuration précise des hyperparamètres d’un réseau de neurones
- Introduction aux réseaux de neurones artificiels3
- 10.1Entrainement d’un PMC avec une API TensorFlow de haut niveau
- 10.2Entrainement d’un PMC à l’aide de TensorFlow
- 10.3Configuration précise des hyperparamètres d’un réseau de neurones
- Introduction aux réseaux de neurones artificiels3
- 11.1Entrainement d’un PMC avec une API TensorFlow de haut niveau
- 11.2Entrainement d’un PMC à l’aide de TensorFlow
- 11.3Configuration précise des hyperparamètres d’un réseau de neurones
- Introduction aux réseaux de neurones artificiels3
- 12.1Entrainement d’un PMC avec une API TensorFlow de haut niveau
- 12.2Entrainement d’un PMC à l’aide de TensorFlow
- 12.3Configuration précise des hyperparamètres d’un réseau de neurones
- Entraînement de réseaux de neurones profonds6
- 13.1Difficultés de disparition & d’explosion des gradients
- 13.2Réutilisation des couches pré-entraînées
- 13.3Optimiseurs plus rapides
- 13.4Sur-ajustement grâce à la régularisation
- 13.5Recommandations pratiques
- 13.6Travaux pratiques : implémentation d’un réseau de neurones à la manière du framework TensorFlow
- Entraînement de réseaux de neurones profonds6
- 14.1Difficultés de disparition & d’explosion des gradients
- 14.2Réutilisation des couches pré-entraînées
- 14.3Optimiseurs plus rapides
- 14.4Sur-ajustement grâce à la régularisation
- 14.5Recommandations pratiques
- 14.6Travaux pratiques : implémentation d’un réseau de neurones à la manière du framework TensorFlow
- Entraînement de réseaux de neurones profonds6
- 15.1Difficultés de disparition & d’explosion des gradients
- 15.2Réutilisation des couches pré-entraînées
- 15.3Optimiseurs plus rapides
- 15.4Sur-ajustement grâce à la régularisation
- 15.5Recommandations pratiques
- 15.6Travaux pratiques : implémentation d’un réseau de neurones à la manière du framework TensorFlow
- Entraînement de réseaux de neurones profonds6
- 16.1Difficultés de disparition & d’explosion des gradients
- 16.2Réutilisation des couches pré-entraînées
- 16.3Optimiseurs plus rapides
- 16.4Sur-ajustement grâce à la régularisation
- 16.5Recommandations pratiques
- 16.6Travaux pratiques : implémentation d’un réseau de neurones à la manière du framework TensorFlow
- Entraînement de réseaux de neurones profonds6
- 17.1Difficultés de disparition & d’explosion des gradients
- 17.2Réutilisation des couches pré-entraînées
- 17.3Optimiseurs plus rapides
- 17.4Sur-ajustement grâce à la régularisation
- 17.5Recommandations pratiques
- 17.6Travaux pratiques : implémentation d’un réseau de neurones à la manière du framework TensorFlow
- Entraînement de réseaux de neurones profonds6
- 18.1Difficultés de disparition & d’explosion des gradients
- 18.2Réutilisation des couches pré-entraînées
- 18.3Optimiseurs plus rapides
- 18.4Sur-ajustement grâce à la régularisation
- 18.5Recommandations pratiques
- 18.6Travaux pratiques : implémentation d’un réseau de neurones à la manière du framework TensorFlow
- Réseaux de neurones convolutifs5
- 19.1Architecture du cortex visuel
- 19.2Couche de convolution
- 19.3Couche de pooling
- 19.4Architectures de CNN
- 19.5Travaux pratiques : implémentation des CNN en utilisant des jeux de données variés.
- Réseaux de neurones convolutifs5
- 20.1Architecture du cortex visuel
- 20.2Couche de convolution
- 20.3Couche de pooling
- 20.4Architectures de CNN
- 20.5Travaux pratiques : implémentation des CNN en utilisant des jeux de données variés.
- Réseaux de neurones convolutifs5
- 21.1Architecture du cortex visuel
- 21.2Couche de convolution
- 21.3Couche de pooling
- 21.4Architectures de CNN
- 21.5Travaux pratiques : implémentation des CNN en utilisant des jeux de données variés.
- Réseaux de neurones convolutifs5
- 22.1Architecture du cortex visuel
- 22.2Couche de convolution
- 22.3Couche de pooling
- 22.4Architectures de CNN
- 22.5Travaux pratiques : implémentation des CNN en utilisant des jeux de données variés.
- Réseaux de neurones convolutifs5
- 23.1Architecture du cortex visuel
- 23.2Couche de convolution
- 23.3Couche de pooling
- 23.4Architectures de CNN
- 23.5Travaux pratiques : implémentation des CNN en utilisant des jeux de données variés.
- Réseaux de neurones convolutifs5
- 24.1Architecture du cortex visuel
- 24.2Couche de convolution
- 24.3Couche de pooling
- 24.4Architectures de CNN
- 24.5Travaux pratiques : implémentation des CNN en utilisant des jeux de données variés.
- Présentation de l'outil Keras : Deep Learning4
- 25.1Régression logistique
- 25.2Perceptron
- 25.3Réseaux de neurones convolutifs
- 25.4Travaux pratiques : implémentation de Keras en utilisant des jeux de données variés
- Présentation de l'outil Keras : Deep Learning4
- 26.1Régression logistique
- 26.2Perceptron
- 26.3Réseaux de neurones convolutifs
- 26.4Travaux pratiques : implémentation de Keras en utilisant des jeux de données variés
- Présentation de l'outil Keras : Deep Learning4
- 27.1Régression logistique
- 27.2Perceptron
- 27.3Réseaux de neurones convolutifs
- 27.4Travaux pratiques : implémentation de Keras en utilisant des jeux de données variés
- Présentation de l'outil Keras : Deep Learning4
- 28.1Régression logistique
- 28.2Perceptron
- 28.3Réseaux de neurones convolutifs
- 28.4Travaux pratiques : implémentation de Keras en utilisant des jeux de données variés
- Présentation de l'outil Keras : Deep Learning4
- 29.1Régression logistique
- 29.2Perceptron
- 29.3Réseaux de neurones convolutifs
- 29.4Travaux pratiques : implémentation de Keras en utilisant des jeux de données variés
- Présentation de l'outil Keras : Deep Learning4
- 30.1Régression logistique
- 30.2Perceptron
- 30.3Réseaux de neurones convolutifs
- 30.4Travaux pratiques : implémentation de Keras en utilisant des jeux de données variés
- Réseaux de neurones récurrents8
- 31.1Neurones récurrents
- 31.2RNR de base avec TensorFlow
- 31.3Entrainement des RNR
- 31.4RNR profonds
- 31.5Cellule LSTM
- 31.6Cellule GRU
- 31.7Traitement automatique du langage naturel
- 31.8Travaux pratiques : implémentation des RNN en utilisant des jeux de données variés
- Réseaux de neurones récurrents8
- 32.1Neurones récurrents
- 32.2RNR de base avec TensorFlow
- 32.3Entrainement des RNR
- 32.4RNR profonds
- 32.5Cellule LSTM
- 32.6Cellule GRU
- 32.7Traitement automatique du langage naturel
- 32.8Travaux pratiques : implémentation des RNN en utilisant des jeux de données variés
- Réseaux de neurones récurrents8
- 33.1Neurones récurrents
- 33.2RNR de base avec TensorFlow
- 33.3Entrainement des RNR
- 33.4RNR profonds
- 33.5Cellule LSTM
- 33.6Cellule GRU
- 33.7Traitement automatique du langage naturel
- 33.8Travaux pratiques : implémentation des RNN en utilisant des jeux de données variés
- Réseaux de neurones récurrents8
- 34.1Neurones récurrents
- 34.2RNR de base avec TensorFlow
- 34.3Entrainement des RNR
- 34.4RNR profonds
- 34.5Cellule LSTM
- 34.6Cellule GRU
- 34.7Traitement automatique du langage naturel
- 34.8Travaux pratiques : implémentation des RNN en utilisant des jeux de données variés
- Réseaux de neurones récurrents8
- 35.1Neurones récurrents
- 35.2RNR de base avec TensorFlow
- 35.3Entrainement des RNR
- 35.4RNR profonds
- 35.5Cellule LSTM
- 35.6Cellule GRU
- 35.7Traitement automatique du langage naturel
- 35.8Travaux pratiques : implémentation des RNN en utilisant des jeux de données variés
- Réseaux de neurones récurrents8
- 36.1Neurones récurrents
- 36.2RNR de base avec TensorFlow
- 36.3Entrainement des RNR
- 36.4RNR profonds
- 36.5Cellule LSTM
- 36.6Cellule GRU
- 36.7Traitement automatique du langage naturel
- 36.8Travaux pratiques : implémentation des RNN en utilisant des jeux de données variés
- Autoencodeurs8
- 37.1Représentations efficaces des données
- 37.2Autoencodeurs empilés
- 37.3Pré-entraînement non supervisé.
- 37.4Autoencodeurs débruiteurs.
- 37.5Autoencodeurs épars
- 37.6Autoencodeurs variationnels
- 37.7Autres autoencodeurs
- 37.8Travaux pratiques : Implémentation d’autoencodeurs en utilisant des jeux de données variés
- Autoencodeurs9
- 38.1Représentations efficaces des données
- 38.2ACP avec un autoencodeur linéaire sous-complet
- 38.3Autoencodeurs empilés
- 38.4Pré-entraînement non supervisé.
- 38.5Autoencodeurs débruiteurs.
- 38.6Autoencodeurs épars
- 38.7Autoencodeurs variationnels
- 38.8Autres autoencodeurs
- 38.9Travaux pratiques : Implémentation d’autoencodeurs en utilisant des jeux de données variés
- Autoencodeurs9
- 39.1Représentations efficaces des données
- 39.2ACP avec un autoencodeur linéaire sous-complet
- 39.3Autoencodeurs empilés
- 39.4Pré-entraînement non supervisé.
- 39.5Autoencodeurs débruiteurs.
- 39.6Autoencodeurs épars
- 39.7Autoencodeurs variationnels
- 39.8Autres autoencodeurs
- 39.9Travaux pratiques : Implémentation d’autoencodeurs en utilisant des jeux de données variés
- Autoencodeurs9
- 40.1Représentations efficaces des données
- 40.2ACP avec un autoencodeur linéaire sous-complet
- 40.3Autoencodeurs empilés
- 40.4Pré-entraînement non supervisé.
- 40.5Autoencodeurs débruiteurs.
- 40.6Autoencodeurs épars
- 40.7Autoencodeurs variationnels
- 40.8Autres autoencodeurs
- 40.9Travaux pratiques : Implémentation d’autoencodeurs en utilisant des jeux de données variés
- Autoencodeurs8
- 41.1Représentations efficaces des données
- 41.2Autoencodeurs empilés
- 41.3Pré-entraînement non supervisé.
- 41.4Autoencodeurs débruiteurs.
- 41.5Autoencodeurs épars
- 41.6Autoencodeurs variationnels
- 41.7Autres autoencodeurs
- 41.8Travaux pratiques : Implémentation d’autoencodeurs en utilisant des jeux de données variés
- Autoencodeurs9
- 42.1Représentations efficaces des données
- 42.2ACP avec un autoencodeur linéaire sous-complet
- 42.3Autoencodeurs empilés
- 42.4Pré-entraînement non supervisé.
- 42.5Autoencodeurs débruiteurs.
- 42.6Autoencodeurs épars
- 42.7Autoencodeurs variationnels
- 42.8Autres autoencodeurs
- 42.9Travaux pratiques : Implémentation d’autoencodeurs en utilisant des jeux de données variés