Détails
- 10 Sections
- 76 Lessons
- 21 heures
Expand all sectionsCollapse all sections
- Les bases traditionnelles du Text Mining8
- 1.1L’utilisation d’API pour récupérer des données textuelles
- 1.2Préparer les données textuelles selon le cas d’usage
- 1.3Récupérer et explorer le corpus de textes
- 1.4Supprimer les caractères accentués et spéciaux
- 1.5Stemming Lemmatization & retrait des mots de liaison
- 1.6Rassembler les données pour le nettoyage
- 1.7Normaliser les données
- 1.8Travaux pratiques : mise en oeuvre des concepts présentés : recherche, préparation, transformation et vectorisation des données
- Les bases traditionnelles du Text Mining8
- 2.1L’utilisation d’API pour récupérer des données textuelles
- 2.2Préparer les données textuelles selon le cas d’usage
- 2.3Récupérer et explorer le corpus de textes
- 2.4Supprimer les caractères accentués et spéciaux
- 2.5Stemming Lemmatization & retrait des mots de liaison
- 2.6Rassembler les données pour le nettoyage
- 2.7Normaliser les données
- 2.8Travaux pratiques : mise en oeuvre des concepts présentés : recherche, préparation, transformation et vectorisation des données
- Feature engineering : répresentation de texte7
- 3.1Présentation de la syntaxe et de la structure du texte
- 3.2Le modèle Bag of Words & Bag of N-Grams
- 3.3Le modèle TF-IDF, Transformer & Vectorizer
- 3.4Le modèle Word2Vec et l’implémenter avec Gensim
- 3.5Le modèle GloVe
- 3.6Le modèle FastText
- 3.7Travaux pratiques : mettre en oeuvre des opérations d’extraction de caractéristiques de données textuelles, bâtir des classifications à partir des caractéristiques extraites.
- Feature engineering : répresentation de texte7
- 4.1Présentation de la syntaxe et de la structure du texte
- 4.2Le modèle Bag of Words & Bag of N-Grams
- 4.3Le modèle TF-IDF, Transformer & Vectorizer
- 4.4Le modèle Word2Vec et l’implémenter avec Gensim
- 4.5Le modèle GloVe
- 4.6Le modèle FastText
- 4.7Travaux pratiques : mettre en oeuvre des opérations d’extraction de caractéristiques de données textuelles, bâtir des classifications à partir des caractéristiques extraites.
- Similarité des textes et classification non-supervisée6
- 5.1Les concepts fondamentaux de similarité
- 5.2Analyser la similarité des termes : distances Hamming, Manhattan, Euclidienne et Levenshtein
- 5.3Analyser la similarité des documents
- 5.4Okopi BM25 et le palmarès de classement
- 5.5Les algorithmes de classification non supervisée
- 5.6Travaux pratiques : bâtir le système de recommandation des produits similaires à partir de la base de la description et du contenu des produits
- Similarité des textes et classification non-supervisée6
- 6.1Les concepts fondamentaux de similarité
- 6.2Analyser la similarité des termes : distances Hamming, Manhattan, Euclidienne et Levenshtein
- 6.3Analyser la similarité des documents
- 6.4Okopi BM25 et le palmarès de classement
- 6.5Les algorithmes de classification non supervisée
- 6.6Travaux pratiques : bâtir le système de recommandation des produits similaires à partir de la base de la description et du contenu des produits
- La classification supervisée du texte9
- 7.1Prétraitement et normalisation des données
- 7.2Modèles de classification
- 7.3Multinomial Naïve Bayes
- 7.4Régression logistique
- 7.5Support Vector Machines
- 7.6Random forest
- 7.7Gradient Boosting Machines
- 7.8Évaluation des modèles de classification
- 7.9Travaux pratiques : mettre en oeuvre des classifications supervisées sur plusieurs jeux de données
- La classification supervisée du texte9
- 8.1Prétraitement et normalisation des données
- 8.2Modèles de classification
- 8.3Multinomial Naïve Bayes
- 8.4Régression logistique
- 8.5Support Vector Machines
- 8.6Random forest
- 8.7Gradient Boosting Machines
- 8.8Évaluation des modèles de classification
- 8.9Travaux pratiques : mettre en oeuvre des classifications supervisées sur plusieurs jeux de données
- NLP & Deep Learning8
- 9.1Les instances NLP : NLTK, TextBlob, SpaCy, Gensim, Pattern, Stanford CoreNLP
- 9.2Les librairies de Deep Learning : Theano, TensorFlow, Keras
- 9.3Natural Language Processing & Recurrent Neural Networks
- 9.4RNN & Long Short-Term Memory
- 9.5Les modèles bidirectionnels RNN
- 9.6Les modèles Sequence-to-Sequence
- 9.7Questions & réponses avec les modèles RNN
- 9.8Travaux pratiques : créer un RNN pour générer un texte
- NLP & Deep Learning8
- 10.1Les instances NLP : NLTK, TextBlob, SpaCy, Gensim, Pattern, Stanford CoreNLP
- 10.2Les librairies de Deep Learning : Theano, TensorFlow, Keras
- 10.3Natural Language Processing & Recurrent Neural Networks
- 10.4RNN & Long Short-Term Memory
- 10.5Les modèles bidirectionnels RNN
- 10.6Les modèles Sequence-to-Sequence
- 10.7Questions & réponses avec les modèles RNN
- 10.8Travaux pratiques : créer un RNN pour générer un texte
Préparer les données textuelles selon le cas d’usage
Suivant