Support & Downloads

Quisque actraqum nunc no dolor sit ametaugue dolor. Lorem ipsum dolor sit amet, consyect etur adipiscing elit.

s f

Contact Info
198 West 21th Street, Suite 721
New York, NY 10010
youremail@yourdomain.com
+88 (0) 101 0000 000
Follow Us

Deep Learning - Fondamentaux

réf : BDT-DLF
Formation Python - Programmation scientifique

Objectifs de formation : Le stagiaire apprendra les concepts clés du Deep Learning lors de cette formation afin de pouvoir intégrer ces fondamentaux dans la mise en place de réseaux de neurones. La formation est composée de modules théoriques et pratiques qui permettront au stagiaire d’acquérir les compétences nécessaires pour mettre en œuvre des algorithmes d’apprentissage profond.

Objectifs pédagogiques

  • Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds)
  • Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  • Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
  • Appréhender les bases théoriques et pratiques d’architecture et de convergence de réseaux de neurones
  • Comprendre les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils

Prérequis

Avoir des bases en programmation et une bonne maîtrise des outils informatiques et statistiques

Connaitre les bases du Machine Learning est recommandé

Public concerné

Analystes, ingénieurs, data scientists, data analysts, data steward, développeurs, toute personne intéressée par le Deep Learning et les réseaux de neurones

Programme

  • Le fantasme de l’intelligence artificielle face aux réalités d’aujourd’hui
  • Disparition des algorithmes, nouvelle modélisation des problèmes
  • Machine learning : présentation de l’apprentissage
  • Approches principales
  • Actions principales
  • Algorithmes à évolution
  • Exemples d’algorithmes Machine Learning : Régression linéaire, Naive Bayes, Random Tree.
    • Bases mathématiques
    • Définition du réseau neuronal
    • Définition de l’apprentissage
    • Modélisation d’un réseau neuronal
    • Estimer une distribution par un réseau de neurones
    • Data Augmentation
    • Généralisation des résultats d’un réseau de neurones
    • Initialisations et régularisations d’un réseau de neurones
    • Optimisations et algorithmes de convergence
  • Outils de gestion de donnée
  • Outils Machine Learning usuel
  • Frameworks DL haut niveau
  • Frameworks DL bas niveau
  • Définition, fondements & applications
  • Fonctionnement
  • Architecture CNN pour la classification d’images
  • Modèle d’attention
  • Application à une classification usuel
  • CNN & génération
  • Stratégies d’augmentation des Feature Maps pour la génération d’une image
  • Définition, fondements & applications
  • Fonctionnement
  • Évolutions : GRU & LSTM
  • Problèmes de convergence & vanising gradient
  • Types d’architecture
  • Architecture RNN Encorder Decoder
  • Application NLP
  • Application vidéo
  • Définition, fondements & applications
  • Auto-encoder & Variational AutoEncoder
  • Espace latent
  • Reparameterization trick
  • Generative Adversarial Networks
  • Convergence d’un GAN & problématiques
  • Convergence améliorée
  • Applications
  • Reinforcement Learning
  • Fonction d’état & réseau neuronal
  • Deep Q Learning
  • Optimisations de la politique d’apprentissage & On-policy et off-policy
  • Actor critic architecture & A3C
  • Applications

S'inscrire à la session

    Jours

    3 (21 heures)

    Date

    Du 13 au 15 novembre 2023

    Prix

    2100 €

    À distance

    Télécharger