Talend – Intégration de données pour le Big Data

0 Enrolled
21 heures
  • 21 heures
  • 82
  • 0
  • no
2,100.00€

Aperçu du cours

Objectifs de formation : à l’issue de la formation, le stagiaire sera capable d’utiliser Talend pour intégrer et manipuler les principaux flux de données.

Prérequis

  • Avoir des connaissances en Hadoop, Spark et Kafka

Fonctionnalités

  • Maîtriser Talend dans un environnement Big Data
  • Se servir de Talend comme lien entre les fichiers, applications et bases de données
  • Acquérir la philosophie de l'outil
  • Adopter des bonnes pratiques et concevoir des Systèmes d’informations flexibles et robustes
  • Être capable d'implémenter ses Jobs
  • Lire et écrire des données sur HDFS et dans des bases de données NoSQL avec des Jobs Talend
  • Réaliser des Jobs de transformation à l'aide de Pig et Hive
  • Gérer la qualité de la donnée avec Talend
  • Utiliser Scoop pour faciliter la migration de bases de données relationnelles dans Hadoop
  • Maîtriser l'utilisation de la bibliothèque de composants
  • Effectuer des traitements ETL (Extraction, Transform and Load) simple et complexes de bout en bout

Public ciblé

  • Consultants BI
  • Architectes
  • Chefs de projets
  • Gestionnaires de données
  • Toute personne devant gérer des flux de données

Détails

  • 20 Sections
  • 82 Lessons
  • 21 heures
Expand all sectionsCollapse all sections
  • 6
    • 1.1
      Introduction : présentation, définitions, forces & faiblesses
    • 1.2
      Versions & compatibilité
    • 1.3
      Installation
    • 1.4
      Création d’un projet
    • 1.5
      Monitoring d’un cluster Hadoop
    • 1.6
      Construction d’un cluster de métadonnées
  • 6
    • 2.1
      Introduction : présentation, définitions, forces & faiblesses
    • 2.2
      Versions & compatibilité
    • 2.3
      Installation
    • 2.4
      Création d’un projet
    • 2.5
      Monitoring d’un cluster Hadoop
    • 2.6
      Construction d’un cluster de métadonnées
  • 4
    • 3.1
      Stockage d’un fichier
    • 3.2
      Stockage de plusieurs fichiers
    • 3.3
      Lecture de données
    • 3.4
      Utilisation de HBase pour la sauvegarde des données
  • 4
    • 4.1
      Stockage d’un fichier
    • 4.2
      Stockage de plusieurs fichiers
    • 4.3
      Lecture de données
    • 4.4
      Utilisation de HBase pour la sauvegarde des données
  • 4
    • 5.1
      Présentation de Sqoop
    • 5.2
      Importation de tables avec Sqoop
    • 5.3
      Présentation d’Hive
    • 5.4
      Création de tables dans HDFS avec Hive
  • 4
    • 6.1
      Présentation de Sqoop
    • 6.2
      Importation de tables avec Sqoop
    • 6.3
      Présentation d’Hive
    • 6.4
      Création de tables dans HDFS avec Hive
  • 3
    • 7.1
      Utilisation d’Hive pour le traitement des tables avec des jobs
    • 7.2
      Utilisation d’Apache Pig pour le traitement des données
    • 7.3
      Traitement des données par lots
  • 3
    • 8.1
      Utilisation d’Hive pour le traitement des tables avec des jobs
    • 8.2
      Utilisation d’Apache Pig pour le traitement des données
    • 8.3
      Traitement des données par lots
  • 2
    • 9.1
      Guide de dépannage
    • 9.2
      Mise en oeuvre du dépannage
  • 2
    • 10.1
      Guide de dépannage
    • 10.2
      Mise en oeuvre du dépannage
  • 9
    • 11.1
      Surveillance du Cluster Hadoop
    • 11.2
      Construction d’un environnement de développement
    • 11.3
      Chargement des données HDFS
    • 11.4
      Enrichissement des logs
    • 11.5
      Calcul & suivi des statistiques
    • 11.6
      Création d’un lot Big Data à partir d’un job standard
    • 11.7
      Jobs MapReduce
    • 11.8
      Configuration des resource requests vers YARN à l’aide du studio
    • 11.9
      Cas pratique : Chargement d’un dictionnaire dans HDFS, incorporation de contenu avec MapReduce & planification de l’exécution du job
  • 9
    • 12.1
      Surveillance du Cluster Hadoop
    • 12.2
      Construction d’un environnement de développement
    • 12.3
      Chargement des données HDFS
    • 12.4
      Enrichissement des logs
    • 12.5
      Calcul & suivi des statistiques
    • 12.6
      Création d’un lot Big Data à partir d’un job standard
    • 12.7
      Jobs MapReduce
    • 12.8
      Configuration des resource requests vers YARN à l’aide du studio
    • 12.9
      Cas pratique : Chargement d’un dictionnaire dans HDFS, incorporation de contenu avec MapReduce & planification de l’exécution du job
  • 4
    • 13.1
      Surveillance du cluster Hadoop
    • 13.2
      Comprendre les bases de kafka
    • 13.3
      Publication de messages sur un sujet
    • 13.4
      Consommer des messages
  • 4
    • 14.1
      Surveillance du cluster Hadoop
    • 14.2
      Comprendre les bases de kafka
    • 14.3
      Publication de messages sur un sujet
    • 14.4
      Consommer des messages
  • 3
    • 15.1
      Compréhension des bases de Spark
    • 15.2
      Analyse des données des clients
    • 15.3
      Production & consommation des messages en temps réel
  • 3
    • 16.1
      Compréhension des bases de Spark
    • 16.2
      Analyse des données des clients
    • 16.3
      Production & consommation des messages en temps réel
  • 4
    • 17.1
      Génération de logs bruts
    • 17.2
      Génération de logs enrichis
    • 17.3
      Surveillance des logs enrichis
    • 17.4
      Création de rapports à partir des fenêtres de données
  • 4
    • 18.1
      Génération de logs bruts
    • 18.2
      Génération de logs enrichis
    • 18.3
      Surveillance des logs enrichis
    • 18.4
      Création de rapports à partir des fenêtres de données
  • 2
    • 19.1
      Ingestion de flux de données
    • 19.2
      Analyse de logs à partir d’un batch job
  • 2
    • 20.1
      Ingestion de flux de données
    • 20.2
      Analyse de logs à partir d’un batch job

Instructeur

Avatar de l’utilisateur

bprigent

0.0
0 commentaire
0 Students
840 Courses