Support & Downloads

Quisque actraqum nunc no dolor sit ametaugue dolor. Lorem ipsum dolor sit amet, consyect etur adipiscing elit.

s f

Contact Info
198 West 21th Street, Suite 721
New York, NY 10010
youremail@yourdomain.com
+88 (0) 101 0000 000
Follow Us

Formation Azure - Ingénierie de données

           réf : BDT-MAI

Formation Azure - Ingénierie de données

Objectif de formation : La formation Azure Ingénierie de données vous apprendra à concevoir et à mettre en œuvre des solutions d’ingénierie des données à l’aide des technologies de la plateforme de données Azure. Vous apprendrez à construire des solutions d’analyse en temps réel et par lots, en utilisant Azure SQL Database, HDInsight, Data Lake Store, et plus encore. À l’issue de cette formation, vous serez en mesure de concevoir et de mettre en œuvre des solutions d’ingénierie de données de bout en bout sur la plateforme Azure.

Option : Examen DP-203 pour la certification Microsoft Azure Data Engineer Associate

Objectifs pédagogiques

  • Explorer les options de calcul et de stockage pour les charges de travail d’ingénierie des données dans Azure
  • Concevoir et mettre en œuvre la couche de service
  • Comprendre les considérations relatives à l’ingénierie des données
  • Exécuter des requêtes interactives à l’aide de pools SQL sans serveur
  • Explorer, transformer et charger des données dans l’entrepôt de données à l’aide d’Apache Spark
  • Effectuer l’exploration et la transformation des données dans Azure Databricks
  • Ingérer et charger des données dans l’entrepôt de données
  • Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines
  • Intégrer les données des ordinateurs portables avec Azure Data Factory ou Azure Synapse Pipelines
  • Optimiser les performances des requêtes avec des pools SQL dédiés dans Azure Synapse
  • Analyser et optimiser le stockage dans l’entrepôt de données
  • Prendre en charge le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
  • Assurer la sécurité de bout en bout avec Azure Synapse Analytics
  • Effectuer un traitement de flux en temps réel avec Stream Analytics
  • Créer une solution de traitement en continu avec Event Hubs et Azure Databricks
  • Créer des rapports à l’aide de l’intégration Power BI avec Azure Synpase Analytics
  • Exécuter des processus d’apprentissage automatiques intégrés dans Azure Synapse Analytics 

Pré-requis

Les participants doivent avoir une connaissance du cloud computing et des concepts de données de base et une expérience professionnelle des solutions de données

Avoir suivi les formations « Azure – Les fondamentaux » & « Microsoft Azure – Data Fundamentals« , ou posséder des connaissances équivalentes

Public concerné

Data Engineers, Data Scientists, architectes de données, Data analysts

Programme de formation Azure

  • Introduction à Azure Synapse Analytics
  • Description d’Azure Databricks
  • Introduction au stockage Azure Data Lake
  • Décrire l’architecture Delta Lake
  • Travailler avec des flux de données à l’aide d’Azure Stream Analytics
  • Combiner le traitement en continu et le traitement par lots avec un seul pipeline
  • Organiser le lac de données en niveaux de transformation de fichiers
  • Indexer le stockage du lac de données pour accélérer les requêtes et les charges de travail
  • Concevoir un schéma multidimensionnel pour optimiser les charges de travail analytiques
  • Transformation sans code à l’échelle avec Azure Data Factory
  • Remplissage de dimensions à évolution lente dans les pipelines Azure Synapse Analytics
  • Conception d’un schéma en étoile pour les charges de travail analytiques
  • Remplissage de dimensions à évolution lente avec Azure Data Factory et mappage des flux de données
  • Concevoir un entrepôt de données moderne à l’aide d’Azure Synapse Analytics
  • Sécuriser un entrepôt de données dans Azure Synapse Analytics
  • Gestion des fichiers dans un lac de données Azure
  • Sécurisation des fichiers stockés dans un lac de données Azure
  • Explorer les fonctionnalités des pools SQL sans serveur Azure Synapse
  • Interroger les données dans le lac à l’aide des pools SQL sans serveur Azure Synapse
  • Créer les objets de métadonnées dans les pools SQL sans serveur Azure Synapse
  • Sécuriser les données et gérer les utilisateurs dans les pools SQL sans serveur Azure Synapse
  • Interroger des données Parquet avec des pools SQL sans serveur
  • Créer des tables externes pour les fichiers Parquet et CSV
  • Créer des vues avec des pools SQL sans serveur
  • Sécuriser l’accès aux données dans un lac de données en utilisant des pools SQL sans serveur
  • Configurer la sécurité du lac de données en utilisant le contrôle d’accès basé sur les rôles (RBAC) et la liste de contrôle d’accès
  • Comprendre l’ingénierie du big data avec Apache Spark dans Azure Synapse Analytics
  • Ingérer des données avec Apache Spark notebooks dans Azure Synapse Analytics
  • Transformer les données avec DataFrames dans les pools Apache Spark dans Azure Synapse Analytics
  • Intégrer des pools SQL et Apache Spark dans Azure Synapse Analytics
  • Exploration des données dans Synapse Studio
  • Ingérer des données avec les notebooks Spark dans Azure Synapse Analytics
  • Transformer des données avec des DataFrames dans des pools Spark dans Azure Synapse Analytics
  • Intégrer des pools SQL et Spark dans Azure Synapse Analytics
  • Décrire Azure Databricks
  • Lire et écrire des données dans Azure Databricks
  • Travailler avec des DataFrames dans Azure Databricks
  • Utiliser les méthodes avancées des DataFrames dans Azure Databricks
  • Les DataFrames dans Azure Databricks pour explorer et filtrer les données
  • Mettre en cache un DataFrame pour accélérer les requêtes ultérieures
  • Supprimer des données dupliquées
  • Manipuler des valeurs de date et d’heure
  • Supprimer et renommer des colonnes de DataFrame
  • Agréger des données stockées dans un DataFrame
  • Utiliser les meilleures pratiques de chargement de données dans Azure Synapse Analytics
  • Ingérer à l’échelle du pétaoctet avec Azure Data Factory
  • Effectuez une ingestion à l’échelle du pétaoctet avec Azure Synapse Pipelines.
  • Importer des données avec PolyBase et COPY à l’aide de T-SQL
  • Utiliser les meilleures pratiques de r données dans Azure Synapse Analytics
  • Intégrer des données avec Azure Data Factory ou Azure Synapse Pipelines
  • Transformer sans code à l’échelle avec Azure Data Factory ou Azure Synapse Pipelines
  • Exécution de transformations sans code à l’échelle avec Azure Synapse Pipelines
  • Créer un pipeline de données pour importer des fichiers CSV mal formatés
  • Créer des flux de données mappés
  • Orchestrer le mouvement et la transformation des données dans Azure Data Factory
  • Intégrer les données des Notebooks avec Azure Data Factory ou Azure Synapse Pipelines
  • Optimiser les performances des requêtes de l’entrepôt de données dans Azure Synapse Analytics.
  • Comprendre les fonctions de développement d’entrepôt de données d’Azure Synapse Analytics
  • Comprendre les fonctionnalités de développement d’Azure Synapse Analytics
  • Optimiser les performances des requêtes de l’entrepôt de données dans Azure Synapse Analytics
  • Améliorer les performances des requêtes
  • Analyser et optimiser le stockage de l’entrepôt de données dans Azure Synapse Analytics
  • Vérifier si les données et l’utilisation de l’espace sont asymétriques
  • Comprendre les détails du stockage en colonnes
  • Étudier l’impact des vues matérialisées
  • Explorer les règles pour les opérations à journalisation minimale
  • Concevoir un traitement transactionnel et analytique hybride à l’aide d’Azure Synapse Analytics
  • Configurer Azure Synapse Link avec Azure Cosmos DB
  • Interroger Azure Cosmos DB avec des pools Apache Spark
  • Interroger Azure Cosmos DB avec des pools SQL sans serveur
  • Configuration d’Azure Synapse Link avec Azure Cosmos DB
  • Interroger Azure Cosmos DB avec Apache Spark pour Synapse Analytics
  • Interroger Azure Cosmos DB avec un pool SQL sans serveur pour Azure Synapse Analytics
  • Sécurisation d’un entrepôt de données dans Azure Synapse Analytics
  • Configuration et gestion des secrets dans Azure Key Vault
  • Mise en œuvre de contrôles de conformité pour les données sensibles
  • Sécurisation de l’infrastructure de support d’Azure Synapse Analytics
  • Sécurisation de l’espace de travail et des services gérés Azure Synapse Analytics
  • Sécurisation des données de l’espace de travail Azure Synapse Analytics
  • Activation d’une messagerie fiable pour les applications Big Data à l’aide d’Azure Event Hubs
  • Travailler avec des flux de données à l’aide d’Azure Stream Analytics
  • Ingérer des flux de données avec Azure Stream Analytics
  • Utiliser Stream Analytics pour traiter les données en temps réel provenant des Event Hubs
  • Utiliser les fonctions de fenêtrage de Stream Analytics pour créer des agrégats et les transmettre à Synapse Analytics
  • Faites évoluer le job Azure Stream Analytics pour augmenter le débit grâce au partitionnement
  • Repartitionner l’entrée du flux pour optimiser la parallélisation
  • Traitement des données en continu avec le streaming structuré d’Azure Databricks
  • Explorer les principales caractéristiques et utilisations du streaming structuré
  • Streamer des données à partir d’un fichier et les écrire sur un système de fichiers distribué
  • Utiliser des fenêtres glissantes pour agréger des morceaux de données plutôt que toutes les données
  • Appliquer le filigrane pour supprimer les données périmées
  • Connexion aux flux de lecture et d’écriture des Event Hubs
  • Créer des rapports avec Power BI en utilisant son intégration avec Azure Synapse Analytics
  • Intégrer un espace de travail Azure Synapse et Power BI
  • Optimiser l’intégration avec Power BI
  • Améliorer les performances des requêtes avec les vues matérialisées et la mise en cache des ensembles de résultats
  • Visualisation des données avec SQL serverless et création d’un rapport Power BI
  • Exécuter des processus d’apprentissage automatique intégrés dans Azure Synapse Analytics
  • Créer un service lié à Azure Machine Learning
  • Déclencher une expérience Auto ML à l’aide de données provenant d’une table Spark
  • Enrichir les données à l’aide de modèles formés
  • Afficher les résultats de prédiction à l’aide de Power BI

Équipe pédagogique

Professionnel expert technique et pédagogique

Moyens pédagogiques et techniques

  • Espace intranet de formation.
  • Documents supports de formation projetés.
  • Exposés théoriques
  • Étude de cas concrets
  • Mise à disposition en ligne de documents supports à la suite de la formation.

Dispositif de suivi

  • Émargement numérique.
  • Mises en situation.
  • Formulaires d’évaluation de la formation.
  • Certificat de réalisation de l’action de formation Azure.

Vous avez une question ?