Kafka – Développeur

0 Enrolled
21 heures
  • 21 heures
  • 50
  • 0
  • no
2,100.00€

Aperçu du cours

Objectif de formation : Acquérir une compréhension des cas d’utilisation d’Apache Kafka et se familiariser avec les différentes APIs de Kafka.

Prérequis

  • Connaitre le développement Java

Fonctionnalités

  • Comprendre l'architecture en cluster de Kafka
  • Différencier les différents cas d'utilisation de Kafka
  • Utiliser les APIs de Kafka pour la production et la consommation de messages
  • Utiliser les APIs Kafka Connect et Kafka Admin
  • Explorer les APIs Kafka Streams et le serveur kSQLDB
  • Configurer les topics en fonction des exigences de fiabilité et de débit de vos applications

Public ciblé

  • Architectes
  • Développeurs

Détails

  • 8 Sections
  • 50 Lessons
  • 21 heures
Expand all sectionsCollapse all sections
  • 4
    • 1.1
      Origine et évolution d’Apache Kafka : histoire et objectifs du projet
    • 1.2
      Cas d’utilisation de Kafka dans différents contextes
    • 1.3
      Composants clés du système Kafka : ZooKeeper, brokers, topics, consumers, producers
    • 1.4
      Présentation des différentes APIs disponibles
  • 4
    • 2.1
      Origine et évolution d’Apache Kafka : histoire et objectifs du projet
    • 2.2
      Cas d’utilisation de Kafka dans différents contextes
    • 2.3
      Composants clés du système Kafka : ZooKeeper, brokers, topics, consumers, producers
    • 2.4
      Présentation des différentes APIs disponibles
  • 7
    • 3.1
      Le rôle de l’ensemble ZooKeeper dans un cluster Kafka
    • 3.2
      Connexion et utilisation de zkCli.sh pour interagir avec ZooKeeper
    • 3.3
      Configuration d’un broker Kafka
    • 3.4
      Analyse des traces d’un broker
    • 3.5
      Structure de stockage du commit log dans Kafka
    • 3.6
      Présentation des utilitaires fournis avec la distribution de Kafka
    • 3.7
      Travaux pratiques : Démarrage d’un ensemble ZooKeeper, connexion à un cluster Kafka à trois nœuds, création de topics, envoi et réception de messages en utilisant les commandes en ligne
  • 7
    • 4.1
      Le rôle de l’ensemble ZooKeeper dans un cluster Kafka
    • 4.2
      Connexion et utilisation de zkCli.sh pour interagir avec ZooKeeper
    • 4.3
      Configuration d’un broker Kafka
    • 4.4
      Analyse des traces d’un broker
    • 4.5
      Structure de stockage du commit log dans Kafka
    • 4.6
      Présentation des utilitaires fournis avec la distribution de Kafka
    • 4.7
      Travaux pratiques : Démarrage d’un ensemble ZooKeeper, connexion à un cluster Kafka à trois nœuds, création de topics, envoi et réception de messages en utilisant les commandes en ligne
  • 6
    • 5.1
      Présentation des APIs pour les producteurs (Producers API) et les consommateurs (Consumers API)
    • 5.2
      Exemples de frameworks utilisant Kafka
    • 5.3
      Utilisation de l’API Connect pour intégrer Kafka à d’autres systèmes
    • 5.4
      Présentation de l’API AdminClient pour la gestion des ressources Kafka
    • 5.5
      Introduction à l’API Streams pour le traitement des flux de données en temps réel
    • 5.6
      Travaux pratiques : Développement d’un producteur de messages, puis d’un consommateur, utilisation d’un framework réactif, utilisation de l’API Connect avec ELK (Elasticsearch, Logstash, Kibana)
  • 6
    • 6.1
      Présentation des APIs pour les producteurs (Producers API) et les consommateurs (Consumers API)
    • 6.2
      Exemples de frameworks utilisant Kafka
    • 6.3
      Utilisation de l’API Connect pour intégrer Kafka à d’autres systèmes
    • 6.4
      Présentation de l’API AdminClient pour la gestion des ressources Kafka
    • 6.5
      Introduction à l’API Streams pour le traitement des flux de données en temps réel
    • 6.6
      Travaux pratiques : Développement d’un producteur de messages, puis d’un consommateur, utilisation d’un framework réactif, utilisation de l’API Connect avec ELK (Elasticsearch, Logstash, Kibana)
  • 8
    • 7.1
      Stockage des partitions, segments et gestion de la rétention des données dans Kafka
    • 7.2
      Réplication des partitions : rôles des leaders, des followers et des ISR (In-Sync Replicas)
    • 7.3
      Fonctionnement du contrôleur Kafka, arrêt d’un broker leader ou d’un follower
    • 7.4
      Ajout d’un nouveau broker dans un cluster Kafka existant
    • 7.5
      Assurer la fiabilité de la production et de la consommation des messages
    • 7.6
      Présentation des sémantiques de livraison : Au plus une fois (At Most Once), Au moins une fois (At Least Once), Une seule fois (Exactly Once)
    • 7.7
      Outils de validation pour garantir la transmission des messages
    • 7.8
      Travaux pratiques : Implémentation des différentes sémantiques de livraison, tests avec redémarrage de brokers et changement de consommateur
  • 8
    • 8.1
      Stockage des partitions, segments et gestion de la rétention des données dans Kafka
    • 8.2
      Réplication des partitions : rôles des leaders, des followers et des ISR (In-Sync Replicas)
    • 8.3
      Fonctionnement du contrôleur Kafka, arrêt d’un broker leader ou d’un follower
    • 8.4
      Ajout d’un nouveau broker dans un cluster Kafka existant
    • 8.5
      Assurer la fiabilité de la production et de la consommation des messages
    • 8.6
      Présentation des sémantiques de livraison : Au plus une fois (At Most Once), Au moins une fois (At Least Once), Une seule fois (Exactly Once)
    • 8.7
      Outils de validation pour garantir la transmission des messages
    • 8.8
      Travaux pratiques : Implémentation des différentes sémantiques de livraison, tests avec redémarrage de brokers et changement de consommateur

Instructeur

Avatar de l’utilisateur

bprigent

0.0
0 commentaire
0 Students
840 Courses