AJC FORMATION : 06. Apache Kafka : centraliser les flux de données en temps réel
Organisme
75009 PARIS 9Voir toutes ses formationsAutres organismes proposant cette formation
Durée
Modalités
- Classe virtuelle
- Présentiel
Les apprenants réalisent tout au long de la formation des exercices, QCM, mises en situation, TP, TD qui seront corrigés pour faciliter l’acquisition de compétences.
Prix
Public
Architectes, Chefs de projet, Développeurs, équipes DevOps…
Pré-requis
Avoir des notions d'architectures applicatives en entreprise, des connaissances des protocoles réseaux, de bonnes connaissances en Java ou autre langage. Des connaissances en Spring ou Node.js sont recommandées.
Objectifs pédagogiques
Comprendre le fonctionnement de Kafka et les principes de communications inter applications
Acquérir les bonnes pratiques de distribution de messages
Savoir configurer Kafka pour intégrer les données de différents formats et de sources différentes
Appréhender les différentes APIs de Kafka.
Mettre en œuvre KSQL
Travailler en sécurité avec Kafka
Programme détaillé
Présentation du projet Kafka
▪ Retour sur l’historique du projet
▪ L’intérêt de Kafka dans le Big Data
▪ L’architecture fonctionnelle de Kafka
▪ Les composants du système : brokers, topics, consumer, producers
▪ Principes de fonctionnement
Installation
▪ Installer Kafka
▪ Configurer les composants
▪ Installer l’écosystème de développement de Kafka
▪ Installer le matériel nécessaire
▪ Effectuer des manipulations de base
Configuration et utilisation des APIs
▪ Etudier la conception des APIs et leur implémentation
▪ Comprendre les cas d’usages et les solutions
▪ Gérer la couche réseau et le format des messages
▪ Gérer, administrer et compacter les Logs
▪ Gérer le schéma de distribution des données
▪ Effectuer les actions de base sur les topics
▪ Gérer les Datacenters
▪ Monitorer le système et gérer les alertes
▪ Mise en oeuvre de Zookeeper
Mise en place de la sécurité du système
▪ Comprendre les enjeux et les principes de sécurité d’un système Kafka
▪ Utiliser le protocole SSL/TLS pour le cryptage et l’authentification
▪ Utiliser la couche SASL pour l’authentification
▪ Utiliser des listes de contrôle ACL pour les autorisations
▪ Authentifier avec Zookeeper
Aller plus loin avec Kafka
▪ Data streamscalable avec Kafka Connect
▪ Utiliser Kafka Connect pour l’intégration de données
▪ Développer des connecteurs personnalisés
▪ Mettre en oeuvre KSQL
Travaux pratiques : Développement d’un mini-projet faisant communiquer entre elles plusieurs applications en passant par Kafka