AJC FORMATION : 03. Les Architectures et infrastructures pour le Big Data
Organisme
75009 PARIS 9Voir toutes ses formationsAutres organismes proposant cette formation
Durée
Modalités
- Classe virtuelle
- Présentiel
Les apprenants réalisent tout au long de la formation des exercices, QCM, mises en situation, TP, TD qui seront corrigés pour faciliter l’acquisition de compétences
Prix
Public
Chefs de projets, Architectes, Développeurs, Data Scientists ou toute personne souhaitant connaître les outils pour concevoir une architecture Big Data…
Pré-requis
Avoir une bonne culture générale des systèmes d'information et plus particulièrement, avoir des connaissances de base des modèles relationnels, des statistiques et des langages de programmation.
Objectifs pédagogiques
Comprendre les principaux concepts du Big Data ainsi que l'écosystème technologique d'un projet Big Data
Savoir analyser les difficultés propres à un projet Big Data
Déterminer la nature des données manipulées
Appréhender les éléments de sécurité, d'éthique et les enjeux juridiques
Exploiter les architectures Big Data
Mettre en place des socles techniques complets pour des projets Big Data
Programme détaillé
Présentation du Big Data
▪ Introduction au Big Data : de quoi s'agit-il ?
▪ Perspectives offertes par le Big Data
▪ Les acteurs du Big Data
▪ Exemples pratiques
▪ Démystification du Big Data
▪ Les technologies concernées
▪ Les outils Hadoop
▪ Les différents métiers du Big Data
▪ Les distributions Big Data
Solutions Big Data
▪ Projets, applications, plateformes
▪ Solutions de stockage des données
▪ Considérations Hardware
✓Stockage
✓CPU
✓Mémoire
✓Réseau
✓Systèmes distribués
▪ La science et l'art de l'analyse prédictive
Architecture applicative et technique
▪ Les différentes étapes de gestion des données
▪ Les outils du marché
▪ L'ingestion
▪ Le stockage
▪ La transformation
▪ La restitution et la visualisation
Installation et configuration
▪ Installation d'une plateforme Hadoop
✓Définir l'architecture
✓Installation d'Hadoop / HDFS et d'autres composants
✓Installation des principaux composants (Hive, Pig, Impala...)
▪ Configuration de l'environnement
✓Etude des fichiers de configuration
✓Modes de configuration (ligne de commandes, API Rest, serveur HTTP intégré, API natives)
✓Configuration des services (HDFS, YARN, logs...)
✓Configuration des droits d'accès
Administration
▪ Gestion des ressources
▪ Administration de HDFS
▪ Administration de MapReduce
▪ Planification des stratégies de sécurité et de récupération des données
Travaux pratiques : Définir une architecture Hadoop en cluster à plusieurs noeuds.