Notions fondamentales Décisionnel / Big Data
Formation à distance : Hadoop
Objectif
Faire le point sur les différents éléments de l'écosystème Hadoop et leurs rôles respectifs. Comprendre l'architecture des applicatifs hadoop et savoir quels sont les apports et les cas d'usage des solutions hadoop.
Certifications
Connaissances générales des systèmes d'information.
Moyens pédagogiques
Réflexion de groupe et apports théoriques du formateur
Travail d'échange avec les participants sous forme de réunion-discussion
Utilisation de cas concrets issus de l'expérience professionnelle
Validation des acquis par des questionnaires, des tests d'évaluation, des mises en situation et des jeux pédagogiques.
Remise d'un support de cours.
Moyens techniques
Modalités d'évaluation
Feuille de présence signée en demi-journée,
Evaluation des acquis tout au long de la formation,
Questionnaire de satisfaction,
Attestation de stage à chaque apprenant,
Positionnement préalable oral ou écrit,
Evaluation formative tout au long de la formation,
Evaluation sommative faite par le formateur ou à l'aide des certifications disponibles
Modalités distance
A l'aide d'un logiciel comme Teams, Zoom etc... un micro et éventuellement une caméra pour l'apprenant,
suivez une formation en temps réel et entièrement à distance. Lors de la classe en ligne, les apprenants interagissent et comuniquent entre eux et avec le formateur.
Les formations en distanciel sont organisées en Inter-Entreprise comme en Intra-Entreprise.
L'accès à l'environnement d'apprentissage (support de cours, labs) ainsi qu'aux preuves de suivi et d'assiduité (émargement, évaluation) est assuré.
Profil formateur
Nos formateur sont des experts dans leurs domaines d'intervention
Leur expérience de terrain et leurs qualités pédagogiques constituent un gage de qualité.
Accessibilité
Les personnes atteintes de handicap souhaitant suivre cette formation sont invitées à nous contacter directement, afin d'étudier ensemble les possibilités de suivre la formation.
Chefs de projets, développeurs, et toute personne souhaitant comprendre les mécanismes Hadoop et le rôle de chaque composant.
Compte personnel de formation
La formation n'est pas compatible avec le Compte personnel de formation
Sessions inter-entreprises
La formation est compatible avec l’organisation en session inter-entreprises
Programme de la formation
1. Introduction et fondamentaux
- Rappels sur NoSQL et théorème CAP
- Historique du projet Hadoop
- Fonctionnalités : stockage, outils d’extraction, conversion, ETL, analyse
- Exemples de cas d’utilisation sur de grands projets
- Principaux composants : HDFS (stockage) et YARN (calcul distribué)
- Distributions et caractéristiques : HortonWorks, Cloudera, MapR, EMR, Apache
2. Architecture Hadoop
- Terminologie : NameNode, DataNode, ResourceManager
- Rôle et interactions des composants
- Outils d’infrastructure : Ambari, Avro, ZooKeeper
- Outils de gestion des données : Pig, Oozie, Tez, Falcon, Sqoop, Flume
- Interfaçage avec les applications GIS
- Outils de restitution et requêtage : WebHDFS, Hive, HAWQ, Impala, Drill, Stinger, Tajo, Mahout, Lucene, Elasticsearch, Kibana
- Architectures connexes : Spark, Cassandra
3. Exemples interactifs et démonstrations
- Démonstrations sur une architecture Hadoop multi-nœuds
- Mise à disposition d’un environnement pour des exemples de calcul distribué
- Atelier : intégration de données avec Flume
- Calculs MapReduce avec Pig, Hive et Impala
4. Applications et cas d’usage
- Cas d’usages de Hadoop
- Calculs distribués sur clusters Hadoop

