null

Notions fondamentales Décisionnel / Big Data

Formation à distance : Hadoop

Objectif

Faire le point sur les différents éléments de l'écosystème Hadoop et leurs rôles respectifs. Comprendre l'architecture des applicatifs hadoop et savoir quels sont les apports et les cas d'usage des solutions hadoop.

Certifications

Durée : 2 jours

Dates :
-03/03/26
-25/06/26
-17/09/26
-03/12/26

Connaissances générales des systèmes d'information.

Programme de la formation

1. Introduction et fondamentaux

  • Rappels sur NoSQL et théorème CAP
  • Historique du projet Hadoop
  • Fonctionnalités : stockage, outils d’extraction, conversion, ETL, analyse
  • Exemples de cas d’utilisation sur de grands projets
  • Principaux composants : HDFS (stockage) et YARN (calcul distribué)
  • Distributions et caractéristiques : HortonWorks, Cloudera, MapR, EMR, Apache

2. Architecture Hadoop

  • Terminologie : NameNode, DataNode, ResourceManager
  • Rôle et interactions des composants
  • Outils d’infrastructure : Ambari, Avro, ZooKeeper
  • Outils de gestion des données : Pig, Oozie, Tez, Falcon, Sqoop, Flume
  • Interfaçage avec les applications GIS
  • Outils de restitution et requêtage : WebHDFS, Hive, HAWQ, Impala, Drill, Stinger, Tajo, Mahout, Lucene, Elasticsearch, Kibana
  • Architectures connexes : Spark, Cassandra

3. Exemples interactifs et démonstrations

  • Démonstrations sur une architecture Hadoop multi-nœuds
  • Mise à disposition d’un environnement pour des exemples de calcul distribué
  • Atelier : intégration de données avec Flume
  • Calculs MapReduce avec Pig, Hive et Impala

4. Applications et cas d’usage

  • Cas d’usages de Hadoop
  • Calculs distribués sur clusters Hadoop
Menu