Accueil > Notions fondamentales Décisionnel / Big Data

 > Formation à distance : BigData, l’essentiel en 1 jour

null

Notions fondamentales Décisionnel / Big Data

Formation à distance : BigData, l’essentiel en 1 jour

Objectif

A l’issue de la formation, le stagiaire sera capable d’intégrer efficacement dans une stratégie d’entreprise les enjeux organisationnels et techniques du Big Data, en disposant d’une vue d'ensemble de son écosystème.

Certifications

Durée : 1 jour (7h)

Dates :
-20/02/26
-12/06/26
-17/09/26
-14/12/26

Avoir des connaissances de base des architectures techniques et du fonctionnement d’un système de gestion de base de données (SGBD).

Programme de la formation

Découvrir les principaux concepts du Big Data

  • Besoins fonctionnels et caractéristiques techniques des projets
  • Concepts clés : ETL / ELT (Extract Transform Load), CAP, 3V, 4V
  • Données non structurées et semi-structurées
  • Positionnement des technologies Cloud, Big Data et NoSQL : liens et implications
  • Atelier : Amazon Rekognition, Polly, EMR

Appréhender les avantages et les contraintes du Big Data

  • Calcul distribué et gestion des données non structurées
  • Valorisation des données : prédictif, Machine Learning
  • Atelier : Cas d'utilisation – quand utiliser le Big Data

Comprendre les enjeux économiques du Big Data

  • Moteurs de recherche, méthodes d’indexation
  • Recherche dans des bases volumineuses : Elasticsearch, SolR
  • Lacs de données et caractéristiques NoSQL
  • Calcul distribué et analyse avancée
  • Machine Learning et Intelligence Artificielle
  • Nouveaux métiers : Data Scientist, Data Engineer, Data Labs
  • Atelier : Comparaison du fonctionnement de grands acteurs du Big Data

Connaître l’écosystème du Big Data et les technologies associées

  • Acteurs, produits et cycle de vie des projets Big Data
  • Systèmes de fichiers distribués : GFS, HDFS, Ceph
  • Bases de données : Redis, Cassandra, DynamoDB, Accumulo, HBase, MongoDB, BigTable, Neo4j
  • Modes et formats de stockage : clé/valeur, document, colonne, graphe
  • Élasticité et stockage réparti
  • Données structurées et non structurées : XML, JSON, CSV, images, documents
  • Stockage distribué : réplication, sharding, gossip, hachage
  • Principe du schemaless et clés de distribution
  • Atelier : Construction d’une architecture Big Data adaptée à un cas d’utilisation

Savoir anticiper l’intégration du Big Data dans l’entreprise

  • Nouveaux métiers : Data Scientist, Hadoop Scientist, CDO
  • Intégration avec outils statistiques et Big Data
  • Traitement temps réel : Kafka, Spark Structured Streaming, Storm
  • Traitement batch : Hadoop, Spark
  • Data Science : R, SAS, RStudio
  • Outils de visualisation : Tableau, QlikView
  • Restitution et analyse : Logstash, Kibana, Elasticsearch, Zeppelin
  • Atelier : Démonstration d’un ETL SQL / Hadoop

Prendre en compte la sécurité et la confidentialité des données

  • Rôle de la DSI et gouvernance des données
  • Qualité, fiabilité, durée de validité et sécurité des données
  • Aspects législatifs : stockage, conservation, traitements, commercialisation
  • Atelier : Problématiques de réplication inter-régions et aspects juridiques (droits d’exploitation, propriété intellectuelle)
Menu