Big Data et Apache Hadoop
Temps estimé : 40 à 50 heures
Les processus ETL vous ont permis de transformer vos données, il est maintenant temps d'aborder les concepts de Big Data avec Hadoop et Spark pour traiter de grandes quantités de données.
Contexte historique :
Le terme "Big Data" a émergé avec l'explosion des volumes de données numériques. Au début des années 2000, des technologies comme Apache Hadoop ont été développées pour gérer de grandes volumétries de données de manière distribuée. Hadoop a introduit des concepts comme le HDFS et MapReduce, qui ont permis de traiter des données à l'échelle industrielle. Par la suite, Apache Spark a été introduit pour améliorer la vitesse de traitement en mémoire des données.

Lire davantage :
Ressources de formation :
Documentations supplémentaires :
Documentation officielle Hadoop : Hadoop Documentation
Documentation Apache Spark : Spark Documentation

Back to Top