IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Voir le flux RSS

Master Programming

Fonctionnement de Hadoop

Noter ce billet
par , 20/06/2016 à 16h20 (851 Affichages)
Pour bien comprendre le fonctionnement de Hadoop, nous vous invitons à lire ces deux cours introductifs sur « Big Data » et « Hadoop »:


L’écosystème Hadoop
Hadoop est principalement constitué de deux composants :
  • Le système de gestion de fichiers distribué, HDFS.
  • Le framework MapReduce (version 1 de Hadoop)/YARN (version 2 de Hadoop).

Plus concrètement l’écosystème Hadoop comprend de nombreux autres outils couvrant le stockage et la répartition des données, les traitements distribués, l’entrepôt de données, le workflow, la programmation, sans oublier la coordination de l’ensemble des composants. On parle des outils comme Hive, Pig, Hbase, Flume,…etc
Nom : hadoopecosystem.png
Affichages : 1310
Taille : 57,1 Ko
Stockage et traitement de données

Hadoop a été conçu pour stocker de très gros volumes de données sur un grand nombre de machines (nœuds) équipées de disques durs banalisés, fonctionnant en parallèle.
L’addition de plusieurs nœuds au cluster Hadoop permet d’offrir un espace de stockage et une puissance de calcul pouvant traiter des volumes de données de plusieurs To ou Po.
Le système de gestion de fichiers de Hadoop, HDFS, écrit et lit les fichiers par blocs de 64 Mo par défau. Il est toutefois possible de monter à 128 Mo. Alors que sur des systèmes classiques, la taille est généralement de 4 Ko, l’intérêt de fournir des tailles plus grandes permet de réduire le temps d’accès à un bloc.

La redondance des données
Par défaut, les données chargée dans un cluster Hadoop sont stockées en trois exemplaires, sur des nœuds différents. Cette réplication des données répond en fait à deux objectifs :
  • Disponibilité des données en cas de panne, deux copies des données, stockées sur d’autres nœuds.
  • Lors de l’exécution d’un job Hadoop, chaque tâche peut être exécutée sur n’importe quel nœud, surtout s’il stocke une copie des données nécessaires à la tâche.


Gestion des pannes d’un cluster Hadoop

L’un des avantages de Hadoop réside dans le fait que si un des nœuds qui exécute une partie des traitements tombe en panne, le travail est repris automatiquement par un autre nœud, on parle d’une réaffectation des tâches par le deamon JobTracker.
De plus, Hadoop est capable de détecter l’incident, déterminer la tâche concernée (code et données) et de relancer la tâche sur un autre nœud disposant des données nécessaires à la bonne exécution de la tâche (où l’intérêt de répliquer les données ).

Envoyer le billet « Fonctionnement de Hadoop » dans le blog Viadeo Envoyer le billet « Fonctionnement de Hadoop » dans le blog Twitter Envoyer le billet « Fonctionnement de Hadoop » dans le blog Google Envoyer le billet « Fonctionnement de Hadoop » dans le blog Facebook Envoyer le billet « Fonctionnement de Hadoop » dans le blog Digg Envoyer le billet « Fonctionnement de Hadoop » dans le blog Delicious Envoyer le billet « Fonctionnement de Hadoop » dans le blog MySpace Envoyer le billet « Fonctionnement de Hadoop » dans le blog Yahoo

Commentaires