Salut la team,
j'aurais besoin de quelques conseil et de retour d'expérience si c'est possible.
je cherche à monter un cluster Hadoop à moindre coup en sein de mon entreprise et je ne sais pas quelle taille se dernier doit avoir.
Pour ce qui est de l'utilisation, rien d'important. il sera principalement utilisé comme sandbox et comme cluster de démonstration, aucun traitement complexe qui demande une tonne de cpu.il me faudra un git pour centraliser mes codes,Maven, HDFS, Hive,Map Reduce, Spark et solR
j'avais pensé à un Namenode (4 CPU,8go RAM & 500go disk) et 3 Datanode (8 CPU, 8go RAM & 500go disk).
des retours ?
Merci








Répondre avec citation







Partager