Hello, je suis en train de faire un plan d'upgrade d'un cluster hadoop qui en a bien besoin.
On utilise les composants suivants:
Hadoop 2.2
HBase 0.98
Spark 2.1.0
On voudrai faire une mise à jour à peu prêt "à jour", et donc passer aux versions suivantes:
Hadoop 2.7.3
HBase 1.2.6
Spark 2.1.1
Visiblement pour Hadoop le rolling upgrade n'existe pas en 2.2 , il faut donc faire un shutdown/restart en nouvelle version.
Pour HBase il semblerait que le rolling upgrade soit possible en suivant le chemin 0.98 => 1.0 => 1.2.6
MAIS
- HBase 0.98 n'est pas compatible avec hadoop 2.7.3
- Hbase 1.0 n'est pas compatible avec hadoop 2.2, et rien n'est dit à propos de la 2.7.3 (je considère donc que c'est mort)
La question est donc:
Est-ce que je peux brutalement arrêter mon cluster, le migrer en 2.7.3, puis faire mon rolling upgrade HBASE 1.0 puis 1.2.6 malgré l'incompatibilité, voire un full upgrade direct en 1.2.6? Il s'agit juste de l'utiliser le temps de faire l'upgrade.
Ou est-ce que je suis obligé de passer par hadoop 2.5.2 qui est la seule version compatible avec mes 3 HBase ?(la 2.4 aussi mais elle n'est plus en download sur leur site)
Je viens de voir que la 1.0/1.1 devrait supporter hadoop 2.2 en "Not Tested". Un autre plan pourrait être:
HBase 0.98 => HBase 1.0
HBase 1.0 => HBase 1.1
Hadoop 2.2 => 2.7.3
HBase 1.0 => 1.2.6
Mais c'est encore plus long...
Question bonus: une idée des temps que ça prend pour environ 300TB de données HBase? (avant replication HDFS)
Merci d'avance
Partager