Bonjour à tous
Je voudrais mettre en place une solution de haute disponibilité pour 2 serveurs linux Debian dans ma boîte. Les 2 serveurs se répartiraient les services à fournir (à la fois pour internet et pour le LAN), et en cas de panne d'un des 2, l'autre prendrait le relai. Cela signifie que :
- chacun des 2 serveurs doit posséder tous les services configurés, mais en mode normal n'exécuter que ceux qui lui sont assignés (répartition des tâches sur les 2 serveurs); dès qu'il y a une panne, le serveur survivant assume tous les services...
- les données doivent être répliquées en temps réel sur les 2 machines (bases de données)
Pour le FailOverService, j'ai vu qu'on utilisait le package HearBeat, démon qui surveille l'état des serveurs via une ligne réseau à part (câble croisé entre les 2 machines).
Pour la disponibilité des données, il est indispensable qu'elles soient répliquées sur chacune des machines, en temps réel (ou s'en approchant le plus possible); pour que les données soient synchro si une machine doit reprendre un ou plusieurs services. Cette réplication est assurée par un programme utilisant un système de fichiers réseau spécial : j'en ai retenu 2 : CodaFS et InterMezzo. Mais j'ai du mal à choisir entre les 2... Je fais donc appel à vos expériences dans ce domaine, car on ne trouve pas tant d'info que ça sur le net à ce sujet. InterMezzo a l'air d'être une reprise améliorée de CodaFS, mais je ne sais pas si le développement d'InterMezzo est toujours d'actualité (la dernière news sur leur site date d'un an environ, donc je me méfie un peu... ).
Bref : entre CodaFS et InterMezzo que me conseillez-vous ?
D'autre part, je serais intéressé de savoir s'il y a moyen de répliquer aussi automatiquement les upgrades de configuration que je serai amené à faire, ou si je devrai répéter ces opérations identiquement sur les 2 machines ?
Et toute autre information sur la High Availability m'intéresse bien sûr
J'espère que j'ai été clair ? Merci d'avance pour vos réponses
Partager