Bonsoir,
J’ai donc refait un essai, en partant de là :
Installation et configuration de HFSQL Cluster - PC SOFT - Documentation en ligne Version 2024 (29)
Il est indiqué dans les configs minimales et recommandées que les systèmes Windows doivent être des systèmes Windows Server. Je prends donc Windows Server Standard 2022 (Evaluation, avec expérience de bureau) ici
Windows Server 2022 | Centre d’évaluation Microsoft en français.
Machines virtuelles :
3 VMs sous VMWare Workstation, faites une par une sans les copier et en réinstallant Windows manuellement à chaque fois (pour éviter que pour une quelconque raison, un identifiant planqué dans l’OS/la VM soit dupliqué aussi et empêche le fonctionnement du Cluster si ce dernier venait à le contrôler pendant son fonctionnement. Comme je l’ignores car je n’ai pas accès au code qui fait marcher HFSQL Cluster, je ne prends pas de risques).
6go de RAM, 4 vCPU, 60Go de disque à chaque fois (fichiers split), install de l’OS manuelle, réglage réseau Bridged sans réplication de l’état physique de la connexion.
COORD-0 sera le coordinateur et le serveur DNS (installé par ailleurs grâce aux rôles et fonctionnalités de Windows Server)
NODE-1 et NODE-2 seront les nœuds du cluster
Même mot de passe admin sur toutes les VM.
Une fois les Windows installés sachant que les nœuds doivent avoir une IP fixe, je fixe donc les IP sur toutes les VM :
COORD-0 : 192.168.1.230
NODE-1 et NODE-2 : idem avec 231 et 232
IPv6 est désactivé par précaution, on est full IPv4 sur toutes les VM.
J’installes le rôle de DNS sur COORD-0 (et il est paramétré comme étant le DNS de lui-même, et des deux nodes) et je crée dans le DNS une zone principale cluster_COORD-0.COORD-0 (suite à de précédents essais, j’ai su comment fallait faire, ce nom sera le nom DNS du cluster). Cette zone permet qu’on la mette à jour dynamiquement.
La doc dit :
• Le port 4997 utilisé par le coordinateur du cluster doit être ouvert dans le pare-feu Windows.
• Les ports utilisés par les noeuds et le port 4998 doivent être ouverts dans le pare-feu Windows sur chaque machine serveur.
Comme j’ignore si le port 4997 doit être ouvert ou pas sur les nodes, et si les ports 4900 et 4998 ne doivent l’être que sur les nodes, j’ouvre les ports 4900,4997,4998, en entrant TCP, sur tous les serveurs. Et on verra.
->A ce stade, je sauve toutes les VM au cas où j’ai besoin de les restaurer.
Installation de HFSQL Cluster :
https://package.windev.com/pack/wx29...ACK290076c.exe
Je commence par l’installer sur COORD-0 pour créer un nouveau cluster.
L’installeur me propose ensuite de transformer un serveur HFSQL en premier nœud du cluster ou d’installer un cluster vierge. Je choisis d’en installer un vierge.
L’assistant d’installation du Cluster sur COOD-0 me demande le nom de la machine du coordinateur, COORD-0 donc, un mot de passe, et le nom DNS du cluster : cluster_COORD-0.COORD-0
L’assistant veut ensuite que j’ajoutes des nœuds au cluster. Je le fais en indiquant les noms de NODE-1 et NODE-2 sur lesquels aucun serveur HF n’est encore installé (faut pas, on les installera après avec le pack généré)
Il me demande le numéro de port, 4900, et crée le package d’installation, et je lui dis ensuite que je vais utiliser le pack de maj manuelle a exécuter sur chaque nœud participant au cluster. Et je lui demande de me le générer dans le Shared Folder VMWare partagé par toutes les VMs.
Je lance le pack sur le coordinateur (et le pack détecte qu’il doit installer le coordinateur) et le répertoire d’install est C:\PC SOFT\ClusterManager_cluster_COORD-0
Je le lance ensuite sur les 2 nodes (et il détecte que c’est pour ajouter un nœud au cluster) :
-le répertoire d’install est toujours C:\PC SOFT\Serveur HFSQL_cluster_COORD-0
-le nom du serveur HFSQL est cluster_COORD-0 - Nœud 1 et cluster_COORD-0 - Nœud 2
L’install se fait vite, avec succès sur les 2 nodes. Je remarque que dans le DNS, deux enregistrements A se sont ajoutés avec les IP des 2 nodes (signe qu’il a réussi à mettre le DNS à jour automatiquement)
Pièce jointe 653723
En lançant un centre de contrôle pour me connecter à COORD-0 (sur le cluster) il est en cours de démarrage avec les nœuds présents mais dans des états curieux.
Pièce jointe 653724
Je redémarre toutes les VM mais idem. L’état des nœuds est bizarre.
Je désinstalle le node 1, et le réinstalles avec le pack. Je le vois bien disparaitre sur le coordinateur, et revenir, mais dans un état bizarre à nouveau :
Pièce jointe 653725
Je décide de désinstaller Hf sur les 2 nodes, et même là le coordinateur voit encore le nœud 1, que je dois exclure à la main.
Je réinstalle le node 1 avec le pack puis le node 2.
Je désactive tous les parefeu.
Je remarque que les nœuds quand on les regarde dans le centre de contrôle, passent de « En cours de démarrage » à « En cours d’arrêt ». On dirait que le CC récupère bien leur état mais que quelque chose les empêche de démarrer, et toutes les 10-15 secondes le nœud retente quelque chose.
Je mets donc un Procmon
Process Monitor - Sysinternals | Microsoft Learn sur le process Manta64.exe du node 1. Et là je vois que ce que Procmon intercepte correspond exactement au passage au statut « en cours de démarrage », à intervalles réguliers il se passe un truc. Je ne sais pas quoi. Il y a des échanges réseau sur NODE-1 entre le NODE-2 et le COORD-0
Je mets un Wireshark sur node 1 pour voir les échanges réseaux que Procmon détecte entre le NODE-2 et le COORD-0
Vu les traces que wireshark a donné, je comprends que la zone de recherche inversée DNS est utile, je la crée
Pièce jointe 653726
Les erreurs que je voyais dans Wireshark ne sont plus là. Mais je n’apprends rien de plus.
Procmon ne m’apprend pas grand-chose de plus. Quand je tentes de réinstaller les nodes après les avoir désinstallés un nombre incalculable de fois, le DNS ne se met plus à jour et les nœuds ne sont plus détectées par le coordinateur.
C’est très aléatoire, et je ne comprends pas pourquoi. C’est une énigme. Je vais restaurer NODE-1 et NODE-2 pour voir si c'est un peu mieux mais ce truc est un vrai mur.
L'état du cluster est toujours "En cours de démarrage" il n'a jamais démarré à ce jour.
Partager