J'ai monté un petit service commercial sur un serveur dédié. Chiffre d'affaires se comptant en centaines d'euros, donc pas question de louer un serveur à 30 ou 40 € par mois, ce ne serait pas rentable. Clairement là pour tester le concept plutôt que pour devenir ma source de revenus.
Hébergé sur un serveur dédié dès les premières phases de conception. J'aurais très bien pu commencer localement, sauf que je voulais pouvoir y accéder depuis mes différents lieux de travail (sachant que je ne peux pas prendre un portable). Clairement, choix du cloud pour la mobilité, pas pour une question de sauvegarde.
Hébergement Kimsufi, donc OVH. Je n'ai jamais cherché à savoir s'ils faisaient des sauvegardes. Au lieu de ça, j'ai un script sur mon PC à la maison qui vient récupérer les données importantes de temps en temps. Pour moi, une sauvegarde ne se justifie que si elle est physiquement distante du site sauvegardé, et d'une manière générale je ne mets pas tous mes œufs dans le même panier.
Un jour, alors que j'étais encore en phase de test, plus d'accès au site. J'arrive encore à faire un ssh vers le serveur, les fichiers restent visibles mais la plupart semblent contenir des signes cabalistiques. Une heure après, un mail d'OVH: ils ont constaté que le serveur ne répondait plus, ils ont tenté plusieurs fois de le relancer et ont fini par conclure à une défaillance du disque principal. Ils me demandent s'ils doivent le remplacer tout de suite ou si je veux prendre le temps de sauvegarder.
Je tente bien de sauvegarder mais rapidement il faut se rendre à l'évidence: la majorité des fichiers est corrompue. Donc je donne le feu vert pour le remplacement, en me disant qu'après tout j'ai mes sauvegardes.
Le seul hic au final c'est justement qu'on était en phase de tests: les testeurs voulaient voir les corrections rapidement et donc j'avais pris la mauvaise habitude de les faire directement sur site sans augmenter la fréquence de mes sauvegardes.
Du coup j'ai dû refaire toutes les corrections de bug, mais rien d'autre. Heureusement que les bug trackers envoient systématiquement des mails à chaque événement: au moins les descriptions de tickets étaient intactes. Encore une fois, pas tous les œufs dans le même panier.
Je n'ai pas blâmé OVH pour l'incident: j'avais pris la précaution de faire des sauvegardes mais seulement sous-estimé le volume de travail et donc la fréquence nécessaire. J'étais entièrement responsable.
Aujourd'hui le service est opérationnel. Sans rentrer dans les détails, c'est un service de synchronisation en temps réel, les utilisateurs travaillent avec un client lourd sur PC qui envoie ses données sur le site via une interface REST. Donc, les données d'un utilisateur A vont aller sur le site, quand l'utilisateur B arrive il reçoit celles du collègue, et réciproquement. Comme c'est du temps réel et qu'il est rare qu'un utilisateur C arrive longtemps après le début du projet, aucune raison de conserver les données dans la durée (puisque de toute façon le client lourd sauvegarde tout sur le PC, que les données soient celle de l'utilisateur ou récupérées de ses collègues). Du moins, c'est ce qu'un informaticien comprendrait à priori en lisant la description du service. Les clients, qui ne sont pas informaticiens, c'est une autre histoire, surtout quand on leur répète partout que le cloud c'est la mode et que c'est génial pour les sauvegardes.
J'ai donc eu beaucoup de mal à leur faire comprendre que mon service était optimisé pour synchroniser très rapidement de très petites quantités de données, alors que la plupart des propositions concurrentes sont optimisées pour le gros volume, mais rarement en temps réel. On ne peut pas tout avoir en même temps, faut avoir des priorités, et j'avais fait le choix d'avoir un service complémentaire plutôt que concurrent des autres (le mien pour le temps réel et les autres pour le long terme). Mais quand est seul sur un marché, ce n'est pas toujours un avantage parce qu'il faut expliquer deux fois plus.
Je n'ai pas été impacté par l'incident de Strasbourg, mais suite à l'événement relaté plus haut, je n'ai pu m'empêcher de m'interroger sur ce qui se serait passé si tel avait été le cas.
En ce qui concerne mes données de développeur, je sauvegarde bien plus maintenant, donc je n'aurais pas eu le moindre souci.
Pour les données concernant les clients, j'aurais peut-être perdu les dernières factures, tout au plus.
Pour les données des clients, c'est une autre histoire; techniquement je n'aurais rien perdu parce que les données n'étaient pas sauvegardées de toute façon. La vraie question est plutôt de savoir si les clients l'auraient compris. Alors je vais de ce pas vérifier le contrat pour voir si je ne devrais pas profiter de cet incident pour être un peu plus explicite sur ce point. A priori, il est déjà indiqué que les données sont détruites après un temps donné (dépendant de l'offre choisie) mais je ne voudrais pas qu'un client considère que tant que la limite n'est pas atteinte ses données disposent d'un niveau de garantie que je n'ai jamais affirmé proposer. Normalement, si le site était indisponible quelques jours, ça voudrait seulement dire que les utilisateurs ne peuvent plus compter dessus pour se synchroniser: ça ne veut pas dire que les données sont perdues, mais vue l'image que véhicule le cloud, ça risque d'être dur de le leur faire comprendre.
Partager