bonjour,

quelqu'un a-t-il un avis sur le stockage fragmenté & mutualisé aujourd'hui en 2017 (par rapport à avant l'année 200x) ?

j'avais déjà vu cette solution ou ce principe-là , avant l'air des VM et du cloud (dans les années 200x), c'est la société qui avait fait GHOST (norton symantec ou celle d'avant le rachat) qui avait innové à l'époque ce principe de sauvegarde.
Le principe c'était d'éviter le stockage des données archivées de l'entreprise (données froides) dans un datacenter et donc plutôt les disperser dans l'entreprise : genre on utilise le stockage de chaque PC (ou unité de stockage dispo) présent dans l'entreprise, la pme pour recevoir une "part" cryptée, un mini cluster, de la masse de storage.
Par exemple, on place sur chaque PC une zone de stockage qui contiendra des données backupées (et cryptées) afin de tirer parti des espaces disques non utilisé de la majorité des PC en entreprise.
Ugloo a fait une vidéo pour représenter son principe en 2017 , faire du neuf avec une idée vieille... :
http://bfmbusiness.bfmtv.com/mediapl...02-913359.html

Techniquement c'est comme du raid, sauf qu'on remplace un disque par un PC de l'entreprise.

L'idée est très bonne et semble écologique en 2017 et sur le principe financier (et donc prendre du marché aux datacenter) mais sur le risque j'ai des doutes :
-si demain, le PC de mon bureau est HS, ça veut dire qu'il y aura un temps de latence pour que la branche/grappe ugloo reconstruit les données, c'est comme dans une défaillance raid et c'est long, très long, et ça monopolise du réseau (bande passante) et pire tu dois laisser les PC allumés le soir.... Déjà Ghost avec ce problème à l'époque.

-la solution ugloo nécessite d'avoir toutes les machines PC allumées pour faire le backup ou la restauration ou l'accessessibilité des données , du coup ça a un coût en énergie énorme (là on perd le gain du data center). En plus si un PC est utilisé ou ralenti, ou défectueux, ça va forcément ralentir le processus d'accessibilité aux données....

- Si mon entreprise a un incendie ou une inondation, je me retrouve dans la mouise car mes backups sont perdus là où le cloud ou le datacenter protège (principe du stockage distant).

à Part la solution de Ghost (qui a dû changé de nom depuis je présume), ou cette ugloo, y-a-t-il d'autres produits pareils ? L'idée simpliste a fortement être dû reprise/refirbushed par un grand nom du logiciel de backup ou même par une distrib linux. ça me rappelle aussi une solution d'agregation de cloud que j'ai vu ya pas si longtemps...
Je me souviens aussi d'un gros problème de Ghost que Ugloo doit aussi avoir : quand le logiciel évolue, bun faut faire le tour de chaque machine pour la maintenance logiciel, mêttre la bonne version de l'appliance/plugin qui gère les packets, gérer les droits du logiciel,puis un matin une machine ne veut plus installer (bug software), donc ça ralenti encore le reste...et ça tourne, ça consomme, ça rame...

Je vois un autre problème aussi, c'est que maintenant en entreprise, les PC sont majoritairement light ou des portables, c'est à dire sans réel place de stockage fixe géographiquement.
J'imagine déjà le scénario ubuesque où le backup est entièrement perdu car l'autre société qu igérer les PC est venu mettre à jour 5 PC (contenant ugloo ou autre ghost) en changeant carrément la machine : la grappe du backup ne peut pas se reconstrurie car il manque des PC cruciaux dans la chaîne...

bref, vos avis sur ce stockage interne parcelisé intra-muraux-entreprise comme ugloo ou autre ? bonne idée en 2017 ou pas ?