IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Communiqués Discussion :

2013 : l’année où le stockage à base logicielle transforme le datacenter

  1. #1
    Agence de presse

    Profil pro
    Inscrit en
    Février 2010
    Messages
    299
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 299
    Billets dans le blog
    1
    Par défaut 2013 : l’année où le stockage à base logicielle transforme le datacenter
    Par George Teixeira, président et CEO, DataCore Software

    Au cours de l’année dernière, nous avons vu les premières étapes d’une évolution vers des architectures à base logicielle. Ce phénomène a favorisé plusieurs tendances majeures qui redéfinissent ou influent sensiblement le monde du stockage d’entreprise, préparant la voie, afin que l’année 2013 devienne l’année où le stockage à base logicielle transforme le datacenter.

    L’évolution d’un modèle de virtualisation à base matérielle vers un autre à base logicielle prenant en charge les applications métier stratégiques a modifié les fondements des architectures au niveau serveurs, réseau et stockage en rendant dynamique ce qui était statique. La dimension logicielle définit le cadre pour l’agilité, les interactions utilisateur et la création d’une infrastructure virtuelle pérenne qui s’adapte au changement. Le but ultime est d’accroître la productivité des utilisateurs et d’améliorer l’expérience applicative.

    Tendance 1 : les applications stratégiques seront virtualisées et la performance cruciale

    Les efforts pour virtualiser davantage le datacenter se poursuivent et nous allons même observer un phénomène renforcé avec la migration des applications stratégiques (ERP, bases de données, systèmes de messagerie, OLTP, etc.) vers des plates-formes de virtualisation. Le principal facteur qui l’explique réside dans des gains de rentabilité et de productivité.

    Toutefois, les obstacles majeurs à la virtualisation de ces applications sont en grande partie liés au stockage.

    La migration de charges de travail intensives en termes de stockage sur des machines virtuelles (VM) peut agir considérablement sur la performance et la disponibilité. Il faut donc surprovisionner et surdimensionner le stockage. En outre, au fil de la consolidation sur des plates-formes virtuelles, les entreprises doivent, d’une part investir plus pour obtenir des niveaux supérieurs de redondance afin de garantir l’absence d’interruptions et la continuité d’activité, d’autre part se préoccuper des problèmes de performances.

    Les coûts élevés et la complexité du surdimensionnement annihilent l’essentiel des avantages. De ce fait, les entreprises et les DSI recherchent des solutions plus efficaces et rentables (de type logiciel intelligent), réalisant que la stratégie classique d’ajout de matériel n’offre plus une réponse viable au problème.

    Tendance 2 : les technologies de mémoire Flash SSD seront utilisées universellement, le stockage ne se limitant pas aux disques durs

    Une autre tendance majeure relative à la virtualisation des applications stratégiques consiste en la prolifération des technologies de mémoire Flash SSD. La raison est simple : les disques durs sont des périphériques à rotation mécanique, moins rapides que ceux utilisant une mémoire électronique ultra-rapide.

    La mémoire Flash n’est pas une nouveauté, mais son coût s’avérait auparavant bien trop élevé pour une large adoption. Bien que restant plus coûteuse qu’un disque dur mécanique, son utilisation dans des tablettes et des téléphones cellulaires fait baisser son prix. Toutefois, elle se détériore, et les applications intensives en écritures peuvent réduire sa durée de vie.

    Les périphériques Flash offrent néanmoins une solution d’avenir incontournable et il faut les intégrer à la conception architecturale. Les facteurs économiques incitent déjà à utiliser différentes couches de stockage (disques SSD rapides et disques durs plus lents et bon marché). Ce fait renforce, à son tour, la demande en logiciel de hiérarchisation automatique pour l’entreprise capable d’optimiser le rapport coût-performance en plaçant et transférant les données sur la couche la plus rentable qui peut assurer une efficacité acceptable.

    Tendance 3 : plus de stockage va entraîner une automatisation accrue

    Il existe un besoin constant et insatiable en capacité de stockage, avec une croissance continue dépassant 50 % par an. Toutefois, il ne se limite pas à plus de matériel pour fournir un volume brut. Les utilisateurs souhaitent plutôt une solution alliant automatisation, autogestion, évolutivité, provisionnement rapide, performance et continuité d’activité optimale.

    De nouveau, seul un logiciel intelligent peut simplifier et automatiser la gestion du stockage.

    Tendance 4 : une architecture de stockage à base logicielle va primer sur le matériel

    Ces tendances, et le fait de permettre aux DSI de rendre interchangeable le matériel de stockage dans des infrastructures virtuelles, va profondément modifier notre manière de concevoir, acheter et utiliser ce matériel.

    En 2013 et au-delà, les DSI vont devoir adopter le stockage à base logicielle comme un élément essentiel des datacenters.

    Les utilisateurs, devant faire face à la nouvelle dynamique et au rythme accéléré du marché actuel, ne peuvent s’enfermer dans les anciennes architectures physiques rigides. L’infrastructure repose sur trois piliers (serveurs, réseau et stockage) et, à chaque niveau, les décisions en termes de matériel vont dépendre d’un monde dominé par le logiciel et axé sur les applications.

    Incontestablement, la grande réussite de VMware et de Microsoft Hyper-V démontre les avantages clés qu’offre la virtualisation des serveurs. De même, l’hyperviseur de stockage et la virtualisation du stockage sont cruciaux pour libérer les freins matériels qui entravent l’évolution des datacenters.

    Tendance 5 : le stockage à base logicielle rend nécessaire un hyperviseur de stockage

    La même réflexion qui a changé nos visions du serveur s’impose pour gérer le stockage, le catalyseur résidant dans un logiciel intelligent. En effet, le rôle premier d’un hyperviseur de stockage est de virtualiser les ressources de stockage pour obtenir les mêmes avantages (agilité, efficacité et flexibilité) que pour les ressources de serveur (processeurs et mémoire).

    Le logiciel va donc prendre tout son sens et commencer à transformer notre mode de conception du stockage.

    Le but ultime : une meilleure expérience applicative grâce à un stockage à base logicielle

    La virtualisation a transformé l’informatique et les applications dont l’entreprise dépend. Le stockage en entreprise et dans le cloud reste néanmoins dominé par la dimension physique et matérielle. Nous devons modifier notre approche et considérer de quelle manière le stockage influe sur l’expérience applicative en le concevant comme à base logicielle, les services et fonctions de stockage devenant disponibles dans toute l’entreprise et pas uniquement intégrés à un périphérique propriétaire.

    Pourquoi acheter un matériel spécifique pour n’obtenir qu’une fonction logicielle ? Pourquoi limiter une fonction à une seule plate-forme au lieu de l’utiliser dans toute l’entreprise ? Cette approche est dépassée et, avant la virtualisation, ainsi fonctionnait le monde des serveurs. À présent, grâce à VMware ou Hyper-V, nous considérons la manière de déployer des VM et non la question de savoir si elles s’exécutent sur un système Dell, HP, Intel ou IBM.

    Le stockage subit une transformation similaire et, dans l’année qui vient, un logiciel intelligent va permettre d’offrir une meilleure solution.

  2. #2
    Invité
    Invité(e)
    Par défaut
    2013 : l’année où le stockage à base logicielle transforme le datacenter
    Teixeira explique comment le Software-Defined Networking va se décliner dans le stockage et il y aura des impacts sur toutes les composantes matérielles d'une infrastructure ou d'un cloud.

    VMWare a acquis Nicira il y a 5 ou 6 mois, le contrôleur SDN de Big Switch a déjà été téléchargé plusieurs dizaines de milliers de fois, Cisco lance depuis quelques temps d'agressives campagnes sur son SDN ONE pour ne pas être à la traîne, sans parler d'OpenFlow qui a fait des pas de géant en terme de normalisation ces 2 dernières années.

    Le Software-Defined Networking est en ordre de marche...

    Steph

Discussions similaires

  1. Réponses: 0
    Dernier message: 26/06/2013, 16h24
  2. [ATL] Sur quel fichier se base une transformation ATL
    Par NeraOne dans le forum Eclipse Platform
    Réponses: 0
    Dernier message: 21/03/2011, 09h19
  3. Drag and drop et stockage base de données
    Par ms7 dans le forum Flash
    Réponses: 2
    Dernier message: 31/01/2007, 15h32

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo