IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Cloud Computing Discussion :

La consommation d'énergie des datacenters ralentit aux États-Unis


Sujet :

Cloud Computing

  1. #1
    Expert éminent sénior
    Avatar de Coriolan
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mai 2016
    Messages
    701
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Sarthe (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mai 2016
    Messages : 701
    Points : 51 810
    Points
    51 810
    Par défaut La consommation d'énergie des datacenters ralentit aux États-Unis
    La consommation d'énergie des datacenters ralentit aux États-Unis
    une tendance favorisée par une meilleure gestion

    Avec la généralisation des datacenters qui a commencé il y a plus d’une décennie, leur consommation d’électricité a explosé de 24 % de 2005 à 2010. Mais selon une étude d’un laboratoire du département de l’Énergie américain, cette consommation devrait se stabiliser entre 2014 et 2020. Le passage à la virtualisation, le cloud computing et l’amélioration du management des datacenters devraient aider à stabiliser la demande d’énergie, elle ne devrait croître que de 4 % durant cette période.

    Nom : datacenter.jpg
Affichages : 2853
Taille : 101,3 Ko

    Le parc des centres de données américains a consommé 70 milliards de kWh, soit 1,8 % de la consommation totale d’électricité aux États-Unis. En se basant sur les données disponibles aujourd’hui, l’étude prévoit que le total de la demande d’énergie des datacenters va atteindre 73 milliards de kWh. Si la consommation de l’énergie va stagner durant les prochaines années, cela ne veut pas dire une baisse de la demande des centres de données, explique l’étude. La puissance de calcul et la productivité accrue que permettent les centres de données font qu’ils continuent d’être de plus en plus plébiscités.

    Cette tendance d'économiser la consommation d’énergie des datacenters s’explique par le recours à des techniques qui sont à la fois matérielles, mais aussi logicielles. Premièrement, les serveurs modernes sont moins gourmands en énergie. Deuxièmement, l’utilisation de la virtualisation permet de réduire massivement l’empreinte environnementale des datacenters. Les machines virtuelles sont essentielles dans l'architecture des centres de données, notamment grâce à leur capacité d'isolation, de consolidation et de migration. En plus de cela, elles permettent aux centres de données de fournir aux utilisateurs des solutions sécurisées, flexibles et efficaces. Cependant, certaines opérations sur ces machines virtuelles peuvent être coûteuses en énergie, c'est le cas des migrations. Les migrations consistent à transférer des machines virtuelles d'une machine physique à une autre. Si elles sont coûteuses en énergie, elles permettent d'éteindre les serveurs peu utilisés d'où une baisse de la consommation d'énergie et de consolider la charge de travail.


    L’efficacité énergétique est aussi importante pour les grands opérateurs du cloud, notamment pour améliorer leur marge. Les datacenters massifs (datacenters hyperscale) qui s’étendent sur des hectares permettent de concentrer les charges et les opérations à une échelle industrielle. Ainsi le recours aux services de ces datacenters permet de réduire la consommation d’énergie. Cette quête de l’efficacité s’observe aussi dans les livraisons de serveurs. Entre 2000 et 2005, la livraison de ces machines augmentait de 15 %, ce qui a permis de doubler le nombre de serveurs durant cette période. Cette tendance a été frappée de plein fouet durant la crise économique. Et à présent, le taux actuel varie autour de 3 % et il est appelé à se maintenir jusqu’à 2020, selon l’étude.

    « Je suis même encore plus optimiste que les auteurs de l’étude, écrit Urs Hölzle, le vice-président de Google en charge des infrastructures, dans un billet de blog. Et j’irais même jusqu’à prédire que la consommation totale d’énergie va diminuer à mesure que les utilisateurs d’IT se tournent vers les clouds publics, qui non seulement possèdent les bâtiments les plus efficaces, mais qui, via la consolidation et la mise à l’échelle élastique, réduisent l’énergie consommée par application. »

    Source : Étude

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi :

    Forum Cloud Computing
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre chevronné
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Juillet 2007
    Messages
    884
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juillet 2007
    Messages : 884
    Points : 2 018
    Points
    2 018
    Par défaut
    Je n'y crois pas pour au moins 2 raisons :
    1) Le prix baisse sans arrêt a tous les niveaux et qui dit baisse de prix dit baisse de la vigilance en clair programme moins optimisé. On ressent le besoin d'optimiser s'il y a un problème de puissance matériel ou de coût d'infrastructure ce qui est plus rarement le cas quand on a de la puissance pas cher. Entretenir 3 serveurs locaux est complexe et coûteux mais si l'on peux s'en procurer 6 en cloud pour le même prix on ne réfléchis plus. Ensuite la virtualisation entraîne une surconsommation (moindre avec la virtualisation très light de Docker) alors même si d'un côté on optimise l’utilisation le bénéfice global est faible (du moins d'un point de vue consommation).
    2) Les besoins sont en constante croissance (exponentiel) avec l'arrivé de l'intelligence artificielle entre autre pour apporter toujours plus d'automatisation et de pertinence. La preuve par l'histoire, les ordinateurs consomment toujours moins d'énnergie par "flop" mais la consommation a toujours augmenter. En clair par le passé augmentait la finesse mais on augmentait aussi la fréquence et donc la puissance consommé restait identique (a cause de lois physique d'échauffement on ne pouvait pas faire plus)
    Tout ce que j'écris est libre de droits (Licence CC0) et je vous incite à faire de même.

Discussions similaires

  1. Réponses: 26
    Dernier message: 31/05/2016, 16h18
  2. Réponses: 0
    Dernier message: 31/12/2014, 11h10
  3. Réponses: 0
    Dernier message: 23/03/2010, 12h00
  4. Analyste Programmeur aux Etats Unis
    Par aloha dans le forum Emploi
    Réponses: 5
    Dernier message: 13/02/2006, 19h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo