dimanche, mai 11, 2025
  • Connexion
Enerzine.com
  • Accueil
  • Energie
    • Electricité
    • Marché Energie
    • Nucléaire
    • Pétrole
    • Gaz
    • Charbon
  • Renouvelable
    • Biogaz
    • Biomasse
    • Eolien
    • Géothermie
    • Hydro
    • Hydrogène
    • Solaire
  • Technologie
    • Batterie
    • Intelligence artificielle
    • Matériaux
    • Quantique
    • Recherche
    • Robotique
    • Autres
      • Chaleur
      • Communication
      • Fusion
      • Graphène
      • Impression
      • Industrie énergie
      • Industrie technologie
      • Laser
      • Nanotechnologie
      • Optique
  • Environnement
    • Carbone
    • Circulaire
    • Climat
    • Déchets
    • Durable
    • Risques
    • Santé
  • Mobilité
    • Aérien
    • Infrastructure
    • Logistique
    • Maritime
    • Spatial
    • Terrestre
  • Habitat
  • Insolite
  • GuideElectro
    • Sommaire
    • Maison
    • Chauffage
    • Bricolage
    • Jardin
    • Domotique
    • Autres
      • Isolations
      • Eclairage
      • Nomade
      • Loisir
      • Compostage
      • Médical
  • LaboFUN
    • Science
    • Lévitation
    • Globe
Aucun résultat
Voir tous les résultats
  • Accueil
  • Energie
    • Electricité
    • Marché Energie
    • Nucléaire
    • Pétrole
    • Gaz
    • Charbon
  • Renouvelable
    • Biogaz
    • Biomasse
    • Eolien
    • Géothermie
    • Hydro
    • Hydrogène
    • Solaire
  • Technologie
    • Batterie
    • Intelligence artificielle
    • Matériaux
    • Quantique
    • Recherche
    • Robotique
    • Autres
      • Chaleur
      • Communication
      • Fusion
      • Graphène
      • Impression
      • Industrie énergie
      • Industrie technologie
      • Laser
      • Nanotechnologie
      • Optique
  • Environnement
    • Carbone
    • Circulaire
    • Climat
    • Déchets
    • Durable
    • Risques
    • Santé
  • Mobilité
    • Aérien
    • Infrastructure
    • Logistique
    • Maritime
    • Spatial
    • Terrestre
  • Habitat
  • Insolite
  • GuideElectro
    • Sommaire
    • Maison
    • Chauffage
    • Bricolage
    • Jardin
    • Domotique
    • Autres
      • Isolations
      • Eclairage
      • Nomade
      • Loisir
      • Compostage
      • Médical
  • LaboFUN
    • Science
    • Lévitation
    • Globe
Aucun résultat
Voir tous les résultats
Enerzine.com
Aucun résultat
Voir tous les résultats

La consommation des datacenters, un enjeu planétaire

par La rédaction
17 février 2009
en Technologie

Articles à explorer

Le refroidissement liquide des serveurs HPE divise par deux la facture énergétique

Le refroidissement liquide des serveurs HPE divise par deux la facture énergétique

16 décembre 2024
Le LIST et Intel annoncent leur collaboration pour faire progresser l'électronique à très faible consommation d'énergie

Le LIST et Intel annoncent leur collaboration pour faire progresser l’électronique à très faible consommation d’énergie

30 octobre 2024

Pour sa seconde édition le 4 février dernier, le Green Grid a annoncé par l’intermédiaire de Rob Bernard, Chief Sustainability Strategist à Microsoft, le lancement de nouveaux programmes, outils et guides afin d’améliorer l’efficacité des centres de donnée (data center) à l’échelle mondiale.

Fondée en 2007, "The Green Grid" est un consortium dédié à promouvoir la nécessité de réduire la consommation énergétique au sein des centres de données et des grands complexes informatiques.

L’année dernière le consortium avait introduit les paramètres PUE (Power Usage Effectiveness) et DCE (Data Center Effenciency) qui permettent de comparer et de mesurer l’énergie nécessaire pour stocker et acheminer une information en fonction de l’énergie totale nécessaire pour le fonctionnement des centres de données, comme les circuits de refroidissement, les systèmes de sécurité et de surveillance, ou l’alimentation des serveurs. Cette année, les membres de Green Grid et les industriels présents se sont penchés sur les différents moyens de mesurer la productivité des centres de données et la création d’un nouveau paramètre, le DCP pour Data Center Productivity.

Depuis ces paramètres ont été repris. A titre d’information, en 2007, une étude réalisée par l’U.S. Environmental Protection Agency (EPA) montre qu’en moyenne une entreprise possède un PUE de 2,0 ou plus. Ceci signifie que pour chaque Watt utilisé par les serveurs, le stockage ou les réseaux Internet, un autre Watt est consommé par les systèmes de refroidissement et de distribution de l’énergie. L’étude montre également que d’ici 2011 la plupart des centres de données pourraient atteindre un PUE de 1.7 voire 1,3 pour les plus performants. Curieusement Google revendique déjà y être parvenu pour 6 de ses grands centres avec un PUE moyen de 1,21. Cependant les moyens entrepris pour obtenir ce résultat sont précieusement gardés secret et donc invérifiables. L’enjeu est grand car selon certaines études si rien n’est fait, dans 25 ans, Internet consommera autant d’énergie que l’humanité tout entière en 2008. Un constat contre lequel tentent de lutter les poids lourds du secteur (AMD, Google, HP, Intel, Yahoo, Ebay, Fujitsu, Microsoft, Sun, VMWare…) réunis à la conférence qui a eu lieu dans la Silicon Valley.

Parmi les initiatives énoncées, on peut citer le programme Data Center 2.0. Son objectif est de fournir à l’industrie un guide sur plusieurs années destiné aux concepteurs et aux utilisateurs des centres de données afin de construire des infrastructures à haute efficacité énergétique. A cela sera ajouté un programme de reconnaissance dans lequel les utilisateurs finaux pourront reporter leurs mesures de PUE et DCE. Selon Jim Pappas, directeur de The Green Grid "Les centres de données sont composés de systèmes hautement complexes. Un grand nombre d’informations techniques et les meilleurs documents pratiques existent dans l’industrie mais il n’existe pas une seule autorité ayant une approche holistique du design des centres de données, ce qui permettrait d’aller de l’avant".

La consommation des centres de données est en ce moment au coeur de l’actualité. Aujourd’hui, le secteur de l’informatique génèrerait déjà près de 2% des émissions de CO2 liées à l’activité humaine, contre 12% pour le trafic aérien. Une recherche Google équivaut par exemple à l’énergie consommée pendant une heure par une ampoule à économie d’énergie. Un centre de données moyen consomme en effet près de 4 mégawatts par heure, soit l’équivalent énergétique de près de 3000 foyers.

Les géants de l’Internet semblent être conscients de ce problème. Aux Etats-Unis, la bataille fait rage. Dans le secteur de Columbia River dans le Nord Ouest, Google, Microsoft, Amazon et Yahoo ont construits certains des plus grands et des plus avancés centres de donnés au monde capables de contenir des dizaines de milliers de serveurs. Ces serveurs fourniront les prochaines générations d’applications d’Internet. L’objectif est de tenter par tous les moyens de réduire les consommations énergétiques de ces centres qui sont faramineuses. En exemple, le centre construit par Microsoft dans le Quincy consomme 48 mégawatts l’équivalant de la puissance utilisée par 40.000 maisons. Une étude récente de la firme IDC a estimé que d’ici 6 ans, le coût énergétique annuel des centres de données sera plus élevé que celui nécessaire à l’équipement et la maintenance.

La firme de conseil McKinsey &amp ont rapporté que les 44 millions de serveurs dans le monde consomme 0.5% de l’électricité mondiale et produit 0.2% des émissions de carbone soit 80 mégatonnes par an l’équivalent de ce que rejette l’Argentine ou les Pays Bas. On comprend alors l’inquiétude des principaux acteurs du secteur qui tentent par tous les moyens de sensibiliser les utilisateurs, d’optimiser les outils et les processus, afin de réduire à la fois leur empreinte écologique, mais aussi le coût de leurs consommations énergétiques. Les principales conclusions présentées lors de cette seconde édition du Green Grid concernent autant les comportements que les solutions techniques. Ainsi, près de 60% des utilisateurs reconnaîtraient ne pas éteindre leur poste de travail tous les soirs. Pourtant, selon l’édition 2007 du PC Energy Report, le simple fait d’éteindre les ordinateurs chaque nuit pourrait permettre à une entreprise disposant d’un parc de 10.000 PC d’économiser plus de 165.000$ par an.

Du côté des solutions techniques plusieurs pistes sont envisagées. La première est le concept de virtualisation qui permettrait de faire passer le taux d’utilisation des serveurs de 20% en moyenne aujourd’hui à près de 90%. Grâce à ce concept, un serveur peut faire tourner différents systèmes d’exploitation ou différents logiciels, en faisant abstraction de ses particularités "physiques" et donc en optimisant ses capacités "logiques". Cela signifie également qu’un centre de données peut réduire le nombre de ses machines. Chaque serveur virtualisé permettrait ainsi d’économiser environ 4 tonnes de CO2, selon des chiffres VMware cités par Dotgreen, spécialisé dans ce domaine. D’ici à la fin 2010, les grandes entreprises devraient avoir virtualisé au moins 35% de leur infrastructure serveur et stockage et 20% de leurs postes de travail.

Une autre voie de recherche est l’amélioration de la gestion de la puissance fournie
. La puissance fournie est en effet calibrée sur la somme des pics maximum de consommation de chaque serveur. Mais pour le cas d’un grand nombre de serveurs, il pourrait être astucieux de calibrer sur la moyenne de consommation totale des serveurs car il est peu probable que le pic de maximum soit atteint pour chaque serveur en même temps. Ceci selon Microsoft pourrait permettre d’ajouter 30 à 50% de serveurs supplémentaires pour la même consommation d’énergie. Ceci implique en contre partie des coûts de surveillance supplémentaires en cas de trop forte demande en énergie.

D’autres directions de recherche ne portent pas sur l’amélioration du fonctionnement des serveurs mais sur les systèmes de maintenance. Par exemple l’énergie consommée par les systèmes de refroidissements actuels pourraient être réduits de 25 à 40% en utilisant de nouveaux systèmes appelés par Hewlett Pachard’s "smart cooling" (refroidissement intelligent). Ils permettraient de laisser les centres de données tourner à l’air ambiant soit 27°C en injectant directement de l’air frais dans les serveurs au lieu d’entretenir une climatisation globale du centre à une température de 13°C .

Toujours dans l’idée d’optimiser les systèmes extérieurs aux serveurs, IBM, HP, Sun Microsystems, Rackable Systems, and Verari Systems projettent de créer des modules incluant chacun un système de refroidissement, une alimentation et une série de serveurs. Ces modules seraient capables de supporter 3000 serveurs. Outre le gain en espace, ces modules permettent une grande flexibilité d’une part car il suffirait de les déployer selon le besoin et d’autre part car il serait très facile de les déplacer afin de les réparer ou les améliorer.

Enfin d’autres projets plus ambitieux proposés notamment par Google consisteraient à construire des centres de données dans des lieux naturellement froids. Il serait ainsi question de construire un centre de donnée en mer au large de la Californie, auto alimenté par l’énergie des vagues ou bien alors en Sibérie ; Mais pour le moment ces projets sont encore dans les cartons.

Les autres programmes lancés par le Green Grid portent sur des nouveaux outils d’éducation et la publication d’articles d’information. Pour ses membres le Green Grid lancera "The Green Grid Academy" un ensemble de documents de formation qui pourra aider les utilisateurs à mieux comprendre comment déployer les standards industriels de mesure comme le PUE, DCE, DCP. Le contenu est attendu pour être disponible à partir de mi 2009. Quant aux publications d’articles elles sont déjà disponibles et traitent par exemple de 8 méthodes pour mesurer l’efficacité des opérations dans les centres données, l’objectif étant de récupérer les avis sur la méthode la plus appropriée. Les articles sont disponibles à l’adresse :
http://www.thegreengrid.org/library-and-tools.aspx

BE Etats-Unis numéro 153 (13/02/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/57732.htm

Tags: consommationdatacentersnorvege
TweetPartagePartagePartageEnvoyer
Article précédent

Une centrale hydraulique au Brésil pour Voltalia

Article suivant

Les bus de la ville d’Oslo rouleront au biométhane

La rédaction

La rédaction

Enerzine.com propose une couverture approfondie des innovations technologiques et scientifiques, avec un accent particulier sur : - Les énergies renouvelables et le stockage énergétique - Les avancées en matière de mobilité et transport - Les découvertes scientifiques environnementales - Les innovations technologiques - Les solutions pour l'habitat Les articles sont rédigés avec un souci du détail technique tout en restant accessibles, couvrant aussi bien l'actualité immédiate que des analyses. La ligne éditoriale se concentre particulièrement sur les innovations et les avancées technologiques qui façonnent notre futur énergétique et environnemental, avec une attention particulière portée aux solutions durables et aux développements scientifiques majeurs.

A lire également

Les mouvements oculaires prédisent les limites de vitesse dans la perception. Adapté par Martin Rolfs.
Recherche

Les mouvements oculaires prédisent les limites de vitesse dans la perception

il y a 23 minutes
Quelle est l'efficacité réelle des pompes à chaleur ?
Industrie énergie

Quelle est l’efficacité réelle des pompes à chaleur ?

il y a 4 heures
L'IA au travail : un gain de confort qui pourrait vous coûter cher
Intelligence artificielle

L’IA au travail : un gain de confort qui pourrait vous coûter cher

il y a 1 jour
Plus d'infos
Article suivant

Les bus de la ville d'Oslo rouleront au biométhane

Accident de Tchernobyl : La BERD fait don de 135 ME

Lille a réduit la consommation de son éclairage public

Commentaires 3

  1. energizer says:
    il y a 16 ans

    Le Rafraîchissement d’Air par Evaporation, également appelé Rafraîchissement adiabatique, est une techno simple, peu coûteuse à l’achat et à l’exploitation (10 fois moins d’éléctricité consommée que la clim tradi, mais consommation d’un peu d’eau / de pluie c’est possible), sans gaz refrigérant.. fonctionnement:

    Répondre
  2. Andreas says:
    il y a 16 ans

    « Google consisteraient à construire des centres de données dans des lieux naturellement froids. Il serait ainsi question de construire un centre de donnée en mer au large de la Californie, auto alimenté par l’énergie des vagues ou bien alors en Sibérie  » —– Pourquoi en Sibérie alors que les Américains possède l’Alaska qui est aussi froid que la Sibérie . Et les Canadiens possèdent des régions immenses très au nord qui sont elles aussi très froide comme la Sibérie . Alors pas besoin d’ aller en Sibérie,ni même en pleine mer !!!!

    Répondre
  3. eco-dc says:
    il y a 14 ans

    C’est quoi un datacenter efficient ? Un datacenter efficient est un datacenter qui utilise la juste quantité d’énergie pour répondre à l’utilisation qu’on en attend. En d’autres termes, le datacenter doit fonctionner dans les conditions attendues en consommant le moins d’énergie possible. Pour apprécier l’efficience énergétique d’un datacenter il est nécessaire (mais pas suffisant tel que nous le verrons plus loin) de considérer 2 paramètres: Le PUE (Power Usage Effectiveness tel que défini par le Green-Grid) L’architecture technique (niveaux de redondance ou architecture TIER tel que défini par l’Uptime Institut). Le challenge qui se pose à nous est de diminuer la consommation électrique globale du datacenter tout en garantissant le niveau de continuité de service attendu. Pour une personne avertie, un PUE mirifique annoncé seul ne permettra pas de prendre la juste mesure de la prouesse technologique accomplie. En effet, une infrastructure technique simple permettra d’atteindre un PUE très bas, mais présentera un niveau de continuité de service faible. A contrario, une infrastructure technique offrant un degré de continuité de service élevé sera pénalisé par un PUE plus élevé. Le dilemme est posé, il faudra choisir entre économie d’énergie et continuité de service. Pourquoi ces 2 paramètres ne sont-ils pas suffisants ? Ils ne sont pas suffisants parce que le PUE a montré ses limites : A configuration technique équivalente, il est possible sur un même site que le PUE diminue alors que la consommation énergétique globale du site augmente. A ce jour, la définition du PUE (les définitions pour être exact…) ne prend pas en considération l’énergie récupérée et utilisée à d’autres fins (pour du chauffage par exemple). Comment faire pour bénéficier d’un datacenter efficient, être sûr de ne pas se tromper et commencer à faire des économies ? Pour cela rien de plus simple, la procédure tient en 3 lignes : Appelez Eco-Datacenter (www.eco-datacenter.fr) et exposez leur votre besoin. Lisez la proposition commerciale établie en fonction de vos besoins et signez-la. Laissez vous guider, Eco-Datacenter s’occupe de tout ! Eco-Datacenter à votre service.

    Répondre

Laisser un commentaire Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bibliothèque photos préférée : Depositphotos.com
depositphotos
Enerzine est rémunéré pour les achats éligibles à la plateforme : Amazon partenaire

Articles récents

Les mouvements oculaires prédisent les limites de vitesse dans la perception. Adapté par Martin Rolfs.

Les mouvements oculaires prédisent les limites de vitesse dans la perception

11 mai 2025
Quelle est l'efficacité réelle des pompes à chaleur ?

Quelle est l’efficacité réelle des pompes à chaleur ?

11 mai 2025
  • A propos
  • Newsletter
  • Publicité – Digital advertising
  • Mentions légales
  • Confidentialité
  • Contact

© 2025 Enerzine.com

Bienvenue !

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Aucun résultat
Voir tous les résultats
  • Accueil
  • Energie
  • Renouvelable
  • Technologie
  • Environnement
  • Mobilité
  • Habitat
  • Insolite
  • Guide
  • Labo

© 2025 Enerzine.com