A chaque fois que vous téléchargez une vidéo, partagez une photo, envoyez un email à un ami ou tweetez sur l’endroit ou vous êtes, votre appareil relié à internet s’adresse à un data center (un centre de données informatique).
Des rangées de serveurs stockent des trillions de méga-octets d’informations. Ces systèmes complexes, affamés d’énergie, alimentent le web.
Aujourd’hui, les datas centers sont responsables de 2% des émissions de carbone dans le monde et utilisent 80 millions de megawattheures d’énergie chaque année, soit environ le total d’électicité utilisé par la région Ile de France.
On considère qu’un seul data center consomme l’équivalent de 40.000 foyers. D’ici à 2020, avec la même croissance qu’aujourd’hui et sans amélioration de l’efficacité énergétiques, les data centers produiront 359 mégatonnes de CO2, soit l’équivalent du rejet en CO2 de 125 millions de voitures.
Le Groupe ABB a réalisé une infographie explicite avec d’un côté l’impact des data centers et de l’autre les opportunités à mettre en oeuvre des solutions d’efficacité énergétique.
[ Consulter le document initial ABB : ICI ]
Plusieurs remarques : Intel , premier fabricant mondial de processeurs, a complètement changé de stratégie depuis 3 ans, privilégiant la consommation plutôt que la puissance. Le premier résultat a été les processeurs Atom qui sont devenus multicores et ont sérieusement amélioré leurs performances, donnant naissance au marché des netbooks et des nettops. La puissance de calcul est désormais plutôt dirigée vers les supercalculateurs ou les jeux video (gros consommateurs). Le fondeur ne semble pas vouloir concurrencer ce segment désormais. Les GPU ont de toutes façons pulvérisé tous les standards de vitesse et le fabricant doit avant tout se faire une place sur ce segment : ce qui est très bien engagé puisque la plupart des processeurs récents (core-ix) intégrent désormais un circuit video En revanche la « puissance de communication » par opposition à celle de calcul se déplace désormais vers les processeurs massivement multi-coeurs et les serveurs de datacenters deviennent de plus en plus spécifiques et se différencient des PC de Mr tout-le-monde Quoi qu’il en soit, cette spécialisation permet d’améliorer la « puissance par watt » consommé. L’un des résultats visibles est l’allongement considérable de l’autonomie des portables dont les batteries n’ont pourtant pas vraiment progressé depuis 5 ans. L’étape suivante est l’ULV (ultra low voltage) dont les premiers avatars existent déjà sous forme de core-i7 ulv dont la fréquence est faible (< 2Ghz) mais qui parviennent à égaler les performances de processeurs de gamme inférieure comme les i5 ivy bridge actuels, en dispersant moins d'énergie. En résumé donc pour les users lambda : montée en gamme (core i7) multiplication des coeurs qui obligent à repenser les logiciels. Cette stratégie se prète bien à la baisse de finesse de gravure – le 22 nanomètre s'installe chez Intel alors que la concurrence maitrise tout juste le 32 nm. Cette progression est nettement économe en énergie à terme – encore faudrait il que la demande ne croisse pas de 50% par an pour que cela se voie !!!!!! Pour les serveurs , la donne est subtilement différente : le nombre de coeurs par puce explose littéralement (gamme Xeon) chaque coeur prend en charge peu ou prou ce qui était autrefois dévolu à un serveur entier. Le cloisonnement des threads est l'amélioration la plus visible car les stacks IP ont toujours eu la fâcheuse tendance de bloquer le coeur entier à cause d'une connection un peu lente à un host distant par exemple. Ce problème n'a jamais été complètement résolu, la multiplication des coeurs physiques plutôt que des threads logiques rend ces blocages beaucoup moins pénalisants (et donc améliore l'efficacité). AUTRE hardware: les disques SSD Les disque flash se généralisent et deviennent peu chers. L'absence de plateau tournant (moteur electrique) et de rafraichissement des mémoire flash parlent d'elles mêmes , inutile d'épiloguer sur l'économie d'énergie inhérente. Cela dit , les vieux disques durs restent irremplaçables pour le stockage en volume à 100€ le terabyte , ils n'ont aucune concurrence. Il reste donc beaucoup à faire dans l'utilisation optimale des disques SSD – RAM, qui accélèrent l'acces à l'info d'un facteur 1000 (et donc l'efficacité énergétique) En synthèse : le parent pauvre de toutes ces améliorations reste visiblement les architectures logicielles. La généralisation de javascript et de PHP datent d'une autre époque , leur optimisation est très mauvaise car ils sont compilés à chaque execution. Saluons les efforts importants de Google qui permet la programmation en C++ sur navigateur ce qui permet d'entrevoir une énorme amélioraion de la consommation des applications cloud Quand Enerzine fera-t-il la refonte de son système de forum ? (personnellement ça ne m'empèche pas de dormir 🙂
quelle pub pour Intel !!! et pourquoi pas AMD ou toutes les architectures ARM et les plus gros supercalculateurs qui ne sont ps à base d’intel! et tous les microcontroleurs « embedded » qui gèrent des milliards d’appliczations de la vie courante? je suis par contree d »accord avec vosus que la programmation actuelle (quel que soit le processeur ou le système cible n’est pratiquement pas orienté consommation et qu’il y aurait là, des gains énormes ‘gigantesques)à faire. Ne serait-ce que tous les « sleep mode » et toutes ces diodes qui pourraient » éclairer » 2 fois moins (1 milliAmpère de gagné sur 1 milliard d’équipements, c’est 1 million d’Ampères!