La consommation des datacenters au coeur des requêtes

Pour limiter les quantités d’énergie requises par le fonctionnement des centres de données, une solution est de réorienter les demandes effectuées auprès de ceux-ci, vers d’autres moins saturés.

Lorsque l’on parle de Datacenters, impossible de faire fi de l’aspect le plus problématique de ces derniers, à savoir la consommation énergétique qu’ils engendrent (1% de la consommation en électricité mondiale). Pour résoudre cette problématique, Dan Xu et Xin Liu, deux chercheurs en sciences informatiques de l’université de Californie, proposent d’adopter un mode de gestion qui tire parti des heures pleines et creuses d’affluence Internet. L’idée la plus intéressante serait d’éteindre les serveurs non utilisés, ou tout du moins de les mettre en veille, afin d’économiser l’énergie qui serait consommée à vide dans le cas d’un fonctionnement continu. Mais, pour des raisons pratiques, les propriétaires des centres de données refusent d’appliquer ce mode de gestion.

Transférer les requêtes d’un Datacenter à un autre pour lisser la courbe de demandes.

Plusieurs raisons à cela: d’abord parce qu’éteindre puis rallumer des serveurs à intervalle régulier détériore leurs performances ainsi que leurs durées de vie, mais surtout parce que ces heures creuses sont les moments pendant laquelle une multitude de tâches de maintenance ont lieu. L’idée est donc la suivante: afin d’exploiter pleinement ces périodes creuses, les chercheurs ont mis au point deux algorithmes de distribution, qui permettent de transférer les demandes effectuées à un centre de données à forte activité vers un autre, moins saturé. Ces algorithmes ont pour but de minimiser le délai supplémentaire induit par le transfert de ces requêtes tout en optimisant la consommation d’électricité requise.

Des algorithmes dont l’emploi doit se faire dans des situations différentes

Le premier, nommé algorithme SSTF, permet de réduire les coûts au maximum, mais pose problème au niveau du délai d’attente engendré. Son utilisation se fera donc dans les cas où les demandes ne sont pas considérées comme prioritaires (par exemple, des analyses pouvant être réalisées en tâches de fond). Le second (l’algorithme QTF) permet quant à lui d’obtenir un temps de traitement des demandes et un coût optimisés. Il permettra de gérer efficacement des demandes requérant un temps de réponse court.

[ Source : Atelier – BNP Paribas ]

Articles connexes

1 Commentaire
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Lionel_fr

Ok je vais essayer de ne pas squatter la discussion ici. Cela dit l’article ne fait état que d’une partie des solutions énergétiques pour les datacenters. Le plus souvent les solutions les plus géniales sont contrariées par des problèmes commerciaux ou de droit. Tout le monde sait que le droit d’auteur est un frein énorme à l’extension du peer to peer alors que ce dernier pourrait diviser la consommation par des puissances de dix notamment en video. De fait, le protocole IP ne se prète pas à la diffusion en broadcast (1 émetteur pour une infinité de récepteurs) Les solutions de TV sur IP popularisées par free sont propriétaires. Leur équivalent en technologie internet est youtube (ce qui permet de voir les videos à n’importe quel moment) mais au prix d’un trafic et d’une consommation titanesques. Je n’ai pas de chiffres précis sur le poids de la video dans la consomation des datacenters mais je ne serais pas surpris qu’il atteigne des 80%.. Le service des pages web dynamiques date d’une époque où les serveurs étaient plusieurs dizaines de fois moins rapides qu’aujourd’hui. Il me semble impossible d’aborder ce sujet sans préciser l’utilisation qui est faite des serveurs. Les datacenters ont pour vocation à remplacer tous les médias existants, il serait temps de différencier les usages car si les mêmes machines sont utilisées , les possibilités d’optimisation sont radicalement différentes d’un usage à l’autre.