Copyright Reuters
Le progrès ne va pas sans inconvénients. La preuve avec la révolution du « cloud computing » (informatique à distance) qui, si elle est source d'économies pour les entreprises (« La Tribune » du 30 mars), n'en pose pas moins un véritable problème sur le plan énergétique. Grands comme plusieurs terrains de football, les « data centers » (centres de données) deGoogle, Amazon, Microsoft et de l'ensemble des autres fournisseurs de services de « cloud computing », où sont stockées les données d'entreprises et de particuliers, ne représentent pas moins d'un quart de la facture d'électricité du secteur de la high-tech, à l'échelle mondiale. Notamment en raison des systèmes utilisés par les « data centers » pour refroidir leurs milliers de serveurs, qui dégagent une chaleur considérable.
Cette chaleur, au lieu de la combattre, pourquoi ne pas l'utiliser pour chauffer des immeubles ? Telle est la thèse que viennent de développer dans une étude des chercheurs de Microsoft et de l'université de Virginie. Sur le plan technique, les énormes centres de données des fournisseurs de « cloud computing » seraient divisés en petits « data centers » comprenant quelques dizaines de serveurs. Lesquels seraient installés dans des immeubles de bureaux et d'habitation, et raccordés au système informatique du fournisseur de « cloud » par Internet. « D'une température de 40 à 50 degrés, la chaleur rejetée par les serveurs est parfaite pour le chauffage collectif », assure l'étude.
Problèmes techniques
Ce recyclage éviterait aux gestionnaires des centres de données d'utiliser des systèmes de refroidissement, et la dispersion de leurs serveurs ne les obligerait plus à construire des « data centers » gigantesques. Au total, ils pourraient économiser entre 280 et 324 dollars (196 et 227 euros) par serveur et par an, selon l'étude. « En capturant la moitié du marché américain du chauffage résidentiel et de bureau, l'industrie high-tech pourrait doubler de taille sans augmenter son empreinte carbone », ajoute l'étude. Outre ces économies et les répercussions positives, en termes d'image, d'une réduction de leur empreinte carbone, les fournisseurs de services de « cloud computing » bénéficieraient de revenus supplémentaires, grâce à la facturation de cette source de chaleur aux particuliers et aux entreprises. Ces derniers profiteraient, eux, de la proximité géographique des serveurs, qui diminuerait le temps de traitement de leurs données informatiques.
Séduisante sur le papier, cette idée d'utiliser les serveurs comme des radiateurs se heurte cependant à plusieurs réalités techniques. À commencer par le climat : en été, les 40 à 50 degrés générés par les serveurs ne seront d'aucune utilité aux habitants, au contraire. Il faudra donc débrancher les serveurs, ce qui les empêchera de remplir leur mission d'origine, à savoir le stockage et le traitement de données.
Ensuite, comment les centres de données pourront-ils gérer la maintenance de serveurs éparpillés aux quatre coins des États-Unis ? Certaines réparations peuvent difficilement s'effectuer à distance. Qu'à cela ne tienne, les chercheurs suggèrent de proposer à certains habitants de procéder eux-mêmes à des manipulations sur les serveurs, en échange d'une diminution de leur facture de chauffage.
Plus grave, la multiplication de petits centres de données au sein d'immeubles d'habitation ou de bureaux soulève plus que jamais la question de la sécurité des données informatiques. Enfin, nul doute que les compagnies américaines d'énergie comme Exelon Constellation verront d'un très mauvais oeil Google et autre Amazon marcher sur leurs plates-bandes en commercialisant la chaleur rejetée par leurs serveurs.
Aucun commentaire:
Enregistrer un commentaire