Aujourd'hui les critères quantitatifs de performance des systèmes informatiques dictent leur conception et orientent les innovations. Alors que ces dernières décennies les systèmes informatiques n'ont cessé de devenir de plus en plus puissants et de moins en moins coûteux, la tendance ralentit aujourd'hui à cause du manque de mesures détaillées en temps réel de la consommation énergétique des composants électroniques. La consommation électrique d'un serveur informatique sur sa durée d'exploitation représente un coût plus important que l'achat initial du matériel [1]. La consommation énergétique est devenue une préoccupation majeure des acteurs du secteur informatique qui cherchent à la réduire [2] [3] [4] [5] ou à valoriser l'énergie dégagée sous forme de chaleur par les composants électroniques [6] [7]. Kathryn Mc Kinley et Stephen M. Blackburn, tous deux professeurs en sciences de l'informatique, respectivement à l'Université du Texas à Austin (The University of Texas at Austin) et à l'Université Nationale d'Australie (Australian National University) proposent dans leur étude "Looking Back on the Language and Hardware Revolutions: Measured Power, Performance, and Scaling" [8] une analyse poussée des profils énergétiques d'une sélection représentative des microprocesseurs Intel de la période 2003-2010 ayant des architectures différentes sur lesquels différents types de logiciels ont été exécutés.
La nécessité d'une meilleure connaissance des dépenses énergétiques
L'informatique a connu une évolution spectaculaire depuis l'invention des transistors en 1947 puis des circuits intégrés en 1958. Ces nouveaux composants révolutionnaires (qui ont remplacé les relais électromécaniques et tubes à vide) ont initié le début d'une nouvelle ère informatique, caractérisée par une course à la miniaturisation des composants, toujours plus complexes, fiables et économiques. En 1965, la fameuse conjecture de Gordon Earle Moore, co-fondateur de Intel, premier producteur mondial de microprocesseurs, prédisait que la complexité des microprocesseurs continuerait de doubler tous les 2 ans à coût constant. En 1975, Moore réévaluait cette prédiction et annonçait que le nombre de transistors et microprocesseurs sur une puce de silicium doublerait tous les 2 ans. Cette dernière supposition s'est avérée étonnamment bien vérifiée, avec entre 1971 et 2001, une augmentation de la densité des transistors doublée tous les 1.96 ans. Cette conjecture est toutefois jugée par de nombreux acteurs, y compris Moore lui-même [9], comme "auto-realisatrice", servant d'objectif à toute l'industrie du semi-conducteur qui obtient les résultats planifiés (you get what you plan) [10].
Ces dernières décennies cependant, les progrès de miniaturisation de la technologie n'entraînent plus autant de gain de performance et de puissance qu'auparavant, et la rapidité d'exécution est limitée de manière croissante par le temps que met le courant à parcourir physiquement les circuits. Par ailleurs, la fréquence de l'horloge a cessé d'être le critère principal pour l'augmentation des performances : elle plafonne depuis plus de 5 ans aux alentours de 4GHz (pour les processeurs que l'on trouve dans les centres de données et dans les ordinateurs personnels), et c'est l'optimisation de l'architecture qui prend maintenant le relais (puces multi-coeur avec mémoire cache partagée, unités de calcul qui peuvent se désactiver/activer à la volée, fréquence d'horloge dynamique, etc.).
Alors que les besoins en traitement des informations de toutes sortes (scientifiques, financières, commerciales, etc.) sont pressants et ne cessent de croître, la contrainte de rentabilité énergétique (puissance multipliée par le temps d'exécution) constitue aujourd'hui le critère essentiel pour la conception des nouvelles architectures, à la place de la seule course à la rapidité d'exécution.
Il devient nécessaire de comprendre quantitativement la façon dont les composants consomment l'énergie en temps réel, afin d'améliorer la rentabilité des nouveaux systèmes. Emer et Clark ont été les premiers à proposer une caractérisation quantitative en temps réel, pour l'évaluation et la comparaison de puissance entre processeurs, avec l'usage des "Multiple Instructions Per Secondes" comme unité de mesure. Cependant celle-ci permet de comparer deux processeurs d'une même architecture (i.e. la spécification fonctionnelle du processeur, du point de vue du programmeur en langage machine), mais elle devient très subjective entre des types d'architectures différentes.
Une analyse approfondie et systématique par mesure de puissance, performance et de fréquence de l'horloge sur un large panel de processeurs
Mc Kinley, Blackburn et leurs étudiants se sont intéressés à la période de 2003 à 2010 durant laquelle les matériels et logiciels informatiques ont beaucoup évolué. Pendant cette période, la finesse de gravure est passée de 130 nm à 32 nm, les monoprocesseurs ont été progressivement remplacés par des puces multi-coeurs/multi-processeurs et les éditeurs de logiciels développent davantage avec des langages "gérés" (codes de fort degré d'abstraction qui permettent de produire des logiciels indépendants de toute architecture matérielle, les auteurs ont sélectionné le langage java pour représenter cette catégorie) au détriment des langages "natifs" ('assembly language'). Afin de mieux comprendre comment l'énergie est utilisée par les composants, ces chercheurs ont analysé de façon systématique et approfondie la puissance, la performance et la fréquence de l'horloge de 8 processeurs (45 configurations différentes au total) représentatifs de cette période, en se basant sur 61 tests de performance séquentiels et parallèles, écrits dans divers langages de programmation.
Avec leur mesures, ils ont pu constater que la consommation énergétique réelle des processeurs varie nettement selon le test de performance effectué. L'étude met également en évidence que les méthodes actuelles de prédiction de la performance, et de la consommation électrique, donnent des résultats assez éloignés de la réalité.
Conclusions
La comparaison des tests de performance avec les différents types de langages montrent de nettes différences selon le type de langage utilisé (voir graphique ci-dessus), révélant ainsi l'influence importante de la couche logicielle sur l'efficience globale du système. Les architectes ont donc intérêt à inclure dans leurs méthodes de conception et d'évaluation du matériel à la fois des langages natifs et gérés.
De plus, les différentes technologies d'économie d'énergie ou d'optimisation des performances comme la variation dynamique de la fréquence d'horloge, les différentes microarchitectures, le Turbo Boost (fonctionnalité de surcadencage dynamique sur les puces Intel), le multi-tâche (Simultaneous Multithreading - SMT) et le nombre de coeurs, font varier de manière extrêmement importante la puissance électrique consommée par le processeur. Les auteurs de l'étude ont par exemple noté que le SMT se révèle être l'une des technologies les plus efficaces pour améliorer l'éfficience énergétique d'un processeur et que le multi-coeur n'est pas toujours bénéfique en termes d'efficience.
Les auteurs de l'étude soulignent ainsi la nécessité d'intégrer un watt-mètre directement au sein de la puce, et si possible d'en intégrer un pour chaque unité du processeur (cores, mémoire cache, etc.), puis d'en donner l'accès aux développeurs de logiciel. Les auteurs ajoutent que lors de la conception d'un système informatique efficient, il ne faudrait pas se limiter à optimiser le matériel, mais prendre aussi en compte les logiciels qui seront exécutés pour optimiser le couple matériel/logiciel.
La nécessité d'une meilleure connaissance des dépenses énergétiques
L'informatique a connu une évolution spectaculaire depuis l'invention des transistors en 1947 puis des circuits intégrés en 1958. Ces nouveaux composants révolutionnaires (qui ont remplacé les relais électromécaniques et tubes à vide) ont initié le début d'une nouvelle ère informatique, caractérisée par une course à la miniaturisation des composants, toujours plus complexes, fiables et économiques. En 1965, la fameuse conjecture de Gordon Earle Moore, co-fondateur de Intel, premier producteur mondial de microprocesseurs, prédisait que la complexité des microprocesseurs continuerait de doubler tous les 2 ans à coût constant. En 1975, Moore réévaluait cette prédiction et annonçait que le nombre de transistors et microprocesseurs sur une puce de silicium doublerait tous les 2 ans. Cette dernière supposition s'est avérée étonnamment bien vérifiée, avec entre 1971 et 2001, une augmentation de la densité des transistors doublée tous les 1.96 ans. Cette conjecture est toutefois jugée par de nombreux acteurs, y compris Moore lui-même [9], comme "auto-realisatrice", servant d'objectif à toute l'industrie du semi-conducteur qui obtient les résultats planifiés (you get what you plan) [10].
Ces dernières décennies cependant, les progrès de miniaturisation de la technologie n'entraînent plus autant de gain de performance et de puissance qu'auparavant, et la rapidité d'exécution est limitée de manière croissante par le temps que met le courant à parcourir physiquement les circuits. Par ailleurs, la fréquence de l'horloge a cessé d'être le critère principal pour l'augmentation des performances : elle plafonne depuis plus de 5 ans aux alentours de 4GHz (pour les processeurs que l'on trouve dans les centres de données et dans les ordinateurs personnels), et c'est l'optimisation de l'architecture qui prend maintenant le relais (puces multi-coeur avec mémoire cache partagée, unités de calcul qui peuvent se désactiver/activer à la volée, fréquence d'horloge dynamique, etc.).
Alors que les besoins en traitement des informations de toutes sortes (scientifiques, financières, commerciales, etc.) sont pressants et ne cessent de croître, la contrainte de rentabilité énergétique (puissance multipliée par le temps d'exécution) constitue aujourd'hui le critère essentiel pour la conception des nouvelles architectures, à la place de la seule course à la rapidité d'exécution.
Il devient nécessaire de comprendre quantitativement la façon dont les composants consomment l'énergie en temps réel, afin d'améliorer la rentabilité des nouveaux systèmes. Emer et Clark ont été les premiers à proposer une caractérisation quantitative en temps réel, pour l'évaluation et la comparaison de puissance entre processeurs, avec l'usage des "Multiple Instructions Per Secondes" comme unité de mesure. Cependant celle-ci permet de comparer deux processeurs d'une même architecture (i.e. la spécification fonctionnelle du processeur, du point de vue du programmeur en langage machine), mais elle devient très subjective entre des types d'architectures différentes.
Une analyse approfondie et systématique par mesure de puissance, performance et de fréquence de l'horloge sur un large panel de processeurs
Mc Kinley, Blackburn et leurs étudiants se sont intéressés à la période de 2003 à 2010 durant laquelle les matériels et logiciels informatiques ont beaucoup évolué. Pendant cette période, la finesse de gravure est passée de 130 nm à 32 nm, les monoprocesseurs ont été progressivement remplacés par des puces multi-coeurs/multi-processeurs et les éditeurs de logiciels développent davantage avec des langages "gérés" (codes de fort degré d'abstraction qui permettent de produire des logiciels indépendants de toute architecture matérielle, les auteurs ont sélectionné le langage java pour représenter cette catégorie) au détriment des langages "natifs" ('assembly language'). Afin de mieux comprendre comment l'énergie est utilisée par les composants, ces chercheurs ont analysé de façon systématique et approfondie la puissance, la performance et la fréquence de l'horloge de 8 processeurs (45 configurations différentes au total) représentatifs de cette période, en se basant sur 61 tests de performance séquentiels et parallèles, écrits dans divers langages de programmation.
Avec leur mesures, ils ont pu constater que la consommation énergétique réelle des processeurs varie nettement selon le test de performance effectué. L'étude met également en évidence que les méthodes actuelles de prédiction de la performance, et de la consommation électrique, donnent des résultats assez éloignés de la réalité.
Conclusions
La comparaison des tests de performance avec les différents types de langages montrent de nettes différences selon le type de langage utilisé (voir graphique ci-dessus), révélant ainsi l'influence importante de la couche logicielle sur l'efficience globale du système. Les architectes ont donc intérêt à inclure dans leurs méthodes de conception et d'évaluation du matériel à la fois des langages natifs et gérés.
De plus, les différentes technologies d'économie d'énergie ou d'optimisation des performances comme la variation dynamique de la fréquence d'horloge, les différentes microarchitectures, le Turbo Boost (fonctionnalité de surcadencage dynamique sur les puces Intel), le multi-tâche (Simultaneous Multithreading - SMT) et le nombre de coeurs, font varier de manière extrêmement importante la puissance électrique consommée par le processeur. Les auteurs de l'étude ont par exemple noté que le SMT se révèle être l'une des technologies les plus efficaces pour améliorer l'éfficience énergétique d'un processeur et que le multi-coeur n'est pas toujours bénéfique en termes d'efficience.
Les auteurs de l'étude soulignent ainsi la nécessité d'intégrer un watt-mètre directement au sein de la puce, et si possible d'en intégrer un pour chaque unité du processeur (cores, mémoire cache, etc.), puis d'en donner l'accès aux développeurs de logiciel. Les auteurs ajoutent que lors de la conception d'un système informatique efficient, il ne faudrait pas se limiter à optimiser le matériel, mais prendre aussi en compte les logiciels qui seront exécutés pour optimiser le couple matériel/logiciel.
- [1] Datacenter energy costs outpacing hardware prices :http://redirectix.bulletins-electroniques.com/MQS6D
- [2] BE Etats-Unis 259 : Les centres de données américains pourraient consommer 5 fois moins d'électricité : http://www.bulletins-electroniques.com/actualites/67686.htm
- [3] BE Etats-Unis 213 : GEIT Awards : les bonnes pratiques pour les centres de données se voient récompensées : http://www.bulletins-electroniques.com/actualites/63803.htm
- [4] BE Etats-Unis 210 : La consommation électrique des centres de données dans le collimateur : http://www.bulletins-electroniques.com/actualites/63618.htm
- [5] BE Etats-Unis 207 : L'état de New York finance l'amélioration de l'efficience de ses centres de données : http://www.bulletins-electroniques.com/actualites/63350.htm
- [6] BE Etats-Unis 261 : Microsoft propose de remplacer votre chaudière par des serveurs : http://www.bulletins-electroniques.com/actualites/67805.htm
- [7] BE Etats-Unis 211 : Pour HP, centre de traitement de données et bouses de vache font bon ménage : http://www.bulletins-electroniques.com/actualites/63656.htm
- [9] The Inquirer - 2005 - Gordon Earl Moore qualifie sa conjecture d'auto-realisatrice : http://redirectix.bulletins-electroniques.com/u6zQv
- [10] De Computeris - La prophétie de Moore : http://de-computeris.blogspot.com/2011/01/la-prophetie-de-moore.html
- [2] BE Etats-Unis 259 : Les centres de données américains pourraient consommer 5 fois moins d'électricité : http://www.bulletins-electroniques.com/actualites/67686.htm
- [3] BE Etats-Unis 213 : GEIT Awards : les bonnes pratiques pour les centres de données se voient récompensées : http://www.bulletins-electroniques.com/actualites/63803.htm
- [4] BE Etats-Unis 210 : La consommation électrique des centres de données dans le collimateur : http://www.bulletins-electroniques.com/actualites/63618.htm
- [5] BE Etats-Unis 207 : L'état de New York finance l'amélioration de l'efficience de ses centres de données : http://www.bulletins-electroniques.com/actualites/63350.htm
- [6] BE Etats-Unis 261 : Microsoft propose de remplacer votre chaudière par des serveurs : http://www.bulletins-electroniques.com/actualites/67805.htm
- [7] BE Etats-Unis 211 : Pour HP, centre de traitement de données et bouses de vache font bon ménage : http://www.bulletins-electroniques.com/actualites/63656.htm
- [9] The Inquirer - 2005 - Gordon Earl Moore qualifie sa conjecture d'auto-realisatrice : http://redirectix.bulletins-electroniques.com/u6zQv
- [10] De Computeris - La prophétie de Moore : http://de-computeris.blogspot.com/2011/01/la-prophetie-de-moore.html
ORIGINE : BE Etats-Unis numéro 278 (17/02/2012) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/69164.htm
Je suis Helena Julio de l'Équateur, je veux bien parler de M. Benjamin sur ce sujet. me donne un soutien financier lorsque toutes les banques de ma ville ont refusé ma demande de m'accorder un prêt de 500000,00 USD, j'ai essayé tout ce que j'ai pu pour obtenir un prêt de mes banques ici en Équateur mais elles m'ont toutes refusé parce que mon crédit était faible mais avec la grâce de Dieu, j'ai appris l'existence de M. Benjamin alors j'ai décidé d'essayer de demander le prêt. Avec la volonté de Dieu, ils m'accordent un prêt de 500 000,00 USD. La demande de prêt que mes banques ici en Équateur m'ont refusée, c'était vraiment génial de faire affaire avec elles et mon entreprise va bien maintenant. Contactez-nous par e-mail / WhatsApp si vous souhaitez demander un prêt auprès d'eux. 247officedept@gmail.com Contact WhatsApp: + 1-989-394-3740.
RépondreSupprimer