spacer

spacer
Coordonnées >>
spacer

spacer
Toute l'actualité :
spacer
Etats-Unis >>
spacer
Monde >>
spacer
Tous les rapports :
spacer
Etats-Unis >>
spacer
Monde >>
spacer

spacer

spacer
Tous les flux rss >>
spacer

spacer

spacer

BE Etats-Unis 278  >>  17/02/2012

>> Sommaire

spacer

Sciences physiques et nanotechnologies
Efficience énergétique des systèmes informatiques : l'influence de la couche logicielle est primordiale

http://www.bulletins-electroniques.com/actualites/69164.htm

Aujourd'hui les critères quantitatifs de performance des systèmes informatiques dictent leur conception et orientent les innovations. Alors que ces dernières décennies les systèmes informatiques n'ont cessé de devenir de plus en plus puissants et de moins en moins coûteux, la tendance ralentit aujourd'hui à cause du manque de mesures détaillées en temps réel de la consommation énergétique des composants électroniques. La consommation électrique d'un serveur informatique sur sa durée d'exploitation représente un coût plus important que l'achat initial du matériel [1]. La consommation énergétique est devenue une préoccupation majeure des acteurs du secteur informatique qui cherchent à la réduire [2] [3] [4] [5] ou à valoriser l'énergie dégagée sous forme de chaleur par les composants électroniques [6] [7]. Kathryn Mc Kinley et Stephen M. Blackburn, tous deux professeurs en sciences de l'informatique, respectivement à l'Université du Texas à Austin (The University of Texas at Austin) et à l'Université Nationale d'Australie (Australian National University) proposent dans leur étude "Looking Back on the Language and Hardware Revolutions: Measured Power, Performance, and Scaling" [8] une analyse poussée des profils énergétiques d'une sélection représentative des microprocesseurs Intel de la période 2003-2010 ayant des architectures différentes sur lesquels différents types de logiciels ont été exécutés.

La nécessité d'une meilleure connaissance des dépenses énergétiques

L'informatique a connu une évolution spectaculaire depuis l'invention des transistors en 1947 puis des circuits intégrés en 1958. Ces nouveaux composants révolutionnaires (qui ont remplacé les relais électromécaniques et tubes à vide) ont initié le début d'une nouvelle ère informatique, caractérisée par une course à la miniaturisation des composants, toujours plus complexes, fiables et économiques. En 1965, la fameuse conjecture de Gordon Earle Moore, co-fondateur de Intel, premier producteur mondial de microprocesseurs, prédisait que la complexité des microprocesseurs continuerait de doubler tous les 2 ans à coût constant. En 1975, Moore réévaluait cette prédiction et annonçait que le nombre de transistors et microprocesseurs sur une puce de silicium doublerait tous les 2 ans. Cette dernière supposition s'est avérée étonnamment bien vérifiée, avec entre 1971 et 2001, une augmentation de la densité des transistors doublée tous les 1.96 ans. Cette conjecture est toutefois jugée par de nombreux acteurs, y compris Moore lui-même [9], comme "auto-realisatrice", servant d'objectif à toute l'industrie du semi-conducteur qui obtient les résultats planifiés (you get what you plan) [10].

Ces dernières décennies cependant, les progrès de miniaturisation de la technologie n'entraînent plus autant de gain de performance et de puissance qu'auparavant, et la rapidité d'exécution est limitée de manière croissante par le temps que met le courant à parcourir physiquement les circuits. Par ailleurs, la fréquence de l'horloge a cessé d'être le critère principal pour l'augmentation des performances : elle plafonne depuis plus de 5 ans aux alentours de 4GHz (pour les processeurs que l'on trouve dans les centres de données et dans les ordinateurs personnels), et c'est l'optimisation de l'architecture qui prend maintenant le relais (puces multi-coeur avec mémoire cache partagée, unités de calcul qui peuvent se désactiver/activer à la volée, fréquence d'horloge dynamique, etc.).

Alors que les besoins en traitement des informations de toutes sortes (scientifiques, financières, commerciales, etc.) sont pressants et ne cessent de croître, la contrainte de rentabilité énergétique (puissance multipliée par le temps d'exécution) constitue aujourd'hui le critère essentiel pour la conception des nouvelles architectures, à la place de la seule course à la rapidité d'exécution.

Il devient nécessaire de comprendre quantitativement la façon dont les composants consomment l'énergie en temps réel, afin d'améliorer la rentabilité des nouveaux systèmes. Emer et Clark ont été les premiers à proposer une caractérisation quantitative en temps réel, pour l'évaluation et la comparaison de puissance entre processeurs, avec l'usage des "Multiple Instructions Per Secondes" comme unité de mesure. Cependant celle-ci permet de comparer deux processeurs d'une même architecture (i.e. la spécification fonctionnelle du processeur, du point de vue du programmeur en langage machine), mais elle devient très subjective entre des types d'architectures différentes.

Une analyse approfondie et systématique par mesure de puissance, performance et de fréquence de l'horloge sur un large panel de processeurs

Mc Kinley, Blackburn et leurs étudiants se sont intéressés à la période de 2003 à 2010 durant laquelle les matériels et logiciels informatiques ont beaucoup évolué. Pendant cette période, la finesse de gravure est passée de 130 nm à 32 nm, les monoprocesseurs ont été progressivement remplacés par des puces multi-coeurs/multi-processeurs et les éditeurs de logiciels développent davantage avec des langages "gérés" (codes de fort degré d'abstraction qui permettent de produire des logiciels indépendants de toute architecture matérielle, les auteurs ont sélectionné le langage java pour représenter cette catégorie) au détriment des langages "natifs" ('assembly language'). Afin de mieux comprendre comment l'énergie est utilisée par les composants, ces chercheurs ont analysé de façon systématique et approfondie la puissance, la performance et la fréquence de l'horloge de 8 processeurs (45 configurations différentes au total) représentatifs de cette période, en se basant sur 61 tests de performance séquentiels et parallèles, écrits dans divers langages de programmation.

Avec leur mesures, ils ont pu constater que la consommation énergétique réelle des processeurs varie nettement selon le test de performance effectué. L'étude met également en évidence que les méthodes actuelles de prédiction de la performance, et de la consommation électrique, donnent des résultats assez éloignés de la réalité.


Graphique de répartition des résultats des tests (identifiés selon leur langage de programmation) en fonction de leur performance et de la consommation électrique du processeur sur lesquels ils sont exécutés (ici, un Intel Core i7)
Crédits : Hadi Esmaeilzadeh, Ting Cao, Xi Yang, Stephen M. Blackburn, Kathryn S. McKinley, "Looking Back on the Language and Hardware Revolutions: Measured Power, Performance, and Scaling" (2011)


Graphique de répartition des résultats des tests (identifiés selon le processeur sur lesquels ils sont exécutés) en fonction de leur rapport consommation/performance
Crédits : Hadi Esmaeilzadeh, Ting Cao, Xi Yang, Stephen M. Blackburn, Kathryn S. McKinley, "Looking Back on the Language and Hardware Revolutions: Measured Power, Performance, and Scaling" (2011)

Conclusions

La comparaison des tests de performance avec les différents types de langages montrent de nettes différences selon le type de langage utilisé (voir graphique ci-dessus), révélant ainsi l'influence importante de la couche logicielle sur l'efficience globale du système. Les architectes ont donc intérêt à inclure dans leurs méthodes de conception et d'évaluation du matériel à la fois des langages natifs et gérés.

De plus, les différentes technologies d'économie d'énergie ou d'optimisation des performances comme la variation dynamique de la fréquence d'horloge, les différentes microarchitectures, le Turbo Boost (fonctionnalité de surcadencage dynamique sur les puces Intel), le multi-tâche (Simultaneous Multithreading - SMT) et le nombre de coeurs, font varier de manière extrêmement importante la puissance électrique consommée par le processeur. Les auteurs de l'étude ont par exemple noté que le SMT se révèle être l'une des technologies les plus efficaces pour améliorer l'éfficience énergétique d'un processeur et que le multi-coeur n'est pas toujours bénéfique en termes d'efficience.

Les auteurs de l'étude soulignent ainsi la nécessité d'intégrer un watt-mètre directement au sein de la puce, et si possible d'en intégrer un pour chaque unité du processeur (cores, mémoire cache, etc.), puis d'en donner l'accès aux développeurs de logiciel. Les auteurs ajoutent que lors de la conception d'un système informatique efficient, il ne faudrait pas se limiter à optimiser le matériel, mais prendre aussi en compte les logiciels qui seront exécutés pour optimiser le couple matériel/logiciel.

spacer
>> Suivant
spacer
<< Précédent
spacer

spacer
Partager cette page :

spacer
Version imprimable >>
spacer
Transmettre cette info par email >>
spacer
Recommander ce site à un collègue / ami >>
spacer

spacer
S'abonner au
BE Etats-Unis
 >>
spacer

spacer
FAQ / foire aux questions >>
spacer
Conditions d'utilisation >>

spacer

spacer

Pour en savoir plus, contacts :

- [1] Datacenter energy costs outpacing hardware prices : http://redirectix.bulletins-electroniques.com/MQS6D
- [2] BE Etats-Unis 259 : Les centres de données américains pourraient consommer 5 fois moins d'électricité : http://www.bulletins-electroniques.com/actualites/67686.htm
- [3] BE Etats-Unis 213 : GEIT Awards : les bonnes pratiques pour les centres de données se voient récompensées : http://www.bulletins-electroniques.com/actualites/63803.htm
- [4] BE Etats-Unis 210 : La consommation électrique des centres de données dans le collimateur : http://www.bulletins-electroniques.com/actualites/63618.htm
- [5] BE Etats-Unis 207 : L'état de New York finance l'amélioration de l'efficience de ses centres de données : http://www.bulletins-electroniques.com/actualites/63350.htm
- [6] BE Etats-Unis 261 : Microsoft propose de remplacer votre chaudière par des serveurs : http://www.bulletins-electroniques.com/actualites/67805.htm
- [7] BE Etats-Unis 211 : Pour HP, centre de traitement de données et bouses de vache font bon ménage : http://www.bulletins-electroniques.com/actualites/63656.htm
- [9] The Inquirer - 2005 - Gordon Earl Moore qualifie sa conjecture d'auto-realisatrice : http://redirectix.bulletins-electroniques.com/u6zQv
- [10] De Computeris - La prophétie de Moore : http://de-computeris.blogspot.com/2011/01/la-prophetie-de-moore.html

Code brève
ADIT :
69164

Sources :

[8] Hadi Esmaeilzadeh, Ting Cao, Xi Yang, Stephen M. Blackburn, Kathryn S. McKinley, "Looking Back on the Language and Hardware Revolutions: Measured Power, Performance, and Scaling" (2011) : http://redirectix.bulletins-electroniques.com/fUzGa

Rédacteurs :

Catherine Marais, deputy-phys.mst@consulfrance-houston.org ; Frédéric Lohier, deputy-stic.dc@ambascience-usa.org
Retrouvez toutes nos activités sur http://france-science.org. Suivre le secteur Nouvelles Technologie de l'Information, Communication, Sécurité sur twitter @MST_USA_NTICS

spacer

spacer

Origine :

BE Etats-Unis numéro 278 (17/02/2012) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/69164.htm
spacer


[  Plan du site  |  Données personnelles & politique de confidentialité  |  Limites de responsabilité  |  FAQ  |  Contacts  ]

[  Page d'accueil  |  Découvrir  |  Consulter  |  Recevoir  |  Rechercher  |  Utiliser  |  S'exprimer  ]

bulletins-electroniques.com tous droits réservés   -   votre contact : François Moille

 

4444444001 999920120223 3333333011 1010101020 1010101010 1010101006 1111111047 55555550022012 6666666012 7777777003