mercredi 29 février 2012

Lancement de la construction du premier bâtiment "zéro émission carbone" à Hong Kong

Le premier bâtiment "zéro carbone" est actuellement en construction à Hong Kong et sera inauguré dans le courant de l'année 2012. Le projet, développé par le "Construction Industry Council (CIC)" en collaboration avec le Ministère en charge du développement de la région administrative spéciale, vise l'obtention du label "BEAM Plus", délivré par le "Hong Kong Green Building Council".

Situé à Kowloon Bay sur un terrain d'environ 14.000 m2, le bâtiment de 3 étages servira de plateforme pour le partage des connaissances relatives à la conception de bâtiments écologiques et la sensibilisation du grand public au développent durable et aux énergies vertes. Plus de 60% du site sera couvert de végétation pour réduire l'effet " îlot de chaleur " et améliorer ainsi le microclimat. De plus, le projet inclut la création de la première forêt urbaine de Hong Kong, constituée d'espèces végétales locales, qui permettra de promouvoir la biodiversité. Du biodiesel produit à partir d'huiles alimentaires usagées sera utilisé pour générer l'énergie nécessaire au fonctionnement du bâtiment.

Le projet intègre également le concept "Energy Plus". Le surplus d'énergie produite par le bâtiment sera exporté afin de compenser celle consommée pour sa construction, y compris l'énergie nécessaire à la fabrication des matériaux qui le composent. Equipé d'un système de contrôle intelligent, les performances du bâtiment seront contrôlées en temps réel. La flexibilité est également une des caractéristiques de ce projet, conçu de manière à suivre l'évolution des besoins tout en prenant en compte les nouveautés en matière d'écotechnologies.
ORIGINE : BE Chine numéro 114 (29/02/2012) - Ambassade de France en Chine / ADIT - http://www.bulletins-electroniques.com/actualites/69248.htm

mardi 28 février 2012

5 reasons why Apple is embracing clean power for its data center


Seemingly all of a sudden Apple is charging ahead with one of the most aggressive clean power projects for a data center in the U.S. Apple is planning on building a 20 MW solar farm and a 5 MW fuel cell farm at its massive data center in Maiden, North Carolina. Now the real question is why?
I’ve been thinking about the logistics of combining data centers and clean power over the past few years, and here’s 5 reasons why I think Apple is embracing clean power right now:
1). Solar is cheap as heck: Prices of solar panels and cells have plummeted recently, leading to a drop of around 50 percent in prices over the past year. That’s bad news for the solar manufacturers — and has led to a wave of solar maker bankruptcies — but that’s good news for companies, utilities and home owners that are buying solar panels. It’s one of the best times in history to buy solar panels. Particularly when a company like Apple is buying such a sizable quantity (20 MW), they can get an even better deal. A 20 MW solar project planned to be built in Florida this year cost about $70 million — Apple’s spending about $1 billion on the entire data center.
2). Dirty Internet power is bad PR:Greenpeace was one of the first companies to take a close look at the massive data centers being built by Apple, Facebook and Google in North Carolina and the watchdog pointed out that North Carolina has one of the dirtiest power grids in the U.S. — it’s mostly coal (61 percent) and nuclear (30.8 percent). These Internet companies no doubt were attracted to the region because this dirty power is also pretty cheap, at about 4 to 5 cents a kilowatt hour, according to Greenpeace.
But with a growing amount of attention on how dirty this energy mix is, the Internet firms are under greater pressure to bring in their own clean power. In Greenpeace’s report last year it gave Apple a straight “F” for infrastructure siting of its data center, a “C” for transparency, and a “C” for mitigationstrategy. Now Apple, like Google and Facebook, have been pushing a lot harder to get low cost clean power into the data center discussion.
3). Control over energy: When Internet companies take a more active role in building energy generation sources like solar and fuel cell farms, they are not only reducing the carbon footprint of their data centers, they are getting more control over a crucial resource that their data centers need. Data centers are major power hogs. And owning the energy source, helps a company like Apple shield at least part of its data center power from potentially rising energy costs.
4). The 100 MW data center: As the size — and power consumption — of data centers rise to the size of Apple’s in Maiden, which will reportedly have a capacity for 100 MW, rural areas and small towns just might not have enough local power generation to fill the need. I’m not sure if that’s the case for Apple in Maiden, but Apple is Facebook Data Centerplanning on adding a sizable 25 MW of its own clean power, which could be a quarter of its power needs. Maiden might not have had the necessary power resources.
5). Fuel cell makers targeting data centers: Fuel cell makers like Bloom Energy, FuelCell Energy, and ClearEdge Power are targeting data center operators with their on site cleaner power sources. AT&T plans to install 75 Bloom fuel cells at 11 of its offices in California and AT&T said it will use the fuel cell power for data centers as well as administration offices and facilities that house network equipment. The U.S. division of Japanese telecom giant NTT, NTT America, said that it plans to install five fuel cells from Bloom Energy at one of its data-center facilities in San Jose, Calif. ClearEdge Power launched a fuel cell line targeted at data-center operators last year.
Source : GigaOM

En Corée, l'analyse médicale s'oriente vers... le smartphone !

Une équipe de scientifiques du KAIST (Korea Advanced Institute of Science and Technology), dans un article publié par la revue allemande Angewandte Chemie, affirme que l'écran tactile des smartphones, pourrait être utilisé pour détecter des données biomoléculaires, comme lors de tests médicaux.

"Tout est parti de l'idée selon laquelle l'écran tactile fonctionnant en détectant le contact électronique d'un doigt, la présence de protéines spécifiques et de molécules d'ADN devrait être reconnaissable également ", explique Hyun-gyu Park, scientifique dirigeant le projet avec Byong-yeon Won. En effet, les écrans tactiles de smartphones, PDA et autres appareils électroniques fonctionnent en reconnaissant la charge électrique du corps d'un utilisateur sur la surface de l'écran. Les protéines et molécules d'ADN sont elles-aussi porteuses de charges électriques spécifiques. Selon le KAIST, des expériences ont prouvé que les smartphones étaient parfaitement capables de détecter, avec une précision avoisinant les 100%, certaines molécules d'ADN, et de faire ainsi un pas vers l'analyse médicale à distance.

L'équipe de recherche travaille actuellement sur un film composé de matériaux réactifs permettant d'identifier des composants spécifiques et d'améliorer encore cette nouvelle technologie. Cela n'est cependant vu que comme une première étape ; l'équipe de recherche envisage également la création d'un module à connecter au téléphone afin d'analyser échantillons d'urine et autres prélèvements sanguins.
ORIGINE : BE Corée numéro 59 (27/02/2012) - Ambassade de France en Corée / ADIT - http://www.bulletins-electroniques.com/actualites/69232.htm

lundi 27 février 2012

La mobile RH va s'imposer. Etes-vous prêt ?

Le marché des smartphones et des tablettes croît et s’introduit dans la vie personnelle, mais également professionnelle, des actifs français. D’ici à 2013, ce serait près d’un actif sur quatre qui utiliserait un smartphone ou une tablette dans le cadre de ses activités professionnelles (1).

Le marché des applications RH est en plein essor
C’est là qu’entre en jeu la mobile RH. Ce terme désigne les applications RH déployées sur des supports mobiles, de type smartphones ou tablettes qui intègrent un système d’exploitation permettant des fonctionnalités proches d’un véritable ordinateur (navigation Internet, stockage de données, mise à jour d’informations en temps réel).
 
Depuis le début 2011, le marché des applications RH est en plein essor. Tous les mois de nouveaux éditeurs diversifient leur activité et proposent une offre mobile RH s’ajoutant aux canaux existants.
Parmi les principaux éditeurs du marché, on trouve Lumesse et sa solution e-recrutement TalentLink, Hippocad TeleSystem pour le pointage et la gestion des plannings à distance, IBM et son réseau social d’entreprise mobile, et b
ien d’autres.
 
La plupart des domaines RH font ainsi déjà l’objet d’une application mobile propre : c’est le cas du recrutement, de la gestion des temps, du learning mobile et de la formation, le reporting, etc.
 
Prenons l’exemple d’une application mobile gérant les notes de frais. Le paiement via une carte bancaire professionnelle en photographiant le code barre est pris en compte automatiquement ; le mobile permet de prendre en photo la facture pour un envoi immédiat dématérialisé à l’employeur. Il permet également de procéder au workflow de validation par le management et d’être en lien direct avec les plates-formes en ligne de réservation de billets de train et d’avion, etc. C’est ainsi la paie du salarié, mais également la trésorerie de l’entreprise, qui s’en trouvent impactées en temps réel, d’où une réactivité accrue.
 
La RH mobile est donc bien une tendance forte du marché qui pourrait constituer une opportunité commerciale pour certaines entreprises.

Comment intervenir sur ce marché en plein essor ?
En termes de modèles proposés, deux approches se distinguent :
  • Un accès au portail RH d’une entreprise via un support mobile : le canal mobile devient alors une extension du portail entreprise ; seule l’ergonomie diffère.
  • Un accès à une plateforme de téléchargement d’applications RH gratuites ou payantes mises à disposition par l’entreprise (à l’image de l’Apple Store) : le canal mobile s’ajoute au dispositif existant au sein de l’entreprise.
S’agit-il alors simplement d’un nouveau canal de communication venant se surajouter à l’existant ? Bien plus, les applications mobiles impliquent un changement de culture et de pratiques avec le renforcement de la dématérialisation, le développement du cloud computing et des démarches de validation managériale sur les applications.
Comme tout support, le support mobile comporte néanmoins des freins qu’il convient d’étudier bien en amont d’un projet visant à déployer une flotte mobile pour une population de salariés donnée : l’inadaptabilité des applications déjà existantes pour des usages sur terminaux mobiles, l’investissement à consentir pour équiper les collaborateurs en terminaux et abonnements télécoms, le frein culturel face à la dématérialisation, ou encore la problématique de la géolocalisation qui, si elle est acceptée pour une utilisation personnelle du mobile, pose question lorsqu’il s’agit du domaine professionnel.

Quelle est la valeur ajoutée d’un support mobile ?
Les avantages diffèrent selon les populations ciblées : consulter des informations remontant du terrain en temps réel, communiquer et partager dans une optique de travail collaboratif, ou encore organiser, planifier et piloter constituent les principaux usages professionnels. Il ressort que les populations managériales, commerciales ou encore itinérantes pourraient y trouver une réelle valeur ajoutée au quotidien.
 
Par ailleurs, des facteurs clés de succès à la mise en place de ce type de projet existent : l’expérience utilisateur (simplicité des usages, ergonomie…) portée par les pratiques personnelles bien anczrées, preuve en est la part d’équipement actuelle en Smartphones, une bonne intégration des applications mobiles professionnelles aux systèmes existants, une implication du top management, un travail en amont de communication et d’accompagnement au changement de qualité.
 
Nous pourrions ainsi imaginer au lancement d’un projet de mobile RH la mise en place d’un self-service concourant à la familiarisation des métiers avec les applications, puis l’évaluation du taux de pénétration et ainsi des perspectives d’évolution.La demande qui se dessine actuellement concerne une application sur mobile interopérable quel que soit le terminal utilisé afin de maintenir une continuité entre les différents supports utilisés au sein de l’entreprise. Mais alors, entre les portails, les mails et les mobiles, quel canal privilégier pour quel type d’information ? La tablette est-elle le futur ordinateur professionnel ?
Les travaux de fond sur le sujet de la RH mobile ne font que commencer, de même que les premières expériences entreprises. Le support mobile pourrait constituer une réponse aux problématiques de plus en plus fréquentes de mobilité et de télétravail des collaborateurs, à la volonté de dynamiser l’image de l’employeur ainsi qu’à l’impératif de réactivité qui s’impose toujours davantage pour les entreprises. 

(1)  Étude MARKESS International, Applications mobiles professionnelles sur smartphones et tablettes numériques, référentiel de pratiques 2011-2013

Source: Le Journal du net, Delphine Mesnis

Production des batteries pour véhicules électriques aux Etats-Unis, prochain sujet de discorde avec la Chine

Le véhicule électrique, enjeu stratégique

Lors de son discours annuel au congrès le 25 Janvier 2011 (le discours sur l'état de l'union) Barack Obama a annoncé sa volonté d'avoir un million de véhicules électriques sur les routes en 2015. Pour réussir à atteindre ce nombre le président a proposé pour le budget 2013 de relever l'aide accordée pour l'achat de chaque véhicule de 7500$ à 10000$ [1]. Cet objectif ambitieux démontre la volonté de l'administration de faire des Etats-Unis le leader mondial dans les technologies réduisant la dépendance aux importations pétrolières. De plus, les véhicules électriques (incluant les hybrides rechargeables, les voitures électriques à extension d'autonomie et les 100% électriques) sont un moyen de promouvoir une mobilité durable et d'améliorer le respect de l'environnement, tout en créant des emplois. [2]

La politique du gouvernement est donc de favoriser la ré-industrialisation de ce secteur, en finançant la construction d'usines. Mais sur le terrain, on observe une autre tendance : de nombreux acteurs américains font le choix de fabriquer tout ou partie de leur production... en Chine car c'est un moyen pour eux d'être compétitif et de survivre malgré la guerre des prix. Certes, certains acteurs jugent encore risqué de s'aventurer en Chine, à cause des questions de propriété intellectuelle, mais plusieurs startups semblent avoir trouvé une solution à ce problème.

La batterie, clef de la mobilité propre

La batterie est l'élément essentiel du véhicule électrique. Alors que le prix d'achat représente une barrière à l'adoption de ce type de véhicule, elle compte pour une partie importante du prix (environ un tiers pour un véhicule 100% électrique ). C'est pourquoi il est stratégique de parvenir à réduire le coût des batteries et d'augmenter leur qualité (capacité, durée de vie) afin d'accroître la part de marché des véhicules électriques. Les bénéfices seraient partagés, puisque les batteries sont également indispensables au fonctionnement d'autres moyens de transport dits propres (bus, tramway...) et de certaines industries. [3]

Néanmoins, pour atteindre les objectifs de nombre de véhicules sur les routes fixés par le gouvernement, des innovations technologiques et des améliorations dans les procédés de fabrication sont encore nécessaires. Notons que contrairement à la micro-électronique où l'évolution est continue car menée par la diminution incrémentale de la largeur de gravure des circuits, le développement des batteries est graduel. Les étapes d'avancement sont liées à l'utilisation de nouveaux métaux ou à de nouvelles méthodes et cette différence impose une période d'apprentissage à prendre en compte lors du passage à la production. [4]

Véhicule sur le stand Panasonic, lors du CES 2012 à Las VegasCrédits : Sébastien Rouif pour la MS&T

La production industrielle, créatrice d'emploi

La production de biens manufacturés est en perte de vitesse aux Etats-Unis : en 10 ans, 5 millions d'emplois de ce secteur ont été perdus, soit un sur trois [3]. En conséquence, un des axes du plan de relance pour stimuler la croissance et l'emploi est de réindustrialiser le pays. Dans cette optique, l'intérêt du gouvernement américain pour le secteur des batteries est d'autant plus compréhensible que l'écosystème entourant cette industrie est large et que de nouvelles idées ou applications pourraient émerger, comme c'est le cas dans les semi-conducteurs en Asie. C'est de surcroît un moyen de revitaliser les régions de l'industrie automobile durement touchées par les crises récentes. Ainsi, selon la présidente sortante du MIT, Susan Hockfield : "la fabrication est simplement un formidable moteur de création d'emploi". Et dans le cas des batteries la gamme d'emploi serait variée : scientifiques spécialisés dans les matériaux, sociétés d'exploitations de minerais, sous-traitants pour la création de robots d'usines, ou encore ingénieurs et ouvriers travaillant à la production dans les usines.

Un retard coûteux

En 2009 les Etats-Unis produisaient moins de 2% des batteries lithium-ion du monde, un chiffre faible pour un pays qui se targue d'être le champion de l'innovation. Pour palier ce retard, l'objectif est d'atteindre 40% des parts de marché en 2040 car, comme l'exprime le directeur du programme ARPA-E (Advanced Research Project Agency - Energy) Arun Majumdar, les leaders de la production des batteries lithium-ion seront à la tête d'une "grande partie de la prospérité économique mondiale". Le gouvernement a donc lancé deux programmes à travers l'American Recovery and Reinvestment Act (ARRA) [5] :
- 2,4 milliards de dollars de prêts garantis ont été attribués sous forme de prêt pour trois des premières usines de production de batteries pour véhicules électriques dans le Tennessee, le Delaware, et en Californie.
- 30 usines qui produisent des batteries, moteurs et autres éléments des véhicules électriques ont reçu une aide financière directe. En contrepartie, les sociétés lauréates ont dû trouver un financement égal au montant de la bourse qui leur a été accordée. Ce mécanisme devait permettre la mise en place de capacités de production aux Etats-Unis capable de produire des batteries pour 50.000 véhicules d'ici la fin 2011 et 500.000 batteries par an d'ici 2014.

Cet effort d'investissement doit être d'autant plus massif que de son côté la Chine possède une capacité - et une volonté - de financer le secteur des énergies propres sans commune mesure. Selon Ann Marie Sastry, professeur de mécanique à l'université du Michigan et directrice de Sakti3 (une jeune société de batteries), les milliards mis dans l'industrie des batteries sont le prix du ticket d'entrée nécessaire pour entrer dans la course et rattraper le retard pris sur les fabricants asiatiques. [6]

Investir dans les technologies d'avenir

Une solution portée par l'administration Obama pour assurer le succès au long terme de l'industrie américaine est de "sur'innover" en développant les technologies de demain et en investissant massivement dans la recherche fondamentale et l'innovation. Par exemple, un des objectifs de l'Advanced Research Projects Agency-Energy lors de sa création en 2007 par le Department of Energy (DoE) a été le financement de projets de stockage d'énergie pour les véhicules propres sur des technologies dites de rupture (programme BEEST). Ces technologies à fort potentiel mais dont la probablité d'échec est importante devraient permettre de rendre accessible le véhicule zéro émission à la majorité des consommateurs grâce à une capacité de stockage de plus de 480 km. Ce programme a financé 10 projets pour un montant de 35M$ [7].

Des stratégies mitigées pour les nouveaux entrants

Le plan de financement de l'ARPA-E ainsi que d'autres bourses sont parvenues à redynamiser le secteur de la recherche et de l'innovation dans le stockage d'énergie. Cependant, entre les projets à haut risque (ARPA-E) et les producteurs déjà sur le marché (ARRA) de nouvelles technologies émergent également des startups. En revanche, la visite d'une dizaine de sociétés naissantes dans la Silicon Valley nous a permis de comprendre que ces dernières restent toujours tournées vers l'Asie, les seuls éléments les retenant parfois étant le stade d'avancement de la technologie et le respect de la propriété intellectuelle. Quelques exemples de modes opératoires :

1. Société type A : Grâce à l'expérience de son équipe de management, qui a déjà créé et fermé trois sociétés de batteries, l'entreprise a dès sa création eu pour intention de produire en Chine. Ainsi, après des étapes de recherche effectuée grâce à des installations disponibles dans les universités américaines et avec des contrats du gouvernement (DoE, DoD, NASA...), lorsque la technologie a atteint une maturité suffisante la première usine a ouvert à Gan Zhou en Chine. Par la suite, des investisseurs chinois sont entrés dans le capital. Une partie du développement se fait maintenant en Chine et l'équipe dirigeante alterne entre la Chine et les Etats-Unis. D'ailleurs la communication est facilitée par le fait que plus de la moitié de cette équipe est d'origine chinoise. Une nouvelle usine chinoise plus grande est à venir.

2. Société type B : La technologie de cette société a été développée en partie grâce à des financements de l'ARPA-E, qui a fixé un cahier des charges très ambitieux. La propriété intellectuelle constitue la base de l'entreprise et est donc un enjeu majeur. Néanmoins, si la production des éléments critiques sont encore produits dans les laboratoires de la société aux Etats-Unis l'assemblage, moins stratégique, se fait en Chine où la société trouve de bons fournisseurs et de la main d'oeuvre qualifiée dans le domaine.

3. Société type C : L'offre de la société concerne les procédés de fabrication et la réduction des coûts de fabrication. La solution trouvée est d'avoir mis sous licence les spécialités de la société. Toute la production est faite en Chine chez un tiers et contrôlée par des employés locaux et expatriés de la startup.

4. A123 : lors de la recherche de financement pour développer la production de ses batteries, les investisseurs ont convaincu le directeur de s'implanter en Chine car le savoir-faire et les fournisseurs y étaient présents contrairement aux Etats-Unis. C'était également un moyen pour eux de limiter leur investissement. Maintenant A123 a cinq usines en Chine mais en subit le retour du bâton : la fuite des idées et de la conception chez de nouveaux concurrents. Grâce aux aides du gouvernement (ARRA) A123 a construit une usine aux Etats-Unis et des fournisseurs nécessaires se sont également développés. [8]. Malheureusement les reports successifs de projets du constructeur automobile Fisker ont obligé A123 à licencier du personnel. Les conséquences seraient encore plus importantes si Fisker venait à faire faillite. [9]

Une augmentation de la demande pourrait-elle favoriser la ré-industrialisation ?

Les programmes d'innovation sur les technologies de stockage lancés par le gouvernement commencent à porter leurs fruits. Cependant l'écosystème et le savoir-faire, bien que redynamisés, restent encore fragiles et n'attirent pas les nouveaux entrants. Si les producteurs de batteries continueront à produire en quantité pour faire vivre les usines américaines, les jeunes entreprises innovantes chercheront plutôt à développer leurs innovations à des coûts très compétitifs ce qui les poussera vers l'Asie. De surcroit, elles ont besoin pour assurer leur industrialisation d'usines flexibles et donc peu automatisées ( une main d'oeuvre peu chère est alors d'autant plus favorable).

Une demande plus importante du côté des constructeurs automobiles pourrait éventuellement changer la donne. En effet, avec l'augmentation des volumes en jeu la gestion de la chaine logistique deviendrait essentielle et les producteurs de batteries américains ayant reçus des subventions auraient alors un nouvel avantage de poids face à la Chine. Dans ce cas, même les jeunes entreprises innovantes pourraient trouver de l'intérêt à produire sur le sol américain, à condition d'y trouver un savoir faire équivalent à celui disponible en Asie. L'écosystème serait alors continu : recherche, start-ups, lignes de production pilotes, usines et consommateurs.

Afin de développer le marché, l'administration Obama envisage, comme nous l'indiquions au début de cet article, d'augmenter encore les aides accordées à l'achat des véhicules électriques. Dans l'énergie solaire, certaines régions (état de l'Ontario au Canada, Inde et Italie) proposent des tarifs d'achat uniquement aux installations dont les composants ont été au moins partiellement produites localement, ou une bonification du tarif pour celles-ci [10] et le gouvernement français a récemment émis l'hypothèse de suivre cet exemple [11].

Se pourrait-il qu'un jour un système similaire s'applique dans le cas des véhicules électriques, avec des subventions à l'achat plus importantes pour les voitures dont les batteries sont fabriquées localement ? Bien qu'improbable, une telle solution n'est pas totalement hors de question, car le gouvernement américain a montré à plusieurs reprises sa volonté de ne pas fléchir dans la guerre commerciale avec la Chine dans le domaine des écotechnologies [12].

Conclusion

Ainsi, la réussite de la ré-industrialisation dans le secteur automobile américain en utilisant le marché, nouveau, du véhicule électrique, semble donc reposer sur le défi de parvenir de façon plus ou moins concomitante aux trois phénomènes suivants :
- l'augmentation de la demande des constructeurs automobiles,
- la montée en qualification de l'écosystème de production et d'industrialisation de batteries aux Etats-Unis
- à plus long terme, l'intégration dans les véhicules de nouvelles générations de batteries venant de jeunes entreprises américaine.

En France les enjeux de ré-industrialisation sont similaires [13], et dans le secteur des batteries il semble que l'industrie réponde au défi et se revitalise. Le géant français du secteur SAFT possède trois usines sur le territoire, à Bordeaux, Poitiers et Nersac. Les batteries lithium polymères destinées à la Blue car du groupe Bolloré (utilisées à Paris dans le système de partage Auto'Lib) sont produites à Ergué-Gabéric en Bretagne. [14] Enfin Renault ouvrira, après de multiples perturbations, son usine de batteries à Flins dans les Yvelines en 2014. [15] Ce regain de dynamisme est un réel atout pour l'application de l'excellente recherche française en la matière et la création d'un véritable écosystème leader dans le domaine. Rappelons que cette industrie sera responsable "d'une grande partie de la prospérité économique mondiale".



ORIGINE : BE Etats-Unis numéro 279 (24/02/2012) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/69214.htm


- [1] Plugincars. (15/02/2012) President Obama Proposes $10,000 Electric Vehicle Incentive - http://redirectix.bulletins-electroniques.com/N6w3F
- [2] Department of Energy. (2011, Dec.) One million electric vehciles by 2015 -http://redirectix.bulletins-electroniques.com/c7GNr
- [3] New-York Times. (24/08/2011) Does America Need Manufacturing? -http://redirectix.bulletins-electroniques.com/JuNdM
- [4] N. Y. Times. (6/9/2010) When It Comes to Car Batteries, Moore's Law Does Not Compute - http://redirectix.bulletins-electroniques.com/f7rTU
- [5] U. DoE. (108/2010) The Recovery Act: Transforming the American Economy Through Innovation - http://redirectix.bulletins-electroniques.com/E47hm
- [6] The Christian Science Monitor. (15/7/2011) Why Obama is putting so much stock in battery technology - http://redirectix.bulletins-electroniques.com/b15Rw
- [7] Arpa-e. (9/12/2011) ARPA-E - http://redirectix.bulletins-electroniques.com/KGJlF
- [8] Los Angeles Times. (08/05/10) Fighting for 'made in USA' -http://redirectix.bulletins-electroniques.com/1HO6P
- [9] P. Cars. (7/2/2012) Fisker Halts Project Nina Development, Lays Off US Workers - http://redirectix.bulletins-electroniques.com/CYKbh
- [10] Mission pour la Science et la Technologie. (01/02/12) Rapport de la mission "Solar Tech Tour 2011" - Politique et organisation de la recherche photovoltaïque aux Etats-Unis - http://www.bulletins-electroniques.com/rapports/smm12_003.htm
- [11] Actu-environnement. (15/02/12) Un solaire "made in France" ? -http://redirectix.bulletins-electroniques.com/nk3Yf
- [12] GreenTech Media (06/11/11) Obama, Suntech, and SolarWorld on the Solar Trade Rift - http://redirectix.bulletins-electroniques.com/8xru9
- [13] B. Car. The Bolloré Group : creators of technology -http://redirectix.bulletins-electroniques.com/9Nsbe
- [14] L. Monde. (7/7/2011) Flins : le FSI n'investira pas dans l'usine de batteries électriques de Renault - http://bit.ly/wMbzSz
- [15] Patrick Artus et Marie-Paule Virard (10/11) La France sans ses usines -http://www.amazon.fr/France-sans-ses-usines/dp/2213665974

Une nouvelle technologie dans l'industrie pétrolière

A l'Université d'Alberta (Edmonton), un géologue espère qu'un système d'imagerie unique en son genre va combler deux besoins essentiels des exploitants de sables bitumineux: trouver plus d'énergie et rendre les sites miniers post-exploitation à leur état naturel.

Benoît Rivard, chercheur au département Sciences de la Terre et Atmosphériques de l'Université, adapte un nouvel instrument fabriqué en Finlande dans le but d'analyser des échantillons de carottes de forage issus des régions de sables bitumineux au nord de l'Alberta. "Cet appareil est unique", dit Rivard. "Il permet de mesurer la lumière réfléchie par des échantillons minéraux, et les données recueillies pourraient nous permettre de déterminer non seulement s'il y a présence ou pas de bitume, mais également le niveau de difficulté pour y accéder".

Rivard espère également que la technologie pourra aider les exploitants de sables bitumineux à la remédiation des sols par la surveillance du processus de densification des bassins de décantation. Les producteurs de pétrole sont censés retransformer ces bassins en forêts, mais le défi est de diminuer l'humidité des sols de façon à ce que ces derniers puissent supporter les équipements utilisés pour la remédiation et la revégétalisation finale. "Avec cette technologie, nous cherchons à déterminer si les concentrations d'argile ou d'autres minéraux dans les boues molles sont propices à l'assèchement, à un taux compatible avec les objectifs de revégétalisation", dit Rivard. La procédure standard d'analyse implique que du personnel se penche méticuleusement sur des échantillons pouvant atteindre 50 mètres de long, suivi d'analyses chimiques. Nous travaillons avec l'industrie ressource afin de nous assurer que nous identifions bien les mêmes minéraux et d'autres indicateurs de sables bitumineux afin que les analystes d'échantillons puissent les utiliser de manière fiable pour leurs travaux.

Rivard espère que cette nouvelle technologie à un demi-million de dollars pourra permettre de travailler plus rapidement, mais les chercheurs doivent encore éprouver sa précision. Dans tous les cas, le système devrait être opérationnel dans les trois années à venir.
ORIGINE : 

vendredi 24 février 2012

Voitures électriques : gérer intelligemment la recharge des batteries, par Schneider Electric


A l’avenir, pour le système électrique français, une condition sera nécessaire à l’intégration massive de véhicules électriques : il faudra majoritairement recharger leurs batteries en dehors des périodes de pointe. Comment les constructeurs d’infrastructures de recharge prennent-ils en compte cette donne ? Jusqu’où l’innovation ira-t-elle ? Le point de vue de Claude Ricaud, directeur de l’innovation Power Business chez Schneider Electric.
Rappelons-le, la question de la recharge des voitures électriques ne tient pas tant à la quantité d’électricité consommée mais plutôt au moment de consommation. Si à l’avenir, des millions d’utilisateurs rechargent leur véhicule, le soir, en rentrant à la maison, RTE prévoit un impact sur la courbe de consommation d’électricité, avec des pics encore accentués à l’heure de pointe.
Claude Ricaud_Schneider Electric Vehicules voitures electriques recharge batteriesClaude Ricaud : « Pour éviter l’augmentation de la pointe, on peut d’abord gérer la charge des véhicules en utilisant l’électricité disponible la nuit, autrement dit dans un creux de consommation. C’est pourquoi nous dimensionnons les infrastructures domestiques pour qu’une recharge totale programmée la veille, soit terminée le matin. Il faut que la puissance soit suffisante pour “faire le plein” en moins de 8 heures. En 2020, ces recharges nocturnes, ajoutées aux recharges faites sur les lieux de travail, devraient représenter 85 à 90% du volume d’électricité consommé par les véhicules.
Les conducteurs doivent aussi pouvoir recharger ponctuellement leur voiture en déplacement, dans la journée. Il faut donc des infrastructures de recharge publiques… Cette charge devra, elle aussi, être “intelligente” : allouer la puissance disponible à un moment donné, selon le nombre de véhicules en charge, l’urgence et le type de demande (charge pleine ou pas). Dans les parkings, l’optimisation et la planification de la recharge tiendra compte aussi du temps de stationnement des véhicules électriques. Dans ce temps imparti, la borne doit être capable de retarder ou accélérer certaines charges, c’est-à-dire de choisir le moment et la vitesse de la consommation.».
solutions recharge batterie voiture vehicules electriques schneider electricLe saviez-vous ? « Demain, des infrastructures permettront de recharger sa voiture électrique en différents lieux (chez soi, parking résidentiel ou public, station service…), avec différentes puissances et donc vitesses de charge pour faire “le plein” (de 3 à 50 kiloWatts, lente ou rapide, de 8 heures à 15 minutes) ».
La recharge de la voiture électrique peut aussi devenir une opportunité pour le réseau de transport d’électricité, car un nouveau type d’usage de l’électricité offre de la flexibilité pour la gestion de l’équilibre production/consommation. « D’après le scénario 2020, poursuit Claude Ricaud, la France produira environ 60 TWh d’énergie éolienne (soit 60 000 GWh), pour une puissance installée de 25 GW*. Ce qui pourrait conduire au paradoxe de se trouver en surproduction d’énergie éolienne. Par exemple, à certains moments de la nuit, quand la consommation d’électricité du pays est au minimum. On serait alors contraint d’arrêter des éoliennes momentanément. A l’inverse, si on a des véhicules à charger à ce moment-là, typiquement entre 1h et 5h du matin, cette production éolienne sera utilisable.
Et même, pendant la pointe du soir, les véhicules électriques à l’arrêt pourraient redonner de l’énergie au réseau (en fonctionnant dans un mode dit « Vehicule to Grid »). Ils mettraient à  disposition l’électricité de leurs batteries, comme une énergie d’appoint. »
Allons plus loin : les clés de succès d’une gestion intelligente de la recharge
Claude Ricaud : « Les solutions de recharge déployées doivent permettre au véhicule et à l’infrastructure de recharge de dialoguer pour optimiser la consommation d’énergie : “Quand et combien d’électricité veux-tu ?”. La gestion intelligente de la recharge, c’est un système en poupées russes, qui intègre une communication des données à double sens entre infrastructure et véhicule, au niveau de la maison, du bâtiment et du réseau. Autrement dit, le volume d’électricité disponible et soutiré devra être connu et géré à chacun de ces niveaux.
Pour que cela marche, cette gestion de la charge doit aussi apporter de nouveaux services à l’utilisateur (et non pas seulement des contraintes). Elles se veulent faciles d’accès et flexibles d’utilisation.
Enfin, des modèles économiques sont à mettre en place pour réellement valoriser cette gestion intelligente de l’énergie. D’une part, le consommateur doit trouver un intérêt économique à recharger la nuit. Il faut aussi que le véhicule électrique contribue à une gestion flexible du réseau, et que le consommateur lui-même soit incité, dans le cadre d’un contrat et d’une rémunération ad hoc, à redonner de l’énergie au réseau lors des pics de consommation. »
Source: www.audeladeslignes.com

jeudi 23 février 2012

Comment accélérer le processus d'innovation : le “aha toolkit”

Très intéressant article sur les travaux d'Anthony McCaffrey présentés dans Science Daily sur la théorie “l’hypothèse des caractéristiques obscures”.

mardi 21 février 2012

INFOGRAPHIE : Améliorer l'efficacité énergétique dans le monde industriel

Le monde a un appétit sans fin en électricité et d'ici à 2050, notre consommation devrait augmenter de 84%. Les moteurs électriques industriels consomment 42 % de cette électricité et ce chiffre va être amené à augmenter. Grâce à des technologies innovantes déjà disponibles sur le marché, nous pourrions réduire la consommation électrique de ces moteurs de 60%. Plus de détails dans cette infographie.



Source : ABB

Paris prépare la collecte pneumatique des déchets aux Batignolles

déchets compressés
Dans le futur quartier Clichy-Batignolles, 4.000 tonnes de déchets par an seront aspirées par voie souterraine. L’Ademe étudiera le système pour un bilan pouvant servir à d’autres collectivités.
Lors du dernier Conseil de Paris, il y a quelques jours, les élus ont approuvé une convention de financement (PDF) avec l’Ademe pour la mise en place de la collecte pneumatique des déchets.
Ce système sera mis en place dans le futur quartier Clichy-Batignolles, étendu sur 54 hectares au nord-est du 17ème arrondissement. Le quartier transformera une enclave ferroviaire en un quartier accueillant 3.400 nouveaux logements, 140.000 m2 de bureaux et commerce, les 120.000 m2 du futur palais de jusrice et de la direction régionale de la police judiciaire, 10 hectares pour le parc Martin Luther King, etc.
En septembre 2011, le Conseil de Paris a approuvé l’attribution du marché de collecte pneumatique des déchets au Groupement Generis / ENVAC / ENVAC IBeria / Devillers, pour 12 ans.
La Ville prévoit que dans ce futur quartier pilote de 8.000 habitants, « 4.000 tonnes de déchets par an seront aspirés dans des canalisations souterraines , triées et expédiées par wagon depuis la  plate forme ferroviaire de Saint-Lazare en centres de traitement », éliminant le trafic de camions et la pollution en découlant.
Quatre autres projets de collecte pneumatique existent en Ile-de-France. Ce système étant nouveau en France, l’Ademe veut en s’associant à certains en tirer des enseignements qui serviront aux autres collectivités qui voudront adopter ce procédé.
La convention entre Paris et l’Ademe prévoit une évaluation de l’opération (bilan technique, économique et environnemental, au montage et en phase d’exploitation), dont les données pourront être utilisées par l’agence pour constituer un référentiel de méthodes et de données chiffrées. La convention prévoit l’attribution par la Ville d’une aide de 1,250 million d’euros à l’Ademe.
Prévu pour 2013, indique Paris Batignolles Aménagement (société publique locale d’aménagement du projet), ce système de collecte par aspiration pneumatique permet par rapport à la collecte traditionnelle,
« de réduire de 19% les émissions de monoxyde de carbone, de 96% les hydrocarbures totaux, de 91% les émissions d’oxydes d’azote et de 89% les émissions de particules. Les émissions de gaz à effet de serre restent quant à elles équivalentes entre les deux systèmes. Les consommations électriques supplémentaires induites par l’aspiration seront partiellement compensées par la production photovoltaïque propre au secteur Clichy Batignolles.
Source : SmartPlanet

lundi 20 février 2012

Couches minces pour le photovoltaïque : un enthousiasme plus modéré qu'auparavant ?

A San Francisco les 1er-2 février 2012, on a pu assister à l'édition annuelle de la conférence Photon, organisateur d'évènements et magazine de référence dans l'énergie photovoltaïque [1].

La journée dédiée aux modules photovoltaïques en matériaux "couches minces" était essentiellement centrée sur l'alliage CIGS (diséléniure de cuivre d'indium et de gallium). Cette technologie présente comme particularité une grande variété de modes de fabrication des cellules, et chaque entreprise ou startup semble développer un procédé de déposition propre, utilisant généralement l'une des trois techniques suivantes: sputtering, co-évaporation ou électro-déposition. Ce n'est pas nouveau (nous le mentionnions déjà en 2010 [2]), mais à l'heure de la maturation de la technologie il semblerait que cela puisse entraver le développement à grande échelle du CIGS, et certains intervenants ont émis des réserves sur le développement tous azimuts de la filière.

Les différents procédés de fabrication du CIGS et les choix des industrielsCrédits : NREL

Par exemple Markus Beck, qui était directeur scientifique à Solyndra avant de rejoindre First Solar en 2007, regrette que l'argent et les efforts aient été dispersés: "le fait que l'on puisse fabriquer du CIGS de différentes manières nous a égaré et nous avons éparpillé nos efforts sur trop de projets de recherche et développement, trop de ré-inventions de la roue" [3]. D'après lui, l'influence et l'intérêt des capital-risqueurs pour le CIGS en tant que nouvelle technologie a pu être parfois contre-productif, car ces investisseurs se concentrent sur des solutions de rupture. Pour séduire des fonds, les entreprises annoncent donc des solutions innovantes, constatent parfois l'impasse de leurs recherches mais persistent tout de même dans leur élan initial à cause de la pression financière des capital-risqueurs.

L'allemand Dieter Manz partageait cette analyse. Son entreprise, qui vient de racheter la ligne de production de Würth Solar, commercialise des lignes de production de modules CIGS "clés en main" [4]. Selon lui, la conception des modules, et par conséquent les équipements qui servent à les produire, doivent être plus standardisés afin que des usines importantes (500 MW à 1 GW) soient construites. Les investissements (CAPEX) pourront être réduits par exemple avec l'utilisation de verre plus fin et traité directement sur le site des usines. Lors de l'intervention de Dave Pearce de NuvoSun, Manz a émis des réserves quant aux coûts de fabrication que la startup assure atteindre avec ses équipements propriétaires.

La startup AQT Solar, qui utilise un procédé de sputtering, a exposé son projet annoncé en janvier 2012 [5] de commercialiser des modules de technologie CZTS dès 2013. Ce matériau dont la fabrication est semblable à celle du CIGS possède aujourd'hui un rendement photovoltaïque record bien plus modeste (10% par rapport à 20% pour le CIGS [6]). Toutefois le CZTS a l'avantage indéniable de s'affranchir du problème de disponibilité des éléments, notamment l'indium, qui risque de limiter les capacités de production de CIGS à court terme.

Cependant, habitué aux discours très - et parfois trop optimistes - des dernières années, le public s'est interrogé sur les objectifs annoncés par Michael Bartholomeusz, fondateur d'AQT. Rommel Noufi, chef d'un groupe de recherche au prestigieux National Renewable Energy Laboratory, a notamment mis en garde l'entreprise (et de manière plus large la filière) contre les annonces trop spectaculaires qui ne sont pas suivies de résultats. La remarque est à prendre au sérieux car l'homme est un expert scientifique de renommée mondiale et très écouté des acteurs de la filère. Un de ses projets de recherche a pour objectif de réaliser une cellule CZTS de 12% d'efficacité, puis d'atteindre 15% en 2015. D'après lui, les modules devront avoir une efficacité d'au moins 17% pour que l'objectif de coût (50 c$/Wc) soit atteint [7].

A noter: un module a un rendement plus faible que les cellules - prises individuellement - qui le constituent, et un rendement "module" de 17% exige donc une efficacité "cellule" de l'ordre de 18% ou 19%.

Ainsi, alors que la demande de modules CIGS a pris de l'ampleur en 2011, atteignant 1,2 GW d'après Lux Research [8], la technologie favorite des entrepreneurs solaires de la Silicon Valley ne semble pas encore convaincre de sa compétitivité face aux modules en silicium.



ORIGINE : BE Etats-Unis numéro 278 (17/02/2012) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/69165.htm

Rapport de la mission "Solar Tech Tour 2011" - Politique et organisation de la recherche photovoltaïque aux Etats-Unis

L'attractivité de l'énergie photovoltaïque, notamment par rapport aux énergies fossiles, tient au fait qu'elle n'émet pas de CO2 à l'utilisation et fonctionne à l'aide d'une ressource inépuisable, gratuite et disponible sur l'ensemble de la planète. Elle représente cependant encore nettement moins de 1% de l'électricité produite mondialement car le prix des modules photovoltaïques était jusqu'ici prohibitif pour une commercialisation de grande envergure. Des progrès techniques continus, rapides et structurels, combinés à une large surcapacité mondiale de production conjoncturelle changent aujourd'hui la donne.

Fin 2011, grâce à une réduction de prix spectaculaire en partie portée par la forte production asiatique, les modules photovoltaïques se vendent au-dessous du prix mythique d'un dollar par watt-crête (Wc). Le coût d'investissement global des centrales (CAPEX) était estimé en 2011 entre 3,8 $/Wc et 4,4 $/Wc.

Aux Etats-Unis comme ailleurs, le rythme de développement des projets photovoltaïques est en forte augmentation mais les temps sont durs pour les producteurs de modules. Comment le pays, qui est encore la première puissance mondiale, aborde-t-il cette période mitigée ? C'est dans ce contexte que s'est déroulé le "Solar Tech Tour" du 24 septembre au 1er octobre 2011, un voyage d'une semaine organisé par la mission pour la Science et la Technologie de l'Ambassade de France aux Etats-Unis pour des experts français de l'énergie photovoltaïque. Les douze participants sont chercheurs (académiques et privés), entrepreneurs ou membres d'une organisation gouvernementale.

Les visites ont été organisées autour du "fil rouge" que représente l'initiative Sunshot du gouvernement américain visant à réduire drastiquement (environ 75%) le coût des systèmes photovoltaïques installés avant 2020. Le programme fait écho au Moonshot qui avait permis d'envoyer un homme sur la Lune et se veut aussi audacieux. Le but est de réduire le coût d'investissement des grandes centrales au sol (comprenant approvisionnement, installation, assurances, coût du capital, BOS, permis, etc) pour qu'il atteigne $1/Wc, ce qui se traduit par un coût de production de l'électricité d'environ 5-6 c$/kWh.

Autour de cet objectif phare décidé au Département de l'Energie (DoE) à Washington D.C., un large éventail de subventions et de projets variés a été planifié et réparti sur le territoire américain. Le National Renewable Energy Laboratory à Golden (Colorado) est ainsi doté des meilleurs équipements de recherche, pour la fabrication et la caractérisation des modules photovoltaïques mais aussi pour étudier le comportement des panneaux en opération ou encore établir les bases de données sur l'ensoleillement aux Etats-Unis. En Californie dans la Silicon Valley, l'accent est mis sur la recherche scientifique, en lien avec les universités de Berkeley et de Stanford et le transfert de l'innovation dans les startups et les grandes entreprises, à travers par exemple des structures d'incubateurs ou de consortium.

Ces trois lieux ont été retenus comme étapes du Solar Tech Tour.

Téléchargement gratuit :
http://www.bulletins-electroniques.com/rapports/smm12_003.htm
ORIGINE : BE Etats-Unis numéro 278 (17/02/2012) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/69159.htm

Efficience énergétique des systèmes informatiques : l'influence de la couche logicielle est primordiale

Aujourd'hui les critères quantitatifs de performance des systèmes informatiques dictent leur conception et orientent les innovations. Alors que ces dernières décennies les systèmes informatiques n'ont cessé de devenir de plus en plus puissants et de moins en moins coûteux, la tendance ralentit aujourd'hui à cause du manque de mesures détaillées en temps réel de la consommation énergétique des composants électroniques. La consommation électrique d'un serveur informatique sur sa durée d'exploitation représente un coût plus important que l'achat initial du matériel [1]. La consommation énergétique est devenue une préoccupation majeure des acteurs du secteur informatique qui cherchent à la réduire [2] [3] [4] [5] ou à valoriser l'énergie dégagée sous forme de chaleur par les composants électroniques [6] [7]. Kathryn Mc Kinley et Stephen M. Blackburn, tous deux professeurs en sciences de l'informatique, respectivement à l'Université du Texas à Austin (The University of Texas at Austin) et à l'Université Nationale d'Australie (Australian National University) proposent dans leur étude "Looking Back on the Language and Hardware Revolutions: Measured Power, Performance, and Scaling" [8] une analyse poussée des profils énergétiques d'une sélection représentative des microprocesseurs Intel de la période 2003-2010 ayant des architectures différentes sur lesquels différents types de logiciels ont été exécutés.

La nécessité d'une meilleure connaissance des dépenses énergétiques

L'informatique a connu une évolution spectaculaire depuis l'invention des transistors en 1947 puis des circuits intégrés en 1958. Ces nouveaux composants révolutionnaires (qui ont remplacé les relais électromécaniques et tubes à vide) ont initié le début d'une nouvelle ère informatique, caractérisée par une course à la miniaturisation des composants, toujours plus complexes, fiables et économiques. En 1965, la fameuse conjecture de Gordon Earle Moore, co-fondateur de Intel, premier producteur mondial de microprocesseurs, prédisait que la complexité des microprocesseurs continuerait de doubler tous les 2 ans à coût constant. En 1975, Moore réévaluait cette prédiction et annonçait que le nombre de transistors et microprocesseurs sur une puce de silicium doublerait tous les 2 ans. Cette dernière supposition s'est avérée étonnamment bien vérifiée, avec entre 1971 et 2001, une augmentation de la densité des transistors doublée tous les 1.96 ans. Cette conjecture est toutefois jugée par de nombreux acteurs, y compris Moore lui-même [9], comme "auto-realisatrice", servant d'objectif à toute l'industrie du semi-conducteur qui obtient les résultats planifiés (you get what you plan) [10].

Ces dernières décennies cependant, les progrès de miniaturisation de la technologie n'entraînent plus autant de gain de performance et de puissance qu'auparavant, et la rapidité d'exécution est limitée de manière croissante par le temps que met le courant à parcourir physiquement les circuits. Par ailleurs, la fréquence de l'horloge a cessé d'être le critère principal pour l'augmentation des performances : elle plafonne depuis plus de 5 ans aux alentours de 4GHz (pour les processeurs que l'on trouve dans les centres de données et dans les ordinateurs personnels), et c'est l'optimisation de l'architecture qui prend maintenant le relais (puces multi-coeur avec mémoire cache partagée, unités de calcul qui peuvent se désactiver/activer à la volée, fréquence d'horloge dynamique, etc.).

Alors que les besoins en traitement des informations de toutes sortes (scientifiques, financières, commerciales, etc.) sont pressants et ne cessent de croître, la contrainte de rentabilité énergétique (puissance multipliée par le temps d'exécution) constitue aujourd'hui le critère essentiel pour la conception des nouvelles architectures, à la place de la seule course à la rapidité d'exécution.

Il devient nécessaire de comprendre quantitativement la façon dont les composants consomment l'énergie en temps réel, afin d'améliorer la rentabilité des nouveaux systèmes. Emer et Clark ont été les premiers à proposer une caractérisation quantitative en temps réel, pour l'évaluation et la comparaison de puissance entre processeurs, avec l'usage des "Multiple Instructions Per Secondes" comme unité de mesure. Cependant celle-ci permet de comparer deux processeurs d'une même architecture (i.e. la spécification fonctionnelle du processeur, du point de vue du programmeur en langage machine), mais elle devient très subjective entre des types d'architectures différentes.

Une analyse approfondie et systématique par mesure de puissance, performance et de fréquence de l'horloge sur un large panel de processeurs

Mc Kinley, Blackburn et leurs étudiants se sont intéressés à la période de 2003 à 2010 durant laquelle les matériels et logiciels informatiques ont beaucoup évolué. Pendant cette période, la finesse de gravure est passée de 130 nm à 32 nm, les monoprocesseurs ont été progressivement remplacés par des puces multi-coeurs/multi-processeurs et les éditeurs de logiciels développent davantage avec des langages "gérés" (codes de fort degré d'abstraction qui permettent de produire des logiciels indépendants de toute architecture matérielle, les auteurs ont sélectionné le langage java pour représenter cette catégorie) au détriment des langages "natifs" ('assembly language'). Afin de mieux comprendre comment l'énergie est utilisée par les composants, ces chercheurs ont analysé de façon systématique et approfondie la puissance, la performance et la fréquence de l'horloge de 8 processeurs (45 configurations différentes au total) représentatifs de cette période, en se basant sur 61 tests de performance séquentiels et parallèles, écrits dans divers langages de programmation.

Avec leur mesures, ils ont pu constater que la consommation énergétique réelle des processeurs varie nettement selon le test de performance effectué. L'étude met également en évidence que les méthodes actuelles de prédiction de la performance, et de la consommation électrique, donnent des résultats assez éloignés de la réalité.

Conclusions

La comparaison des tests de performance avec les différents types de langages montrent de nettes différences selon le type de langage utilisé (voir graphique ci-dessus), révélant ainsi l'influence importante de la couche logicielle sur l'efficience globale du système. Les architectes ont donc intérêt à inclure dans leurs méthodes de conception et d'évaluation du matériel à la fois des langages natifs et gérés.

De plus, les différentes technologies d'économie d'énergie ou d'optimisation des performances comme la variation dynamique de la fréquence d'horloge, les différentes microarchitectures, le Turbo Boost (fonctionnalité de surcadencage dynamique sur les puces Intel), le multi-tâche (Simultaneous Multithreading - SMT) et le nombre de coeurs, font varier de manière extrêmement importante la puissance électrique consommée par le processeur. Les auteurs de l'étude ont par exemple noté que le SMT se révèle être l'une des technologies les plus efficaces pour améliorer l'éfficience énergétique d'un processeur et que le multi-coeur n'est pas toujours bénéfique en termes d'efficience.

Les auteurs de l'étude soulignent ainsi la nécessité d'intégrer un watt-mètre directement au sein de la puce, et si possible d'en intégrer un pour chaque unité du processeur (cores, mémoire cache, etc.), puis d'en donner l'accès aux développeurs de logiciel. Les auteurs ajoutent que lors de la conception d'un système informatique efficient, il ne faudrait pas se limiter à optimiser le matériel, mais prendre aussi en compte les logiciels qui seront exécutés pour optimiser le couple matériel/logiciel.
- [1] Datacenter energy costs outpacing hardware prices :http://redirectix.bulletins-electroniques.com/MQS6D
- [2] BE Etats-Unis 259 : Les centres de données américains pourraient consommer 5 fois moins d'électricité : http://www.bulletins-electroniques.com/actualites/67686.htm
- [3] BE Etats-Unis 213 : GEIT Awards : les bonnes pratiques pour les centres de données se voient récompensées : http://www.bulletins-electroniques.com/actualites/63803.htm
- [4] BE Etats-Unis 210 : La consommation électrique des centres de données dans le collimateur : http://www.bulletins-electroniques.com/actualites/63618.htm
- [5] BE Etats-Unis 207 : L'état de New York finance l'amélioration de l'efficience de ses centres de données : http://www.bulletins-electroniques.com/actualites/63350.htm
- [6] BE Etats-Unis 261 : Microsoft propose de remplacer votre chaudière par des serveurs : http://www.bulletins-electroniques.com/actualites/67805.htm
- [7] BE Etats-Unis 211 : Pour HP, centre de traitement de données et bouses de vache font bon ménage : http://www.bulletins-electroniques.com/actualites/63656.htm
- [9] The Inquirer - 2005 - Gordon Earl Moore qualifie sa conjecture d'auto-realisatrice : http://redirectix.bulletins-electroniques.com/u6zQv
- [10] De Computeris - La prophétie de Moore : http://de-computeris.blogspot.com/2011/01/la-prophetie-de-moore.html
ORIGINE : BE Etats-Unis numéro 278 (17/02/2012) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/69164.htm