lundi 28 février 2011

Le mobile au service des études de marché

Pour réaliser des sondages qualitatifs qui prennent en compte l'avis des consommateurs de manière plus fiable, les entreprises ont désormais la possibilité d'utiliser des applications sur smartphone.
D’après une étude menée par la société Comscore, la France comptait 7 millions de smartphones en 2010. Avec l’utilisation d’applications sur mobile pour réaliser des études de marché, les entreprises pourraient espèrer récupérer beaucoup plus d’avis de consommateurs. C'est en suivant ce postulat qu'un groupe d’étudiants de l’école d’informatique Epitech a donc développé pour cela une application, Kiss, qui permet aux entreprises de connaître les attentes du consommateur à moindre coût avant de lancer un produit.

Réduire le coût pour l’entreprise

« Notre application permet aux utilisateurs de gagner des cadeaux en participants à des « battles » qui opposent différents produits d’une même catégorie » souligne à L'Atelier le responsable de ce projet, Alexandre Benaim. Les étudiants sont partis du constat qu’aujourd’hui, une étude de marché réalisée par un cabinet spécialisé coûte très chère. « En ajoutant le côté ludique du vote, cela permet de faire oublier à l’utilisateur qu’il s’agit d’une étude marché. Les retours sont plus importants et les résultats sont plus fiables » ajoute Alexandre Benaim.

Des applications sur mesure

L’objectif est de faire oublier au répondant qu’il s’agit d’une étude comparative et de l’immerger ainsi dans un univers participatif. « Notre but est de faire en sorte que les réactions des répondants soient les  plus naturelles et spontanées possible ». Les créateurs envisagent de mettre en place des jeux sur mesure en rapport avec les produits à tester. Le défi est non seulement de générer plus de réponses exploitables mais également de fédérer autour d’un produit, d’une marque.

Source: L'Atelier

Energie : moins au solaire, plus pour la méthanisation

Si les ministères de l’Ecologie, de l’Agriculture et de l’Energie ont annoncé une régulation plus encadrée et moins dispendieuse dans la filière solaire, ils ont en revanche précisé une politique de soutien plus volontariste en faveur de la méthanisation, dans le tarif de rachat de l’électricité sera revalorisé.
Si le nouveau dispositif dans l’énergie photovoltaïque prévoit que une baisse des tarifs d’achat du mois de mars 2011, qui seront fixés à « environ 20 % en dessous du tarif en vigueur au 1er septembre 2010 puis ajustés trimestriellement en fonction des volumes de projets déposés et des baisses de coûts attendues, estimées à ce stade à 10 % par an », la méthanisation sera elle revalorisée. Le gouvernement souhaite «encourager l’accélération des projets afin d’atteindre les objectifs fixés pour 2020 avec la mise en place de dispositifs de soutien renforcé ».
Concrètement, le biogaz issu de la méthanisation pourra être injecté sur les réseaux de gaz naturel après la parution des textes réglementaires cet été ; d’autre part, le tarif de rachat de l’électricité produite à partir de biogaz sera revalorisé d’ici la fin du mois d’avril, pour devenir comparable au tarif existant en Allemagne, Cette revalorisation entraînera d’ici à 2020 une hausse d’environ 1 % de la facture d’électricité des consommateurs, correspondant à un soutien de 300 M€/an.
De 15,2 à 20,1 c€/kWh
Le tarif maximal pour l’achat de l’électricité produite par méthanisation passera de 15,2 c€/kWh à 20,1 c€/kWh. En moyenne, les tarifs vont augmenter de 20 %. Une incitation sera mise en place pour le traitement des effluents d’élevage, rendant les projets particulièrement intéressant pour les éleveurs. Le biogaz injecté directement dans les réseaux bénéficiera également d’un tarif de rachat maximal de 10,3 c€/kWh.
Le gouvernement rappelle que si la méthanisation est une source d’énergie renouvelable, c’est aussi « une formidable méthode de traitement des déchets », qu’ils soient des déchets ménagers, des effluents d’élevage ou des boues d’épuration. A l’horizon 2020, elle devrait permettre d’éviter des émissions de dioxyde de carbone jusqu’à 5 millions de tonnes estime le ministère de l’Ecologie.

SOURCE : Enviro2B

Scanbucks devient n°1 de l’App Store en 6 heures


Il y a quelques semaines, je vous présentais en avant première la version alpha de Scanbucks : l’application qui vous permet de gagner des cadeaux en faisant vos courses.
Pour rappel, Scanbucks se rapproche des modèles américains Checkpoints Shopkick : lorsque vous faites vos courses, scannez les produits référencés par l’application, gagnez des points, et échangez les contre des cadeaux, des bons de réductions, des jeux … Aujourd’hui, cette start up connait un double succès auprès des utilisateurs et auprès des annonceurs :
Vendredi était un grand jour pour la start up puisque c’était le lancement officiel de son application sur l’App Store. Lancée à 9h du matin, il aura suffit de 6h pour qu’elle se place en tête des téléchargements, et 72 heures plus tard, elle en compte plus de 50 000 !
Pour une marque, c’est une bonne occasion d’ajouter du fun et de l’interaction dans les allées des supermarchés, mais il s’agit surtout d’une enorme opportunité pour “communiquer” auprès du véritable client : celui qui a le produit dans une main, et la carte bleue dans l’autre. En quelques semaines seulement, ce sont des annonceurs de premier rang qui ont accepté de faire confiance au concept : Coca-Cola, L’oréal, Seb, Nivea …
Personnellement j’apprécie énormément ce modèle à la performance, pour lequel l’annonceur va investir des budgets de manière très récurrente (comme sur Adwords ou Facebook). Distribéo, la société éditrice de l’application Scanbucks prépare sa levée de fonds, et les excellents résultats de l’appli vont surement aider à cela. Pour tester l’appli, rdv sur l’app store.
SOURCE : Techcrunch

PAL : des solutions robotiques au service des seniors à coûts raisonnables

A l'horizon 2050, la France comptera 11 millions de seniors de plus de 75 ans, dont 5 millions dépasseront les 85 ans. Dans ce contexte, les chercheurs travaillent de plus en plus au développement de technologies aptes à favoriser le plus longtemps possible le maintien à domicile et l'autonomie des personnes âgées. C'est ainsi que l'Inria a récemment lancé le projet Personally Assisted Living (PAL), dont la principale préoccupation est d'offrir ce type de solutions à des coûts raisonnables. "Action d'envergure", ce projet rassemble neuf de ses équipes de recherche et de nombreux partenaires dont le Centre Scientifique et Technique du Bâtiment (CSTB) e le CHU de Nice.

Premier parti pris par les responsables de ce projet, développer des outils bon marché et de conception simple afin qu'un plombier ou un électricien soient capables de les installer et de les réparer. Deuxième parti pris, c'est le robot qui doit s'adapter aux utilisateurs et à leur environnement, non l'inverse. Par exemple, les robots d'assistance sont lourds, environ 280 kg, et encombrants. En revanche, le système développé dans le cadre du projet PAL est doté de câbles et fonctionne comme une grue. En outre, il peut être installé dans toutes les pièces pour aider au lever, au maintien à la position debout, à la marche ...

Autre nécessité, les interfaces doivent êtres faciles à manipuler pour des personnes peu familiarisées avec les souris d'ordinateur, des interfaces qui pourraient être utilisées également pour détecter une détérioration de l'état du sujet indique-t-on du côté des responsables de ce projet. Une première expérience grandeur nature de ce type d'application sera menée en 2011, auprès d'une cinquantaine d'utilisateurs en collaboration avec le professeur Philippe Robert du CHU de Nice.
ORIGINE : BE France numéro 253 (24/02/2011) - ADIT / ADIT - http://www.bulletins-electroniques.com/actualites/65934.htm

Des lunettes de réalité augmentée pour le travail en entreprise

La société japonaise NS Solutions Corporation et la société américaine Vuzix Corporation ont co-développé une solution de réalité augmentée [1] destinée au travail en entreprise. Le but de cette solution est d'être capable de transmettre des informations sur des procédés de fabrication à un nouvel employé plus efficacement que l'actuel processus de formation. En effet, tout employé doit être formé à son nouveau poste et, compte-tenu du manque à venir de personnel très expérimenté (beaucoup de japonais de la génération du baby-boom partant à la retraite), le remplacement du personnel formateur par des méthodes électroniques d'apprentissage est envisagé.

L'idée de NS Solutions est donc de créer une méthode de formation simple utilisant la réalité augmentée et permettant de guider les nouveaux employés dans leurs nouvelles tâches. Par exemple, un ouvrier pourrait apprendre de lui-même son nouveau métier, directement à son poste de travail, grâce aux indications données par le logiciel de réalité augmentée et sans l'aide d'une autre personne.

NS Solutions a alors fait appel à Vuzix, un fabricant américain de lunettes vidéos et de réalité augmentée, pour mettre en place son idée. Les lunettes utilisées (nom de code Raptyr) ont obtenu le Prix de l'Innovation 2011 du CES (Consumers Electronics Show) car malgré leur apparence de simples lunettes de soleil, elles intègrent un projecteur d'images holographiques miniature, capable d'ajouter des images par superposition dans le champ visuel de l'utilisateur. Ces lunettes sont les premières au monde dans le cadre d'applications de réalité augmentée à utiliser un système de transmission optique (c'est-à-dire capable de rajouter par superposition des objets graphiques à la vue réelle, en opposition aux systèmes à transmission vidéo, qui bloquent le champ de vision de l'utilisateur et le remplacent par l'utilisation d'un signal vidéo). La luminance de l'image superposée est de 240 cd/m2, ce qui est suffisant pour une utilisation dans une pièce normalement éclairée. Néanmoins, une fonction permettant de bloquer électroniquement une partie de la lumière est également disponible pour une utilisation dans des endroits plus lumineux (par exemple, en lumière naturelle). La résolution des images est de 800 x 600 pixels pour chaque oeil (les images pouvant être combinées pour réaliser des superpositions en 3D).

Il est pour l'instant nécessaire que les lunettes soient connectées à un serveur, ce qui suppose qu'elles soit physiquement reliées (par un câble USB) à un ordinateur situé dans un sac à dos porté par l'utilisateur. Les lunettes intègrent une caméra, et les objets, personnes ou images peuvent être utilisés par les lunettes pour l'ajout de contenu graphique en temps réel. La reconnaissance et le suivi des objets sont réalisés, d'après Nikkei Electronics [2], par l'utilisation d'un logiciel de la société française Total Immersion, spécialisée dans les applications de réalité augmentée.

NS Solutions est une filiale de Nippon Steel Corporation, un des principaux producteurs d'acier au monde. La solution de réalité augmentée va être conjointement commercialisée par NS Solutions et Vuzix, mais sera déployée dans un premier temps chez Nippon Steel pour la formation à divers postes.

Des images du système sont disponibles dans le communiqué de presse de NS Solutions [4].
- [1] Wikipedia - Réalité augmentée : http://fr.wikipedia.org/wiki/RŽalitŽ_augmentŽe
- [2] Tech-On, 24/02/2011 (anglais) - http://techon.nikkeibp.co.jp/english/NEWS_EN/20110224/189853/
- [3] Communiqué de presse de Vuzix Corporation, 24/02/2011 (anglais) - http://goo.gl/bbaV2
- [4] Communiqué de presse de NS Solutions, 23/02/2011 (japonais) - http://www.ns-sol.co.jp/press/2011/20110223_110000.html
ORIGINE : BE Japon numéro 565 (25/02/2011) - Ambassade de France au Japon / ADIT - http://www.bulletins-electroniques.com/actualites/65945.htm

jeudi 24 février 2011

What U.S. utilities can learn from China’s smart grid expansion


China’s state-owned State Grid Company of Chinasigned a strategic cooperation agreement last month with General Electric to develop smart grid protocols in the country. The news was another step toward opening the world’s second-largest consumer of electricity to cutting edge smart grid technology. The State Grid Company had previously set an aggressive target of building a robust smart grid in China by 2020 and plans to invest $600 billion in developing its national smart grid over the next decade. [Disclosure: GE is an investor in Consert, the company I work for.]
China exceeded the United States in federal smart grid subsidies for the first time in 2010, and it looks poised to increase that lead if the US government doesn’t take further action. Utilities in the US are not centrally controlled like State Grid in China, so investment in smart grid technology must come from the private sector rather than government funding.
China operates its state-owned industries like businesses. It aims to decrease the amount of money it must spend to build additional generating capacity by using existing energy production with smart grid technology. Through smart grid installations, China will be able to accurately predict and control energy consumption, lowering costly demand peaks and decreasing downtime.
US utilities that are contemplating smart grid investments would be prudent to consider the undertones of China’s smart grid initiative. China’s central planners have seen the economic benefits of large-scale smart grid expansion and are quickly moving to integrate new technologies to realize that economic promise. US utilities should accelerate plans to add intelligence and real-time data gathering to their footprint, so that they, too, reduce the need to build additional generating capacity and lower their demand peaks. As Jesse Berst writes in SmartGridNews, utility commissions “focus far too much on the initial, short-run costs instead of total lifetime cost.”
Utilities should consider programs like the ARRA Smart Grid Investment Grant Program, which pays 50 percent of eligible project costs for smart grid development to help modernize their operations. Instead of relying on estimates of demand, utilities can leverage smart grid technologies such as device-specific load resource management to better understand the energy usage of their consumers, so that they can operate more efficiently and increase profitability by lowering demand peaks.
Jeff Ebihara is vice president of sales and marketing at Consert, an energy management systems company based in Raleigh, N.C. He has significant experience in the telecommunications and energy industry
SOURCE : VentureBeat

Backed by Google, Transphorm unstealths with plan to tackle billion-dollar energy losses



Transphorm came out of stealth today with the high-profile backing of Google Ventures and Kleiner Perkins, and power-conversion technology it says can tackle billion-dollar energy losses.
With its power switching technology, Transphorm is taking aim at a billion-dollar inefficiency issue in energy: losses that inherently happen in energy conversion. When you juice up your cell phone, the charger converts the grid’s alternating current (AC) to direct current (DC), but some of the power is lost during the conversion process. Transphorm makes a device that can cut up to 90 percent of that power loss.
It may seem like a rote topic, but the scale of the issue is huge because just about everything that uses electricity requires power conversion. Transphorm says conversion losses account for 10 percent of all energy generated in the U.S. — $40 billion worth of electricity or the equivalent of 318 coal-fired plants, more than all the power generated by renewables (see chart below).
It’s also a potentially lucrative area for investors. GE recently spent $520 million to acquire Lineage Power, a power-conversion company that GE said would give it access to huge money-making opportunities in the telecom industry and greening data centers.
“You can take the whole West Coast of America off the grid if you can save the conversion losses that occur,” said CEO Umesh Mishra in an interview with VentureBeat. “It is a big problem in energy efficiency today, and it is one that is hard to tackle.”
Transphorm’s approach clearly got the attention of Google, which has made strides in greening its data centers — a popular topic in cleantech, as data centers are huge and expensive consumers of energy. Transphorm’s investors also include Foundation Capital and Lux Capital. The company raised $20 million in a third round of fundraising last May, but didn’t go public with its plan and investors until today.
Transphorm’s innovation is in its switching devices and module design. The company embeds power conversion devices in circuits and modules specifically designed for use in segments like solar inverters and industrial motors, so it’s not a plug-and-play product, which Mishra says others have tried in the past. Gallium nitride is part of Transphorm’s equation — it’s a fairly new material commonly used in LED lighting and is “ideal power switching material,” Mishra said, because it is a low-resistance material that can simultaneously hold off large voltage. Power-conversion devices are traditionally made using silicon.
“There is no further pathway for silicon. It has just reached its fundamental materials limits. [Other scientists] have shown what the maximum limits are, and we’ve broken them,” Mishra said.
Integrating gallium nitride into a power-conversion switch isn’t easy, though, so Mishra says that’s part of the company’s special sauce. Transphorm embeds and connects the technology to application-specific modules that ultimately deliver energy efficiency. It then sells the solution to manufacturers, who integrate it into their products.
The approach can be used to solve energy inefficiency problems in a broad spectrum of power conversion. Markets that Transphorm has singled out include servers in data centers (converting AC to DC),  motors that power elevators (AC to AC), hybrid cars (DC to AC) and solar panel inverters (DC to AC).
The company isn’t releasing details of the cost of the device or how long return on investment takes. As is the case with most energy efficiency plays, Transphorm’s customers can expect to earn back their investment through money saved on reduced energy use.
What’s next? The company says it will be announcing customers across its target markets in the next year, starting with an announcement at the Applied Power Electronics Conference in Fort Worth, Tex. in two weeks. Right now, the company is focused on using the proceeds from the $20 million round to support current orders for its customers. But demand has been strong, and Mishra says the Goleta, Calif.-based company will be looking to expand its facilities next year and will aim to raise another round of funding at that time.
“We’re getting terrific customer pull. The technology has just emerged. We’ve just begun what’s going to be an amazing ride in the development of the technology,” Mishra said.
SOURCE : Venturebeat

A cheaper, greener fridge? Phononic grabs $10M for thermoelectric cooling



Phononic Devices has  raised $10 million in a second round of financing to make your refrigerator cheaper and more energy efficient.

The company plans to do this with its thermoelectric, energy-efficient module (pictured below), which could one day replace traditional refrigerator technology and has potential in other cooling and heating markets. Right now, most refrigerators use large air compressors, which are loud and “expensive compared to the amount of cooling they provide,” said CEO Anthony Atti. Phononic, backed in part by a $3 million government ARPA-E award, wants to replace those with its thermoelectric materials and engineering. The company previously raised a $2 million round.

“The idea is to take advantage of the very same quiet, compact, lack of moving parts [traits] that thermoelectric devices already have, but introduce a materials systems with more efficiency,” Atti said.
Thermoelectric technology basically harvests energy as heat is transferred from hot to cold. Waste heat can be converted to power, or, conversely, electricity can be used to remove heat for refrigeration or cooling purposes. Waste heat-to-energy isn’t a new concept, and in fact is capturing the attention of a few companies. GE, for example, last year acquired Calnetix, a company whose systems can convert waste heat from industrial processes into electricity.
Thermoelectrics isn’t a new thing, but in the past, it has been crippled by cost and low efficiency — it’s used today for applications like portable heaters. Atti says Phononic’s technology can solve those issues with modules that manufacturers can integrate into their products.
The company will be using the newly raised funds to create and test prototypes and prepare for commercialization. It plans to bring products to market in 2013.
SOURCE : Venturebeat

A Day Made of Glass : Bienvenue dans le Monde de demain: tactile, en 3D et en verre

corning verre futur La société américaine Corning Inc., un leader mondial dans la fabrication de verre spécial et de céramique, vient présenter sa propre vision du monde de demain.
Il en résulte la vidéo « A Day Made of Glass » qui offre un aperçu spectaculaire des technologies futuristes qui pourront nous accompagner dans notre vie quotidienne.

Au programme : du verre photovoltaïque au réveil sur le mur, une immense TV LCD ultra-fine et sans bords, le miroir interactif tactile dans la salle de bain (idéal pour consulter son agenda ou voir la météo en se brossant les dents), un plan de cuisine avec la télévision, une cuisinière tactile, une porte de frigidaire personnalisable, un téléphone intelligent avec verre ultra-résistant, une voiture avec un panneau de commande tactile, des panneaux de signalisation électroniques en vitre, un arrêt de bus intelligent et communicant, un tableau pour la vidéo-conférence, des appareils mobiles qui communiquent avec les stations de travail, de la fibre de verre flexible et enroulable et finalement une télévision immersive en trois dimensions.
Comme on n’est jamais si bien servi que par soi-même, l’entreprise Corning s’est fait une sacré publicité en mettant en avant dans un film high-tech ce qu’elle est capable de faire. J’appellerai cela un joli CV d’entreprise.

Source: Vincent Abry

mercredi 23 février 2011

Création de trois nouveaux centres de recherche interdisciplinaires sur les énergies durables

Le 15 février dernier, Terje Riis-Johansen, ministre norvégien du pétrole et de l'énergie a lancé trois nouveaux centres de recherche pour les énergies respectueuses de l'environnement (Forskningssentre for miljøvennlig energi ou FME). Le développement de méthodes et de modèles socio-économiques constituera l'activité principale de ces centres, appelés "FME Société" Ils étudieront particulièrement les interactions entre technologie et société, en prenant en compte l'apport des sciences sociales pour répondre aux défis énergétiques. Ils associeront des groupes de recherche académiques multidisciplinaires ayant une expertise dans ces domaines clés, en coopération avec d'autres acteurs publics et privés.

Ces centres de recherche recevront un financement d'environ 200 millions de couronnes (25 millions d'euros) sur une période de 8 ans. Deux de ces centres sont situés à Oslo et le troisième à Trondheim. Ils viennent s'ajouter aux 8 centres de recherche existants pour les technologies énergétiques respectueuses de l'environnement*. Cette initiative entre dans le cadre du programme Energi21 de politique nationale norvégienne sur l'énergie.

Ces trois derniers centres ont été créés car, pour le gouvernement norvégien, le développement technologique ne peut à lui seul résoudre les défis énergétiques. Comme l'a indiqué le ministre Riis-Johansen: "il est nécessaire d'acquérir une meilleure compréhension des rôles des différents acteurs, des liens entre les marchés, des nouvelles technologies, du contexte international. Recherche et expertise en sciences sociales sont les clefs pour développer la politique énergétique de l'avenir".

Les trois nouveaux de recherche "FME Société"

1/ Centre d'études de l'énergie durable (CenSES)

Institution hôte: NTNU (université norvégienne des sciences et techniques), Trondheim
http://www.ntnu.no
Ce centre fournira une base de connaissances factuelle pour les décisions stratégiques en commerce et management.
Thématiques de recherche: politique énergétique et stratégies de transition ; systèmes énergétiques et marchés; analyses économiques ; innovation, commercialisation et participation du public, scénarios de développement.

2/ Challenges stratégiques pour la politique climatique et énergétique (CICEP)

Institution hôte: CICERO (Centre international de recherche climatique et sur l'environnement, Oslo
http://www.cicero.uio.no/
CICEP a pour principal objectif la recherche sur les politiques climatique et énergétique.
Thématiques de recherche: élaboration des politiques nationales; études des politiques climatiques au niveau international; effets du climat mondial et de la politique énergétique; politique européenne climatique/énergétique/technologique: possibilités et limites pour les acteurs norvégiens; synthèse et diffusion.

3/ Centre de recherche d'Oslo pour les énergies renouvelables (CREE)

Institution hôte: Centre Ragnar Frisch Centre pour la recherche économique, Oslohttp://www.frisch.uio.no/
Ce centre contribuera à l'accumulation et au développement des connaissances pour savoir comment les différents paramètres affectent à la fois le marché de l'énergie et le développement technologique.
ORIGINE : BE Norvège numéro 99 (22/02/2011) - Ambassade de France en Norvège / ADIT - http://www.bulletins-electroniques.com/actualites/65909.htm

mardi 22 février 2011

De l’internet des objets au web des objets


“La promesse de l’internet des objets est de construire un réseau fluide d’appareils hétérogènes connectés ensemble pour former un dispositif unique et cohérent. Mais en fait, cette promesse est une escroquerie”, attaque, bille en tête, Vlad Trifa, ingénieur à l’Institut d’informatique pervasive de l’Institut de technologie de Zurich sur la scène de Lift à Genève. Il existe déjà plus d’une quinzaine de protocoles techniques pour assurer les communications domotiques et machines à machines (M2M), mais ceux-ci demeurent largement inconnues des programmeurs qui ne sont pas spécialisés sur ces sujets. Si l’industrie a construit des normes pour contrôler l’internet des objets, elle est loin d’être parvenue à un accord. “La réalité aujourd’hui est que nous avons plutôt construit des intranets pour un grand nombre de choses qu’un internet des objets, chacun formant un îlot isolé de quelques appareils connectés qui n’ont pratiquement aucun moyen d’interagir les uns avec les autres”. L’internet des objets est donc une utopie.
“Il existe un protocole pourtant qui pourrait mettre tout le monde d’accord, c’est le web”, estime Vlad Trifa dans sa présentation“L’infrastructure existe, elle est ouverte, simple, libre, flexible, et elle est capable de passer à l’échelle. Tout le monde peut l’utiliser facilement et créer quelque chose avec. Elle permet une réelle simplicité d’accès.” Reste à l’utiliser pour les objets physiques et pas seulement pour l’information et la communication de nos machines électroniques.
les5web
Image : les 5 web selon Vlad Trifa.
D’ailleurs, il n’y a pas un web, mais 5, rappelle Trifa : le web physique, social, sémantique, programmable et temps réel. L’internet des objets étant pour lui au centre de tous ces ingrédients, prêt à proposer de toutes nouvelles expériences.
Pour Vlad Trifa, l’accès à la programmation des objets se démocratise, notamment grâce à Arduino (Wikipédia), qui permet à chacun de créer des objets programmables. De la même manière que chacun a créé son propre site ou blog… on peut désormais assez facilement lire et écrire des données provenant de capteurs et les façonner comme bon nous semble. Ce n’est peut-être pas encore aussi simple que cela, car utiliser Arduino demande tout de même quelques bases en électronique, mais rien qui ne semble impossible à tous ceux qui voient dans Arduino l’outil pour démocratiser l’internet des objets.
Si la construction d’objets connectés n’est pas des plus simple, leur utilisation, elle, est incontestablement plus accessible.
Pour expliquer la différence de conception des objets entre ceux produits par le monde industriel et ceux qu’on pourrait imaginer dans un écosystème de capteurs réutilisables et partageables – formant des dispositifs et services qui pourraient être accessible simplement, via une interface de programmation en ligne, en utilisant tout simplement votre login Facebook par exemple -, Vlad Trifa nous montre une télécommande qu’on lui a donnée pour faire fonctionner sa chambre dans un hôtel japonais. La télécommande permet de gérer l’éclairage, la chaleur, la climatisation, la musique, le réveil… Mais les commandes des boutons sont tous écrits en japonais, ce qui la rend inutilisable pour beaucoup des clients de l’hôtel. Pour lui, on peut faire l’internet des objets autrement. Via des applications web nativement interopérables (Niwea). En les couplant avec des outils commePhoneGap, vous pouvez transformer votre application Web en une véritable application native. L’idée est de faire entrer les fonctions de la télécommande dans une application accessible en ligne ou via son smartphone, qui permette de faire exactement la même chose pour autant que l’électronique domestique soit connectée au web, ce qui nécessite que quelques puces et un réseau Wi-Fi. L’application permet de régler les mêmes éléments de son environnement, mais en passant par l’internet : on peut éteindre la lumière, régler la climatisation… Avec un appareil qui s’adapte au contexte de l’utilisateur (en permettant d’accéder aux fonctions directement dans sa langue) et permettant même de régler les fonctionnalités à une distance plus grande que ne sait le faire une télécommande.
telecommandetrifalift11
Image : la télécommande japonaise de Vlad Trifa et l’application sur smartphone.
L’internet des objets qui passe par l’internet n’a rien à voir avec la domotique traditionnelle, explique Vlad Trifa. Des interfaces de programmation permettent à des services ou des outils de se brancher sur les données que ces objets produisent et ce en temps réel. Mais ce pas seulement valable pour nos objets du quotidien : c’est également de villes entières dont on parle, comme le montre le projetLiveSingapore développé par le Senseable Lab du MIT. Le projet consiste à construire une plateforme pour recueillir des centaines de flux de données provenant de divers organismes pour produire des informations de haut niveau sur la ville et son fonctionnement. A Rio de Janeiro, IBM, avec leur Smart Planet initiative, a construit, en partenariat avec la ville, un centre d’opération qui fonctionne indépendamment de tout organisme tout en recevant des données de plusieurs d’entre eux (vidéo). Ce centre d’opération fonctionne grâce à une batterie d’algorithmes pour contrôler, prévoir et visualiser les informations vitales en temps réel de la ville et déterminer la meilleure façon d’y répondre : quelles sont les collines les plus sujettes à des coulées de boue ? Quels hôpitaux ont des lits disponibles ? Où sont les voitures de police d’urgence et les ambulances ?…
Autre exemple. On sait que l’eau potable est un bien de plus en plus précieux et que pour nombre de grandes villes, la distribution de l’eau est un problème majeur. L’infrastructure d’adduction d’eau est souvent vieillissante et les défaillances fréquentes. La gestion du système est souvent inefficace et 30 % de l’eau est la plupart du temps perdu dans l’acheminement. A Singapour, le projet WaterWise a consisté à placer des capteurs sur les conduites d’eau pour surveiller en temps réel la pression, la température, et analyser la composition chimique et biologique de l’eau… ce qui permet de repérer les fuites, de réagir plus vite à un incident. Et surtout de mieux étalonner la consommation selon la demande.
Mais le web des objets peut avoir également des applications encore plus concrètes. Dans une chaine d’approvisionnement, on doit savoir tout le temps et en temps réel où sont les produits ou les matériaux dont on a besoin. Pour créer une logistique en temps réel, il existe des solutions techniques coûteuses, comme le réseau EPCIS (Electronic Product Code Information System), un ensemble d’outils et de normes pour le suivi et le partage de produits dotés d’étiquettes RFID. Des systèmes de ce type permettent de suivre et localiser des produits tout le long d’une chaîne d’approvisionnement. Les systèmes d’informations EPC utilisent des systèmes complexes et peu malléables. EPC mashups est une plateforme qui permet d’accéder à toutes les informations produites par sa chaine logistique via le web d’une manière plus souple et plus fluide que le système d’information d’EPC et de construire des outils et des applications pour rendre la chaine d’approvisionnement toujours plus intelligente et malléable.
Le Web des objets sur lequel travaille Vlad Trifa propose de faire l’internet des objets autrement. En ligne. Sur le web. Pour profiter des avantages du web, plutôt que d’être contraints par des protocoles, peut-être plus sûrs, mais en tout cas moins flexibles.
SOURCE : InternetActu.net

Budget Energie 2012 : il risque de faire la moue, Barack

Même si la presse estime dans son ensemble que le Président américain a bien navigué à travers la crise égyptienne, l'ambiance est tendue à Washington alors que le Président vient de dévoiler sa proposition de budget pour l'année fiscale 2012 (commençant le 1er octobre prochain). Depuis le discours sur l'état de l'Union, où il avait annoncé que les Etats-Unis tireraient 80% de leur électricité de sources "propres" (dont le gaz naturel, le nucléaire et le charbon avec capture et stockage du CO2) d'ici 2035, le Président bataille avec le Congrès sur les coupes budgétaires que ce dernier exige pour réduire le déficit budgétaire. Il insiste pour que le pays poursuive l'investissement public dans la R&D dans le domaine de l'énergie, et que le financement de cette R&D soit compensé par l'élimination progressive des subventions aux énergies fossiles classiques.

Recherche en énergie : forte poussée

Ainsi, le Department of Energy (DoE) se voit attribuer 29,5 milliards de dollars (21,8 milliards d'euros), soit 12% de plus que le budget 2010 (son niveau actuel, en raison d'un gel budgétaire en vigueur jusqu'au 4 mars). Ce montant inclut les garanties de prêt (un élément clé dans le renouveau du nucléaire américain, géré par le DoE) mais également le soutien à la très médiatique Arpa-e (Advanced Research Projects Agency - Energy), agence de financement de l'innovation de rupture. Cette dernière serait financée à la hauteur de 550 millions de dollars (407 millions d'euros), contre "seulement" 366 millions de dollars (248,6 millions d'euros) cette année, révélant le haut degré de priorité que l'administration accorde à cette agence.

La recherche fondamentale est également à l'honneur au DoE : elle se verrait doter de près de 2 milliards de dollars (1,48 milliard d'euros), soit une augmentation de 13% par rapport aux financements demandés pour 2011. La requête budgétaire double par ailleurs le nombre de "Energy Innovation Hubs" chers au Secrétaire à l'Energie Steven Chu, les faisant passer de trois à six. Ces centres pluridisciplinaires (R&D, ingénierie, sciences sociales, etc.) traitent d'une problématique bien ciblée mais cruciale dans le domaine de l'énergie, à la manière du Manhattan Project à l'orée de la seconde guerre mondiale, ou encore du développement de la technologie RADAR. Les trois nouveaux centres proposés se concentreraient sur : les terres rares et autres matériaux critiques ; les batteries et le stockage énergétique ; et enfin, la smart grid et le réseau électrique. Les trois Innovation Hubs existants sont financés à hauteur de 25 millions de dollars (18,5 millions de dollars) par an chacun.

L'efficacité énergétique et les renouvelables sortent également renforcés...

L'administration prévoit en outre un accroissement de près de 42% du financement dévolu aux programmes de déploiement des énergies renouvelables et de l'efficacité énergétique. Il s'agit principalement de programmes liés à l'efficacité dans les bâtiments et l'industrie (avec un objectif de -20% de consommation d'ici 10 ans). Quant aux programmes liés à l'énergie solaire, à la biomasse et à la géothermie, ils bénéficieraient également d'augmentations d'environ 50%. Le véhicule électrique connait aussi une forte poussée, puisqu'il bénéficierait de 580 millions de dollars (429 millions d'euros), le Président ayant avancé le chiffre de 1 million de véhicules sur les routes d'ici 2015.

Ces augmentations sont à mettre en parallèle avec une requête budgétaire qui diminue globalement le déficit de 1100 milliards de dollars (814 milliards d'euros) sur les dix années à venir. C'est dire si l'administration considère ce secteur comme prioritaire.

L'énergie fossile... fossilisée

Néanmoins, il y a nécessairement quelques perdants. Même dans ce ministère "choyé", certains programmes se verraient circonscrits. 70 millions de dollars (41%) seraient supprimés pour l'hydrogène, afin de se concentrer sur les technologies déployables à grande échelle et à court terme. Mais ce sont surtout les énergies fossiles qui subissent une coupe réglée, à hauteur de 32%. Il y aurait même une élimination pure et simple du programme lié au gaz naturel et aux énergies fossiles non-conventionnelles. Le reste -453 millions de dollars, soit 335 millions d'euros- est principalement attribué à la recherche sur la capture et le stockage du carbone, bien que le montant soit en baisse. Sur ce volet, ce seront les technologies de reconfiguration des anciennes centrales, la surveillance et la comptabilité du stockage, les cycles combinés ainsi que l'oxy-combustion qui seront primés. A contrario, le projet phare des années 2000, FutureGen, ne recevrait plus aucun financement du gouvernement fédéral.

... mais le combat budgétaire ne fait que commencer

Le budget présenté par le président Obama est en tout point conforme aux annonces ambitieuses faites lors du discours sur l'état de l'Union le 25 janvier dernier. Mais la proposition de budget 2012 a été, dès sa présentation, sévèrement critiquée par les Républicains, y compris modérés. Au vu du contexte budgétaire, et du positionnement politique à moins de deux ans des élections présidentielles, il est probable que le budget sera remanié en profondeur, d'autant qu'on peut s'attendre à une contre-offensive rapide des lobbies pétroliers, charbonniers et gaziers.

ORIGINE : BE Etats-Unis numéro 236 (21/02/2011) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/65894.htm

La NOAA ressuscite l'Energie Thermique des Mers, "l'énergie du futur" des années 80

La National Oceanic and Atmospheric Administration (NOAA) a mis en ligne le 10 février dernier un site internet dédié à l'énergie maréthermique [1], couramment appelée Ocean Thermal Energy Conversion (OTEC). Le site entend mettre à disposition du public toutes sortes d'informations - techniques, environnementales, légales - sur cette technologie considérée comme prometteuse dans les années 1980 mais abandonnée par la suite.

L'OTEC, une "géothermie marine"

L'OTEC est un procédé de production d'énergie renouvelable basé sur un principe simple, similaire à la géothermie [2]. Il s'agit d'utiliser la différence naturelle de température entre l'eau de surface (chaude) et l'eau des profondeurs (froide) pour produire de l'électricité (cf. Figure 1). Au sein d'une plate-forme offshore, de l'eau chaude captée en surface est utilisée pour vaporiser un fluide spécial qui fera tourner une turbine, qui à son tour alimentera un générateur. L'électricité produite est alors transportée vers la terre ferme à l'aide d'un câble de transmission sous-marin. Le fluide est ensuite refroidi par de l'eau froide pompée des profondeurs, et retourne dans le circuit. Les eaux entrantes, une fois les échanges thermiques effectués, sont rejetées à une profondeur correspondant à leur nouvelle température.

Le rendement de ce système dépendant directement de l'écart de température entre les eaux chaudes et froides, cette technologie est surtout envisagée pour les zones tropicales comme Hawaii, où le gradient de température est important. Malgré un rendement faible qui conduit à l'utilisation de très larges quantités d'eau, l'OTEC produit une énergie renouvelable de manière continue, par opposition aux autres énergies renouvelables intermittentes comme l'éolien ou le solaire. Une installation OTEC peut aussi avoir d'autres bénéfices, comme aider à l'aquaculture - les eaux profondes remontées sont riches en nutriments - ou alimenter des systèmes de climatisation [3].

Des ressources en ligne

Sur son nouveau site internet, la NOAA présente en détail les deux textes de lois qui réglementent l'OTEC [4]. L'Ocean Thermal Energy Conversion Act (OTECA) de 1980 donne l'autorité à la NOAA d'encadrer les installations OTEC dans les eaux territoriales américaines en leur attribuant des permis d'exploitations. L'Ocean Thermal Energy Conversion Research, Development, and Demonstration Act (OTERRDDA) de 1980 permet au Département de l'Energie (DoE) d'autoriser des projets de recherche ou de démonstration exemptés de permis d'exploitation, après consultation de la NOAA.

Sont aussi présentées les deux études environnementales de référence réalisées par la NOAA dans les années 1980 [5]. Elles concluaient à l'époque que les impacts environnementaux sont globalement acceptables, mais qu'il conviendrait d'éclaircir l'impact de certaines activités, comme l'aspiration et le rejet de grandes quantités d'eau ou l'utilisation de biocide - utile pour éviter l'encrassement des échangeurs thermiques.

Retour à la case départ

Au début des années 1980, dans un contexte de crise pétrolière et de prise de conscience de la dépendance énergétique du pays, l'OTEC a suscité beaucoup d'intérêt aux Etats-Unis. Des recherches avaient mené à la construction d'une centrale pilote de 50 kW construite au large d'Hawaii, et des plans pour une centrale commerciale de 40MW avait été envisagés. Cependant, la retombée rapide du prix du pétrole avait mis fin à l'engouement pour cette technologie, et conduit à l'abandon de la plupart des projets.

L'émergence des questions environnementales et les efforts de l'administration Obama pour promouvoir le développement des énergies renouvelables ont conduit à un regain d'intérêt pour cette technologie, aussi bien dans le secteur public que le privé. Depuis 2009, la NOAA a organisé des séminaires et des ateliers dans le but de rassembler les acteurs de l'OTEC et de relancer la recherche dans ce domaine, en particulier sur la faisabilité technique et économique d'un projet d'échelle commerciale et sur les impacts environnementaux [6].

A l'heure actuelle, il n'existe aucun projet de taille industrielle, et la NOAA n'a jamais reçu de demande de permis d'exploitation. De guerre lasse, l'agence a abandonné en 1996 son programme d'attribution des permis, qu'elle travaille maintenant à rétablir. Il existe cependant des projets de recherche et de démonstration, dont un projet pilote de Lockheed Martin au large d'Hawaii, pour lequel l'entreprise a reçu près de 18 millions de dollars (13,34 millions d'euros) de la part de l'U.S. Navy et du Département de l'Energie depuis 2009. Si de nombreux industriels pensent que la technologie nécessaire existe, l'incertitude liée au manque de retour d'expérience et aux coûts de production très élevés font penser que le développement de cette technologie ne verra pas le jour sans soutien financier massif du gouvernement.

Le regain d'intérêt pour cette technologie "oubliée" est aussi l'occasion de revenir sur les espoirs qu'elle a suscitée. L'OTECRDDA de 1980 établissait un objectif de production d'OTEC de 10 GW à atteindre d'ici 1999, soit 3% de la consommation électrique prévisionnelle des Etats-Unis ! Bien entendu, cet objectif est loin d'être atteint 12 ans après la date prévue. De quoi faire réfléchir à l'heure où l'on entend fixer des objectifs pour les 40 années à venir...



ORIGINE : BE Etats-Unis numéro 236 (21/02/2011) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/65902.htm

Un dollar le watt de photovoltaïque installé : la course au soleil est lancée

Les Etats-Unis sont engagés dans une bataille : celle des technologies propres [1]. Et le vocabulaire utilisé récemment par le secrétaire général du Département de l'Energie (DoE), Steven Chu, n'était pas sans rappeler certaines heures de la guerre froide : il parlait de "Moment Sputnik" en Novembre dernier [2], faisant référence à la prise de conscience par les USA des capacités technologiques de l'Union Soviétique pour les vols spatiaux habités. Cette prise de conscience avait mené à la course à la Lune, ou "Moon Shot" [3]. C'est donc naturellement que Steven Chu annonçait la semaine passée le nouveau programme Américain "SunShot" [4] dont les ambitions sont d'atteindre le prix mythique de $1 le Watt de photovoltaïque installé en 2017. C'est à ce prix que l'industrie du solaire Américain pourrait gagner son bras de fer face à l'Asie et à la Chine plus particulièrement.

Genèse de l'initiative SunShot

C'est lors d'un atelier de travail organisé l'été dernier par le DoE que le programme a été défini. C'était un gigantesque brainstorming où étaient invités une soixantaine de chercheurs, d'industriels, d'entrepreneurs et d'investisseurs du secteur photovoltaïque (PV) ou de domaines adjacents. L'objectif étant de repositionner les Etats-Unis en situation de dominance du marché PV mondial alors que la part de marché actuelle est de 6%.

Pour cela, il faut réduire de 75% le coût du PV installé, qui comprend le coût du module, de l'électronique de puissance et de tout le reste y compris l'installation. On peut voir sur la Figure ci-dessous une décomposition du coût du PV installé suivant 3 scénarios:
- colonne 1: le coût actuel
- colonne 2: le coût en 2016 sans l'initiative SunShot
- colonne 3: le coût avec le programme $1/W

Les objectifs sont les suivants pour 2017:
- Etre capable de produire les composants majeurs et les méthodes d'installation de systèmes de 5MW au minimum au coût d'$1/watt, ce qui équivaut à un prix moyen pondéré de l'électricité de 6 cents/kWh.
- Le coût doit inclure tous les équipements et installations nécessaires pour que l'électricité produite soit injectée sur le réseau.
- Utiliser des matériaux abondants.
- Fabriquer des composants recyclables.
- Etre compatible avec les standards de sécurité et environnementaux.

=> Un professeur de UC Berkeley aux commandes

Encore une fois c'est un professeur de UC Berkeley qui se trouve nommé à un poste de responsabilité dans le domaine de l'énergie au niveau fédéral et qui vient grossir les rangs des représentants de la Baie de San Francisco à Washington [5].

C'est le Professeur Ramamoorthy Ramesh qui vient de prendre pour au moins 2 ans la tête de l'équipe de 12 personnes qui gère l'initiative SunShot au sein de la division Energy Efficiency and Renewable Energy (EERE) du DoE. Techniquement en congé de son poste de directeur d'une équipe de recherche à Berkeley, ce spécialiste des couches minces et des nanostructures continue néanmoins à travailler à distance avec ses 25 étudiants et chercheurs le soir et le week-end, en s'appuyant sur l'aide des plus expérimentés. Cette hyper-activité ne l'a pas empêché de se prêter de bonne grâce au jeu de l'interview.

Il est intéressant de noter qu'il a travaillé par le passé à Bell Labs sous la responsabilité de Jean-Marie Tarascon, spécialiste mondial de nanochimie et de stockage énergétique, aujourd'hui Professeur à l'université de Picardie, membre de l'académie des sciences et professeur au collège de France.

Ce qui suit est la présentation de l'initiative SunShot par le Pr Ramesh.

Un programme ambitieux

Le budget de ce programme n'est pas finalisé, mais il le sera sous peu. Il s'agit de rediriger une grande partie du budget solaire du DoE sur ce programme. En 2010 cela représentait $200 millions, dont la majeure partie allait aux laboratoires NREL, Sandia National Lab, ainsi que quelques universités et entreprises.

=> Fonctionnement

Tout d'abord il s'agit de caractériser les différents domaines technologiques sur lesquels des avancées notables doivent être faites:
- les modules
- l'électronique de puissance
- l'installation

Ensuite dans chacune de ces catégories il faut financer des travaux de R&D ambitieux par des acteurs privés ou publics, sur le modèle de ce que fait ARPA-E [6].

Puis lorsque les technologies sont matures - un délais de 3 ans est prévu pour les développements technologiques - il s'agira d'intégrer verticalement les acteurs travaillant sur des segments différents dans des équipes transversales Modules/Electronique/Installation en compétition entre elles pour créer des champions du PV capables de fournir une technologie complète à 1$/W installé au bout de 3 ans supplémentaires.

La figure ci-dessous détaille le mode de fonctionnement.


=> Un premier volet de financements

Les premiers investissements annoncés ne concernent que le manufacturing. Mais il s'agit simplement d'une communication maladroite : les $27 millions annoncés sont en réalité le premier échelon d'un plan d'investissement qui en comportera huit ou neuf. Par ailleurs les projets, illustrés sur la carte [7], étaient sur le point d'être annoncés. Il s'agit de $20 millions consacrés à des startups travaillant sur des procédés de fabrication de cellules PV [8] ainsi que de $7 millions pour soutenir des startups dans le cadre du PV Technology Incubator du NREL [9].

Il faut s'attendre donc à voir un certain nombre de nouveaux financements se faire sur les autres catégories telles que l'électronique de puissance et l'installation dans les mois qui viennent. Par ailleurs il est intéressant de noter qu'un certain nombre de lauréats de bourses ARPA-E ont su attirer des capitaux privés. Le DoE mise sur le même mécanisme pour faire en sorte que les startups financées au départ sur les deniers de l'état finissent pas trouver grâce aux yeux des investisseurs privés [6].

=> L'intégration verticale: un vrai challenge

Comment le DoE va-t-il en pratique mettre en place l'intégration verticale après les deux premières années de recherche des acteurs travaillant sur des sujets différents (Power Electronics, PV Array, ...)? Il ne s'agit en aucun cas de désigner des groupes devant travailler ensemble. Une série d'ateliers de travail sera organisée, au cours de laquelle on assistera à l'émergence spontanée d'équipes désireuses de se rapprocher. Cela pourra amener à la création de nouvelles architectures, de nouvelles façons de procéder. Selon Pr Ramesh il faut s'attendre à voir cela arriver dans les dernières années du programme. Ce serait donc une sorte de gigantesque brainstorming sur plusieurs années.

=> Utiliser des matériaux abondants: un objectif secondaire, pas une priorité

Il est en effet surprenant de voir que dans la liste des lauréats du PV Technology Incubator du NREL se trouve l'entreprise Solexant qui va développer des cellules couches minces à base de tellure de cadmium. Pourtant le tellure est un composé peu abondant, et le cadmium assez toxique.

Selon le chef de l'initiative SunShot, cela n'est pas incompatible avec les objectifs. En effet les recherches doivent être d'abord poursuivies dans toutes les directions technologiques : Silicium, cellules multi-junction (III-V) à base d'arsenure de gallium, CIGS et CdTe. Le fait de vouloir utiliser des matériaux abondants est important, mais il ne sera pas réalisé dans la période allant jusqu'à 2017. L'objectif du programme est avant tout de réaliser le $1/W maintenant avec les technologies disponibles.

=> Le stockage stationnaire peu abordé

Il est aussi surprenant de voir que le stockage n'a pas pour l'instant sa place dans la liste des domaines abordés par l'initiative SunShot. Selon le Pr Ramesh, cela vient de la faible pénétration actuelle du marché - de l'ordre de 0,1% - et le peu d'impact que cela aurait sur la fluctuation. Mais le problème se posera très vite et c'est pourquoi il supervise la mise en place de programmes sur ce sujet en collaboration avec ARPA-E (notamment dans le programme GRIDS [10]).

Commentaire

En 2017, quoi qu'il arrive, d'autres pays seront sans doute capables de parvenir au chiffre d'$1/W. L'objectif pour SunShot est de permettre aux Etats-Unis de garder des parts de marché, c'est pourquoi il faut avant tout rendre le PV compétitif avec les autres sources d'énergie. Cette initiative ne ferme pas la porte à des collaborations internationales et des partenariats sont mis en place avec l'Inde et l'Australie. EERE possède d'ailleurs une division qui finance des projets de collaborations internationaux similaires aux fonds France-Stanford et France-Berkeley qui permettent de financer des travaux de recherche entre des laboratoires français et ces deux universités [11].

--

Note : La mission pour la science et la technologie de l'ambassade de France aux Etats-Unis envisage d'organiser mi-2011 une mission aux Etats-Unis sur le thème de l'énergie solaire. Les chercheurs, qu'ils soient dans le secteur public ou privé, sont invités à manifester leur intérêt à l'adresse science@consulfrance-sanfrancisco.org, en indiquant si possible leur préférence parmi les sujets suivants :
- solaire thermodynamique à concentration ;
- modules PV à partir de matériaux "low cost" ;
- modules PV facilement recyclables ;
- évaluation de la ressource solaire ;
- mécanismes de financement de la R&D du PV aux Etats-Unis.



ORIGINE : Etats-Unis numéro 236 (21/02/2011) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/65903.htm