jeudi 29 septembre 2011

Lego Tries Augmented Reality With “Life Of George” Game

scaledwm.IMG_3339 Lego (or LEGO if you’re adamant about trademarks) has just dipped another toe into electronic gaming with their clever “Life Of George” iOS title. The game uses 144 pieces and a piece of cardboard covered in a dotted pattern. The game is simple: George shows you a picture from his travels and asks you to recreate it using Legos. You have to dig around in your box of pieces to recreate the image and then take a picture of it on the Playmat. Using a brick recognition system from Eye-Cue, the game awards you points for speed and accuracy.

The game is oddly addicting and great for kids. The pieces are bit small so it’s aimed at ages 12 and up but it’s also a great way to build teamwork with one player – maybe a parent – calling out the pieces and the other player putting the object together.

The game marks Lego’s further attempts at capitalizing on its strong lead in children’s toys into new markets. The impetus for Life Of George is based on the success of the Lego series of video games (Lego Harry Potter, Lego Indiana Jones, Lego My Dinner With Andre) as well as its quiet but apparently popular Lego Universe, a brick-based MMO. By adding a casual game like Life of George, with it’s candy-coated graphics and clever gameplay, you grab the kids who may not want to bring their entire Lego collection to Grandma’s but still want to play with their blocks. As a parent, I find that the game is also helpful in teaching counting and hand-eye coordination as you need to find blocks as quickly as possible and then smoosh them together.

Naysayers will note that George does not offer much in the way of imaginative play and I’d agree. But, as we all know, making the thing on the Lego box is often far more exciting than making another “car” using the big green board and a bunch of bricks. There’s a reason behemoths like the 1200-piece Millennium Falcon exists: people love to build things with Lego, but they don’t always want to be structural engineers.

To be clear, Life Of George is a casual game in the vein of Cut The Rope or Angry Birds. You play it for a while, maybe forget about it, maybe dump all of the pieces into the main Lego box down the line. However, at $29 plus a free iOS download (a price I suspect will go down over time) it’s a fun way to interact with your Lego using electronics.

Herr George has a Facebook page and his game is available on October 1st.

Source: Techcrunch

mercredi 28 septembre 2011

The challenge: Turn electric cars into virtual power plants


 NRG Energy and the University of Delaware (UD) have teamed up in a venture called eV2g to commercialize technology that lets electric-vehicle (EV) owners sell back energy stored in their car batteries to help stabilize the electricity grid.
Developed by UD professor Willett Kempton, the vehicle-to-grid technology could help make the electricity infrastructure  more resilient in the future.
“As more electric vehicles hit the road and charging stations — such as those provided by NRG’s eVgo network in Texas — continue to proliferate, EV-to-grid technology is the next logical step in the electrification of our transportation network,” said Denise Wilson, president of NRG’s Alternative Energy Services. “It’s one more way EV owners can commit to a sustainable energy future and get paid for it at the same time.”
The EV-to-grid technology would allow electric-car owners sell battery storage back into the grid while their vehicles are plugged, without creating any risk or inconvenience for daily driving needs. The NRG-UD program will start with EV fleet managers, then eventually take the technology to individual plug-in car owners.
Once vehicle owners are enrolled, eV2g allows their cars to communicate with the grid and lets grid operators take power from connected EVs during time of peak energy use. EV owners can schedule in advance any times their vehicles need more charging than usual, as for a unusually long trip, and can specify what minimum level of charge they want to maintain at all times. eV2g collects payment from the grid operator and pays EV owners for making their vehicles available.
“The energy storage inherent in automobiles is staggering,” said David Weir, director of UD’s Office of Economic Innovation and Partnerships. “If all the automobiles in the US were electrified, it would be enough to power the entire US for half a day.”
Commercializing the EV-to-grid technology could enhance energy security, make it easier to bring renewables online and help to lower the cost of electricity, Weir added.
Electric grid operators rely on resources that can help provide or absorb short bursts of energy to keep the grid running smoothly, and parked and plugged-in EVs are ideal for helping to fill that role. Balancing the grid this way generates no additional emissions and can lead to a decrease in electricity costs over the long term by delaying or supplanting the need to build new generation facilities.

Source: GreenBang

mardi 27 septembre 2011

A different kind of disruption agent needed for energy


For lazy Sunday reading, I poured over Forbes fascinating article about Sean Parker, the ultimate of the web entrepreneur disruptors turned investor, of Napster, Facebook, Spotify and The Social Network fame (he was played by Justin Timberlake in the Aaron Sorkin movie). Last time I remember reading about Parker was late last year, when he told the New York Times: “It is not clear anyone will make money on their green-tech investing. It looks like it was a bubble.” Parker’s Forbes profile and his statement on greentech last year got me thinking: does the energy industry need more of these disruption-focused web-style innovators like Parker?
While the world needs more Parkers in general (for innovation and interestingness sake), I don’t think the energy industry will be disrupted as easily by these types of folks. Energy has fundamentally different parameters than web, and also often times needs to be built on top of the infrastructure already in place. The Forbes article points out how Parker excels at generating and propagating ideas that tend to dissolve the existing industries from which they emerge (think Napster and the music industry).
That’s one reason why Parker has so far been right in his statement last year that it’s not clear Silicon Valley will make any money from greentech investing. Here’s some of the reasons it’ll be a lot harder to disrupt energy:
Energy: Commoditization & science
Energy is a commodity: The same electricity emanates from your and your neighbor’s light bulbs regardless of if you are buying electricity from your utility, and your neighbor has shiny new solar panels on his roof. Electrons are electrons. Clean power will have to be commoditized to compete with fossil fuels, and solar panels themselves are quickly becoming a commodity product. You can see the coming solar commoditzation via the fall of Solyndra, which tried to innovate on solar panel design and manufacturing, as well as through the rapidly dropping price of solar cells in recent months.
Likewise liquid fuels are also mostly a commodity, too. Vehicle owners are looking for the cheapest price possible. Biofuels have so far failed to compete with the oil industry because of sheer cost and scale alone.
It’s very difficult to disrupt an industry that’s fundamentally built around a race to the bottom, and green companies are selling replacement products that are more expensive than their fossil fuel equivalents. Despite the IPOs of recent next-gen biofuel companies, none of these players are yet competing with oil companies in any way.
Green needs the help of the incumbents: In fact, it will be the traditional power companies and oil companies that could actually get the green products commercialized. Biofuel makers need the pipelines and economies of scale of the oil giants to reach low prices, and some have investments and support from BP, Chevron, Exxon, and refiner Valero. Even for clean power this is true — Total bought the majority of SunPower.
It’ll be about evolution, not revolution: Energy is too fundamental to society and economy to face such rapid change that happened for the Internet. Instead it will happen on the pace of decades, not months, and macroeconomic changes will be more disruptive than small startups. A spike in the price of oil and energy prices will do far more to promote green technologies than likely a Valley-backed startup.
Science needed: Major disruptions in cost will likely come from science breakthroughs, whether that’s for clean power, biofuels, or batteries that power electric cars or store energy for the power grid. A significant amount of this science R&D will come out of university labs, and government supported programs like ARPA-E. Not necessarily the stomping ground for web-hacker disruptors like Parker.
Exceptions: Cleanweb, Electric cars:
Yes, there are places were more hacker-style web disruption could be really useful — namely where the web meets energy. Longtime entrepreneur Sunil Paul calls this the CleanWeb — using mobile, social networks and web tools to deal with resource constraint. Because it actually is the web, the same web-rules about disruption and innovation apply. And that’s something Silicon Valley “gets” and can invest in.
Former web entrepreneurs like Match.com founder Gary Kremen (another Parker-style web serial founder) founded Clean Power Finance, which has found some success with its solar software and financing. Companies building analytics around big data and energy, like Opower, also seem to be doing well. Sean Parker actually has his own philanthropy-focused web project called Causes. VCs are increasingly focused on energy efficiency plays.
Another area that could provide more of an entrance for disruption could be electric cars. That’s because electric cars, if they catch on, aren’t necessarily commodity products (though, yes, their batteries are). Car buyers are willing to pay on a scale of prices for cars, depending on a variety of things like brand, style, size, and need. Former Internet entrepreneur Elon Musk has been tackling electric cars with Tesla, while former SAP exec Shai Agassi has been focused on a business around electric car infrastructure, Better Place.
Source: GigaOM

lundi 26 septembre 2011

Startup Japan: A Silicon Valley Entrepreneur Visits Onlab, A Young Japanese Incubator

Editor’s Note: This is a guest post by Brenden Mulligan, entrepreneur and creator of Onesheet, who is currently traveling around the world meeting startups with his wife and IDEO designer Elle Luna. You can follow him on Twitter here: @bmull.

Before coming to Japan, we asked everyone we knew for advice on how to connect with the startup community in Tokyo. Every recommendation pointed at the exact same place: Open Network Lab.
Open Network Lab (“Onlab”) is a Japanese startup incubator in the same vein as Y Combinator or TechStars. The incubator provides startups with mentorship, office space, and a small amount of cash in exchange for a piece of equity. This model is popular in the United States, and leading Japanese internet company Digital Garage (investors in Twitter, Path, and more) wanted to try it in Japan. Onlab is currently in its second year of operation has incubated three batches of startups. Even though it’s a young program, they are already making an noticeable impact on the Japanese startup community.
We spent our first hour talking with Hironori (Hiro) Maeda, the guy in charge of overseeing the incubator’s operations. Hiro grew up in Japan and attended an international school before going on to study computer science at Bucknell University. After college, he launched a startup of his own, and several years later was asked to return to Japan to help build and run Onlab as a way to move the Japanese entrepreneurial community forward.

But developing that community has its cultural challenges. “Launching a startup, where there is a lot of uncertainty and unsuitability, does not fit a culture where harmony and stability are strongly emphasized,” Hiro told us. “However, a lot of younger Japanese are realizing that the nation itself is at uncertainty. The employment rate of college graduates have reached the lowest point in the past decade and the Japanese earthquake has made the people in entire nation uncertain about their future. The uncertainty and the increasing interest of the success that Silicon Valley is experiencing has made more younger Japanese take bigger risks.”

This has led to a ton of interest in Onlab from both entrepreneurs and the general public. This interest doesn’t come without its hurdles, however. Even though the community is willing to take risks, Hiro says it’s just not quite ready to be as transparent as entrepreneurs in other parts of the world.
“Entrepreneurs in Japan haven’t realized the benefits of transparency and sharing information. People are afraid of sharing ideas and experiences — thinking that it is their only competitive advantage”, he said.

In more mature startup communities like Silicon Valley, entrepreneurs share their war stories on a regular basis. And they don’t hide their failures, but instead embrace them and try to help others avoid it. Hiro knows this, and is fostering the same type of communication with his startups: “We encourage failed entrepreneurs to move on to their next idea and hope that they will see their failure as an experience they can take advantage of for their next venture.”

Hiro also requires his startups to get together at least once a week to discuss ideas that have worked, tasks that they found challenging, and points in they’re development where they’re getting stuck. Although it doesn’t necessarily come naturally, it’s working. Hiro says these sessions are getting better and better and the entrepreneurs are seeing the value in openness and transparency.
And Japan is taking notice.

When we were there, national network Tokyo TV was spending the day filming the lab and talking to the startups. When they found out some people from Silicon Valley were visiting too, they asked us to sit down for an interview. Most of the questions were around whether or not Japan had the ability to compete with Silicon Valley and whether Onlab could work. Overall, my responses were that it was already working. People are learning about this community all over the world and Onlab has started to put the Japanese entrepreneurial community on the map.

We also spent a few hours talking to and mentoring the startups (listed below). Overall, the companies were on par with the types of startups you see in the Bay Area’s incubators. There was an impressive focus on design and user experience and most had well-fleshed out business models and quality prototypes. As a taste of what Onlab has been producing, here is a quick look at a few of the incubator’s current startups:
Giftee
Giftee has built a platform that allows people to send each other gift certificates for physical goods. They’re responding to the gifting trend, and already have deals in place with some major brands in Japan, including Muji.
FindJPN
FindJPN is the AirBnB for Japanese experiences. They focus on providing a marketplace for some of the best excisions, experiences, and events that tourists to Japan can easily purchase via their website.
ABCLoop
ABCLoop is building a language learning community that enables people help each other learn a foreign language in very short, direct interactions. The site gathers the lessons in Loops, which are conversations around a particular topic.
Pirka
Pirka has built a mobile app that inspires people to help pick up litter around them, by giving users a social network to post photos of what they’ve picked up. They’ve already recorded over 20,000 pieces of trash picked up in 20 countries.
Dressful
Dressful is building a social shopping network for working woman, where they are recommended new items by Dressful according to their taste profile and also by their friends through a mobile app.
Mieple
Mieple is building a new way to meet people through your social connections. Think about it as LinkedIn Introductions for the entire web.
Our advice: Pay attention to what Onlab is doing and expect to see it develop and inspire a new generation of Japanese entrepreneurs.

Source: Techcrunch

Les mobiles sécurisés Teorem sont livrés. Et pour Nicolas Sarkozy ?

La Direction générale de l'armement (DGA) vient d'indiquer avoir livré, le 7 septembre dernier, les 1 000 premiers téléphones Teorem. Produits par Thalès, ces téléphones portables sont censés être ultra-sécurisés. L'un d'entre eux devrait même être utilisé par le président de la République.

Thales Teorem
Depuis plusieurs années, le constructeur Thalès s'est allié à la Direction générale de l'armement, au secrétariat général de la défense et de la sécurité nationale (SGDSN) et à l'état-major des armées afin d'équiper les hautes autorités de l'Etat en mobiles sécurisés. Cette fois, le projet Teorem arrive à son terme puisque les premiers téléphones ont été délivrés.

La DGA précise que le Teorem doit permettre de« passer des communications claires et sécurisées jusqu'au niveau « secret défense », en France comme à l'étranger. Doté des dernières technologies, Teorem cumule les fonctions de téléphone mobile, téléphone fixe, et de modem chiffrant en le connectant à un ordinateur. Il fonctionne sur les réseaux de tous les opérateurs mobiles et sur les réseaux fixes, civils, interministériels et militaires ».

Précisément, cet appareil hybride téléphone fixe et mobile propose donc le chiffrement de la voix et des données tout en utilisant les réseaux 2G (GSM), GPRS, Edge ainsi que la 3G (UMTS).

Pour rappel, pour des motifs de sécurité, les services de sécurité avaient conseillé à Nicolas Sarkozy de se séparer de son BlackBerry dès son entrée à l'Elysée en 2007. Le chef de l'Etat devrait donc logiquement recevoir son propre Teorem. D'autant que plus de 14 000 exemplaires de ce téléphone ont déjà été commandés (la moitié d'entre eux seront destinés aux armées). 
 
Source: Clubic.com

vendredi 23 septembre 2011

Une centrale de biométhanisation unique à Moissac

Une centrale révolutionnaire située dans la commune méridionale de Moissac (Midi-Pyrénées) est capable de transformer des matières organiques biodégradables en biométhane et de convertir ce gaz en énergie électrique et thermique.

Source: Enerzine
Le spécialiste belge de l'énergie verte, GreenWatt, a dévoilé vendredi dernier la première unité française de biométhanisation décentralisée et fonctionnant uniquement avec du substrat de déchet de fruits et légumes. Ce fernier a conçu, livré et placé cette installation en collaboration avec Energie Bio Consult pour le compte du grossiste en fruits Boyer.

Le géant français de l'industrie agro-alimentaire produit environ 25.000 tonnes de fruits par an, dont 20.000 tonnes de melons de la marque Philibon. A la recherche d'une solution économiquement et écologiquement responsable permettant de valoriser ses surplus de déchets, Boyer a lancé il y a 11 ans des projets durables consistant à transformer ces détritus en compost et en aliments pour bétail. Ces méthodes qui ne suffisaient plus à traiter les énormes quantités de déchets, le maraîcher a donc choisi de se tourner vers le « Waste to Energy » de GreenWatt.

« Nous sommes particulièrement fiers d'être la première entreprise française à investir dans cette nouvelle forme d'énergie verte », déclare Claude Boyer, Fondateur de la SAS Boyer. « Le retour sur investissement de ce projet est d'ailleurs extraordinaire : alors que nous devions auparavant payer pour traiter nos 1.800 tonnes de déchets annuels, notre propre centrale de biométhanisation de 100 kW nous fournit désormais 1,7 MWh d'électricité - l'équivalent de la consommation annuelle de 150 familles, - 1,68 MWh de chaleur - l'équivalent de la consommation annuelle de 100 familles, - et 500 tonnes de compost. »

Boyer est ainsi en mesure de chauffer, éclairer et fournir de l'eau chaude aux habitations de ses travailleurs saisonniers alors que le restant de l'énergie est revendu à EDF. Par ailleurs, Boyer n'a désormais plus de frais de transport car l'installation de production combinée chaleur - électricité (PCCE) est installée sur le site de son usine.

« Nous sommes très heureux d'être à l'origine de ce projet pionnier sur le marché français », explique Philippe Mengal, CEO de GreenWatt. « Vu l'énorme potentiel de cette technologie en France - une des plus grandes économies agraires d'Europe, - nous venons de fonder "GreenWatt Ingenierie SAS" à Avignon, afin d'être encore plus proche et mieux servir le marché local. Il est en effet crucial que le secteur de l'agriculture et de l'alimentation prenne conscience de la valeur stratégique de ses déchets et du rôle bénéfique de la biométhanisation en matière de développement économique et durable ! »

La biométhanisation :

La biométhanisation est un procédé naturel de dégradation de matières organiques par des micro-organismes en l'absence d'oxygène, à l'abri de la lumière et dans des conditions bien spécifiques, que ce soit au niveau de la température ou du pH. Le biogaz ainsi produit est riche en méthane et peut donc, comme le gaz naturel, être brûlé pour produire de l'énergie dans un module de cogénération qui permet la production combinée d'électricité et de chaleur afin de maximiser le rendement global de l'installation.

La technologie développée par GreenWatt, dite en « deux étapes », se base sur le principe de séparation des différentes phases de la biométhanisation en deux cuves distinctes dans le but de pouvoir ajuster les paramètres de ces différentes réactions indépendamment l'une de l'autre. Cette innovation majeure permet d'accroître considérablement la robustesse, la fiabilité et la souplesse d'utilisation de l'unité de méthanisation.

Le cœur de la technologie GreenWatt se nomme FAD (Flushing Anaerobic Digestor). Il s'agit d'un design breveté de digesteur méthaniseur à haut rendement intégrant un dispositif de décolmatage et de renouvellement du biofilm.

Last but not least, le digesteur offre également une solution simple et efficace à l'épuration des eaux chargées en DCO (Demande Chimique en Oxygène) alors que les résidus végétaux résultant de la méthanisation sont eux, un engrais de qualité dont les propriétés varient suivant les végétaux digérés.

Energy Predictions for the Second Half of 2011

The economic downturn that started at the beginning of Q2 2011 has already started to affect the energy markets, including renewables.

While the sustainable industries experienced an upswing in private equity and M&A activity, spurred by spillover from deals that didn’t close during Q4 2010, the effects of depressed economic conditions were apparent in deal activity during Q2. North American cleantech investments totaled $1.42 billion over 113 deals during Q2 2011, a year-over-year decrease of total invested capital of 10 percent from Q2 2010, and a drop from Q1 2011 levels, which totaled $2.27 billion.

The other reason for the downturn is that Q2 2011 saw rotation in the sector as money left the capital-intensive biomaterials/biofuels and solar sectors and moved into the more capital-efficient energy sector. While the effects of the current economic downturn will be felt across all sustainable industries, we believe that this shift in investment activity will set the stage for growth and activity through the second half of 2011.

Energy efficient M&A will be the driving force behind what we anticipate will be a flurry of investment activity in the sustainable sector. Large managed energy service providers are facing increasing demand from their customers for real-time energy management, and they are actively looking to buy the technology and/or value-added services that they can deliver quickly to their large client base. The quickest way to satisfy the demand is through acquisition, thus mature, scalable energy efficiency technologies are set to become hot commodities. The Schneider Electric purchase of Summit Energy Services for $268 million (priced at approximately 4X revenue), is already driving competition among large managed service providers for the best energy efficiency technologies. Energy efficiency companies are likely to welcome this wave of suitors, as the barriers to entry into the market, both from a regulatory and sales perspective, are extremely high.

Solar power has also been a driving force in the sustainable sector through Q1 and Q2. The sector has a stronghold on market share as a percentage of renewable energy generation, and we expect it to continue to outperform wind and to garner an increasingly large share of the renewable energy mosaic. Solar continues to be driven by geographic location and local- and state-level incentives, and the growth rate of new installation continues.

Solar does not have the same environmental impact as wind farms, and is a more accessible technology. We believe that both utility-scale and distributed generation will see continued growth and investment activity through the second half of 2011.

New environmental concerns over the side effects of natural gas “fracking” will also drive investment activity toward sustainable, environmentally friendly initiatives. Many critics of the practice are concerned that natural gas fracking has serious negative environmental implications, and large natural gas drilling companies are starting to respond by testing and working to implement new types of technology. Investment in these technologies will be spurred by the promise of more environmentally sound technologies and practices across the industry.

Despite strong growth potential, we expect energy prices to decline in the second half of 2011 as the economy slows. Energy prices are economically sensitive, and prices will start to decline across all sectors, from traditional sources such as oil, to sustainable sources including wind and solar, as the effects of the economic downturn are felt. We believe that oil will come down to well under $100/barrel, and electricity usage will show a quarter-over-quarter decrease from Q2 to Q4.

The drop in energy prices is also likely to drive interest in new sustainable areas. While the world has long been focused on the scarcity of oil, as the price of oil comes down, water will become the new resource of concern. There are several factors contributing to this likely trend. As the world’s population approaches the seven billion mark, the potential for future water shortages looms greater. Additionally, energy resource harvesting practices, such as coal mining and natural gas fracking, have created significant water pollution in affected areas, further compounding the growing crisis of access to potable water.

In summary, we expect the following four themes to dominate the majority of activity in sustainable industries through the remainder of 2011, including:

- Resurgence of M&A activity driven by the energy efficiency sector
- Continued dominance of solar in the renewable energy mosaic
- Declining energy prices across all sectors as the economy returns to a downward cycle
- Greater investment and innovation in environmentally friendly technologies designed for traditional energy sources, such as natural gas.

There were 86 M&A transactions in Q2 2011, of which 31 deals were disclosed for a total of $13 billion. This deal total was down compared to 140 transactions totaling $15.2 billion in Q1 2011. While this quarter’s figures may on the surface represent a slowing of momentum in the M&A markets, we think the downward adjustment was more a function of the robustness of the Q1 2011 activity and that the Q2 2011 numbers indicate more of a steady state environment.

Source: GreenTechMedia

Des véhicules électriques sans conducteur à Heathrow

L’aéroport de Londres Heathrow a mis en place des véhicules de transport sans conducteur, appelés Personal Rapid Transit (PRT).
Personal Rapid Transit
Ces nouvelles voitures électriques autonomes à température contrôlée devraient transporter jusqu’à 500 000 passagers par an entre le Terminal 5 et les parkings. Elles permettront de remplacer 50 000 trajets de bus par année.
Les passagers pourront embarquer dedans à n’importe quelle heure et appuyer sur le bouton « Démarrer » (à l’inverse d’une navette qui effectue des rotations à intervalles réguliers). A chaque fois qu’ils seront à l’arrêt, ces Pods se rechargeront tout seuls en attendant le prochain déplacement (qui se fait à une vitesse de 40 km/h environ).
Fait intéressant : vous remarquerez que ces petites voitures n’avancent pas sur des rails mais sur une route fermée. Ca semble vraiment cool et ca n’est plus de la Science Fiction.
voiture electrique Heathrow
Galerie Photos du PRT :


jeudi 22 septembre 2011

Le m-commerce n'est pas dissociable du catalogue papier

pixlinQ propose de prendre en photo avec son téléphone une tenue présentée sur une publicité ou au sein d'un catalogue afin d'être redirigé sur un site sur lequel acheter lesdits vêtements.

Comment lier publicités et catalogues papier avec le web ? Par la reconnaissance d'images. LTU Technologies a développé pixlinQ, un module permettant d'ajouter des fonctions de reconnaissance d'images à n'importe quelle application mobile. Le logiciel détecte les formes et les nuances de couleur lorsque l'on prend une photo puis se connecte à une base de données particulière, afin de retrouver un produit dans le catalogue d'une marque par exemple. Les possibilités sont nombreuses. Il suffit par exemple de prendre une photo d'une page du catalogue papier La Redoute avec l'application dédiée, tournant grâce à pixlinQ, pour être automatiquement redirigé vers la fiche de l'article en question sur le site en ligne du vendeur et pouvoir ainsi le commander directement.

Une avancée dans la manière d'acheter sur Internet...

"Ce qui nous intéressait, c'était de réussir à établir un lien entre le réel et le virtuel, entre des supports physiques et numériques", explique à L'Atelier Gaël Ricard, responsable des ventes, à l'occasion du salon Ad Tech London. "A terme, nous espérons avoir suffisamment de partenaires pour qu'une simple photo vous permette d'aboutir à une sélection de produits similaires à ce que vous avez vu, vous indiquant où vous pourrez vous les procurer", poursuit le responsable. D'autres applications tournant sous pixlinQ sont également déjà disponibles comme celle de Codaly, permettant à partir d'une étiquette de bouteille de vin de retrouver des précisions sur ce dernier, des commentaires et des points de vente. A noter que le système est aussi dédié aux secteurs culturels et collaboratifs.

… mais pas seulement

"Certains musées proposent des fonctions basées sur notre technologie. Il n'y a plus aucune indication autour des tableaux, il faut le prendre en photo avec son smartphone et on obtient toutes les informations sur l'œuvre, l'artiste sur son téléphone portable", note Gaël Ricard. "De la même façon, nous avons des retours concluants sur des bêta tests concernant des essais sur la reconnaissance d'affiches ou de contenu vidéo". Ces tests visent à permettre de prendre la photo d'un poster de film ou d'une image de sa bande-annonce pour avoir directement sur son mobile le casting, les trailers voire le cinéma le plus proche dans lequel passe ce film en ce moment. pixlinQ peut également gagner des fonctions sociales grâce à une application développée par LTU, Lookhatup qui propose de prendre en photo tout ce qu'une personne souhaite puis de le rentrer dans une base de données dédiée en ajoutant sa propre description ou redirection vers des liens explicatifs ou correspondants. Le nombre d'images et d'objets reconnus augmentent ainsi chaque jour par le biais de n'importe quelle personne équipée d'un smartphone.

Source: L'Atelier

Immersive Labs lève 810 000 dollars [publicité à la Minority Report]

La startup new yorkaise Immersive Labs vient de recevoir 810 000 dollars supplémentaires de fonds d’investissement pour soutenir son développement (en plus des 38 000$ reçus cette année).

L’entreprise travaille sur un modèle de publicité intelligente comme celle que l’on peut voir dans le film Minority Report (vidéos ci-dessous).
Immersive Labs
Immersive Labs utilise un logiciel d’intelligence artificielle qui permet de présenter des publicités personnalisées aux personnes qui passent devant un écran publicitaire. La personnalisation du contenu présenté se fait grâce à une technologie de reconnaissance faciale utilisant des caméras, et qui détermine le genre de la personne qui passe, son âge, la direction de son regard, son attention et la distance à laquelle elle se situe.

Cette technologie de ciblage publicitaire a déjà montré une augmentation de 60% de l’attention des personnes qui y sont soumises, lors des premières phases de test. Et ca fonctionne aussi bien avec des cibles individuelles qu’avec des groupes de personnes.

Selon techcrunch, les premiers écrans pubs intelligents devraient entrer en fonction d’ici la fin de l’année à New York et Los Angeles.
Selon techcrunch, les premiers écrans pubs intelligents devraient entrer en fonction d’ici la fin de l’année à New York et Los Angeles.
pub minority report

Note: ce genre de technologie est déjà active à Tokyo depuis 2010.

Le produit de cette startup est directement inspiré du film Minority Report avec Tom Cruise. On le voit marcher dans un centre d’achat pendant que des pubs interactives ciblées lui sont présentées en temps réel :

Ici, encore plus poussé, le logiciel reconnaît le client lorsqu’il entre dans un magasin Gap :



Source: Vincent Abry

Un T-shirt pour améliorer les services hospitaliers

En intégrant des technologies de mesure aux vêtements des patients, il devient possible de s'enquérir en temps réel de leur état de santé, comme de parer rapidement aux éventuels troubles de ces derniers.

Au sein d'un hôpital, être informé en permanence sur l'état de santé d'une personne est un avantage non négligeable. En développant un t-shirt intelligent, des chercheurs de l'université Carlos III de Madrid proposent de rendre possible la chose. Grâce aux outils technologiques intégrés à celui-ci, il deviendrait ainsi possible de se tenir informé en temps réel sur la température des patients, leur activité physique, leur rythme cardiaque, et même leur localisation géographique... Autant de données essentielles qui permettent d'agir rapidement en cas de problème.

Obtenir en temps réel l'état de santé et la position des patients

Le t-shirt est en fait un concentré de technologies, qui inclut un thermomètre, des électrodes, ainsi qu'un Accéléromètre, qui permettent la mesure des informations vitales. Les chercheurs expliquent ainsi: "l'information collectée via le t-shirt intelligent est ensuite envoyée, via un système Wi-Fi, vers un centre de gestion des données. Celui-ci permet ensuite de consulter en temps réel aux signes vitaux et le lieu où se trouvent l'ensemble des patients de l'hôpital". Si les signes vitaux excèdent un certain seuil (100 battements par minute pour le cœur par exemple), une alarme se met en marche, permettant d'avertir les infirmiers du problème.

Un large panel d'application

Pour les chercheurs, le dispositif remplit avant tout un rôle médical. Et outre une utilisation au sein d'un hôpital, d'autres situations se prêtent bien à son application. Ainsi, en y apportant de légères modifications, il deviendrait possible par son biais de détecter les anomalies cardiaques des sportifs, ou de mettre en place une "télémédecine", qui éviterait aux patients un séjour trop long au sein des hôpitaux. A noter que des tests concluants ont déjà été menés au sein du corps médical. La généralisation du procédé pourrait donc se faire d'ici 2012.

Source: L'Atelier

lundi 19 septembre 2011

Les centres de données américains pourraient consommer 5 fois moins d'électricité

http://www.bulletins-electroniques.com/actualites/67686.htm
Les centres de données américains pourraient consommer 5 fois moins d'électricité par rapport à leur consommation actuelle : c'est un des résultats d'une nouvelle étude [1] publiée dans la revue "IEEE proceeding" début août par une équipe du Lawrence Berkeley National Laboratory (LBNL) associée à Jonathan Koomey, professeur à l'Université de Stanford et auteur de nombreux rapports sur la consommation électrique des centres de données.

L'étude présente un nouveau modèle mathématique pour mieux estimer la consommation électrique des centres de données américains et évaluer le potentiel d'économies réalisables dans ce domaine.

Une consommation électrique triplée en 10 ans

Alors que les centres de données deviennent des instruments indispensables pour l'économie américaine et mondiale, leur prolifération et la constante augmentation de leur consommation électrique soulève des inquiétudes. Celle-ci a plus que triplé entre 2000 (28,2TWh) [2] et 2010 (85,6TWh) [3] jusqu'à atteindre 2,2% de la consommation électrique totale des Etats-Unis. Cette consommation correspond au cinquième de la consommation électrique française annuelle et à la production annuelle de plus d'une dizaine de réacteurs nucléaires américains [4].

Une récente étude publiée par Jonathan Koomey précise toutefois que l'augmentation de la consommation électrique des centres de données sur la période 2005-2010 [5] est moins élevée que prévue - "seulement" +36%. Ceci est principalement dû à la crise économique que traverse les Etats-Unis depuis fin 2007.

Une prise de conscience récente

En 2007, le Congrès américain a commandé un rapport à l'Agence de Protection de l'Environnement (EPA) [6] visant à faire le point sur les tendances de consommation électrique des centres de données aux Etats-Unis, et les potentiels en termes de réduction. Réalisé par la même équipe du Lawrence Berkley National Laboratory, ce rapport a permis d'établir différents scénarios de l'évolution de la consommation des centres de données aux Etats-Unis (cf image ci-dessous). Le rapport propose également une liste de recommandations parmi lesquelles la conception d'outils de mesure des tendances du secteur fiables.

Comparaison des différents scénarios de l'évolution de la consommation électrique des centres de données aux Etats-Unis (2007)Crédits : Report to Congress on Server and Data Center Energy Efficiency - Public Law 109-431 - U.S. Environmental Protection Agency (EPA) ENERGY STAR Program

Des estimations plus précises grâce à un nouveau modèle

Cette nouvelle étude répond en partie à cette recommandation en introduisant un nouveau modèle mathématique de la consommation électrique des centres de données. Elle permet en outre d'améliorer la précision des estimations de consommation et des économies d'électricité potentiellement réalisables.

L'étude définit 5 types de centres de données distingués par leur taille et leur indice d'efficacité moyen (PUE - Power Usage Efficiency) ainsi que quatre variables dont dépend la consommation électrique d'un centre de données: consommation électrique des serveurs, équipements de stockage, équipements réseau et infrastructure. Ces variables ont été calculées pour chaque type de centre de données.

Les serveurs effectuent la majorité du travail utile représentent en moyenne la partie la plus importante de la consommation électrique d'un centre de données (entre 50 et 90%). 3 leviers ont été identifiés pour réduire leur consommation électrique:
- Utilisation de "matériel efficient" pour les serveurs (alimentation à haut rendement, mémoire vive plus économe, ventilateurs à vitesse variable, etc.)
- Utilisation de la modulation dynamique de la fréquence et de la tension des processeurs (comme les technologies "Cool'n Quiet" d'AMD ou "SpeedStep" d'Intel). L'image ci-dessous illustre l'effet d'une telle fonctionnalité sur la consommation électrique d'un serveur.
- Réduction du nombre physique de serveurs (principalement grâce au recours accru à la virtualisation des serveurs)

Relation entre taux de charge, consommation électrique et statut de la fonction de modulation dynamique de la fréquence et de la tension du processeurCrédits : Masanet, E., Brown, R.E., Shehabi, A., Koomey, J.G., and B. Nordman. "Estimating the Energy Use and Efficiency Potential of U.S. Data Centers". Proceedings of the IEEE, Aug 2011

L'intégration de nouvelles mesures d'amélioration de l'efficience énergétique - telles que la virtualisation des serveurs de moyenne gamme, l'amélioration de l'efficience des équipements de stockage ou l'achat de serveurs certifiés Energy Star - a permis d'affiner les estimations du potentiel d'économie par rapport à l'étude de 2007. Celle-ci avait estimé que le scénario le plus économe permettrait de réduire la consommation de 70%, contre 80% pour le nouveau modèle. Appliqué à la consommation des centres de données en 2008 (69TWh) - année retenue pour l'application de ce modèle - cela représente une économie potentielle de 56TWh, soit 4,4 Milliards de dollars (3,2 Milliards d'Euros).

Le découpage des économies potentielles permet de constater que celles-ci dépendent principalement de la réduction de la demande de consommation des serveurs, ce qui réduit indirectement celle de l'infrastructure qui les supporte (climatisation, alimentation électrique) en la sollicitant moins.

Contribution des mesures d'amélioration de l'efficience énergétique des centres de données aux économie d'électricité (en TWh)Crédits : Masanet, E., Brown, R.E., Shehabi, A., Koomey, J.G., and B. Nordman. "Estimating the Energy Use and Efficiency Potential of U.S. Data Centers". Proceedings of the IEEE, Aug 2011

Globalement, 70% des économies potentielles sont imputables aux serveurs : 31,1TWh d'économies directes (les serveurs eux-mêmes), auxquelles s'ajoutent 25,1TWh d'économies indirectes (l'infrastructure). Les économies d'énergie potentielles portant sur les équipements de stockage et réseaux représentent un peu moins de 10% du total, et légèrement plus de 10% pour celles portant sur l'infrastructure. Cependant, les auteurs de l'étude précisent que ce découpage n'est qu'une moyenne obtenue après plusieurs simulations s'appliquant aux différents types de centres de données, durant lesquelles les mesures visant à économiser de l'énergie ont été ordonnées de manières différente. L'impact qu'auront ces mesures pourrait donc être différent en fonction des installations.

Néanmoins, les auteurs soulignent que si la proportion des économies attribuées à l'infrastructure peut paraitre faible, c'est parce que son importance relative baisse lorsque l'efficience énergétique des serveurs s'améliore. Ces derniers ajoutent qu'il est à l'heure actuelle possible de faire des économies d'énergie significatives en agissant sur l'infrastructure à l'aide de mesures simples telles qu'un meilleur réglage du système de refroidissement ou d'une meilleure gestion des flux d'air.

Une étude limitée

Les auteurs déplorent une faiblesse au niveau de la qualité et de la quantité des données. Celles-ci sont encore insuffisantes en ce qui concerne les équipements de stockage et de réseaux. La plupart des données concernant les mesures d'économie d'énergie au sein des centres de données sont exprimées de manière relative, par rapport à la consommation électrique actuelle au lieu d'un indicateur objectif comme le "KWh par unité de calcul". Les auteurs estiment qu'il reste encore beaucoup de chemin à parcourir avant que ce type d'indicateur parvienne à s'imposer.



ORIGINE : BE Etats-Unis numéro 259 (16/09/2011) - Ambassade de France aux Etats-Unis / ADIT - http://www.bulletins-electroniques.com/actualites/67686.htm


- [2] Koomey, Jonathan. 2008 : Worldwide electricity used in data centers :http://iopscience.iop.org/1748-9326/3/3/034008/
- [3] Koomey, Jonathan. 2011. Growth in Data center electricity use 2005 to 2010. Oakland, CA: Analytics Press. August 1 2011 :http://www.analyticspress.com/datacenters.html
- [5] "L'augmentation de la consommation électrique des centres de données ralentit" - BE Etats Unis 256 : http://www.bulletins-electroniques.com/actualites/67508.htm


mercredi 14 septembre 2011

La voiture reconfigurable est attentive à son conducteur

Ford propose à ses clients de suggérer des améliorations à apporter à leur véhicule, tant du point de vue de l'équipement que des logiciels. Les projets réalisables peuvent ensuite être mis au point et distribués. 
Une voiture en kit et personnalisable ? Ford est parti de ce constat pour mettre en place, en partenariat avec Bug Labs, un fournisseur en open source de matériels et de logiciels, un projet de véhicule reconfigurable. Celui-ci repose d'abord sur une plate-forme open source en ligne, nommée Open XC, et sur laquelle les consommateurs peuvent proposer des améliorations à la fois pour les équipements et les applications du véhicule. Ensuite, à partir des remarques, mais aussi via leur propre initiative, des développeurs pourront mettre au point applications et systèmes dédiés. Venkatesh Prasad, manager technique chez Ford Innovations, explique ainsi: "OpenXC  est une plate-forme qui a vocation à être totalement accessible à la communauté des développeurs, et qui intègre très rapidement les demandes du marché, afin de produire des solutions innovantes à de prix abordables".

Proposer des améliorations en ligne pour ensuite les incorporer au véhicule
Depuis l'interface audio jusqu'aux systèmes de sécurité, tout ce qui compose la voiture peut-être sujet à modification. Les ingénieurs de Ford analysent ensuite les améliorations proposées via la plate-forme, jugeant par là-même de leurs faisabilités. Dans le cas où celle-ci s'avère effective, la pièce est produite par Bug Labs. Dès lors, le consommateur n'a plus qu'à se rendre à un point de vente pour acquérir ces add-on, et à les incorporer à la voiture qu'il possède. Soulignons que le véhicule a été évidemment conçu à cet effet, c’est-à-dire que le changement des composants est facilité. Au final, l'on se retrouve avec une voiture entièrement personnalisable, tant du point de vue des fonctions que des applications.

Améliorer les capacités du véhicule en employant les autres utilisateurs
A terme, Ford souhaite même développer des applications personnalisables, qui favorisent les interactions entre conducteurs, sans même avoir à recourir au concepteur. L'entreprise a ainsi présenté une application permettant de gérer sa conduite afin d'économiser du carburant. Grâce à une mise en réseau des véhicules possédant le dispositif, celle-ci permet d'identifier celui dont la consommation est la moins élevée. Dès lors, il est possible de calquer la configuration du moniteur de ce dernier, afin de limiter au maximum sa propre consommation. Pour information, le projet a été dévoilé lors du TechCrunch Disrupt, à San Francisco.

Source: L'Atelier

New Levi’s jeans are designed for urban cyclists

It’s been interesting to watch the parade of innovations that have emerged to support the rise of bicycling worldwide, and recently we spotted yet another one. Combining elements from two concepts we’ve already seen — Reflective Lace for nighttime safety and the wearable Hiplok for security and portability — the new Commuter series from Levi’s offers jeans that are designed specifically with urban cyclists in mind.

Built around the popular Levi’s 511 Skinny Jean for men, the 511 Commuter jean features fabric and construction upgrades for increased mobility and durability while also protecting cyclists from the potential hazards of their daily commute. Two lengths are available — one full-length and one cropped — as are both denim and non-denim fabrics. Much more interesting, however, is the garment’s NanoSphere-treated fabric for improved durability and resistance to both dirt and water — technology conceived through a partnership with Swiss Schoeller Technologies AG. Levi’s also consulted with textile specialty firm Clariant for invisible protection against odors, while 3M Scotchlite subtly integrates 300,000 candle watt reflectivity into key areas of the jean for increased visibility in the dark. Then, too, there’s a touch of added stretch, a raised back yolk to minimize lower back gap and a reinforced crotch gusset that protects against ripping. The finishing touch is a utility waist band can store the wearer’s bicycle U-lock. Also included in the Commuter series is a cycling-adapted version of the classic Levi’s Trucker Jacket. The 511 Commuter jean retails for USD 78, while the Commuter Trucker Jacket is priced at USD 128.

Launched in July, the Commuter series is available online, through select independent bike shops in major metro cities, and at select Urban Outfitters and Levi’s Stores. Urban, cycling-minded retailers around the globe: how about you?

Website: www.levi.com/commuter

Source: Springwise

La visualisation 3D à domicile tient aussi à une simple feuille de papie

Reality Touch permet de représenter un élément de mobilier dans un univers réel sur une tablette. Il suffit de poser une feuille à l'endroit de la pièce où l'on souhaite voir s'afficher l'objet.



Afin de simplifier l'affichage d'objets en réalité augmentée dans les secteurs du e-commerce ou de l'urbanisme, Idées-3COM a mis au point un programme (Reality Touch) permettant de visualiser la représentation en 3D d'un élément de mobilier dans un univers réel à travers une tablette. L'intérêt du système, c'est qu'il suffit de disposer de l'application et d'une feuille de papier pour en profiter : l'utilisateur doit télécharger le module sur sa tablette. Il doit ensuite prendre une feuille, sur laquelle se trouve un logo ou un dessin, et enregistrer ce dernier, qui sera ensuite reconnu par l'application comme le marqueur de référence.

Des modèles 3D dynamiques

Il faut ensuite se rendre sur une boutique en ligne partenaire pour sélectionner l'objet de son choix en 3D. Puis lancer l'application."Grâce à la caméra de votre tablette, le programme repère la position du marqueur et met à sa place le meuble sélectionné à l'échelle 1/1 dans l'environnement", explique à L'Atelier Hakim Hadrouj, ingénieur d'affaires chez Idées-3COM. Le marqueur peut ensuite être déplacé à loisir. Le programme gère aussi l'orientation mais aussi l'impact de la lumière, suivant le matériau de l'objet (verre, bois, cuir…). Une version est en développement sur smartphone.

Du e-commerce à l'urbanisme et l'immobilier

"La résolution sera différente du fait de l'écart des tailles entre les écrans de tablettes et de téléphones, mais les fonctionnalités resteront absolument identiques", précise encore Hakim Hadrouj. A noter que l'entreprise française réfléchit également à des usages dans l'urbanisme et l'immobilier. "On pourrait par exemple survoler un terrain en friches, télécharger le modèle d'un bâtiment puis le voir s'afficher en 3D sur votre écran", déclare Hakim Hadrouj. Un bon moyen pour évaluer immédiatement l'impact d'une construction sur le paysage et ainsi aider architectes et éventuels investisseurs. A noter qu'Idées-3COM est actuellement présente sur le salon E-Commerce.

Source: L'Atelier

On cigarette packages, QR codes reveal a nearby place to smoke

Ronhill, a part of Adris Group’s TDR, worked with agency Bruketa&Žinic OM to create what it says is the world’s first interactive cigarette packaging. Specifically, included on the packaging for its Ronhill Unlimited line is a QR code. Smartphone users simply scan that code with their phone’s camera to get to a regional mobile website featuring a map showing not only the user’s current location but also places nearby where smoking is allowed. Users can also update the list of such places themselves.

Also this summer, Bruketa&Žinic OM added a QR code to Ronhill’s seasonal “Sailing” line, linking this time to a site with local information and an up-to-date list of events. Brands large and small: how could a splash of technology make your packaging more useful and interactive?

Website: www.tdr.hr/unlimited/HR/index.html

Source: Springwise

mardi 13 septembre 2011

Le concept de ville intelligente s'affine et se concrétise

L'accroissement de la population, notamment urbaine et les problématiques environnementales accélèrent les investissements en technologies dédiées à mettre au point les fameuses "smart cities".

Alors qu'en 2010, 8,1 milliards de dollars ont été dépensé pour la création de technologies dédiées aux villes intelligentes, ce chiffre devrait passer à 39,5 milliards de dollars en 2016. Ces données sont révélées par une étude d'ABI Research, qui compile une centaine de projets de villes intelligentes à travers le monde. La plupart des initiatives référencées prenant place en Europe (38), Amérique du Nord (35) et Asie (21). Pour Joshua Flood, Senior Analyst chez ABI Research, ce phénomène s'explique facilement. "Il devient critique pour les villes de se développer intelligemment pour répondre aux besoins de leurs citoyens et des entreprises", explique-t-il à L'Atelier. La raison en est simple : "Plus de 50% de la population mondiale habitent dans des villes. Selon les Nations Unies, d'ici à 2050, il y aura 2,2 milliards de personnes en plus sur la planète (on passerait de 6,9 à 9,1 milliards d'habitants)", note-t-il.

Un besoin motivé par une population urbaine grandissante

Et d'ajouter : "Dans le même temps, les deux tiers de la population mondiale résideront en zone urbaine (3,4 à 6,3 milliards). ". Si la priorité de ces projets était jusqu'ici la constitution de réseaux intelligents, les dépenses des cinq prochaines années devraient s'orienter vers des moyens de transport et d'administration automatisés (e-ID...) mais également vers des solutions pour préserver l'écosystème. Plusieurs modèles existent en termes de villes intelligentes. L'étude s'attarde sur Holyoke dans le Massachusetts, une ancienne cité agricole, frappée par la crise. Financée par Cisco, la ville prévoit une refonte totale de son cœur urbain : un nouveau terminal de transports, des buildings multi-usages visant à améliorer les services en matière d'éducation, de santé et d'économie afin de rapatrier en centre ville des populations exilées dans les banlieues.

Différentes formes de villes intelligentes

Le but étant de créer un modèle pour toutes les villes au profil semblable aux Etats-Unis. De son côté, Amsterdam a pris le chemin d'un projet environnemental, en partenariat avec des sociétés d'innovations et d'opérateurs réseaux hollandaises. En s'associant étroitement avec les citoyens, les entreprises et les pouvoirs publics, la ville a mis en place des mesures écologiques visant à diminuer sa production en CO2 de 40% d'ici à 2015. Le dispositif s'appuie principalement sur des stations électriques pour les voitures et les bateaux permettant de se passer de l'essence, l'installation de panneaux solaires pour se connecter à Internet ou encore le lancement d'études sur l'environnement dans les universités locales.

Source: L'Atelier

Le Quantified Self Experiment, l'avenir de la science ?

Genomera a développé une plate-forme de capture et analyse de ses données personnelles, qui permet de mener des expériences scientifiques en crowdsourcing. Un modèle qui ouvre de nouvelles portes à la recherche scientifique et médicale.

Nous avons aujourd’hui accès à un nombre considérable de technologies de qualité permettant à chacun de mesurer et de récolter des données relatives à sa santé ou à ses performances physiques et psychiques. Grâce à un simple iPhone, n’importe qui peut mesurer son pouls, suivre ses cycles de sommeil ou calculer le nombre de calories brûlées sur un parcours à vélo. Les technologies de « self-tracking » (accéléromètres, GPS, biométrie), permettent donc à chacun d'amasser des données qui constituent son « Quantified Self » ou notre « Moi Quantifié ». Depuis plusieurs années, de nombreux praticiens du Quantified Self mènent ainsi sur eux-mêmes des expériences pour apprendre à mieux se connaître. Seth Roberts par exemple, professeur Emérite à l'Université de Berkley, a mené une expérience pour étudier la corrélation entre sa consommation de beurre et ses performances en mathématiques. L’accumulation de ces données est entrain de devenir une ressource de plus en plus intéressante pour les Instituts de recherche scientifiques ou médicaux.

Genomera, une plateforme de Quantified Self

A San Francisco, Genomera a développé une plate-forme qui vise à développer le Quantified Self à une échelle plus large. La plate-forme permet de mener des Quantified Self Experiments de façon collective. L’idée est de mettre en contact les gens pratiquant le Quantified Self pour mener des expériences à plus grande échelle. La plate-forme permet à n’importe qui de poster une idée d’expérience, un postulat scientifique ou médical, et de solliciter la communauté Genomera pour mener ensemble une Quantified Self Experiment. Les résultats ensuite mis en commun permettent de valider ou de réfuter le postulat de départ. En clair, il s’agit de Science crowdsourcée.

Un nouveau modèle pour la recherche?

Si pour le moment le Quantified Self reste un mouvement encore relativement marginal, il attire de plus en plus l’attention de la recherche et de l’industrie pharmaceutique. Les données collectées grâce au crowdsourcing constituent un puits de ressource d’une richesse inestimable pour la science ou la médecine. Plus encore, Genomera a sans doute donné naissance à une forme nouvelle d’expérience scientifique : l’expérience crowdsourcée, qui  pourrait bien révolutionner la recherche.

Ici la vidéo du TEDTalk de Genomera à TEDxSoMa.

Source: L'Atelier

La marche à pied rechargera bien son portable

En convertissant l'énergie mécanique engendrée par toute activité physique en électricité, il devient possible d'alimenter téléphones portables ou lecteurs MP3 en marchant simplement.

Les initiatives pour recharger un appareil électronique en utilisant l'énergie d'une personne qui marche sont pléthores. Si l'université de Duke avait proposé de son côté un système basé sur la piézoélectricité, Tom Krupenkin et J. Ashley Taylor, chercheurs à l'université de Wisconsin-Madison, ont mis au point une technologie qui porte le nom de "reverse electrowetting". Le dispositif est en fait une sorte de batterie multi-usages, qui peut être couplée avec un grand nombre d'appareils électroniques. Le principe est le suivant. Lorsque la personne effectue une activité physique, l'énergie mécanique, qui en temps normal se dissiperait en chaleur, est collectée par le biais d'un fluide constitué de mini-gouttelettes en interaction avec un substrat spécifique.

Convertir l'énergie humaine en électricité

Le phénomène permet de convertir l'énergie mécanique en énergie électrique. Comme le précise Krupenkin, "Les humains constituent des sources d'énergie extrêmement puissantes". D'un point de vue pratique, l'énergie collectée peut être employée de deux manières distinctes. En l'utilisant directement, il est possible de faire fonctionner un large panel d'appareils électroniques, allant du smartphone au GPS. L'autre application consiste à alimenter une sorte de relais Wi-Fi. Celui-ci permet à un portable d'accéder au réseau sans avoir à activer ses propres fonctions Wi-Fi. D'après les chercheurs, "cette dernière application pourrait multiplier le temps de vie de votre batterie par 10".

Un principe aux applications multiples, et aux potentialités très fortes

Pour les développeurs du système, celui-ci pourra se révéler extrêmement utile dans les pays en développement, où les coûts de rechargement des portables sont souvent très élevés. De même, un emploi militaire n'est pas à exclure, dans la mesure où il autoriserait une réduction drastique de la quantité de batterie généralement indispensable à la réalisation de missions. En conclusion, et même si le système n'a pas vocation à remplacer l'ensemble des batteries actuelles, les chercheurs restent optimistes. Ils concluent ainsi: "Outre le produit mis au point, le principe physique mis en évidence présente un potentiel écologique énorme extrêmement important".

Source: L'Atelier

vendredi 9 septembre 2011

The Advanced Smart Grid: Integrated energy storage, virtual power plants, and micro-grids


Electrical energy storage at utility scale remains both the Holy Grail for electric industry redesign and one of the most vexing energy technology challenges. Storage applications may include:

•Peak shaving (load leveling) systems to help commercial and industrial users manage electricity costs under variable utility tariffs and to help utilities manage generating assets to minimize waste.
•Renewable integration systems to help power producers, utilities, and end-users cope with the inherent variability of wind and solar power, transforming it into firm, dispatchable power, and to better match peak wind and solar output with peak demand.
•Power quality systems to protect commercial and industrial users from interruptions that cost an estimated $75 billion to $200 billion per year in lost time, lost commerce, and damage to equipment.
•Transmission and distribution support systems to help utilities reduce grid congestion, defer upgrades, and minimize waste.
Because utilities still depend on spinning reserve and other supply-side strategies to ensure reliability -- and even conduct long-term planning based on the assumption that energy storage will not be viable in the foreseeable future -- adding energy storage into the system will significantly disrupt the current energy ecosystem. Implementing an advanced smart grid will help utilities to develop a vision based on the potential of affordable energy storage, where they will move from R&D to active trials of various technologies in different parts of their service territory.

The use of energy storage does not need to cause any loss of comfort or convenience, but rather to accept some minor sharing of the resource in a collective strategy to pull in a new resource that has never existed before. An advanced smart grid will enable solutions that leverage distributed energy resources, tapping into some that haven’t yet been conceived. Integration with other assets, including distributed generation, demand response, electric vehicles (EVs), virtual power plants (VPPs), micro-grids, and utility-side smart grid technologies will be vital to maximizing the value of each individual new resource, but also of the collective advanced smart grid. With a network and smart grid optimization engine, all these distributed elements can be optimized and their potential realized.

Challenges in creating a utility energy storage program from a strategic perspective will include not only energy storage integration, but also designing the system and prioritizing energy storage locations. Energy storage is likely to be located where there is congestion on the grid.

The role of energy storage in a disaster recovery situation will need to be considered. Energy storage will be valuable in restoration of electricity service after a massive outage. Prioritizing distributed generation and energy storage for disaster shelters will buy utilities time, since there will be a minimal amount of power assured in those spots in the case of a prolonged outage. Co-location of distributed generation (DG) and energy storage (ES) with disaster shelters supports utility goals in a disaster recovery plan.

VPPs describe a demand-side alternative to accommodate growth in peak demand to the traditional supply-side alternative of adding a natural gas power plant, commonly referred to as a peaking unit or a peaker.

At the micro level, VPPs require technology to be refined at the scale of a single distribution feeder or neighborhood.

At the macro level, integrating a VPP system to the grid will require the ability to manage new levels of complexity in remote sensing, control, and dispatch. Integration of the complex VPP systems will require the utility control center to be able to “see” the status and availability of such distributed capacity. The complexity of system dispatch with these types of resources will require automated decision-making to signal a direct load curtailment condition to DR resources to make optimal use of these new resources and integrate into the larger system portfolio.

New control software now available in the market is designed to enable utilities to manage the numerous and complex dispatch requirements of such distributed energy resources as VPPs. Intelligent edge devices such as smart meters, smart routers, and smart inverters are now capable of communicating their operational status, calculating the ramifications of their actions on their surrounding environment, and making decisions to change their state in real time so that the network becomes self-healing and self-adapting. Autonomous, edge-based decision-making maintains safe energy flows, minimizes service disruptions, and, perhaps most importantly, helps to avoid catastrophic damage. Such a distributed network of smart devices connected to VPPs will provide them the intelligence they need to create new demand action capabilities that integrate new edge-based resources seamlessly with the advanced smart grid.

VPPs and micro-grids represent an emerging resource and application of creative bundling of multiple technologies. New concepts and thinking about how a grid works will be needed for these approaches to take hold.

For instance, while initial adopters of these solutions may have off-grid operations in mind (which we call Step 1 or “disconnect”), the actual realization of these concepts will be difficult. Step 2 could be called “independent operation,” and it will borrow from our knowledge of how we operate the grid today. Step 3 is likely to concern resource islanding, with a focus on “reconnection for reliability.” Step 4, which we could call “replacement,” will finally be realized as NFTE is implemented as policy.

As VPPs and micro-grids mature, they will become the LANs and WANs in the Smart Grid 3.0 world, connected by an energy internet and offering new levels of independence and interdependence that we have barely contemplated today.

• Where the early grid developers embraced access to cheap, plentiful fossil fuels like coal, petroleum, and natural gas, building ever larger, more efficient coal-fired power plants, today we’re challenged to avoid the carbon that results from burning fossil fuels.

• Where grid resources on the supply side expanded to meet a growing population and increasing use of electricity, today we’re challenged to involve consumers to avoid peak load by making better use of existing and new types of distributed energy resources.

• Where production and distribution of electricity were central to planning and building the grid, today we also focus on our built infrastructure to use energy more efficiently and to better understand energy consumption behavior patterns.

• Using cost plus ratemaking to establish revenue targets for regulated utilities, the keystone of the twentieth-century “regulatory compact” that allowed monopoly franchises is giving way today to considerations of ecosystem impacts, decoupling, and more frequent true-ups to meet the needs of society and a variety of stakeholders in a more dynamic environment.

• When information used to be scarce and expensive, utilities devised ingenious, artful methods to plan and operate the complex grid, but in today’s environment of abundant, low-cost information, we are challenged to add sensors to gather ever more data, and then use data analytics to plan, operate, and manage complexity.

• Late in the twentieth century, retail competition showed faltering progress and potential, and while markets still have a prominent role to play, in the twenty-first century communities out on the edge will leverage social networking, smart mobile devices, and other lessons learned from the internet to identify and deliver greater value.

• Finally, where automated meter reading (AMR) evolved into advanced metering infrastructure (AMI) and led the charge to deliver a smart grid, in the twenty-first century we will need a more expansive definition of smart grid, based on a new smart grid architecture to incorporate edge power by design, which we call the advanced smart grid.

Source : GreenTechMedia
Excerpt from The Advanced Smart Grid: Edge Power Driving Sustainability by Andres Carvallo and John Cooper.