lundi 31 août 2009

Le flirt digital est en pleine forme en Corée

Le dernier site web coréen dont tout le monde parle s’appelle Afreeca.com. Il s’agit d’un site de partage en ligne de video, tel que Youtube, sur lequel se développent depuis quelques temps des pratiques lucratives de "flirt digital".

En échange d’une monnaie virtuelle appelée « star ballon », les garçons dépensent de vrais Wons (1 700 wons = 1 Euro) pour flirter à travers leur écran avec des jeunes coréennes.

Selon une récente analyse publiée dans le journal OhMyNews, ces sud-coréennes ne sont pas des professionnelles du secteur mais dansent, chantent et peuvent vous laisser entrevoir un décolleté si vous êtes prêts à y laisser une fortune (plus de 300 euros par session).

Une fois une quantité suffisante de « star ballon » collectée, il est possible de les revendre à Afreeca.com en échange de vrais Wons cette fois si.

En se filmant grâce aux mobiles vidéo, certaines d’entre elles sont connectées 24h sur 24h, 7j/7 et gagnent des millions de Wons en vendant leurs atouts aux voyeurs coréens.

Eve Kim, une coréenne devenue célèbre suite à ses exploits sur Afreeca.com a réussi à financer sa nouvelle maison en collectant plus de 630 millions de Wons (353 000 Euros environ) en à peine quelques mois grâce à l’ouverture de son compte sur Afreeca.com.

Afreeca.com est finalement gagnant sur les deux tableaux :
- En vendant des milliers de « star ballon » aux voyeurs coréens en échange d’une vraie monnaie.
- En gardant une importante commission lors de l’échange de ces « star ballon » en monnaie coréenne.

Source: L'Atelier Asie

L'habitation comprend le comportement de ses hôtes

Les personnes âgées sont sujettes à des trous de mémoire qui peuvent gâter leur quotidien. Un système intelligent analyse leurs actions et leur rappelle les oublis éventuels.

L’un des maux les moins acceptables de la vieillesse concerne la dépendance accrue qu’elle provoque tôt ou tard. Un système intelligent se propose de réduire cette dépendance en parant aux éventuels trous de mémoire que connaissent quotidiennement bon nombre de personnes âgées. Une équipe de chercheurs de l’université de Grenade ont en effet mis au point un système intelligent qui rappelle aux seniors les petites actions qu’ils auraient pu négliger. Comme oublier leurs clés ou omettre de prendre leurs médicaments, par exemple. Le système utilise des senseurs répartis dans le domicile qui repèrent leurs actions et des appareils mobiles qui servent à communiquer avec la personne si le besoin s’en fait sentir.

Marqueurs radio et Intelligence Artificielle

Le système reconnaît les actions quotidiennes à l’aide de puces RFID*. Ces étiquettes sont directement placées sur les objets que les habitants concernés touchent le plus souvent, de manière à ce qu’un signal soit envoyé lors de chaque contact à un ordinateur ou à un appareil mobile. Celui-ci pourra être situé directement dans la maison ou dans un centre d’assistance un peu plus loin. Des techniques d’Intelligence Artificielle sont utilisées pour évaluer les activités des individus et les établir des liens logiques comme se rappeler de prendre son téléphone ou ses clés avant de sortir. Ces techniques concernent l’exploration de données ou la grammaire générative.

Un système non intrusif

Il n’est donc pas nécessaire d’utiliser de caméras ou de microphones. « C’est un prototype qui permet, de manière non intrusive, de faciliter le contrôle des personnes avec des besoins spécifiques et d’accroître leur indépendance », explique le docteur María Ros Izquierdo, coauteur de l’étude. De même, le système n’induit aucune complication d’ordre technologique pour les sujets concernés. En fait leur quotidien ne se trouve que très peu affecté par la mise en place du système, si ce n’est par les bénéfices qu’il peut apporter. Ces bénéfice sont particulièrement ressentis par les personnes qui accompagnent les personnes dépendantes en les déchargeant de l’essentiel de ces rappels routiniers.

Source: L'Atelier

La mobilité dans l'assistance automobile

Chez Mini, l'assistance auto passe aussi par les smartphones

Le constructeur Mini met à disposition une application mobile d'assistance pour les conducteurs. Ce service accélère et facilite la transmission d'informations concernant les incidents techniques.

Publié le 27 Aout 2009
Voiture Mini

En cas de panne ou d’accident, l’accès à un dépannage plus rapide est désormais possible via les smartphones grâce à une initiative d'All State Roadside Service en collaboration avec Mini USA. Disponible sur iPhone et BlackBerry, le dispositif facilite considérablement la prise en charge d’un véhicule en mettant en relation le conducteur avec différents services routiers. L’application utilise la géolocalisation pour situer rapidement l’automobile défectueuse. Le propriétaire doit au préalable enregistrer dans son mobile les informations essentielles relatives à sa voiture.

Un accès direct et simplifié

Sont concernées des données comme la fiche technique du véhicule, son immatriculation, une adresse et éventuellement quelques photos. Au moment de l’incident, le conducteur peut émettre une analyse exhaustive du problème technique rencontré et le cibler en choisissant parmi plusieurs catégories de services directement sur son smartphone : pneu, batterie, électronique de bord, etc. Un premier tri de l’information qui a le mérite d’écourter l’attente et le temps passé au téléphone avec les services en question. L’application attribue par la suite un numéro de référence à l’usager.

Le début d’une grande expansion

Et elle donne aussi une estimation de l’heure d’arrivée de l’assistance sur les lieux. Enfin, elle dirige le conducteur vers le standard réservé au service clientèle. L’application est téléchargeable soit en utilisant iTunes depuis son ordinateur, soit directement depuis un iPhone. Quant à la version Blackberry, elle se télécharge depuis un lien. Le service est gratuit pour les propriétaires de Mini (des modèles 2004 jusqu’aux plus récents) tant que le véhicule reste sous garantie. Néanmoins il reste compatible mais payant avec les autres marques. Par ailleurs, le groupe Allstate Roadside Services travaille avec d’autres fabricants afin d’élargir davantage sa mise en circulation.

SOURCE : Atelier

vendredi 28 août 2009

Nissan présente une voiture électrique rechargeable sans contact

Nissan a dévoilé fin juillet 2009 son nouveau système pour recharger sans contact des batteries de voitures électriques lorsque celles-ci sont en stationnement dans des parkings spécialement aménagés. Le modèle de démonstration était une Hypermini électrique. Le système a été développé en collaboration avec la société Showa Aircraft Industry Co Ltd.

Le principe, simple, utilise l'induction électromagnétique entre deux bobines. La circulation d'un courant dans la bobine émettrice crée un champ magnétique qui induit un courant dans la bobine réceptrice située sous le châssis de la voiture. Le modèle présenté a une puissance de 10 kW mais la compagnie prévoit de développer un modèle de 3 kW pour les particuliers. Nissan annonce une commercialisation du système en 2010. Vous trouverez un schéma en anglais du dispositif à l'adresse suivante :
http://redirectix.bulletins-electroniques.com/a2sfP

A l'avenir, la compagnie espère développer un système qui fonctionne avec un haut rendement même en cas de décalage des deux bobines l'une par rapport à l'autre dans un plan horizontal. La marge d'erreur d'alignement tolérable serait de 10 cm.

Nissan envisage la création de voies d'autoroutes dédiées aux voitures électriques, équipées de plaques situées sous le revêtement, permettant aux conducteurs de recharger leur véhicule tout en continuant de rouler. Le développement d'un tel projet nécessite d'embarquer des batteries qui puissent être rechargées très rapidement. La solution pourrait venir des super condensateurs. La compagnie semble d'ailleurs s'intéresser à ceux fournis par la société ukrainienne APowerCap.

Pour rappel, la NEDO [1] avait présenté début 2009 un autre projet de recharge sans contact de voiture électrique [2]. Sons système utilisait un magnétron pour envoyer des micro-ondes (2,45 GHz) au véhicule, qui étaient ensuite reconverties en énergie électriques.

[1] NEDO (Organisation pour le Développement des Energies Nouvelles et des Technologies Industrielles) : agence gouvernementale de financement de la recherche.

Source : ADIT, 28/08/09


Nokia lance son service financier sur mobile en 2010

Pour utiliser le téléphone comme carte de paiement ou titre de transport, le groupe finlandais lance Nokia Money. Effectuer des paiements depuis son portable sera désormais aussi simple qu'en envoyer un SMS.

Nokia logo

Le constructeur européen vient de lancer Nokia Money. Ce nouveau bouquet de services est censé faciliter la gestion d'opérations bancaires via un portable. La nouvelle offre ne se contente pas de rendre possible l'achat via mobile de biens ou de services auprès de boutiques classiques. Il devrait également être possible de recharger des cartes et de régler ses factures. Le finlandais a aussi pris la peine de proposer une fonction de transfert d'argent entre utilisateurs. Un marché qui s'annonce très lucratif quand on songe aux sommes envoyées d'Europe ou des USA vers les pays émergents.

Un marché peu exploité

Car sur quatre billions d’utilisateurs de téléphones portables, ce n'est qu'un quart seulement de comptes bancaires qui sont ouverts. Les pays émergents sont évidemment la cible première du groupe, mais pas seulement. Les services seront aussi destinés aux populations urbaines et rurales des pays développés. Selon le groupe, les utilisateurs ruraux pourront ainsi économiser sur les frais de déplacement et leur temps. Et les habitants des villes, plus habitués aux services en ligne, pourront commander via leurs téléphones les billets de cinéma ou ceux de train.

Un nouveau écosystème pour les payements mobiles

Nokia va créer un vaste réseau d'agents, chez qui les utilisateurs disposeront de comptes qu'ils pourront débiter et créditer via leurs mobiles."Le marché de services financiers sur mobile représente une forte demande à long terme", précise Mary McDowell, vice présidente exécutive de Nokia. Le service est proposé en association avec le spécialiste du transfert d'argent sur mobile Obopay. Un des volontés de Nokia est de créer un service interopérable avec d'autres plate-formes de services mobiles. La sortie de Money s'étalera sur le début de l'année 2010.

Source: L'Atelier

jeudi 27 août 2009

Les réseaux intelligents : une priorité gouvernementale pour l'économie d'énergie

La consultation de la consommation électrique, qui fait déjà partie du quotidien de nombreuses entreprises, demeure encore inconnue de la plupart des foyers privés. Cependant, grâce au "Smart Meter", un compteur numérique intelligent, les consommateurs privés peuvent à présent consulter leur consommation sur un ordinateur en temps réel et ainsi dépister les appareils dévoreurs d'électricité de façon à les utiliser avec parcimonie.

Deux réglementations issues du dernier amendement de la loi d'économie d'énergie (loi EnWG [1]) doivent soutenir le développement des nouvelles technologies d'économie d'électricité ainsi qu'assurer une relève pour les vieux compteurs rotatifs : d'une part, la mise en place de compteurs d'électricité intelligents numériques sera obligatoire à partir de 2010 dans tout nouveau bâtiment ou bâtiment entièrement rénové ; d'autre part, les fournisseurs d'électricité doivent proposer à leurs clients d'ici 2011 des mesures d'incitation avec des tarifs dépendants de l'heure et de la durée de la consommation.

Avec ces mesures, le Gouvernement fédéral ne cherche pas seulement à encourager les économies d'énergie : le réseau électrique allemand doit, à l'aide des nouveaux compteurs d'électricité, se préparer à une révolution feutrée sur le marché énergétique : une tendance à s'éloigner de la production d'électricité centrale, continue, dans les grandes centrales thermiques, pour se tourner vers une production d'électricité décentralisée, fluctuante, à l'aide d'installations locales solaires ou éoliennes. Le Gouvernement fédéral a déjà lancé en 2007, afin de préparer ce changement structurel, un "projet phare national", nommé "E-Energy" [2]. Son objectif consiste à faire coïncider, grâce à Internet et aux moyens de communication modernes, la production d'énergie volatile, dépendante des conditions météorologiques, avec une consommation à haute efficacité énergétique.

Le milieu politique réagit également à l'entrée en scène d'un nouvel acteur sur le marché énergétique : le "prosommateur" ("Prosumer" en anglais). Ce néologisme décrit un consommateur produisant également de l'électricité, par exemple grâce à une installation photovoltaïque domestique sur son toit ou à une installation de cogénération [3] dans sa cave. Ce n'est qu'à l'aide de compteurs d'électricité digitaux, lisibles facilement et à distance, qu'il semble possible de faire coïncider la diversité future des petits centres d'alimentation du réseau avec les besoins élevés des grands consommateurs d'électricité. Le développement des véhicules électriques qui s'annonce en Allemagne, qui peuvent également servir de réservoir d'électricité mobile à l'avenir en injectant ou prélevant de l'énergie sur le réseau, rend urgent le développement d'un "réseau intelligent" (ou Smart grid, [4]).

Ainsi, dans le cadre du programme de l'E-Energy, le gouvernement soutient la région modèle de Cuxhaven avec son projet "eTelligence". Plus de 50% de l'énergie de la région côtière provient en effet d'installations renouvelables : éoliennes des polders [5] en Mer du Nord (dans le Schleswig-Holstein) et installations photovoltaïques et de biogaz dans les environs ruraux.

Etant donné que cette offre d'éco-électricité fluctue énormément et est parfois superflue, le groupe producteur EWE tente de "stocker" l'énergie excédentaire autrement, à l'aide de techniques de régulation modernes : même les piscines de Cuxhaven peuvent servir par exemple de réservoirs d'énergie, et selon le besoin il est possible de les alimenter ou d'en retirer de l'énergie.

Si les grandes entreprises énergétiques et de nombreux services techniques municipaux ont démarré des installations tests avec de nouveaux compteurs électriques économiseurs ou en proposent à leurs clients à échelle locale, actuellement seul le fournisseur d'électricité Yello Strom [6] met à disposition à l'échelle fédérale des compteurs avec un tarif d'épargne selon les créneaux temporels à faible charge. Les compteurs d'électricité intelligents aident ainsi à rendre la consommation d'énergie plus transparente et à économiser des coûts électriques.

- [3] Installation de cogénération : installation de production combinée de chaleur et d'énergie électrique

- [4] Le Smart Grid est un réseau de distribution d'électricité utilisant des technologies informatiques pour optimiser la distribution entre les producteurs et les consommateurs, en doublant le réseau physique de transmission de l'électricité par les lignes haute-tension d'un réseau "virtuel" d'information. Ceci devrait permettre d'éviter les pics de consommation et les pannes dues à une surcharge. Les Smart Grids prévoient aussi d'inclure des dispositifs de stockage de l'électricité (batteries, volants d'inertie, super-condensateurs, etc...) et permettront l'intégration des énergies renouvelables intermittentes telles que l'éolien ou le solaire, ou encore le déploiement de véhicules électriques.

- [5] Un polder est une étendue artificielle de terre dont le niveau est inférieur à celui de la mer.

Source : ADIT

mercredi 26 août 2009

China plans 500-megawatt solar plant

Canadian Solar has been granted rights to develop a 500-megawatt solar power plant in Baotou, Inner Mongolia, China, the company announced Wednesday.

Baotou is a manufacturing city on the Yellow River in Inner Mongolia with a population of over 2 million, according to the Chinese government's official Baotou Web site.

Canadian Solar's agreement is with the Administration Committee of Baotou National Rare-Earth Hi-Tech Industrial Development Zone, also known as its Chinese abbreviation "CPT." The signed agreement includes rights "to design, install, operate, and maintain" the solar power plant in Baotou.

"To have a solar project of such magnitude in Baotou demonstrates our determination to develop the PV end-user market in China, as well as our commitment to cleaner and more sustainable economic development in Baotou," Fu Ren, the committee's director, said in a statement released to the U.S. press.

Canadian Solar, while founded in Canada, has subsidiaries based in China that already manufacture both solar cells and solar panel systems among other things. The Baotou solar project, subject to regulatory approval, will develop in three stages.

Stage one will include the installation of 100 megawatts of photovoltaics between September 2009 and December 2011, followed by two more development phases, each including 200-megawatt installations.

While the installation is massive, this is not the first of its kind. In October 2008, the U.S. Army announced plans to build a 500-megawatt solar thermal power farm in Fort Irwin, Calif. in an effort to reduce its annual energy costs.

And the newly formed Solar Trust was also recently granted rights to to develop the construction and installation of two or three 242-megawatt solar power plants for California that would be operational by 2013 or 2014.

Baotou, a city in Inner Mongolia, China, is about 12 hours northwest of Beijing by train.

Source : CNET, August 26, 2009

Une alternative au stockage de l'électricité

L'électricité est conservée d'ordinaire sous forme d'énergie chimique. C'est le cas, par exemple, des piles que l'on utilise dans les lampes de poche ou les téléphones portables, ou bien encore des batteries de voitures. On utilise également dans la vie quotidienne des accumulateurs de chaleur : l'énergie peut être, ainsi, conservée dans des thermos, des bouillottes ou de gros poêles de campagne. Il serait très commode et très avantageux de pouvoir stocker de l'électricité dans des accumulateurs de chaleur de ce type. Des chercheurs de l'Université d'Etat de Petrozavodsk, en coopération avec une compagnie énergétique privée, s'emploient à concrétiser cette idée.


Comme matériau accumulateur de chaleur, ils utilisent du chlorure de talc naturel, dont on trouve des gisements en Carélie et en Finlande. Ce minéral est également appelé pierre ollaire ("pierre de vase") ou stéatite. Il possède une capacité de stockage thermique élevée (2,5 fois supérieure à celle des briques servant pour les poêles). Autrefois, le chlorure de talc, une pierre facilement taillable, servait à réaliser non seulement des poêles pour se chauffer, mais aussi des vases et même des poêles à frire. Le chlorure de talc s'est formé par carbonisation (absorption du gaz carbonique) à partir de roches volcaniques, ce qui lui confère ces qualités tout à fait inhabituelles.

Les chercheurs de Petrozavodsk tentent actuellement d'associer des accumulateurs de chaleur au chlorure de talc à des éoliennes. L'énergie du vent n'est en effet pas utilisée de manière optimale, car il ne souffle pas en permanence. Lorsque l'éolienne tourne à grande vitesse, mais que la consommation est faible, il faut envoyer l'énergie produite dans une résistance ballast, ce qui fait que de l'énergie thermique se dissipe inutilement dans l'atmosphère. Si cette énergie pouvait être dirigée vers du chlorure de talc, le rendement des éoliennes pourrait augmenter de 40%.

Un problème analogue se pose avec les centrales nucléaires. La nuit, la consommation industrielle et domestique d'électricité baisse. Or, il n'est pas facile de diminuer la production des centrales nucléaires. Une des solutions consiste à construire des sortes d'anti-centrales hydrauliques - la nuit, à l'aide de pompes alimentées par le courant de la centrale, on fait remonter de l'eau dans un réservoir situé plus haut afin que le jour, l'eau, en tombant, puisse fournir de l'énergie hydraulique. Mais de tels réservoirs occupent une énorme superficie, alors que les accumulateurs thermiques sont des plus compacts.

Les travaux des chercheurs de Carélie sont soutenus par l'Agence russe de l'énergie nucléaire, Rosatom, ce qui en dit long sur les perspectives qui s'ouvrent devant eux. L'énergie de demain pourrait fort bien être partiellement stockée dans des "réservoirs" de chlorure de talc.

Source : ADIT

OneApp : Microsoft lance un App Store pour simples téléphones mobiles

Contre toute attente, Microsoft a officialisé la sortie d'un nouveau service mobile baptisé OneApp, utilisable sur des téléphones de toutes marques dotés de différents systèmes internes.

Si jusqu'à présent le géant américain des logiciels privilégiait son système Windows Mobile, d'autant plus que sa version 6.5 sera lancée dans près d'un mois, Microsoft veut donc élargir son spectre d'activité en s'attaquant désormais aux « features phones ». A savoir des téléphones mobiles classiques qui ne sont pas forcément dotés de fonctions multimédia.

Surfant sur la vague des « App Store », le « One App » de Microsoft a pour ambition de proposer une plateforme unifiée de téléchargement de programmes tiers à des mobiles Nokia (smartphones S60 y compris), Samsung (U900 Soul) ou Sony Ericsson (C902, K610, W595, W980). Il s'agit plus précisément d'un logiciel occupant 150 Ko d'espace qui est capable de référencer des applications, de les télécharger par les airs et de les installer sur le mobile. Windows Live Messenger, Facebook, Weather, Stocks ou Reader (lecteur RSS) seront des logiciels proposés dès le lancement du service.

Côté disponibilité, « OneApp » est déjà proposé en téléchargement en Afrique du Sud, Microsoft annonçant qu'il sera disponible « dans de plus nombreux pays » à partir de l'année prochaine. Un kit de développement dédié exploitant les langages Javascript et XML sera mis à disposition des programmeurs en fin d'année. Reste à savoir comment Microsoft entend développer à la fois son « Windows Market Place », le kiosque de programmes intégré dans ses smartphones Windows Mobile, et son « OneApp » pour les « feature phones ».

Source: By Alexandre Habian, Neteco

Les résultats du moteur Wolfram Alpha bientôt sur Bing ?

Microsoft devrait fournir sur Bing les résultats d'un autre moteur de recherche, Wolfram Alpha. Selon "Techcrunch", les deux parties auraient signé cet été un accord en ce sens après de longues discussions. Wolfram Alpha est un moteur de recherche créé par le scientifique britannique Stephen Wolfram et lancé en mai 2009.

Wolfram Alpha : naissance d'un moteur de recherche encyclopédique





En projet depuis plusieurs années, le moteur de recherche Internet en langage naturel à l'initiative du chercheur britannique Stephen Wolfram a été lancé le 16 mai 2009 à 3h00 du matin.

Suite à la diffusion d'une vidéo de présentation une semaine avant son lancement, Wolfram Alpha alimentait la chronique depuis déjà plusieurs jours. Comme annoncé, le moteur a été lancé le 16 mai à 3h00 du matin. Créé par le scientifique britannique Stephen Wolfram, il est le fruit d'un long travail de recherche.

Stephen Wolfram est un spécialiste de la modélisation connu pour avoir développé un logiciel de calcul formel, baptisé Mathematica, sur lequel son moteur s'adosse directement. Persuadé que toute connaissance peut être modélisée, ce chercheur s'est basé sur des algorithmes mathématiques combinés à de l'analyse sémantique pour concevoir sa plate-forme Web.

Avec ce moteur, Stephen Wolfram entend concrétiser un vieux mythe : proposer un moteur de recherche capable de comprendre une question posée en langage naturel par l'internaute, en vue de lui apporter la réponse la plus pertinente possible. A la différence de Google, Wolfram Alpha n'apporte pas de liens, mais calcule et publie directement la réponse à la question posée, à partir d'une base de connaissances.

Ainsi, à la requête "Barack Oboma birth day" (Barack Oboma date de naissance), le moteur apporte la bonne réponse : le 4 août 1961. Autre exemple : à la requête "France kids population" (population d'enfants en France), le moteur publie 11,89 millions de personnes, en précisant qu'il s'agit d'une estimation de 2008. En fonction des questions, le moteur fournit par ailleurs des graphiques pour enrichir les réponses en termes de tendances (démographiques ou économiques par exemple).

Reste que Wolfram Alpha ne couvre pas toutes les thématiques (voir un ensemble d'exemples de sujet couverts par thématiques). Avec un effectif de quelque 150 personnes, Wolfram Alpha promet de compléter sa base de connaissances dans les mois et les années qui viennent.

Source: JDNet

mardi 25 août 2009

WiMAX’s Future Is in Emerging Markets

WiMAX, the wireless broadband technology that is vying with Long Term Evolution to become the standard for the next generation of higher-speed wireless networks, draws either delight or derision, depending on whom you ask — its champions or detractors.

When some analyst firm reports that WiMAX is on its way to signing up 70 million subscribers by 2013, we’re ready to believe the technology is finally ready to come into its own. But then another influential analyst firm raises questions about its future . And it doesn’t help when one of its leading proponents, Clearwire, reports a mixed bag of earnings and shows slower-than-expected sign-ups during the second quarter of 2009 — a mere 12,000 subscribers vs. Wall Street’s expectations of between 20,000 and 30,000. And this gives LTE proponents such as Ericsson Chief Technology Officer Hakan Eriksson a perfect opportunity to dismiss WiMAX as not really 4G.

I imagine that, like all hotly contested topics, the reality is somewhere between these two extremes. And that, essentially, was my takeaway from a short, but to-the-point, conversation last week with Dr. Mohammad Shakouri, acting president of the WiMAX Forum, who bristled at Ericsson’s denial of WiMAX as a 4G wireless technology.

“I think that the Ericsson CTO is missing the mark,” Shakouri said. The reason “why WiMAX momentum is scaring them so much is that the business of broadband is not the same as voice, and they are losing monopoly of the cellular voice network business.”

“In reality, there is not standardization of 4G, and the ITU (International Telecommunication Union) is working on the standard,” he said. “The phrase 4G has been loosely used as meaning broadband, wideband and higher capacity. So any technology including WiMAX can be applied to it.” WiMAX promoters always point to the fact that the technology has the ability to provide more wireless bandwidth, especially because there is more spectrum available for it.

While it is hard for people to perceive, in emerging, fast-growing telecom economies such as Brazil, India, Indonesia and Russia, WiMAX is going to be thriving, Shakouri said. When I asked him why it’s taken so long for the technology to get off the ground, he explained that it has taken awhile to get the right spectrum — 2.3GHz, 2.5GHz and 3.5GHz — allocated for WiMAX services across the planet.

The initial WiMAX services are starting to get rolled out in places such as South Korea and Japan. In the United States, Shakouri pointed to Clearwire, which is being backed and promoted by Sprint and cable companies such as Comcast and Time Warner Cable.

“WiMAX is less adapted in Western Europe,” he said, explaining why companies like Ericsson are quick to dismiss the technology. “We are seeing great success in terms of spectrum allocation and deployment in developing economies.” In some of the emerging markets, voice-over-WiMAX is being viewed as the killer application, but eventually, WiMAX will be used to deliver multimedia and higher bandwidth.

If you look at the growth in telecom, it’s all coming from emerging markets, and many of the companies, including the incumbents in emerging economies, are betting on WiMAX, Shakouri argued. An option being weighed by telecoms in emerging markets is a combination of WiMAX and GSM. In Russia, for instance, HTC sells a WiMAX phone that has traditional 2G wireless technologies. WiMAX is used exclusively for multimedia and broadband on this device, a strategy that could become popular in other markets.

When it comes to LTE and WiMAX, Eriksson told me, “In the end it will be about the economies of scale,” and just like GSM, LTE will win because it will have those economies of scale. When I asked Shakouri about the economies of scale, he pointed out 40 different vendors that are making WiMAX devices in addition to embedded chips for laptops and other on-the-go gadgets. In Russia, more laptops use WiMAX than 3G. “The progress has been made,” Shakouri said, pointing out that around 2012 or 2013 LTE and WiMAX will be running neck and neck.

Either way, this battle of competing wireless technologies is going to hog our attention for many years to come. As far as I’m concerned, like most consumers, I want something that is fast, affordable and reliable — who cares which flavor of the technology gives me that?

Source: By Om Malik, Gigaom

Go Sport fait appel à la réalité augmentée en ligne

L'enseigne d'articles de sport Go Sport lance un dispositif de "réalité augmentée" (système rendant possible la superposition d'un modèle virtuel 3D à un objet réel) pour promouvoir des produits dans ses catalogues papier. Dans la dernière édition de son catalogue, l'enseigne propose à ses clients et prospects d'interagir avec une chaussure de sport munie d'une roulette sous la semelle. A l'aide de son catalogue papier et d'une webcam, l'internaute se connecte sur le site Go-sport.com et fait apparaître, grâce à un plug-in à télécharger, une modélisation en trois dimensions de la chaussure sur le catalogue. La chaussure en 3D bouge en fonction des mouvements du catalogue papier.

Un parcours est ensuite proposé à l'internaute qui peu faire rouler la chaussure et éviter des obstacles. Cette campagne, imaginée par l'Agence H, repose sur la technologie de Total Immersion, récompensé début 2009 par un e-Marketing Award (lire le dossier Le palmarès des e-Marketing Awards 2009, du 28/01/2009).

Source: JDNet

Alibaba déshabille un peu plus Yahoo! China

Le groupe chinois, qui gère le portail local de Yahoo!, opère une réorganisation qui devrait affaiblir un peu plus la marque américaine en Chine.

Le groupe Internet chinois Alibaba, qui gère la version locale de Yahoo! a annoncé vendredi 21 août son intention de sortir le service de petites annonces communautaires Koubei.com du giron de Yahoo! China (auquel il avait été fusionné en 2008) pour l'intégrer à sa propre plate-forme de e-commerce C-to-C, Taobao.com. Une décision qui pourrait encore affaiblir la position de Yahoo! en Chine et refroidir un peu plus les relations entre les deux groupes, selon le "Wall Street Journal".

Dans le cadre de cette réorganisation, une centaine d'employés de Yahoo! China travaillant pour Koubei.com (soit la moitié des effectifs du site) aurait décidé de quitter l'entreprise plutôt que d'intégrer le siège d'Alibaba à Hangzhou, selon le site 163.com. Ni Yahoo, ni Alibaba n'ont commenté cette décision. Dans un e-mail à ses employés, le PDG d'Alibaba, Jack Ma s'est contenté d'indiquer que l'intégration de Koubei.com servira à soutenir la croissance de Taobao.com.

Depuis 2005, c'est Alibaba qui gère le portail de Yahoo en Chine. En échange de quoi, le groupe américain a pris 39 % du capital du chinois (lire le dossier Comment le chinois Alibaba est devenu le cinquième acteur du Web mondial, du 12/11/2007). Mais depuis, la version chinoise de Yahoo! n'a cessé de perdre des parts du marché chinois de la recherche, pour arriver selon Analysys International à 6 %, loin derrière Google (29 %) et Baidu (62 %). Une situation d'autant plus délicate que Yahoo! a été l'un des premiers groupes occidentaux à investir l'Internet chinois en 1999.

En visite aux Etats-Unis en mars dernier, le PDG d'Alibaba avait multiplié les rencontres avec des patrons américains pour se renforcer aux USA. Il en avait également profité pour s'entretenir avec Carol Bartz, la patronne de Yahoo!. Selon le "Wall Street Journal", cette dernière lui aurait fait part de son mécontentement quant à la façon dont Alibaba gère la marque Yahoo! en Chine.

Interrogé sur ses relations avec Yahoo!, Jack Ma s'était à l'époque contenté d'affirmer que le groupe américain n'a pas son mot à dire dans la façon dont Alibaba gère Yahoo! China. "Je fais les choses comme je l'entends. Je n'écoute pas Yahoo!", avait-t-il affirmé à l'agence Reuters. Avant d'ajouter : "s'ils (Yahoo!, ndlr) restent, très bien. S'ils partent, tant mieux. C'est ainsi que nous faisons des affaires."

Source: JDNet

lundi 24 août 2009

Glass = Android + VoIP + tactile + Saas

L'éditeur californien, vient de mettre au point un système de téléphonie sur IP pour entreprises. Rien de bien neuf, à la différence que Glass concentre une bonne dose des technologies et fonctions qui passionnent le milieu high-tech. Pour commencer, les fonctions proposées ont été bâties sur Android, le système d'exploitation mobile open source de Google. Ces fonctions sont accessible depuis un écran tactile 8 pouces. Le produit se connecte au réseau de l'entreprise en filaire, mais dispose de Bluetooth.

Un téléphone de bureau du 21 siècle

En standard, Glass vient avec une fonction de partage d'écran. Une pression sur un bouton l'active et une image actualisée de l'écran est chargée sur une URL protégée par mot de passe. Une messagerie vocale visuelle est au rendez-vous, ainsi qu'une fonction pour convertir ces messages audio en texte, et la possibilité de composser un numéro par commande vocale. Est également prévu l'intégration avec les outils de gestion de la relation client (GRC ou CRM) de Salesforce.com. Moins Software As A Service (Saas) mais tout autant nécessaire, il est aussi possible de relier Glass à Outlook.

Une téléphonie intelligente

Classiquement, le fournisseur a publié ses interfaces de programmation (API), afin d'autoriser des partenaires d'ajouter des applications. "Glass intègre des outils professionnels avec une téléphonie IP, se réjouit David McMorrow, le PDG de Cloud Telecomputers. Ensemble, ils vont amener le téléphone de bureau au 21 siècle", Le produit Glass est compatible a- la certification est en cours – avec les autocommutateurs (IPBX) d'Asterix et deTribox où les plate-formes de VoIP de BroadSoft et de MetaSwitch. Le logiciel sortira sur le marché début 2010. Le prix qui oscillera aux alentours de 450 euro - selon les paramètres et la configuration choisis.

Source: L'atelier

Les API de Twitter s'ouvrent à la gélocalisation

Biz Stone, le cofondateur de Twitter, vient d'annoncer l'arrivée prochaine d'une nouvelle fonctionnalité qui permettra d'identifier chaque message posté sur le réseau en fonction des coordonnées géographiques de son émetteur. Grâce au couple latitude / longitude, il sera donc possible de suivre et de rechercher les fameux tweets à partir de leur lieu d'émission.

Idéal pour voir qui parmi ses contacts se situe à proximité, si tant est que les utilisateurs activent l'option correspondante. Dans la mesure où ces informations sont archivées et partagées, la géolocalisation reste soumise à l'approbation de chacun, sur le mode de l'opt-in. Dans un premier temps, seuls les développeurs d'applications tirant parti de Twitter pourront profiter de cette fonctionnalité. Elle sera ensuite implémentée sur le site Twitter.com, ainsi que sur sa déclinaison mobile, précise Biz Stone.

Reste à voir comment les applications à vocation sociale, ainsi que les clients dédiés à Twitter, tireront parti des possibilités induites par la géolocalisation. A l'heure où de nombreux yeux se tournent vers Twitter et son audience en constante croissance pour tenter d'en tirer des chiffres, l'introduction de cette nouvelle dimension devrait encore renforcer l'attrait que suscite le service.

Source: Neteco, Alexandre Laurent

Marmara se lance dans le covoiturage

Marmara vient de lancer un service gratuit proposant à ses utilisateurs de faire du covoiturage pour se rendre à l'aéroport (Marmara.covoiturage.fr). Le site, développé en marque blanche par le spécialiste Covoiturage.fr, a été configuré avec la liste des 15 aéroports utilisés par le tour opérateur. Il s'accompagne par ailleurs d'un service cartographique permettant d'effectuer des recherches de trajet.

Source: JDNet

Note: Allez regarder le joli succès de Covoiturage.Fr . Concept intéressant et qui prend bien.

vendredi 21 août 2009

Droits d'auteur et Internet ?

Ceci n’est pas une licence globale
par Astrid Girardeau

Favorable à la licence globale, Jacques Attali réagit sur les différentes réflexions actuelles à propos du financement de la culture.
Quinze ans après l’essor du web, et dix ans après la création de Napster, les industries culturelles commencent timidement à adopter une nouvelle approche vis-à-vis du téléchargement de fichiers protégés par le droit d’auteur, et plus généralement d’Internet. Pas de révolution idéologique ou de volonté réelle de comprendre les nouveaux usages et besoins des consommateurs. Simplement, elles ont fini par réaliser que le tout répressif ne marche pas (en France, la loi Dadvsi de 2006 n’a jamais été appliquée, et la loi Hadopi est globalement considérée comme inefficace avant même sa mise en œuvre). Malgré les technologies existantes de surveillance ou de filtrage, la plupart ont compris qu’il était impossible de tout contrôler. Se demandant du coup comment récupérer une partie de cette manne financière qui leur échappe.

C’est là qu’intervient la fameuse licence globale. A l’origine, il s’agit d’une autorisation donnée aux internautes d’accéder et d’échanger librement des fichiers dans un cadre non commercial. Ceci en contrepartie d’une rémunération payée via l’abonnement au fournisseur d’accès Internet (FAI), puis reversée aux ayants droits. Déjà présente dans le projet de loi Dadvsi de 2005, l’idée suscita de houleux débats — la Sacem, la SACD mais aussi certains socialistes y sont hostiles — avant d’être rejetée par les députés. En octobre dernier, Philippe Aigrain, informaticien et co-fondateur de la Quadrature du Net a affiné le concept, notamment les mécanismes de collecte et de répartition des sommes perçues, sous le terme de contribution créative.

Mais, depuis quelques temps, l’expression « licence globale » est réutilisée pour qualifier tout ce qui ressemble de près ou de loin à une taxe ou à un abonnement payés par les FAI et/ou les internautes. Méfiez-vous des contrefaçons ! alerte d’ailleurs la Quadrature du Net.

La rentrée devrait être marquée par la suite et fin ( ?) de la saga Hadopi, avec le vote du volet Sanctions autour du 14 septembre. Mais aussi par la tenue de plusieurs tables rondes autour de la création à l’ère d’Internet. Telles les Assises de la création du numérique de la plate-forme Création Public Internet, les Etats-généraux de la création à l’âge numérique souhaités par les socialistes, ou encore le fameux Grenelle du financement artistique voulu par le ministre Frédéric Mitterrand. Et la Quadrature d’indiquer : « alors qu’ils refusaient de discuter des financements mutualisés, cela fait des années que les penseurs patentés des industries culturelles ont conçu un scénario qui les fait rêver : une taxe sur les fournisseurs d’accès sans reconnaissance des droits pour les internautes ». L’organisation, qui milite pour une gouvernance démocratique et transparente de la répartition des sommes collectées, prévient : « si vous entendez parler de taxes sur les profits des FAI, de plateformes de téléchargement autorisées, méfiez-vous. »

C’est justement l’idée avancée par Laurent Petitgirard, ex-président du Conseil d’administration de la Sacem. Dans une récente interview au magazine du Conseil Général des Haut-de-Seine, il évoque une Licence Musique. « Il ne s’agirait évidemment pas de légaliser l’échange sauvage de fichiers via le peer-to-peer, mais de fournir une licence qui donnerait accès à des sites de téléchargement correspondant aux différents fournisseurs d’accès et fournis en fichiers sains par les producteurs, où l’abonné pourrait télécharger toutes les œuvres qu’il voudrait ». Avec dix-huit millions d’abonnés au haut débit en France, on arriverait à près d’1,3 milliard d’euros par an, calcule Laurent Petitgirard. Soit près du double des perceptions de la Sacem en 2008.

Pour une taxe obligatoire de six euros par mois « partagés par l’internaute et son fournisseur d’accès » l’abonné aura accès au site officiel de téléchargement de fichiers musicaux de son FAI. A quels catalogues ? Quid des artistes non-enregistrés à la Sacem (par exemple sous licence libre) ? Et de tous les contenus autres que la musique (films, jeux vidéos, etc.) ? On est donc loin, très loin du concept et la philosophie de la contribution créative.

Pas très étonnant finalement. En avril dernier, dans une interview à Resmusica, le compositeur disait rejeter « les idées de licence globale » qui, selon lui, « bafouent le droit exclusif ». Et si, jusque dans nos forums, il insiste qu’il s’exprime à titre personnel, l’idée était déjà publiquement avancée, en juin 2008, avec Bernard Miyet, président du directoire de la Sacem, comme plan B à (l’échec de) la loi Hadopi. Ils évoquaient alors ainsi la mise en place des sites dédiés au téléchargement légal, où la Sacem rémunérait les artistes à partir du décompte des titres téléchargés. « Bien entendu, la Sacem ne monte pas encore trop ouvertement sur ce terrain puisque cela reviendrait à s’opposer frontalement à l’Hadopi et donc à Nicolas Sarkozy. Mais parions dès à présent que les assises dévoilées par Frédéric Mitterrand seront le terreau parfait pour planter cette graine-là » analyse Marc Rees sur PC Inpact.

Malgré une certaine caricature : anti-Hadopi = pro-licence globale et vice-versa, et à côté des oppositions politiciennes (la licence globale ayant été soutenu par la gauche), on trouve quelques réfractaires à l’idée de licence.

« Nous allons inaugurer une nouvelle race de réseau, qui d’infrastructures essentielles au service de tous va devenir un réseau de distribution de biens « culturels » autorisés, au profit de quelques uns écrit ainsi Jean-Michel Planche, sur son blog. Allant plus loin, Laurent Chemla y voit l’expression d’une « sacrée hypocrisie qui sous-tend tout ce débat », qui est de « sauvegarder le revenu des artistes floués par le téléchargement illégal ». « Mais pourquoi ? » s’interroge t-il sur Mediapart. « Un fait : aucune étude indépendante n’a jamais pu établir de lien entre piratage et baisse des ventes. Dans le pire des cas ce phénomène ne change rien, dans le meilleur on s’aperçoit qu’en réalité les plus grands pirates sont aussi les plus grands acheteurs. »

Quelle(s) stratégie(s) adopter face à de nouvelles technologies qui réduisent la copie à un coût quasi-nul, et rendent inutiles les métiers d’éditeur et de distributeur ? Répression, licence globale, abonnement limité, rien du tout ? Ce sera l’un des sujets au cœur des différentes tables rondes prévues à cette rentrée. Mais ces rencontres ne vaudront que si l’ensemble des acteurs (artistes, sociétés d’auteurs, éditeurs, majors, FAI et opérateurs, associations de consommateurs, représentants d’utilisateurs, institutions, etc.) sont conviés à y participer. Et si, comme le souligne Jacques Attali, tout le monde accepte que les choses soient « complétement mises à plat ».

SOURCE : ecrans.fr

jeudi 20 août 2009

The Future of Smart Electric Vehicles and Smart Grids

The new freeway-speed electric vehicles will also be smart electric vehicles (SEV). They will be smart about using energy inside the vehicle so that it can go 100 miles between charges. The SEV will be smart about navigation options that consider your preference for getting somewhere fast or traveling with minimal energy use. SEVs will be full of electronics to entertain passengers, like kids in the back seat.

They will be smart about charging to meet driver preferences for saving money or charging more quickly. Smart electric vehicles ideally use a smart grid for charging. The electric utilities see the electric vehicle as part of the new smart grid which uses information technology to make the electric grid efficient, reliable, distributed, and interoperable. Years ago, mainframe computers with dumb terminals gave way to network computing. Similar improvements are now underway with the electric grid.

At the Plug-in 2009 Conference and Exposition in Long Beach, I joined thousands in seeing new electric vehicles, new smart charging stations, and joining presentations by leading auto makers, utilities, early fleet users, and sustainable city leaders from Southern California Edison (EIX), SDGE (SRE), AQMD, EPRI, and many others.

At the Plug-in Conference, the new Nissan Leaf (NSANY) got a lot of deserved attention. By the end of 2011, Nissan may deliver as many as 10,000 of these. Most will be delivered where utility and other partners have committed to complete programs to install garage, employer, and other public charging stations.

The new 2010 Nissan Leaf is a comfortable compact hatchback that seats five. Clean Fleet Report’s test drives of Nissan EV prototypes demonstrated plenty of acceleration. The Nissan Leaf is powered by 24kWh lithium-ion batteries. The Leaf has a range of about 100 miles. In 8 hours you are good for another 100 miles with a Level 2 AC200V home-use charger; in 26 minutes you can be 80 percent charged with a Level 3 DC 50kW quick charger.

Transportation expert, Antonio Benecchi a Partner with Roland Berger forecasts that plug-in hybrids and electric vehicles will capture 10 to 20 percent of the auto market by 2030. The speed of adoption will depend on cost and early customer experience. If the lifetime cost of owning and operating an electric vehicle is less than a comparable gasoline powered one, 20 percent could be low by 2030.

When you get an iPhone, Nokia, or Blackberry, the cost of the smartphone depends on the type of subscription plan you have with the wireless carrier. Similarly, over the next few years, automakers and their partners may explore different business models such as:

· Vehicle purchased with battery leased
· Vehicle, battery, and energy for charging are all subscribed
· EV and charging are part of carsharing plans
· Integrated mobility offerings will include an EV

For example, the Nissan Leaf might be offered by a dealer for under $30,000 with battery and charging offered on a subscription plan by Better Place or various electric utilities.

If charging and subscription plans are kept simple, consumers will love it. If consumers must sign for different plans as they go to different cities, EVs will be a turn-off. Early cell phone users rebelled against complicated plans and big surprise “roaming” charges.

Standards are being put in place so that auto makers, charging station providers, and electric utilities will be compatible. A key standard is automotive SAE J1772, which standardizes the electrical connection, current flow, and some communication between smart vehicle and smart charger. This standard is compatible with important advanced metering smart home electric standards such as Smart Energy 2.0.

EV customers will be able to check on how much their EV batteries are charged through a web browser, their smart phone, or by looking at their vehicle dash. The networking and software is there, so that they could look at monthly vehicle use and charges.

Electric utility operators will be able to track, manage, and forecast EV electricity use thanks to smart charging stations with electric utility meter chips built in such as Coulomb ChargePoint Networked Charging Stations and ETEC (ETLY.OB - disclosure: author owns this stock), who has already installed over 5,500 charging stations. ETEC will be installing over 12,500 new charging stations thanks to a matching grant of almost $100 million from DOE.

I am on the wait list to buy the Nissan Leaf. When I get a new EV or PHEV, I would be glad to agree to a subscription plan that would save me $100 per month if I would agree to have my vehicle not charge during peak-demand hours. We’ll see if I am given that kind of option. Thanks to software services from GirdPoint and others, the technology is there to plug-in and having charging managed by user preferences and subscription agreements.

Utilities could shape demand to off-peak. Utilities could use EVs for spinning reserves and peak power using vehicle-to-grid (V2G). Dr. Jasna Tomic with CALSTART estimates that the national grid would only need 7 percent additional capacity to off-peak charge 100 million electric vehicles. Those same vehicles could provide 70 percent of the national grid’s needed peak power. Smart grid upgrades, customer price signals and subscription agreements could enable growing use of V2G in the coming decade.

Smart vehicles and smart grids create a trillion dollar opportunity for incumbents and innovators. The opportunity has attracted GM, Ford (F), Toyota (TM), Nissan, and hundreds of other auto makers. It has attracted the world’s largest electric utilities and grid operators. This smart grid “Internet” for electricity now has devoted teams inside IBM, Google (GOOG), Cisco (CSCO), Microsoft (MSFT), and other information technology giants.

The smart electric vehicle is symbiotic with the smart grid. The information communication technology is there. It is the business models and customer experience that count. Get ready for the most comfortable and intelligent ride of your life.

Source : seekingalpha,August 20, 2009



Google, l'utopie du livre pour tous


Richard Ovenden est le directeur des collections rares de la Bodleian Library, la plus ancienne et la plus prestigieuse des 34 bibliothèques rattachées à l'Université d'Oxford. Fondée par Thomas Bodley en 1602, la "Bod", comme l'appellent familièrement les étudiants, est la perle des bibliothèques anglaises. Elle détient notamment des manuscrits enluminés remontant au XVe siècle.

Contre toute attente, Richard Ovenden a été l'instigateur d'un pari audacieux : il a suivi toutes les étapes de l'accord signé en décembre 2004 avec le moteur de recherche américain Google. Grâce à ce partenariat, 400 000 ouvrages (sur les 11 millions conservés à Oxford) ont été numérisés en un temps record. Pas question, toutefois, pour les dirigeants d'Oxford, de faire scanner par Google les fonds les plus anciens et les plus fragiles. Leur choix s'est porté exclusivement sur des volumes du XIXe siècle. De la fiction, mais aussi des livres scientifiques, en anglais, en français, en latin... Ainsi, la première édition de L'Origine des espèces, deCharles Darwin, parue en 1859, est accessible sur le Net depuis avril.

Aujourd'hui, ce programme de numérisation est terminé. Google a déjà déménagé les scanners qu'il avait installés dans un des bâtiments de l'université, pour les redéployer ailleurs afin de poursuivre la mise en oeuvre de son projet de bibliothèque numérique universelle.

Pour la firme de Mountain View (Californie), tout a commencé en 2004, avec la décision de numériser en six ans 15 millions de livres conservés dans les grandes bibliothèques américaines et européennes. Moins connu queGoogle Maps, qui donne gratuitement accès à des cartes et des photos de la Terre, ou que YouTube (racheté par Google en 2006), qui diffuse sur Internet des vidéos du monde entier, l'objectif du programme "recherche de livres" est de rendre accessibles le maximum d'ouvrages au plus grand nombre.

Google ne s'est pas tourné que vers les bibliothèques. Il propose aussi aux maisons d'édition qui le souhaitent de numériser gratuitement leurs titres et de les inclure dans sa base, afin qu'ils soient repérables sur Internet. A ce jour, 25 000 éditeurs ont conclu des accords, essentiellement des petites maisons spécialisées, les grands groupes préférant se tenir à l'écart. "J'ai accepté parce que j'estimais que notre catalogue était insuffisamment présent dans les bibliothèques publiques", explique ainsi Michel Valensi, le fondateur des éditions de l'Eclat, qui a été le premier éditeur français à s'allier avec Google, avant d'être suivi par Vrin, L'Harmattan, Le Petit Futé ouChamp Vallon.

Accéder d'un clic aux livres du monde entier depuis chez soi, tel est donc le rêve fou et généreux que propose le programme conçu par l'entreprise américaine. L'image la plus simple qui vient à l'esprit est celle d'un immense réservoir, l'utilisateur n'ayant qu'à taper le titre souhaité pour pouvoir le consulter en accès direct.

Reste que, pour l'instant, cette bibliothèque universelle ressemble plutôt à un tuyau percé. Un seul exemple : si l'on y recherche aujourd'hui les oeuvres de Victor Hugo, on trouve une version française de Notre-Dame de Paris, éditée par Charpentier en 1857. Et pour Les Misérables, les seules versions disponibles sont en anglais.

Du reste, depuis qu'il a été lancé en 2004, fédérant 29 bibliothèques, dont 7 en Europe, le programme "recherche de livres" a également suscité de nombreuses réserves des deux côtés de l'Atlantique. En effet, pour se lancer rapidement et efficacement, Google n'a pas hésité à numériser les fonds des bibliothèques américaines sans se donner la peine de vérifier si les livres étaient libres de droits. Les accords conclus en Europe ne portent en revanche que sur les textes tombés dans le domaine public.

Aujourd'hui, Google se retrouve détenteur d'un portefeuille numérique de 10 millions d'oeuvres - dont la moitié en anglais. Sur ce total, 1,5 million appartiennent au domaine public et peuvent être lues gratuitement, dès lors qu'on a accès à Internet ; 1,8 million viennent des accords passés avec les éditeurs ; quant aux 6,7 millions restantes, elles appartiennent à une zone grise. Il s'agit le plus souvent d'oeuvres épuisées mais couvertes par le droit d'auteur, raison pour laquelle les internautes n'ont accès qu'à de courts extraits.

"Grâce à Internet, nous pouvons apporter une deuxième vie à des millions d'ouvrages qui, autrement, seraient perdus", s'enthousiasme Santiago de La Rosa, responsable du programme "recherche de livres" pour l'Europe, l'Afrique et le Proche-Orient.

Pure générosité ? Pas vraiment. Car au-delà des nobles intentions affichées par la firme américaine, apparaît de plus en plus clairement un objectif commercial. De bibliothèque universelle, le projet initial glisse ainsi vers celui de librairie. Une évolution pointée par l'historien américain Robert Darnton. "Quand des entreprises comme Google considèrent une bibliothèque, elles n'y voient pas nécessairement un temple du savoir. Mais plutôt un gisement de "contenus" à exploiter à ciel ouvert", écrivait en février le directeur de la bibliothèque de Harvard dans laNew York Review of Books (article publié en mars dans Le Monde diplomatique).

Dans ces conditions, faut-il avoir peur de Google ? En fonction des acteurs, les avis sont partagés. Du côté des responsables des bibliothèques européennes qui ont signé des accords ne portant que sur des ouvrages libres de droits, la confiance reste de mise. C'est le cas de Richard Ovenden, mais aussi de Sylvia Van Peteghem. La bibliothécaire en chef de l'Université de Gand, en Belgique, explique qu'elle n'a "jamais vu en Google un diable commercial". Mieux, le moteur américain réalise, d'après elle, le rêve de son prédécesseur Paul Otlet (1868-1944), le père de la classification moderne, qui demandait "à quoi cela sert de collectionner les livres si personne ne les lit ?", et s'était lancé dans la rédaction de catalogues détaillés pour les échanger avec ses collègues de Londres. "Il avait eu l'intuition d'Internet, sans en avoir les outils", résume Sylvia Van Peteghem.

De même, pour Patrick Bazin, directeur de la bibliothèque municipale de Lyon, qui a signé en juillet 2008 un accord de numérisation de ses ouvrages patrimoniaux avec Google, "cette bibliothèque numérique est déjà la plus grande et la plus performante. Outre la quantité, c'est la très grande diversité des livres numérisés et l'absence de hiérarchisation académique ou culturelle qui font la force de cette bibliothèque".

Du côté des éditeurs et des auteurs, en revanche, ce projet suscite beaucoup d'hostilité. Des poursuites judiciaires ont même été engagées aux Etats-Unis contre Google qui, pour y mettre fin, a accepté en octobre 2008 de créer un registre qui permettra l'identification des ayants droit et de les indemniser grâce à une enveloppe de 125 millions de dollars. Pour entrer en vigueur, cet accord doit toutefois être approuvé le 7 octobre par la justice américaine.

En Europe aussi, l'inquiétude est forte. Le 7 septembre, la Commission européenne auditionnera les responsables de Google, trois jours après la date fixée par l'entreprise américaine aux ayants droit du monde entier pour décider s'ils acceptent de participer au projet. Selon cet accord, soit l'ayant droit renonce à toute poursuite contre Google, touche 60 dollars par oeuvre numérisée, et deux tiers du prix du livre lorsque celui-ci sera acheté ; soit il refuse, ne touche rien mais garde le droit d'attaquer Google.

Le moteur américain va se retrouver en situation de quasi-monopole, d'autant plus que son seul rival sérieux, la bibliothèque numérique européenne Europeana, dont le catalogue comprend 4 millions de documents, se développe beaucoup plus lentement. Si bien que Google est en passe de devenir à la fois la bibliothèque la plus riche et la librairie la plus puissante du monde.

Alain Beuve-Méry
SOURCE : Le Monde

Ford et les smartgrids

Ford fait communiquer véhicule et réseau électrique

Le constructeur dotera ses automobiles vertes d'un programme de communication intelligent. Intégré au système d'information embarqué, il servira à optimiser la charge de leurs batteries.

Publié le 19 Aout 2009
Véhicule électrique

Ford va équiper ses modèles électriques d'un système de communication sophistiqué. Celui-ci se connecte via WiFi au réseau électrique national, via des compteurs intelligents (smart meters). Cela permettra d'avoir des informations précises sur les lieux où brancher son véhicule pour le charger. Par ailleurs, l'utilisateur pourra choisir quand et pendant combien de temps effectuer la charge. Par exemple en ne la déclenchant que lors des heures creuses, entre minuit et 6 heures du matin, quand les prix sont le moins élevés.

Pour un contrôle optimal de la batterie

Il peut choisir également que l'électricité ne provienne que de sources renouvelables comme l'énergie solaire ou l'énergie éolienne. Toutes les manipulations s’effectuent depuis Sync, un système d'information intégré au tableau de bord propre à Ford et dévoilé en janvier dernier. Le système, le premier de ce genre à être industrialisé, permettra de généraliser l'utilisation des voitures électriques, affirme Bill Ford, le PDG de Ford. "Une communication bidirectionnelle électrique permettra par ailleurs de réduire les émissions des gaz à effet de serre (CO2)", ajoute-t-il.

Réduire l'impacte environnemental

Dans un premier temps, ce sont les habitants des Etats-Unis, clients d'American Electric Power of Columbus en Ohio, qui pourront profiter de ces véhicules. Le constructeur tient à mettre en avant le fait que son système pourrait aider à populariser l'utilisation des énergies renouvelables comme celles du soleil et du vent pour le changement des véhicules électriques. Pendant deux ans, Ford a testé sa voiture hybride sur près de 130 000 kilomètres. La "Ford Focus" électrique sortira aux Etats-Unis en 2011. Pour mémoire, l'université du Delaware travaille aussi sur un véhicule entièrement électrique capable de générer sa propre électricité mais aussi la partager quand la voiture est inactive. Ce projet est en test près de New York.

Better Place : Francfort avant l'Australie ? | Cleantech Republic

Better Place : Francfort avant l'Australie ? | Cleantech Republic

Shared via AddThis

eBay veut acheter du trafic de qualité

Place de marché pour acheteurs et vendeurs, eBay est également l'un des principaux annonceurs de l'internet, achetant chaque mois des millions de clics à des milliers de médias.

Afin d'améliorer son retour sur investissement, le groupe annonce l'introduction du "Quality Click Pricing", un nouveau modèle de rémunération des annonceurs, désormais basé sur le CPC, mais variable en fonction de la qualité du trafic.

"A l'opposé du mode de rémunération actuel basé sur les actions générées (CPA), le Quality Click Pricing rémunère les affiliés en fonction de la qualité du trafic qu'ils envoient vers les sites eBay. Les commissions prendront en compte, outre les achats réalisés, d'autres sources de revenus, comme ceux issus de la publicité ainsi que des transactions Paypal." explique Steve Hartman, Directeur e-marketing chez Ebay Inc.

"Cette évolution est à la fois une bénédiction et une épée de Damoclès pour nous : en effet, la volonté d'eBay de mettre en avant la qualité du trafic par rapport à la quantité devrait permettre aux partenaires sérieux de tirer leur épingle du jeu tout en limitant l'importance des fraudeurs. Néanmoins, nous partons en terrain inconnu pour le moment, le niveau de commission sur ce nouveau modèle nous n'ayant pas encore été communiqué. La capacité d'eBay à réussir à monétiser aussi justement que possible cette qualité sera la clé du modèle. Il sera intéressant d'observer combien d'affiliés auront réussi la transition et seront encore là dans 6 mois." réagit pour sa part Florent Cayrel, de la société JVweb, affilié eBay depuis cinq ans.

Un nouveau modèle qui devrait notamment permettre à eBay de payer moins cher les clics réalisés par des internautes déjà clients, et pousser ses affiliés à chercher à lui renvoyer de véritables nouveaux utilisateurs acheteurs voire vendeurs.

Source: Neteco, Jérôme Bouteiller

mercredi 19 août 2009

WiFi provider Skyblox is first company to raise funding via Twitter

Skyblox, an Atlanta company that provides WiFi coverage to restaurants and retail stores, says it accepted funding money over Twitter using a service called Twipay, thus becoming the first company to raise a round of funding using micro-blogging.

This is a bit of a gimmick, because the tweet used by its funder, private equity firm SGIO LLC, included a payment of only a single dollar. The tweet promised that it was just the first of a $100,000 allocation for the first round of funding. So, while the full funding didn’t actually take place over Twitter, the action does herald a trend nonetheless: Increasingly Twitter is being built into our modes of communication, and these sorts of payments (through Twitter-based payment services like Twitpay) are likely to pick up. We wrote recently about how Twitpay is using PayPal to make the payments over Twitter.

As for SkyBlox, it was started in early 2008 by members of the former EarthLink Wi-Fi team. It has spread its WiFi offerings from Atlanta, to include Chicago and Denver. SkyBlox says its mobile platform allows local businesses to communicate with their mobile customers in real time.

Twitpay is also based in Atlanta.

Source : Venture Beat, August 19, 2009



Ford plans vehicles to interact with power grids

Ford Motor Co. said Tuesday its future electric cars will "talk" to power grids across the country, part of an effort to drive interest in alternative energy vehicles.

The nation's second-largest automaker released details of a two-year collaboration with 10 utility companies as well as the Department of Energy on the design of a system that allows car owners to control when they charge vehicles and for how long.

Ford's first battery electric vehicle, the Transit Connect commercial van, will be available next year. A battery electric Ford Focus compact car will go on sale in 2011.

"At the end of the day this has to be easy for our customer," said Ford Chairman Bill Ford Jr., at a company round-table on electrification efforts. "This can't just be an interesting science experiment. This has to be something that makes people's lives better and easier and that is what our dialogue is all about."

Utility companies say their grids already are ready to handle electric cars, although some drivers are likely to need additional equipment installed in their garages, depending on the vehicle's voltage requirement.

"The grid is ready now but on a lower technology basis," said Mike Ligett, director of emerging technology at Progress Energy Inc., a Raleigh, N.C.-based energy company. "We are not concerned about energy consumption, but more about when it's used."

With connectivity between Ford vehicles and power grids in certain areas, owners can choose to recharge at off-peak times when electricity is cheaper, or when wind, solar or renewable energy is driving the grid, said Nancy Gioia, director of Ford's sustainable mobility technologies division. "What we're doing is developing our capability."

Ford and the utility companies are testing the system and have logged 75,000 miles on a test fleet. The goal is to have a network in place so drivers can recharge their cars at preset times at home, work or elsewhere.

The system aims to develop technical standards so that a car purchased and used in Michigan, can "talk" to an electric grid in New York if the driver moves or travels.

Vincent Dow, Detroit Edison's vice president of distribution operations, said there are "more questions than answers" about how electric car owners will seek to recharge their vehicles.

"Will they charge at home, or work?" he asked. "What's the pattern going to be for them? We need to understand what the needs are going to be for consumers."

Mark Duvall, director of electric transportation at the Electric Power Research Institute in Palo Alto, Calif., said that although the nation's current electric grid could handle widespread adoption of electric cars, more things can be done to use energy more efficiently. For example, drivers could recharge a car at 3 a.m. so it doesn't tax the grid and costs less.

Shares of Ford rose 27 cents, or 3.7 percent, to close at $7.64 Tuesday.

Source : Associated Press August 18, 2009

mardi 18 août 2009

Agrégé, clanique : les entreprises doivent s'adapter au prochain web

Les frontières entre les réseaux sociaux et le web classique se brouillent. Les services numériques de demain seront tribaux et rémunérateurs. En tout cas pour les sociétés qui sauront en intégrer les règles de fonctionnement.

Publié le 17 Aout 2009
Reseaux sociaux

Dans le futur, les réseaux sociaux cesseront d’être simplement un des visages de l’Internet et deviendront Internet lui-même. C’est la conclusion d’un rapport* de Yomego, une agence de médias sociaux. Jean-François Renaud, associé et fondateur d'Adviso, pousse l’analyse un peu plus loin. Contacté par L’Atelier, il convient que "les sites web traditionnels intègrent de plus en plus une part sociale". Et ce pourrait n’être qu’une étape vers un Internet entièrement basé sur les réseaux sociaux et leurs fonctions. Selon l’étude, trois facteurs déterminants vont dans ce sens : l’adoption massive des réseaux sociaux, la propagation des avancées technologiques qui les font fonctionner et la présence d’investissements importants et continus dans le web social. Pour preuve, plus de 6 milliards de dollars ont directement été investis dans les réseaux sociaux depuis 2004. Ce phénomène a comme conséquence de faire tomber les barrières qui séparent les différents réseaux sociaux et de stimuler leur compatibilité.

Les barrières s’effondrent

La popularisation de systèmes d'identification unifiés (Facebook Connect ou OpenID) est un des signes annonciateurs de ce phénomène. Pour Jean-François Renaud c’était inévitable : "Je ne serais pas surpris d’apprendre que 70 % des utilisateurs de Twitter ont le même mot de passe que pour Facebook". Pour les auteurs de l’étude, des plate-formes comme Google Wave ou Netvibes dans lesquels le contenu est personnalisé, filtré et socialisé pourraient bien préfigurer l’avenir du Web. Cette émergence de sites agrégateurs de contenu ne fait que commencer et préfigure une bataille rangée entre les différentes plate-formes pour devenir LE cite central. Cette mutation risque de prendre du temps : ce sont les moteurs de recherche qui amènent la majorité du trafic vers les sites. La deuxième conséquence concerne l'apparition de modèles d’affaires profitables à court terme.

Des réseaux plus tribaux et plus profitables

Pas étonnant quand on regarde les velléités des patrons de médias d'obtenir de faire payer les internautes pour du contenu. D’après le rapport publié par Yomego, les profits viendront avec une plus grande organisation des espaces sociaux en "tribus". L'agence écossaise prédit un repli des internautes au sein d’espaces sociaux plus identitaires. Communautés dans lesquelles les entreprises auront toute leur place si elles agissent intelligemment. "Souvent les marques investissent les réseaux sociaux sans aucune subtilité alors que, pour être efficace, leur contribution doit être indirecte", explique Jean-François Renaud. L’étude rappelle d’ailleurs qu’il faudra aux entreprises adapter – techniquement parlant - leurs publicités pour toucher le bon public

SOURCE : l'Atelier

Affranchir les courriers électroniques, une protection contre le spam ?

Yahoo! propose de rendre payant l'envoi de courriels : il travaille sur un serveur sur lequel chaque message est facturé un cent de dollars. Le but : assurer les destinataires de la fiabilité du mail.

Publié le 17 Aout 2009

Le spam constitue aujourd'hui 90 % de la totalité des mails envoyés quotidiennement, et le chiffre est en constante augmentation. D'où l'initiative de Yahoo!, qui propose de rendre payant l'envoi de courriels. Pour concrétiser son idée, l'entreprise a mis au point CentMail, un serveur mail sur lequel l'envoi de tout message est facturé un cent de dollar. L'intérêt ? Assurer aux destinataires que le courrier reçu en provenance du serveur n'est pas un spam. D'autant que, ajoutent les chercheurs, les pirates n'ont que fort peu de chances d'investir un réseau qui facture les échanges, même de manière symbolique.


Supprimer la messagerie gratuite?

Pour que l'initiative ne reste pas un vœu pieux et suscite l'intérêt des internautes, CentMail propose de reverser l'argent dépensé à des associations caritatives. "Nous croyons qu'une approche qui en appelle aux sentiments altruistes est plus efficace que les systèmes payants traditionnels", explique Sharad Goel, responsable du projet dévoilé par le magazine The New Scientist. Les consommateurs pourront également indiquer en bas du message la cause qu'ils soutiennent. Du coup, les associations devraient être les premières à faire adhérer les nouveaux membres.


Un projet controversé

L'idée est cependant à nuancer. Car certains internautes ne voudront pas recevoir de messages appelant à des causes qu'ils ne soutiennent pas. Autre problème : les spammeurs peuvent trouver des astuces pour contourner le système. Par exemple, générer les dons pour eux-mêmes. Pour l'instant, CentMail est en version bêta privée, mais il sera bientôt ouvert au public. Les éditeurs espèrent intéresser non seulement les adhérents de Yahoo!, mais aussi ceux des autres messageries.

SOURCE : L'Atelier

lundi 17 août 2009

Un rapport commandé par le gouvernement Hollandais conclu à un impact « très positif » du peer to peer sur l’économie

Un rapport commandé par le gouvernement Hollandais conclu à un impact « très positif » du peer to peer sur l’économie

SOURCE : ToutFing

Le développement du "Home Automation" (en lien avec les smart grids) s'accompagne du développement de nouveaux usages.

Nous avons déjà évoqué les produits blancs Whirlpool. Autre illustration, Berkeley, qui travaille sur des climatiseurs qui gèrent eux-mêmes leur consommation, en tenant compte des paramètres de l'utilisateur et d'autres paramètres, comme le coût "instantané" de l'énergie". Il est intéressant de noter, dans un contexte français marqué par Linky, que les données de régulation pourraient parvenir d'un compteur "intelligent" certes, mais aussi par internet (quid du FAI ?) ou au travers d'ondes hertziennes.


Cela renforce encore notre conviction que le développement du Home Automation et des mécanismes d'agrégation peut se faire en parallèle du smart metering (compteur "intelligent" Linky) qui pourra certes être un formidable accélérateur.


Les climatiseurs gèrent eux-mêmes leur propre consommation

Berkeley travaille sur des systèmes à air conditionné qui tiennent compte des habitudes de leur propriétaire ou encore du prix de l'électricité pour réguler leur consommation.

Publié le 14 Aout 2009
Climatiseur

Des outils perfectionnés doivent rester simple d'accès s'ils veulent être utilisés. Voilà ce qu'a constaté une équipe de Berkeley, qui s'est intéressée aux climatiseurs. Résultat : des modèles capables de réduire sa consommation d'énergie ne sont souvent pas utilisés à leur juste valeur car difficiles à programmer. Pour résoudre ce problème, l'équipe a mis au point un système à air conditionné capable de trouver lui-même la meilleure stratégie de fonctionnement. Le but étant de consommer le moins possible tout en conservant une qualité de service optimale. Le système développé, baptisé PCT (pour Programmable Communicating Thermostats), tient compte des habitudes de ses utilisateurs, mais aussi de mises à jour qui lui sont envoyées pour programmer par lui-même ses horaires de mise en marche. Et de s'arrêter automatiquement quand cela est nécessaire.

Une gestion simplifiée et high-tech

Côté propriétaires, il suffira d'entrer sur le système quelques informations sur son mode de vie. Le thermostat dispose aussi d'un système intégré capable de recevoir des mises à jour régulières concernant les prix de l’électricité. Cela lui permettra d'en tenir compte pour les heures de mise en marche. D’autres données de régulation pourront provenir directement des services publics via un compteur personnalisé, mais aussi par Internet ou à travers les ondes hertziennes. Le système programmera ensuite son fonctionnement selon plusieurs schémas à basse consommation préintégrés. L'autre avantage de ces climatiseurs, c'est qu'ils seront aussi capables de tenir compte des pics de consommation. Lors des périodes de grande chaleur, la consommation d’électricité quotidienne en Californie peut augmenter de 50 %.

Un plus pour l’environnement

Par la même occasion, pour fournir une quantité importante d’électricité (environ 40 000 mégawatts), l’Etat est obligé de faire tourner à plein régime des usines basées sur les énergies fossiles et polluantes. Aussi, en cas de pics, les services publics pourront envoyer de l'information sur les réseaux auxquels seront connectés les climatiseurs. Ce, afin de permettre à ces derniers de modifier leur consommation. Comme d'augmenter la température d'un degré, ce qui est suffisant pour une économie considérable d’énergie. L’entrée sur le marché de ces systèmes de climatisation sera effective d’ici cinq ans, après l’installation dans les foyers de compteurs électriques compatibles.

SOURCE : l'Atelier