L'université d'Oviedo travaille sur une sous-couche logicielle qui reclasse en permanence les résultats en fonction du parcours des autres internautes. Le but est d'améliorer la pertinence des résultats.
SemantiFind propose déjà aux internautes de qualifier l'intérêt des sites indiqués en résultat, afin de rendre plus pertinentes les recherches à suivre. L’université d’Oviedo s'engage sur la même voie, mais automatise cette sélection : elle travaille sur un moteur qui réorganise les résultats en temps réel en fonction de ceux qui ont été le plus fréquemment choisis par différents utilisateurs. Ce, en réponse à une requête particulière. Un procédé que ses responsables rapprochent du fonctionnement en essaim de certains insectes. "Actuellement, l'utilisateur effectue une recherche et examine les résultats de manière isolée", explique à L’Atelier Daniel Gayo-Avello, un des responsables du projet. "Alors que la plupart des requêtes sont effectuées par plusieurs utilisateurs et que certains des résultats ont déjà été explorés dans le passé".
Une couche logicielle adaptable aux moteurs existants
D’où la métaphore entomologique : l’internaute agit comme une fourmi qui suivrait les traces laissées par ses congénères. Le système se présente sous la forme d’une couche intermédiaire entre l’utilisateur et le moteur de recherche. "De cette manière nous pouvons capturer les données relatives aux recherches effectuées et aux clics. Puis pondérer les résultats en fonction du nombre de clics associés aux mots-clefs", explique Daniel Gayo-Avello. Le système est donc tout à fait adaptable aux moteurs de recherche existants. "Le processus pourrait également s’appliquer en fonction de l’historique des recherches d’un utilisateur ou de sa localisation géographique", poursuit le chercheur espagnol.
Protéger le système des utilisateurs malveillants
Dans ce cas, les résultats seraient très différents d’un internaute à un autre. Les chercheurs s’emploient actuellement à développer un prototype complètement fonctionnel. Leurs travaux s’orientent en particulier sur la protection de leur système contre les attaques malveillantes. "Comme tous les outils d’intelligence collective, notre architecture est vulnérable à des attaques de ce type", justifie le chercheur. "Nous voulons voir comment le système réagira quand des utilisateurs chercheront à promouvoir des contenus non pertinents". Pour rappel, les fourmis ont déjà inspiré des méthodes de tactique militaire ou de sécurité informatique.
Source: L'Atelier
Aucun commentaire:
Enregistrer un commentaire