Vous êtes ici

Utilisation d'une hierarchie de compétences pour l'optimisation de sélection de tâches en crowdsourcing

Des nombreuses applications participatives, commerciales et académiques se appuient sur des volontaires (\say{la foule}) pour acquérir, désambiguiser et nettoyer des données. Ces applications participatives sont largement connues sous le nom de plates-formes de crowdsourcing où des amateurs peuvent participer à de véritables projets scientifiques ou commerciaux.  Ainsi, des demandeurs sous-traitent des tâches en les proposant sur des plates-formes telles que Amazon MTurk ou Crowdflower. Puis, des participants en ligne sélectionnent et exécutent ces tâches, appelés microtasks, acceptant un micropaiement en retour. Ces plates-formes sont confrontées à des défis tels qu'assurer la qualité des réponses acquises, aider les participants à trouver des tâches pertinentes et intéressantes, tirer parti des compétences expertes parmi la foule, respecter les délais des tâches et promouvoir les participants qui accomplissent le plus de tâches. Cependant, la plupart des plates-formes ne modélisent pas explicitement les compétences des participants, ou se basent simplement sur une description en terme de mots-clés. Dans ce travail, nous proposons de formaliser les compétences des participants au moyen d'une structure hiérarchique, une taxonomie, qui permet naturellement de raisonner sur les compétences (détecter des compétences équivalentes, substituer des participants, ...). Nous montrons comment optimiser la sélection de tâches au moyen de cette taxonomie. Par de nombreuses experiences synthétiques et réelles, nous montrons qu'il existe une amélioration significative de la qualité lorsque l'considère une structure hiérarchique de compétences au lieu de mots-clés purs. Dans une seconde partie, nous étudions le problème du choix des tâches par les participants. En effet, choisir parmi une interminable liste de tâches possibles peut s'avérer difficile et prend beaucoup de temps, et s'avére avoir une incidence sur la qualité des réponses. Nous proposons une méthode de réduction du nombre de propositions.  L'état de l'art n'utilise ni une taxonomie ni des méthodes de classement. Nous proposons un nouveau modèle de classement qui tient compte de la diversité des compétences du participant et l'urgence de la tâche. À notre connaissance, nous sommes les premiers à combiner les échéances des tâches en une métrique d'urgence avec la proposition de tâches pour le crowdsourcing. Des expériences synthétiques et réelles montre que nous pouvons respecter les délais, obtenir des réponses de haute qualité, garder l'intérêt des participants tout en leur donnant un choix de tâches ciblées.

Orateur: 
Panagiotis MAVRIDIS (Équipe DRUID)
Date: 
Vendredi, 17. novembre 2017 - 10:00 - 13:00
Lieu: 
Salle Métivier
Type soutenance: 
Composition du Jury: 

1. Kermarrec, Anne-Marie, F, directrice de recherche INRIA, Rennes

2. Amer-Yahia, Sihem, F, directrice de recherche CNRS, Grenoble

3. Cudré Mauroux, Philippe, M, professeur Université de Fribourg, Fribourg Suisse

4. Demartini, Gianluca, M, maître de conferences Université de Queensland, Brisbane Australie

5. Bozzon, Alessandro, M, maître de conferences Université de Delft, Pays - Bas (Netherlands)