Babillage sensori-moteur en robotique

Les robots sont aujourd'hui très efficaces dès lors qu'il s'agit d'exhiber un comportement prédéfini dans un environnement fermé. Cela permet de résoudre de nombreux problèmes en dotant le robot de comportements adaptés aux objets qu'il va devoir manipuler. Programmer le robot pour qu'il puisse faire face à un environnement ouvert et à des objets qui ne sont pas connus à l'avance par son programmeur reste aujourd'hui un défi. Ce stage se situe dans le cadre de la robotique dite développementale [1,2] qui vise à doter un robot de capacités de développement inspirées de celle des humains pour s'adapter à un tel environnement ouvert et être capable d'apprendre quoi faire de nouveaux objets et comment le faire.

Le travail à réaliser pendant ce stage se focalisera sur les premières interactions du robot avec l'environnement. Cette étape, dite de "babillage", consiste à exécuter des gestes pour recueillir le plus d'informations possible sur l'environnement tout en faisant peu d'hypothèses sur sa structure. Le babillage doit ainsi permettre d'apprendre dans tous les environnements auxquels le robot peut être confronté. Le résultat d'une telle étape consiste en des données perceptives (visuelles notamment) que d'autres algorithmes pourront utiliser pour reconnaître les objets présents dans l'environnement immédiat du robot et réaliser des apprentissages plus ciblés. Des travaux précédents ont permis de proposer de premières approches pour un tel babillage [3,4], l'objet du stage est de proposer une nouvelle méthode de babillage étendant ces travaux. Les expériences seront réalisées sur un bras crustcrawler disponible au laboratoire. Ces expériences pourront être portées sur les robots Baxter, PR2 ou iCub disponibles à l'ISIR. Ce travail sera réalisé dans le cadre du projet européen DREAM (http://www.robotsthatdream.eu/).

Connaissances souhaitées

Une bonne pratique du développement en C++ est un pré-requis obligatoire.
Des connaissances minimales en IA, apprentissage machine et vision sont nécessaires de façon à utiliser efficacement des bibliothèques nécessaires aux expériences envisagées. Les différents robots utilisent le middleware ROS pour lequel de nombreux modules sont disponibles pour la perception et la commande des mouvements du robot [5]. Les développements seront limités aux éléments spécifiques à l'approche proposée et s'appuieront, autant que possible sur des modules disponibles sur étagère pour les aspects non spécifiques.

Références

  • [1] D. Vernon, Artificial Cognitive Systems - A Primer, MIT Press, 2014
  • [2] Lungarella, M., Metta, G., Pfeifer, R., \& Sandini, G. (2003). Developmental robotics: a survey. Connection Science, 15(4), 151–190. doi:10.1080/09540090310001655110
  • [3] Legoff, L. and Maestre, C. and Doncieux, S. (2015). Visual saliency-based babbling of unknown dynamic environments. Proceedings of the workshop Learning Object Affordances, IROS 2015.
  • [4] Maestre, C. and Cully, A. and Gonzales, C. and Doncieux, S. (2015). Bootstrapping interactions with objects from raw sensorimotor data: a Novelty Search based approach. IEEE International Conference on Developmental and Learning and on Epigenetic Robotics.
  • [5] http://wiki.ros.org

Contact: stephane.doncieux _at_ upmc.fr

Lieu: 
ISIR, UPMC
Thématiques: 
Encadrant: 
Stéphane Doncieux
Attribué: 
No
Année: 
2 016

User login