Contexte :
En 2012, une thèse menée à l'ISIR a permis de proposer un modèle computationnel des mouvements d'atteinte permettant d'expliquer le choix d'un temps de mouvement particulier sur la base d'un compromis coût-bénéfice (Rigoux&Guigon, 2012). Ce modèle échoue cependant à rendre compte du compromis vitesse-précision qui caractérise aussi ce type de mouvements (Fitts 1954) et dont un autre modèle rend compte (Dean 2007). Des travaux préliminaires ont permis de proposer et valider un nouveau modèle qui explique simultanément les deux compromis. Ce modèle, qui n'est pas encore publié, repose sur des outils d'apprentissage artificiel (machine learning) qui sont au coeur de la compétence de l'encadrant (Marin et al. 2011,2012, Stulp&Sigaud 2012). Le recours à ces outils ouvre de nouvelles perspectives pour la modélisation computationnelle de l'apprentissage moteur. Il devrait notamment être possible de modéliser des processus mis en évidence dans (Izawa et al. 2008) et (Diedrichsen et al. 2010). En 2015, un premier stage a permis de développer une première version du modèle, qui reste à parfaire. Parallèlement, l'équipe de Jan Babic a procédé à des enregistrements de données sur des sujets humains qu'il faut maintenant confronter aux prédictions du modèle.
Objectifs :
L'objet du stage est de consolider les résultats obtenus avec le modèle et de les confronter aux données d'enregistrement humain. L'objectif visé est de soumettre les conclusions à un journal à impact élevé (Journal of Neuroscience) où ce type de confrontations entre résultats expérimentaux et simulations est particulièrement apprécié. Au-delà, il sera possible d'explorer de nouvelles propriétés du modèle afin d'étendre le champ de sa capacité explicative à d'autres phénomènes d'apprentissage moteur.
En pratique, le stagiaire devra s'approprier les outils développés par ses prédécesseurs, à savoir un simulateur de bras à deux degrés de liberté doté de 6 muscles et des librairies d'apprentissage artificiel et d'optimisation. Il devra ensuite consolider les travaux réalisés précédemment pour obtenir des résultats expérimentaux statistiquement fiables, et confronter ces résultats aux données expérimentales fournies par notre partenaire, avec de possibles allers-retours entre simulations et confrontation des résultats.
Profil recherché :
Le stage sera l'occasion d'acquérir une solide compétence sur les méthodes d'apprentissage artificiel, l'optimisation stochastique, le contrôle moteur humain et plus généralement la méthodologie des études à l'interface entre recherches expérimentales et modélisation. Une connaissance élémentaire d'au moins l'un de ces trois domaines est requise. Par ailleurs, le caractère expérimental du stage implique une bonne capacité de réalisation, avec en particulier un bon niveau en programmation en python. Un élève ingénieur effectuant un master de recherche et intéressé par une thèse dans ce domaine après son stage serait le candidat idéal.
Dates et durée : de février à juillet 2016 (5-6 mois)
Remarque : le stage est financé par le Labex SMART
Références :
• Dean, M., Wu, S.-W., and Maloney, L. T. (2007). Trading-off speed and accuracy in rapid, goal-directed movements. Journal of Vision, 7(5):112.
• Diedrichsen, J., White, O., Newman, D., and Lally, N. (2010). Use-dependent and errorbased learning of motor behaviors. Journal of Neuroscience, 30(15):5159-5166.
• Fitts, P. M. (1954). The information capacity of the human motor system in controlling the amplitude of movement. Journal of Experimental Psychology, 47(6):381-391.
• Izawa, J., Rane, T., Donchin, O., and Shadmehr, R. (2008). Motor adaptation as a process of reoptimization. Journal of Neuroscience, 28(11):2883-2891.
• Marin, D., Decock, J., Rigoux, L., and Sigaud, O. (2011). Learning cost-efficient control policies with XCSF: generalization capabilities and further improvement. Proceedings of the 13th annual Conference on Genetic and Evolutionary Computation, pages 1235-1242. ACM.
• Marin, D. and Sigaud, O. (2012). Towards fast and adaptive optimal control policies for robots: A direct policy search approach. Proceedings Robotica, pp. 21-26, Guimaraes, Portugal.
• Rigoux, L. and Guigon, E. (2012). A model of reward- and eort-based optimal decision making and motor control. PLoS Computational Biology.
• Stulp, F. and Sigaud, O. (2012). Path-integral policy improvement with covariance matrix adaptation. In Proceedings of the 29th International Conference on Machine Learning (ICML'2012), Edinburgh, Scotland.
• Trommershäuser, J., Maloney, L. T., and Landy, M. S. (2003) Statistical decision theory and the selection of rapid, goal-directed movements. Journal of the Optical Society of America. A, Optics, image science, and vision, 20(7):1419-1433.
• Trommershäuser, J., Maloney, L. T., and Landy, M. S. (2003b). Statistical decision theory and trade-offs in the control of motor response. Spatial vision, 16(3-4):255-