Robotique

Par ai2d, 7 décembre, 2022

Le contexte de ce stage est celui de la robotique en essaim adaptive. Il s'agit de concevoir et déployer des algorithmes d'apprentissage distribués permettant à un ensemble de robots de résoudre une tâche collectivement (p.ex. transport collectif d'objets, exploration de l'environnement, recherche et récupération de ressources). Dans ce cadre, deux types de contraintes apparaissent principalement: (1) l'environnement de déploiement des robots est inconnu au préalable et (2) les capacités de communication et de calcul des robots sont limitées.

Par Stéphane Doncieux, 1 novembre, 2022

L’apprentissage de la saisie d’objets en robotique fait l’objet d’une attention croissante depuis plusieurs années, justifiée par les forts enjeux scientifiques et pratiques qui lui sont associés. Si l’environnement est parfaitement déterministe, le problème est relativement simple : il s’agit de commander un bras manipulateur pour atteindre des positions précises, et ouvrir ou fermer le préhenseur. Mais ces approches se limitent à des scénarios très fortement contraints.

Par Catherine Pelachaud, 14 novembre, 2021

The aim of this internship is to analyze group interaction and their evolution over time. We will rely on existing data (images and videos) of group interaction that have been annotated at different levels (activity, speaking, laughing, non-verbal behavior). We will first make use of the database MatchNMingle (Raman&Hung,19).

Par Cedric Herpson, 5 novembre, 2021

Ces travaux s’inscrivent dans le cadre de recherches sur l’autonomie à long terme (mois, années) d’une entité artificielle.
Concevoir des mécanismes non-déportés à même de doter une entité artificielle non-connectée d’un tel niveau d’autonomie nécessite de se poser la question de la représentation et de la mise à jours des connaissances - par nature multimodales - manipulées.

Après avoir identifié les principales approches existantes pour l’apprentissage et la représentation de connaissances dans un contexte multimodal, vous analyserez celles-ci sous l’angle de l’autonomie à long-terme d’un système déconnecté, et de l’approche développementale. Fort de cette analyse, vous proposerez une architecture apprentissage-représentation-exploitation adaptée à l’autonomie à long terme.

Par ai2d, 13 décembre, 2019

En robotique en essaim, la démonstration de comportements collectifs repose essentiellement sur la programmation logicielle des comportements des robots, les spécificités physiques des robots étant considérées comme des contraintes fixées au préalable. Pourtant, les interactions physiques entre robots et la diversité des comportements possibles sont rarement exploitées: les comportements sont soit conçus à la main, souvent en imitant le vivant, ou obtenu par apprentissage.

Par Stéphane Doncieux, 4 décembre, 2019

Reinforcement learning methods allow to build a policy that maximizes a given reward in a particular environment. The generated policy heavily depends on the domain it has been tested on. It creates two different issues: (1) the domain may be too hard for the learning process to proceed efficiently (bootstrap problem) and (2) the policy may not generate the same expected behavior in different domains (generalization issue).

Par Stéphane Doncieux, 4 décembre, 2019

In order to be able to interact with its environment and solve non-trivial object-based tasks (e.g. manipulation), a robot must be able to locate objects in its perceptual field, and to track them throughout the interaction. In the case of a static task and structured environment, for example objects on a tabletop, those perceptual abilities can be hardcoded.