Projets

Les propositions de projets de M1. Vous devrez faire votre choix (en contactant directement les encadrants) pour le 26 Janvier.
Attention les projets s'afficent sur plusieurs pages!

Etude de l'environnement Swimmer

L'évaluation d'algorithmes d'apprentissage par renforcement profond à actions continues repose sur l'utilisation de benchmarks standards qui consistent souvent en la simulation d'un système physique plus ou moins complexe qu'il faut contrôler. Parmi ces nombreux benchmarks (Half-Cheetah, Ant, Humanoid, etc.), Swimmer est un cas particulier.

Apprentissage de contrôleurs interprétables pour le pilotage sur circuit

Un projet P-ANDROIDE réalisé en 2019 a permis de démontrer la faisabilité d'utiliser différents algorithmes d'apprentissage par renforcement pour apprendre à piloter une voiture sur circuit, en utilisant l'environnement de simulation TORCS:
https://github.com/WissamAKRETCHE/DDPG-Keras-TORCS

Etude du compromis biais-variance en apprentissage par renforcement

Les algorithmes d'apprentissage par renforcement, en particulier profonds, font l'objet d'un compromis entre biais et variance qui joue un rôle important dans leur performance. Comme illustré dans mon cours en ligne et des ouvrages récents, les méthodes de Monte Carlo souffrent surtout de variance tandis que les méthodes dites "de bootstrap" qui utilisent un critique souffrent surtout de biais.

mise en place d'un système de tracking visuel et réalité augmentée pour robotique en essaim

Nous disposons d'un essaim de 100 robots Kilobots de petites tailles. Chaque robot fait environ 2 cm de diamètre et peut communiquer avec ses voisins immédiats via infrarouge. Ces robots sont faciles à utiliser car on peut les programmer directement, et tous ensemble, via un émetteur infrarouge placé au dessus d'une arène.

Contrôle symbolique d'un robot roulant autonome

L'objet considéré dans ce projet est un robot roulant représentant un véhicule terrestre intelligent sur lequel s'appuiera un acteur humain pour mener à bien ses missions. Le fonctionnement du robot est développé sous la forme d'un agent logiciel dont l'originalité est son processus de planification contextuelle tirant parti de l'exécution réelle des actions pour définir des plans d'exécution optimaux.

Ordonnancements collectifs

Les problèmes d'ordonnancement, où l'on cherche à affecter à une tâche une date de début et une date de fin dans le temps, sont des problèmes très utilisés et très étudiés depuis des décennies. Une problématique très récente consiste à étudier ces problèmes dans le cas où plusieurs utilisateurs partagent des tâches communes à ordonnancer, et ont chacun leur opinion sur l'ordonnancement souhaité.

Allocation distribuée de tâches et équité

Nous nous intéressons aux problèmes de l’allocation de tâches dans des groupes d’agents coopératifs (par exemple une équipe de robots mobiles devant exécuter des tâches en différents lieux d’un environnement). Afin de permettre une plus grande autonomie des agents et une meilleure robustesse du système, nous souhaitons que les agents soient capables de se répartir les tâches de manière distribuée, c’est-à-dire sans avoir recours à une entité centrale décidant de l’allocation pour tout le monde.

Pages

User login