Projets

Les propositions de projets de M1. Vous devrez faire votre choix (en contactant directement les encadrants) pour le 26 Janvier.
Attention les projets s'afficent sur plusieurs pages!

Compilation de requêtes probabilistes pour IPhone

Un grand nombre d'applications pourraient être intéressées par la possibilité d'intégrer un module de calcul probabiliste afin de fournir un score, une probabilités sur un état, un contexte, l'utilisateur, etc. Il est toutefois difficile d'embarquer un logiciel complet de calcul de probabilités complexes car ces logiciels sont assez lourds et gourmands en temps et en mémoire. Néanmoins, le modèle probabiliste étant fixé et la requête étant bien cadrée, il est possible de compiler une requête probabiliste sous une forme parfaitement embarquable dans un mobile ou autre composant autonome.

Diagnostic and Value Of Information

Dans le cadre de l'analyse décisionnelle, il est souvent intéressant, par exemple dans une application d'aide au diagnostic, de chercher à optimiser les séquences de questions/réparations qui permettront de trouver la cause d'une panne, d'un défaut, d'une maladie, etc. Un outil souvent décrit dans ce cadre est celui du calcul de la valeur de l'information parfaite (Value of Perfect Information, VPI).

Etude de l'environnement Swimmer

L'évaluation d'algorithmes d'apprentissage par renforcement profond à actions continues repose sur l'utilisation de benchmarks standards qui consistent souvent en la simulation d'un système physique plus ou moins complexe qu'il faut contrôler. Parmi ces nombreux benchmarks (Half-Cheetah, Ant, Humanoid, etc.), Swimmer est un cas particulier.

Apprentissage de contrôleurs interprétables pour le pilotage sur circuit

Un projet P-ANDROIDE réalisé en 2019 a permis de démontrer la faisabilité d'utiliser différents algorithmes d'apprentissage par renforcement pour apprendre à piloter une voiture sur circuit, en utilisant l'environnement de simulation TORCS:
https://github.com/WissamAKRETCHE/DDPG-Keras-TORCS

Etude du compromis biais-variance en apprentissage par renforcement

Les algorithmes d'apprentissage par renforcement, en particulier profonds, font l'objet d'un compromis entre biais et variance qui joue un rôle important dans leur performance. Comme illustré dans mon cours en ligne et des ouvrages récents, les méthodes de Monte Carlo souffrent surtout de variance tandis que les méthodes dites "de bootstrap" qui utilisent un critique souffrent surtout de biais.

mise en place d'un système de tracking visuel et réalité augmentée pour robotique en essaim

Nous disposons d'un essaim de 100 robots Kilobots de petites tailles. Chaque robot fait environ 2 cm de diamètre et peut communiquer avec ses voisins immédiats via infrarouge. Ces robots sont faciles à utiliser car on peut les programmer directement, et tous ensemble, via un émetteur infrarouge placé au dessus d'une arène.

Contrôle symbolique d'un robot roulant autonome

L'objet considéré dans ce projet est un robot roulant représentant un véhicule terrestre intelligent sur lequel s'appuiera un acteur humain pour mener à bien ses missions. Le fonctionnement du robot est développé sous la forme d'un agent logiciel dont l'originalité est son processus de planification contextuelle tirant parti de l'exécution réelle des actions pour définir des plans d'exécution optimaux.

Ordonnancements collectifs

Les problèmes d'ordonnancement, où l'on cherche à affecter à une tâche une date de début et une date de fin dans le temps, sont des problèmes très utilisés et très étudiés depuis des décennies. Une problématique très récente consiste à étudier ces problèmes dans le cas où plusieurs utilisateurs partagent des tâches communes à ordonnancer, et ont chacun leur opinion sur l'ordonnancement souhaité.

Pages

User login