Interfaces gestuelles « coopératives »

Les interfaces intelligentes sont capables de « coopérer » avec les utilisateurs ; les interfaces pour saisir du texte qui proposent des autocomplétions, des corrections etc. sont un exemple bien connu, mais il en existe de nombreuses autres. Concevoir ces interfaces peut-être compliqué, et demande potentiellement une expertise en ingénierie logicielle, en modélisation
du comportement humain, et en algorithmie. Nous développons actuellement une librairie Python pour faciliter la conception d’interfaces intelligentes, notamment en proposant des outils pour découpler ces expertises (https://jgori-ouistiti.github.io/CoopIHC/branch/dev/).
Dans ce projet, on s’intéresse plus particulièrement aux interfaces qui exploitent des modèles de l’utilisateur. Ces interfaces sont développés par des approches de simulation où on couple une interface avec un modèle d’utilisateur (synthétique), et non un vrai utilisateur. Par contre, il faut pouvoir évaluer ces interfaces avec des vrais utilisateurs in fine. Le but du stage est de
permettre à l’utilisateur de la librairie de partir d’une interface conçue pour un modèle d’utilisateur synthétique et de l’évaluer contre un vrai utilisateur. Concrètement, on a déjà une preuve de concept qui fonctionne où l’utilisateur échange avec une interface via un navigateur web, dont la partie intelligente à été entraînée face à un modèle, puis s’exécute dans un environnement Python via le protocole WebSocket, mais l’interface Web est minimaliste, et on ne couvre qu’un cas d’usage limité côté librairie. Les étudiants partiront de cette base pour implémenter un cas d’usage complet d’interaction gestuelle assistée.

Les étudiants pour ce projet doivent avoir de bonnes bases en programmation, en particulier en Python. C'est l'occasion pour eux de travailler sur un logiciel de taille moyenne.

Encadrant: 
Julien Gori
Nombre d'étudiants: 
3
Attribué: 
No
Deprecated: 
No
Etudiants affectés: 
Jawher Jriby

User login