Interfaces gestuelles « coopératives », développement et évaluation / cooperative gestural interfaces

ENGLISH BELOW

** Résumé : Les interfaces intelligentes sont capables de « coopérer » avec les utilisateurs ; les interfaces pour saisir du texte qui proposent des autocomplétions, des corrections etc. sont un exemple bien connu, mais il en existe de nombreuses autres. Concevoir ces interfaces peut-être compliqué, et demande potentiellement une expertise en ingénierie logicielle, en modélisation du comportement humain, et en algorithmie. Nous développons actuellement une librairie Python pour faciliter la conception d’interfaces intelligentes, notamment en proposant des outils pour découpler ces expertises (https://jgori-ouistiti.github.io/CoopIHC/branch/dev/).
Dans ce stage, on s’intéresse plus particulièrement aux interfaces qui exploitent des modèles de l’utilisateur. Ces interfaces sont développés par des approches de simulation où on couple une interface avec un modèle d’utilisateur (synthétique), et non un vrai utilisateur. Par contre, il faut pouvoir évaluer ces interfaces avec des vrais utilisateurs in fine. Le but du stage est de permettre à l’utilisateur de la librairie de partir d’une interface conçue pour un modèle d’utilisateur synthétique et de l’évaluer contre un vrai utilisateur.

** Objectifs du stage :
Concrètement, on a déjà une preuve de concept qui fonctionne où l’utilisateur échange avec une interface via un navigateur web, dont la partie intelligente à été entraînée face à un modèle, puis s’exécute dans un environnement Python via le protocole WebSocket, mais l’interface Web est minimaliste, et on ne couvre qu’un cas d’usage limité côté librairie. L’ étudiant partira de cette base pour implémenter un cas d’usage complet d’interaction gestuelle assistée.

** Profil recherché :
L’étudiant·e recherché aura des connaissances solides en développement web / Python.

ENGLISH VERSION

** Abstract:
Intelligent interfaces are capable of "cooperating" with users; text entry interfaces that offer autocompletion, correction, etc. are a well-known example, but there are many others. Designing these interfaces can be complicated, and potentially requires expertise in software engineering, human behavior modeling, and algorithms. We are currently developing a Python library to facilitate the design of intelligent interfaces, notably by proposing tools to decouple these expertises (https://jgori-ouistiti.github.io/CoopIHC/branch/dev/).
In this internship, we are particularly interested in interfaces that exploit user models. These interfaces are developed by simulation approaches where we couple an interface with a (synthetic) user model, and not a real user. However, it is necessary to be able to evaluate these interfaces with real users in fine. The goal of the internship is to allow the user of the library to start from an interface designed for a synthetic user model and to evaluate it against a real user.

** Internship Objectives:
Concretely, we already have a working proof of concept where the user exchanges with an interface via a web browser, whose intelligent part has been trained against a model, and then runs in a Python environment via the WebSocket protocol, but the web interface is minimalist, and we only cover a limited use case on the library side. The student will start from this base to implement a complete use case of assisted gesture interaction.

** Required Profile:
The student will have a solid knowledge of web / Python development.

Lieu: 
ISIR (SU)
Thématiques: 
Encadrant: 
Julien Gori
Référent Universitaire: 
n/a
Fichier Descriptif: 
Attribué: 
No
Année: 
2 023

User login