Sorbonne, 20 octobre 2021
De nos jours, les Interactions Humain-Robot (IHR) présentent un intérêt grandissant pour la recherche et l’industrie. Les applications qui en découlent foisonnent, allant de la robotique industrielle à la robotique en interaction sociale. L’humain est par conséquent de plus en plus présent comme partenaire des interactions avec les robots. Les questions d’acceptabilité, d’efficacité, d’intuitivité et d’adaptabilité sont alors centrales. La mise en place d’IHR adaptative implique le développement de systèmes de contrôle capables d’apprendre dans un environnement écologique complexe. Par ailleurs, étudier la problématique d’un robot qui peut s’adapter au monde humain et interagir avec lui d'une manière qui émule le travail collaboratif humain-humain implique un lien étroit avec les neurosciences et les sciences humaines, aussi bien pour la compréhension et l’analyse des comportements humains que pour le développement de systèmes de contrôle bio-inspirés qui faciliteraient l’intuitivité et l’efficacité de l’IHR.
Cette journée commune au GT5 et au GT8 aborde dans ce contexte les contributions de l’apprentissage et des neurosciences pour la prise en compte du partenaire humain dans l'interaction avec un robot.
L'objectif de cette journée est de réunir tous les acteurs intéressés par ce thème : chercheurs, industriels, enseignants et étudiants du supérieur. La journée consistera en un programme d'exposés (ci-dessous) ainsi que la présentation de vidéos et posters proposées par des doctorants et postdoc (il y aura un prix récompensant meilleur vidéo/poster). La journée se terminera par une table ronde sur « Apprentissage et neurosciences pour l'interaction humain-robot ».
Pour participer au concours, envoyez votre vidéo (max 50 Mb et 2 minutes) et/ou votre poster (en format paysage) à: cherubini@lirmm.fr
Le/a phd ou postdoc aura aussi la possibilité de présenter sa vidéo et/ou son poster en format imprimé dans la salle poster, pendant la pause déjeuner.
Il sera possible de suivre la journée en distanciel (mais il faudra pour cela s’inscrire via le site).
Programme
09:00-09:30 accueil + café
09:30-10:15 M. Chetouani (ISIR-UPMC)
Socially Interactive Learning: On the interpretation and exploitation of human teaching signals
There are increasing situations in which humans and AI systems are acting, deciding and/or learning. In this talk, we discuss approaches and models able to capture specific strategies of humans while they are teaching agents. We will see how social learning based approaches make it possible to take into account such strategies in the development of interactive machine learning techniques and in particular when it comes to social robotics.
10:15-11:00 D. Daney (INRIA)
Compréhension du comportement humain pour l'interaction robotique
L'adaptation du comportement du robot à celui de son opérateur en interaction passe par une compréhension de la situation et de l'état physique, voir cognitif de l'humain. Nous montrerons plusieurs axes que nous explorons actuellement autour de l'analyse du mouvement humain et de ses performances. Les données récoltées durant une interaction sont aussi une source d'information que nous souhaitons exploiter pour mieux comprendre les enjeux de la collaboration. Enfin, nous montrerons comment utiliser la théorie de Endsley pour modéliser une conscience de situation partagée entre l'humain et le robot.
11:00-11:45 vidéos et posters des PHD et postdocs
11:45-13:00 déjeuner
13:00-13:45 J-B. Mouret (INRIA)
Apprendre à partir des humains en quelques exemples
Résumé : Les humains pourraient souvent montrer au robot "comment faire", plutôt que de laisser le robot trouver par lui même par essai-erreur la meilleure solution pendant des heures. Néanmoins, il est souvent difficile d'acquérir par ce biais des données suffisantes pour entrainer les algorithmes d'apprentissage actuels, qui nécessitent typiquement des milliers (voire des millions) d'exemples. Avec Serena Ivaldi, nous essayons d'améliorer l'efficacité en donnée pour que seuls quelques exemples suffisent au robot et ainsi rendre l'interaction la plus efficace possible. Dans un premier temps, je décrirai un travail où un robot doit apprendre les préférences de l'opérateur pour attraper des objets en seulement quelques exemples. Ainsi, un opérateur peut enseigner au robot qu'une pâtisserie doit être attrapée par le moule (pour ne pas souiller la nourriture) ou que des lunettes ne doivent pas être attrapées par les verres (pour ne pas risquer de les rayer). Notre approche permet d'apprendre ce type de préférences avec 1 à 3 exemples seulement. Dans un deuxième temps, je m'intéresserai à la télé-opération humanoïde, où un opérateur avec une combinaison de capture du mouvement commande un robot humanoïde distant. Je montrerai comment à partir de quelques exemples de tâches, le robot peut apprendre à prédire les intentions de l'opérateur, ce qui permet notamment de compenser des délais de communication de 1 à 2 secondes et des interruptions de communication.
13:45-14:30 Lola Canamero (ETIS)
La cognition affective incarnée comme base pour l'apprentissage dans l'interaction humain-robot / Embodied Affective Cognition as a Basis for Learning in Human-Robot Interaction
Emotions and other affective states, such as motivations, are key elements to bootstrap, guide, facilitate and shape learning in humans and other animals. Their roles are multiple and appear at different stages in life. In early infancy, affiliation (attachement) bonds and interactions with caregivers provide a secure base for exploration of the physical and social environment, as well as a source of learning from observation and imitation. At all ages, they signal the value, importance and urgency of objects, events and interactions that is worth leaning about, supporting autonomous and social learning. The mechanisms, dynamics and functions underlying such roles of emotions in biological systems inform my research to endow robots with the ability to learn autonomously as they explore the world and interact with humans.
14:30-15:00 café
15:00-16:00 table ronde + prix concours vidéos/posters
Organisateurs:
Andrea Cherubini, Dominique Vaufreydaz, Mehdi Khamassi, Ghiles Mostafaoui, David Filliat, Christian Wolf