Robotique

HUCEBOT : l’équipe qui veut rendre les robots incontournables

Date:

Mis à jour le 21/10/2025

Imaginez un robot humanoïde aux côtés d’un humain, capable de répondre à ses demandes d’assistance sur une simple commande vocale... Au centre Inria de l’Université de Lorraine, la nouvelle équipe-projet HUCEBOT entend bien, entre autres, faire de cette image de science-fiction une réalité, en combinant IA, robotique et simulation du mouvement humain.
© Inria / Photo F. Nussbaumer - Signatures

Des robots en interaction avec les humains

« Le robot autonome qui œuvre seul dans un contexte industriel, pour moi, c’est du passé, annonce Serena Ivaldi, directrice de recherche Inria. Ce qui m’intéresse, ce sont les robots qui assistent les humains dans leurs tâches et doivent donc pouvoir interagir avec eux. » Pour se concentrer sur cette mission, la chercheuse a pris la responsabilité d’une nouvelle équipe-projet, nommée HUCEBOT (*) (HUman-CEntered roBOTics), officiellement créée le 1er août et qui est une émanation de l’équipe-projet Larsen. « Toutes nos expertises sont très complémentaires les unes des autres et les avancées réalisées par les uns serviront aux autres », souligne Serena Ivaldi.

Vers des exosquelettes pertinents et multifonctions

Elle et ses collègues se concentreront sur deux types de machines en particulier : les exosquelettes et les robots humanoïdes. Avec l’espoir de créer des algorithmes d’intelligence artificielle (IA) qui permettent à chacune de ces machines d’aider efficacement l’humain, soit en les remplaçant dans des situations dangereuses, dans des endroits peu accessibles ou lointains, soit en les soutenant dans leurs efforts physiques, pour des tâches répétitives et pénibles notamment. Mais les défis scientifiques à relever sont nombreux. 

Ainsi, l’évaluation du bénéfice réel des exosquelettes passifs (qui fournissent une assistance mécanique mais ne sont pas motorisés) constitue un enjeu majeur. « Ce sont des machines qui coûtent moins cher que les exosquelettes actifs, mais qui ne peuvent assister l’humain que pour une posture particulière. Donc la question se pose de leur pertinence et de leur rentabilité », détaille Serena Ivaldi. Celle-ci a notamment été soulevée lors du projet Exoturn, mené avec le CHU de Nancy et dans lequel un exosquelette passif a été utilisé pour assister les soignants dans le retournement des patients en réanimation ; à la suite de ce projet, l’équipe a testé le même dispositif pour assister les infirmières lors de la toilette des patients. « Nous avons réalisé que cet exosquelette particulier ne sert finalement qu’une toute petite partie du temps et qu’il vaudrait peut-être mieux utiliser un autre type ou en concevoir un plus adapté », illustre la chercheuse. Le projet va donc dorénavant se poursuivre sous une nouvelle dénomination, ExoSim, et avec un nouvel objectif : constituer une base de données des gestes utiles pour les personnels hospitaliers afin de simuler ensuite le bénéfice apporté par différents exosquelettes sur la santé des agents, par exemple sur le risque de troubles musculo-squelettiques.

Les exosquelettes actifs (qui comprennent des composants moteurs) pourraient quant à eux apporter une aide plus pertinente en assistant l’humain dans ses efforts physiques mais ils ont besoin de meilleurs contrôleurs. « D’une part, les exosquelettes qui existent aujourd’hui fournissent rarement leur assistance au moment optimal, car l’exosquelette n’arrive pas à comprendre le geste de l’humain et se met en marche trop tôt ou trop tard, ce qui représente un risque de blessure », explique Serena Ivaldi. « D’autre part, ils ne s’appliquent qu’à une seule posture. Or nous souhaitons mettre au point des exosquelettes modulaires, capables d’assister potentiellement plusieurs parties du corps. » Un défi ambitieux : le robot doit être guidé par des algorithmes capables d’anticiper le mouvement de l’humain pour fournir la bonne assistance au bon moment, ce qui n’a rien d’évident étant donné la variabilité et la complexité des mouvements humains ! L’étude et la simulation du mouvement humain, notamment de sa variabilité intra-sujets, qui seront l’un des sujets phare d’HUCEBOT, constitueront de précieuses alliées dans cette démarche.

Des robots agiles, capables d’apprendre des humains

Du côté des robots humanoïdes, autonomes ou téléopérés, l’équipe développera des algorithmes avec cette fois un autre challenge : permettre à ceux-ci d’être plus agiles, et d’effectuer le maximum de tâches à la même vitesse que l’humain, et à côté des humains. Les scientifiques étudient ainsi plusieurs scenarios : service dans une cafétéria, livraison dans un bâtiment, manipulation d’objets variés dans la logistique, aide à la maison… « Il faut d’une part concevoir des algorithmes de contrôle et apprentissage différents de ceux d’aujourd’hui, trop lents, et d’autre part imaginer une autre manière pour les humains d’interagir avec les plateformes, reprend la chercheuse. Cela nécessite notamment des techniques d’IA qui permettent au robot d’apprendre de données démontrées par les humains et d’affiner son comportement par l’interaction avec les humains. » 

Deux projets ANR, Merlin et Ostensive, permettront d’avancer sur ce point. Le premier vise à concevoir des techniques de contrôle et d’apprentissage pour des robots très agiles capables de marcher vite ou de faire de petits sauts ; le second s’appliquera à développer la capacité des robots à générer des mouvements agiles mais lisibles. En effet, les humains ont une façon précise de produire des gestes que chacun identifie naturellement ; les robots doivent pouvoir se l’approprier afin que leurs actions aussi soient comprises, et anticipées, par les observateurs ou les partenaires humains.

Intégrer une interaction par la voix

Autre défi de l’équipe : améliorer le contrôle « corps complet » et multi-contact des robots, c’est-à-dire leur capacité à se déplacer dans n’importe quel environnement en utilisant tout leur corps. « Notre idée est de changer la manière dont les humains programment les contacts et les gestes du robot humanoïde, en y intégrant une interaction par la voix. » Le but ultime ? Qu’un opérateur puisse dire au robot de poser la main sur la table et d’attraper le livre sur l’étagère, que le robot comprenne la consigne, le contexte et définisse de lui-même les points de contact optimaux pour effectuer la tâche. Le projet européen euROBIN permet des avancées dans le domaine et prévoit d’ailleurs en 2026, au parlement européen, une démonstration d’interactions robot/humain en langage naturel.

Les commandes via le langage naturel sont une autre des facettes qui passionnent Serena Ivaldi et qu’elle entend bien développer au sein d’HUCEBOT. « C’est un outil magique, s’amuse-t-elle. Et je suis persuadée que cela va profondément changer notre manière d’interagir avec les robots : il n’y aura plus de boutons ou d’interfaces compliqués qui exigeront la présence d’un opérateur formé. N’importe qui pourra s’en servir. » 

Côtoyer les robots en toute sécurité

Enfin, l’équipe s’attaquera à deux points cruciaux relatifs à la diffusion des robots : leur compréhension intuitive du contexte et la mise en sécurité de l’humain. Où le robot doit-il se placer lorsque l’humain bouge ? Que doit-il faire à ce moment-là ? Pour répondre à ces questions, HUCEBOT mise là encore sur divers projets. 

L’un d’eux, développé dans le cadre du PEPR O2R, consiste à combiner robotique et sciences humaines et sociales pour étudier par exemple la confiance accordée aux robots ou bien l’acceptation de leurs erreurs par l’humain. D’ailleurs, un robot est déjà stationné dans la cafétéria du centre de recherche dans ce but : avec une psychologue de l’Université Paris 8, les scientifiques collectent des données sur la façon dont les personnes approchent la machine. « Cela nous aidera à définir le type d’interactions à privilégier, précise Serena Ivaldi. Et à terme, nous comptons lui faire servir le café ! » 

Enfin, dans le cadre du cluster Enact, où la chercheuse dispose d’une chaire « robotique et IA », les scientifiques vont développer des techniques de contrôle sécurisé à partir d’instructions en langage naturel. « Si le robot commet une bêtise, il faut qu’il soit capable de détecter l’alerte dans la voix de l’utilisateur et d’arrêter correctement l’action en cours ou de la rectifier ; il faut aussi qu’il soit capable de traduire les consignes de l’humain, même si celui-ci ne formule pas une commande claire », résume Serena Ivaldi. HUCEBOT vise ainsi à poser les briques fondamentales qui rendront les interactions humains-robots naturelles, fluides et sûres.

(*) L’équipe-projet HUCEBOT est commune au CNRS, à Inria et à l’Université de Lorraine, au sein du Centre Inria de l’Université de Lorraine et du Laboratoire lorrain de Recherche en Informatique et ses Applications (CNRS/Université de Lorraine).

Un partenariat avec Londres

Sur le plan international, HUCEBOT collabore avec l’équipe robotique de l’University College London (UCL) via le projet de recherche LEG-AI (Learning and Generative AI methods for Control of Legged Robots) avec lequel elle partage de nombreux centres d’intérêts, des compétences et des questionnements sur le contrôle de robots agiles avec des méthodes d’IA et d’apprentissage par renforcement. Un moyen de faire progresser les recherches sur de multiples fronts. Ce projet est au cœur de l’équipe associée Inria-UCL et fait partie intégrante de la politique internationale de l’institut pour renforcer ses partenariats stratégiques internationaux.

Le parcours de Serena Ivaldi en quelques dates

  • 2011 : Thèse en technologies humanoïdes obtenue à l’Institut italien de technologie de Gênes.
  • 2012-2014 : Postdoctorat à l'Institut des systèmes intelligents et de robotique de Sorbonne Université, à Paris, puis au laboratoire des systèmes autonomes intelligents de l’Université de Darmstadt (Allemagne).
  • 2014 : Recrutement au centre Inria Nancy – Grand Est, au sein de l’équipe-projet Maia (devenue Larsen)
  • 2020 : Obtention du prix Suzanne Zivi pour l’excellence dans la recherche.
  • 2023 : Séjour à l’Agence spatiale européenne aux Pays-Bas, pour une collaboration autour de la téléopération de rovers.
  • 2024 : Direction générale de la conférence internationale sur les robots humanoïdes IEEE-RAS HUMANOIDS 2024.
  • 2025 : Création de l’équipe-projet HUCEBOT.

Une équipe pluridisciplinaire

Outre Serena Ivaldi, HUCEBOT compte parmi ses membres : 

  • Jean-Baptiste Mouret, spécialiste de l’IA, et en particulier de l’apprentissage automatique appliqué aux robots ;
  • Pauline Maurice, experte en modélisation, analyse et simulation des mouvements humains
  • Enrico Mingo Hoffman, chercheur en contrôle corps-complet pour mouvements multi-contacts et locomotion.
  • Guillaume Bellegarda, dont les études sur les robots quadrupèdes et la locomotion mêlent techniques de contrôle et d’apprentissage.

En savoir plus