Vous êtes ici :

Perspectives en matière de véhicules robotisés

< Retour au sommaire du dossier

Illustration représentant une voiture automatique dont les capteurs détectent les mouvements alentours

Interview de Bernard ESPIAU et Roger PISSARD-GIBOLLET

<< Un robot mobile est capable d’interagir avec son utilisateur, de trouver sa trajectoire, d’éviter un obstacle. L’autonomie décisionnelle nous propulse à un autre niveau, il y a du raisonnement symbolique >>.

Nous interrogeons Bernard Espiau et Roger Pissard-Gibollet  sur les évolutions de la robotique ainsi que sur les projets de  Institut national de recherche en sciences et technologies du numérique (INRIA) et les perspectives en matière de véhicules robotisés.

Tag(s) :

Date : 13/01/2011

Bernard Espiau, directeur de recherche à l'INRIA-Grenoble, a axé principalement ses travaux dans le domaine de la robotique dans la conception, la modélisation, le contrôle, les architectures temps réel, avec la locomotion comme domaine principal d’application. Il a notamment été responsable du projet BIP de premier robot européen bipède, à Grenoble. Il s'intéresse actuellement au traitement de signaux pour l'analyse et la commande du mouvement à partir de réseaux de capteurs embarqués.

Roger Pissard-Gibollet ingénieur de recherche à l’INRIA-Grenoble et responsable du département Support Etudes et Développement a eu l’occasion d’appréhender les différents champs de la robotique à travers de multiples projets, pour la réacquisition de la marche avec le projet DEMAR, la mobilité avec l’expérimentation sur le véhicule automatique Cycab, la robotique industrielle ou d’intervention… Il a participé à la fondation d’une start-up, Athys, acquise depuis par Dassault-Systèmes.

 

 

Quelle est la place de la robotique à L’INRIA ?

Bernard Espiau : Il était naturel que la robotique ait une place à l’INRIA qui s’est toujours située dans le mainstream du développement technologique et scientifique. La robotique y a à commencé en 1976 sur le projet Spartacus, de téléopération pour les paraplégiques, en partenariat avec le CEA.

A l’INRIA, on s’intéresse à plusieurs champs de la robotique : à la locomotion des robots, problème non résolu, à l’interaction homme-machine, à l’utilisation de fonctions robotiques plus ou moins évoluées pour redonner des capacités motrices à des personnes hémiplégiques, à l’apprentissage. Jusqu’à présent, les robots sont généralement commandés par des techniques explicites, c’est-à-dire que l’on rentre des modèles capables de s’adapter. Il est clair que l’humain ne fonctionne pas comme cela, il n’a pas le modèle de toutes les situations possibles qu’il va rencontrer. L’homme apprend et apprend bien. Pour qu’un robot puisse avoir une certaine capacité d’autonomie dans un environnement réel, il doit pouvoir apprendre de façon un peu similaire à l’être humain. Beaucoup de chercheurs travaillent sur ce thème que l’on appelle la robotique épigénétique ; au lieu de modéliser les connaissances, on modélise les mécanismes d’acquisition.

 

Au fait, qu’est-ce qu’un robot?

Bernard Espiau : La définition, on en fait un peu ce que l’on veut ! Nous n’en avons pas besoin pour réaliser nos recherches. Pour moi, cela reste une machine qui interagit avec son environnement et qui possède certaines capacités d’autonomie. Il faut une interaction physique. Je conçois le robot comme un objet physique. Quand on parle de robot explorant le web, le mot n’est pas approprié car il s’agit de programmes. Un robot a ensuite une autonomie sur les aspects fonctionnels de perception, décision et action, une capacité à raisonner sur ce qui a été perçu, et enfin d’agir, ce qui l’amène par exemple selon les situations à adopter un comportement différent. On peut y ajouter l’apprentissage.

 

Le métro ligne D de Lyon, métro automatique, est-il un robot ?

Bernard Espiau : Ce qu’il faut savoir, c’est qu’un robot est un système, constitué d’un ensemble de fonctions robotiques. Ces fonctions robotiques peuvent être implémentées sur des objets variés qui ont alors ces dimensions d’interaction et d’autonomie sur la chaîne perception-décision-réaction, voire même de mobilité. Vous pouvez aujourd’hui acheter clé en main une fonction vision intelligente, et la placer sur un robot ou un objet quelconque. C’est pour cela que les objets qui a priori ne rentrent pas dans l’imaginaire du robot traditionnel peuvent être considérés d’un certain point de vue comme des robots s’ils implémentent suffisamment de fonctions robotiques. On parle souvent un peu vite de robots : les premiers bras industriels avaient été baptisés robots alors qu’ils n’avaient pas d’autonomie, pas de capteurs. Ils étaient simplement des manipulateurs de type « pick and place », effectuant toujours le même geste.

Roger Pissard : Dans la robotique manufacturière, les robots ne sont pas autonomes, ne prennent pas de décision, mais au niveau de la conception mécanique, de la précision et de la vitesse d’exécution, ce sont de très bonnes machines. Ils sont dans la lignée de la machine outil, de plus en plus performante. Une machine outil cinq axes qui commence à comporter des robots parallèles, avec des fonctions commande et contrôle est sans doute davantage un robot que le robot jouet qui dit papa maman..., c’est sans comparaison. Nombre de robots sont en fait des dispositifs simples, des objets améliorés plus ou moins robotisés, sur lesquels il peut y avoir des projections humaines, comme le phoque Paro pour personnes âgées.

 

Les systèmes intelligents et les robots, cela s’équivaut ?

Bernard Espiau : Les systèmes automatisés sont de plus en plus présents parce que le coût des capteurs baisse, parce que le coût du calcul baisse, etc. Ma voiture, une Renault lambda a des automatismes, mais ce sont des systèmes automatisés, c’est tout. Il faudrait quand même pour parler de robot qu’il y ait plus d’autonomie décisionnelle. Or, pour les véhicules, il n’est pas très bon d’avoir trop d’autonomie décisionnelle !

Roger Pissard : Oui, il faut raisonner plutôt en termes de fonctions.

 

Une fonction, c’est quoi ?

Bernard Espiau : Dans une voiture, de multiples fonctions sont déjà présentes, comme la fonction aide au créneau, la fonction qui empêche de piler avec l’ABS, l’antipatinage, le stabilisateur de trajectoire… Ces fonctions qui s’empilent les unes aux autres intègrent une automatisation de plus en plus avancée. Mais cela fait-il de nos voitures des robots, je ne le pense pas. On reste dans le champ de l’automatique traditionnelle, avec des capteurs, un feed back et des calculs toujours structurés de la même façon, qui à telle entrée donneront toujours le même résultat. A l’inverse, un robot mobile est capable d’interagir avec son utilisateur, de trouver sa trajectoire, d’éviter un obstacle. L’autonomie décisionnelle nous propulse à un autre niveau, il y a du raisonnement symbolique et plus seulement du calcul. J’ajouterais que dans les fonctions robotiques, il y a une distinction admise entre les fonctions de substitution et les fonctions de coopération avec l’homme. L’exosquelette, combinaison censée augmenter les capacités humaines nous place dans la coopération. C’est un genre de robot, disons que cela implémente certaines fonctions robotiques.

 

Quelle est votre perception de l’évolution de la robotique : rétrospectivement, les projets qui étaient les siens il y a 30 ans se sont-ils réalisés ? A-t-elle pris des directions non attendues, des champs d’application se sont-ils fermés et d’autres ouverts ?

Bernard Espiau : Ce qui a beaucoup évolué, ce sont les technologies, plus que ce à quoi on s’attendait. Du coup, des réalisations qui n’étaient pas envisageables il y a 30 ans le sont devenues, telles la miniaturisation, l’augmentation de la performance et la diminution simultanée des coûts des capteurs, ce qui les rend accessibles, faciles à utiliser. C’est manifeste pour les capteurs de vision, comme le prouvent les caméras dans les appareils photos. De grands progrès ont été accomplis dans le traitement des images. Ce sont des verrous qui ont été levés.

Roger Pissard : Oui, mais ce n’est pas du fait de la robotique. La robotique, technologie de l’intégration, bénéficie d’évolutions réalisées à l’extérieur… En matière de capteurs, la console de jeu Kinect de Microsoft fait entrer dans votre salon la plateforme d’interaction 3D Grimage  de l’INRIA d’il y a 5-6 ans ! La diffusion extrêmement rapide vers le grand public a été liée à l’évolution d’un capteur.

Bernard Espiau : Ensuite, les progrès sur les matériaux autorisent des robots bien plus légers, avec de bonnes performances mécaniques. Nous avons aussi beaucoup progressé sur les moyens de calcul : ce que l’on envisageait de faire péniblement avec des ordinateurs en parallèle se fait aujourd’hui sur une minuscule carte embarquée. On a avancé également sur les outils de programmation, de visualisation, d’interaction. Maintenant, on interagit avec un avatar dans un jeu vidéo, on peut programmer un robot avec un Iphone… La technologie a beaucoup évolué et du coup a beaucoup diffusé… En revanche, nous avons très peu progressé sur les problèmes de fond, durs, à savoir l’interprétation de l’environnement, l’apprentissage, l’acquisition de l’autonomie, le dialogue homme-machine autrement que hyper simplifié. En gros, nous pouvons réaliser ce qu’il faut pour satisfaire les visions fantasmatiques que porte le grand public sur le robot, son aspect marionnette, d’illusion. Par contre, sur le fond, on ne sait rien faire. Aujourd’hui, un robot humanoïde autonome, ça n’existe pas, quoique vous puissiez entendre. C’est même complètement inatteignable en l’état actuel des savoirs. Un robot intelligent, ça n’existe pas, et encore plus si on attend un minimum de fiabilité dans le temps. Indépendamment de l’aspect éthique et désirable de la chose, les discours sur la mise en place de robots pour s’occuper des personnes âgées ne peuvent que nous faire rire. Non seulement c’est une solution idiote, mais en plus cela ne marchera pas.

Roger Pissard : Il faut aussi mentionner au titre des domaines nouveaux la nanorobotique et la biorobotique, domaines qui risquent de susciter de profonds bouleversements. On commence à se poser la question d’ajouter des éléments robotiques à des personnes, soit pour améliorer des performances, soit en cas de réhabilitation, pour réparer des fonctions.

Bernard Espiau : Effectivement, des solutions commencent à apparaître. On dépasse le stade de la prothèse intelligente et cela pose des questions éthiques.

 

Percevez-vous des différences dans la conception de la robotique en Europe, Asie, Amérique du Nord ?

Bernard Espiau : Oui, les différences sont manifestes. Au Japon, les concepts de oui et de non sont moins tranchés qu’en Occident, la société est très hiérarchisée, les notions de passé-présent-futur ne sont pas les mêmes, les Japonais nous semblent davantage dans l’approximation que dans la rigueur, il ne partagent pas notre culture du formalisme. Pourtant, ils arrivent à des solutions qui fonctionnent très bien. Cela se reflète aussi dans leur algorithmique ou dans leur manière très différente de la nôtre de concevoir la question des interactions.
Les anglo-saxons sont très pragmatiques, cela se reflète aussi dans leurs robots. En France, nous sommes les héritiers de Descartes : nous prenons du recul, nous intéressons aux concepts, aux lois générales. Alors que nous privilégions la logique, les Japonais vont droit au but, ils bricolent, utilisent le procédé de l’analogie…

 

Quels sont les robots qui exemplifieraient le plus chaque culture ?

Espiau et Pissard : Pour les Etats-Unis, cela pourrait être le robot Big Dog de Boston Dynamics car il illustre fort bien leur pragmatisme. Les américains ont été les pionniers du robot marcheur et ont élaboré au MIT la théorie de la locomotion. Big Dog est un système quasiment pas intelligent mais très astucieux sur le plan mécanique, qui se déplace dans des conditions difficiles. Si l’on ajoute que Boston Dynamics vit des contrats avec l’armée américaine, c’est encore une caractéristique qui en fait un robot très américain.

Cela pourrait être aussi le robot de taille humaine PR2 conçu par Willow Garage, laboratoire de recherche en robotique célèbre situé en Californie. Le fondateur de Yahoo Groups les finance. Il y a une forte collaboration avec Stanford University, une des meilleures universités du monde. Ses réalisations montrent l’état de l’art. Allez voir la vidéo qui montre PR2 pliant une serviette !
En France, les robots les plus significatifs pourraient être Nao, premier robot humanoïde mis sur le marché, ainsi que Romeo, développés par Aldebaran Robotics. On peut aussi penser aux robots du LAAS, la génération des Hilare par exemple, robot mobile et plateforme expérimentale. Quant aux Japonais, ils se sont placés dans le créneau des robots humanoïdes, avec des robots qui ressemblent parfois à des personnages de mangas. HRP2 est un robot japonais type.

 

Dans les projets de l’INRIA, quelle est la place des transports ?

Roger Pissard : L’équipe IMARA de Rocquencourt est en pointe sur les transports automatisés et étudie tous les aspects du transport intelligent.
Ici à Grenoble, l’équipe-projet NeCS associe l’INRIA, la start up Karrus et les collectivités locales de Grenoble pour l’accès aux données. L’idée générale est de se servir de l’automatique pour contrôler non pas les véhicules, mais l’infrastructure. Plutôt que d’utiliser les boucles magnétiques qui sont aujourd’hui noyées dans la chaussée et permettent de repérer une masse métallique pour compter les véhicules, le principe est d’utiliser des capteurs sans fil également placés dans la voirie. Le coût de déploiement est bien moindre. Grâce au traitement des données de trafic collectées sur les voiries, les exploitants et les usagers pourront bénéficier d’une information fiable en temps réel, les premiers pourront limiter les congestions, etc. Un aspect du projet consiste à traquer la signature magnétique des véhicules pour une connaissance fine du trafic et  se donner la possibilité d’effectuer des contrôles de différents types, contrôles d’accès, limitations de vitesse… En Californie, en fonction du trafic, il coûte plus cher d’utiliser une voie réservée, plus fluide.

Un autre projet intéressant est porté par l'équipe E-MOTION. Elle a pour ambition de développer des méthodes algorithmiques permettant un jour de construire des systèmes artificiels dotés de capacités de perception, de décision, et d'action suffisamment évoluées pour autoriser leur fonctionnement dans des environnements ouverts, où il y a forcément des interactions avec l'homme. Dans le cadre d’E-MOTION, le projet ArosDyn d’assistance à la conduite utilise comme support une automobile Lexus prêtée par Toyota. Le projet porte sur l'analyse en temps réel de scènes routières à partir de capteurs embarqués dans le véhicule (stéréovision, GPS, centrale inertielle...). Ce système de perception pourrait être utilisé dans des applications d'assistance à la conduite.

 

Pour en venir au projet Cycab de véhicule automatique développé par l’INRIA depuis le milieu des années 90, comme le définir ? Est-ce une plateforme d’expérimentation ? Une préfiguration d’un véhicule du futur ?

Roger Pissard : Nos plateformes sont avant tout des outils de validation, permettant retours sur expérience, simulation et expérimentation avec test à l’échelle si l’on va jusqu’au bout. Elles ont aussi une dimension de démonstration, de preuve du concept. De-là vient la confusion : si la « démo » est trop bien faite, et il faut bien reconnaître que l’on ne peut s’empêcher d’avoir envie de montrer quelque chose qui marche, les journalistes y verront le véhicule du futur. C’est un peu ce qui s’est passé avec les Cycabs.

 

Un Cycab est-il un robot ?

Espiau et Pissard : Oui, c’est un robot mobile ; il peut se déplacer librement, éviter des obstacles…

 

Cette plateforme a-t-elle engendré des applications ?

Roger Pissard : Dans nos plateformes, il y a toujours une phase de transfert, à travers les collaborations établies dans le projet et à travers des personnes — on le néglige souvent mais c’est peut être le vecteur de transfert le plus efficace ! Le transfert ne concerne pas une solution globale, qui nous amènerait à voir rouler demain des Cycabs dans les villes, mais une fonction, ou une sous fonction. Un industriel trouve des idées, des points de vues, et des algorithmes qui pourront être transférés. Il est rare que l’on puisse imaginer à l’avance ce qui sera transféré, cela prend des directions inattendues. En fait, ce projet de voiture robotisée, c’est un peu comme l’horizon du robot humanoïde autonome : même si nous n’y arrivons pas, nous fixer cet objectif donne un horizon commun,stimule, et donne lieu à de multiples avancées.

 

A vos yeux, la perspective de petits véhicules automatiques dans nos villes d’ici 20 ou 30 ans est-elle crédible ?

Bernard Espiau : L’Urban Challenge aux Etats-Unis indique qu’on est loin de pouvoir mettre en fonctionnement des véhicules autonomes en ville. La distance est immense entre cette visée et les possibilités réelles. Sauf avec des infrastructures dédiées.

Roger Pissard : La technique n’est pas la dimension centrale. Bien d’autres paramètres feront qu’une solution s’appliquera ou non. Je pense aux questions d’adoption. C’est frappant en matière de santé : le plus important pour une personne hémiplégique est de pouvoir bénéficier d’une bonne rééducation, d’être bien accompagnée médicalement, etc. Quand elles sont interrogées sur les évolutions de leurs fauteuils, les personnes ne sont pas demandeuses de fonctions complexes, mais que les fauteuils soit beaux, légers, passent partout, ne provoquent pas d’escarre…

 

Des techniques considérées comme très expérimentales au moment où elles ont été testées sur la plateforme Cycab sont-elles passées dans le domaine courant ?

Roger Pissard : C’est évident dans le domaine des capteurs. Le capteur laser des premiers Cycabs pesait 8 kg et coûtait des milliers d’euros. Aujourd’hui leur taille ne dépasse pas celle de trois boîtes d’allumettes, ils sont plus performants et coûtent infiniment moins chers. Le capteur de Kinect utilisé dans la console de jeu de Microsoft, vendue 120 euros donne un nuage de points 3 D et donc une carte de profondeur. Il y a deux ans, c’était un composé de technologies valant plusieurs milliers d’euros, que l’on utilisait en laboratoire. Ce capteur pourrait remplacer une caméra 3D dans un véhicule et fournir une carte de profondeur, pour détecter un piéton par exemple ou passer à travers une nappe de brouillard.