Robots: L’intelligence en partage, “Le Monde” parle de la robotique humanoide open-source

Le_Monde_logo

Dans l’édition du mercredi 4 septembre 2013 du Monde (Cahier Sciences et Médecine), un article discute de la robotique humanoide “open-source”, et en particulier de la manière dont elle catalyse les projets de recherches collaboratifs sur la cognition, le langage ou l’apprentissage.

L’article discute notamment des projets ICub (plateforme que nous avons utilisée dans le cadre du projet ANR MACSi pour modéliser l’apprentissage d’affordances dirigé par la curiosité artificielle, voir cet article), ainsi que du robot Poppy, plateforme humanoide open-source, low-cost et basée sur l’utilisation d’imprimantes 3D, que nous allons ces jours ci rendre public (voir ici un premier article).

L’article présente aussi plusieurs points de vues, dont le notre, sur la robotique d’assistance à la personne. On y défend notamment l’idée  que la robotique humanoïde trouve actuellement son plus grand intérêt dans la recherche fondamentale, par exemple pour modéliser et comprendre mieux des mécanismes comme la marche, le contrôle moteur ou l’apprentissage. Au contraire, en ce qui concerne l’assistance à la personne dans des environnements quotidiens, de nombreux obstacles (scientifiques, technologiques, culturels) se posent pour l’utilisation de robots humanoïdes, et les applications plus réalistes qu’il faut envisager à court terme sont plutôt à chercher du côté des assistants robotisés pour la marche, ainsi que la robotisation d’objets quotidiens comme des lampes, des tables ou des voitures.

Texte de l’article (par Catherine Mary):

Robot iCub à l'Institut des systèmes intelligents et de robotique (ISIR), université Paris-VI.

 

Avant de déplacer le cube bleu, il faut enlever le cube rouge”, explique au robot iCub Grégoire Pointeau, doctorant du groupe de recherche dirigé par Peter Dominey à l’Institut Cellule souche et cerveau de Lyon (Inserm). iCub répète l’instruction, avance sa main vers le cube rouge, referme ses doigts dessus, puis le déplace vers la gauche. Il saisit ensuite le cube bleu pour le reposer à la place du rouge. “iCub a appris à décrypter le sens d’une phrase en fonction de l’ordre dans lequel sont placés les mots, et ses capacités de langage lui permettent d’interagir avec les humains”, explique Peter Dominey.

iCub, du mot anglais cub, qui désigne les petits des animaux, est un bébé robot. Avec le robot Nao ou le robot japonais HRP-4, il appartient à la toute dernière génération des robots humanoïdes. Leur apparence et leur gestuelle prêtent à confusion, et lorsque nous les rencontrons nous leur disons spontanément bonjour. En France, la société Aldebaran compte bien tirer parti de ces caractéristiques pour introduire Nao, qu’elle commercialise, à l’intérieur de nos vies quotidiennes.

iCub, lui, est un robot de laboratoire. Il a le poids et la taille d’un enfant de 3 ans et demi et a été conçu pour mimer le processus d’apprentissage. Avec ses mains dotées de cinq doigts finement articulés, il peut saisir un objet avec précision ou l’attraper quand on le lui lance. Ses paupières s’ouvrent et se ferment au gré de ses interactions avec les humains et on est vite tenté d’interpréter les mouvements de sa tête comme l’expression d’un doute ou d’une hésitation.

 “Nous avons créé ce robot pour étudier le fonctionnement du cerveau lors de l’apprentissage, qu’il s’agisse du langage ou de processus cognitifs complexes comme suivre la trajectoire d’une balle et la saisir, explique Giorgio Metta, de l’Institut italien de technologie (IIT), où fut lancé le projet. Pour cela, nous avons mis au point un robot capable d’apprendre en interagissant avec les gens.” “Une des forces d’iCub est qu’il a des mains et des pieds sophistiqués, ainsi qu’une tête avec des outils d’expression importants pour l’interaction homme-machine”, ajoute Pierre-Yves Oudeyer, de l’Institut national de recherche en informatique et en automatique (Inria), qui utilise le robot pour étudier la curiosité artificielle et qui vient d’écrire Aux sources de la parole. Auto-organisation et évolution (Odile Jacob, 300 p., 24,90 euros).

Financée à hauteur de 8,5 millions d’euros sur cinq ans par l’Union européenne entre 2004 et 2010, la création d’iCub est le fruit d’une collaboration entre onze laboratoires européens au sein du consortium RobotCub, où sont représentées des disciplines aussi variées que la psychologie développementale, la neurophysiologie ou encore l’informatique. A l’issue de son développement, iCub a acquis ses bras, ses mains, ses doigts, ainsi qu’un cerveau informatique lui permettant de traiter les informations et d’agir en tenant compte de ses expériences antérieures. Il pouvait aussi saisir un objet, voir et reconnaître une voix. Il a ensuite été mis à la disposition de six laboratoires européens sélectionnés à la suite d’un appel d’offres, afin de poursuivre ce développement dans différents domaines.

LE LANGAGE COMME OUTIL DE COOPÉRATION

C’est ainsi qu’il est arrivé, en 2009, au laboratoire de Peter Dominey, avec pour projet d’apprendre à utiliser le langage comme outil de coopération. “A son arrivée, iCub était capable d’assembler une table Ikea en exécutant les instructions qui lui étaient données. Les fois suivantes, il parvenait à anticiper les tâches à effectuerpour ces assemblages car il les avait mémorisées. Depuis, il a appris àcomprendre le sens des noms et mots grammaticaux, mais aussi à décrypter l’ordre de ces mots dans une phrase”, raconte Peter Dominey. Au cours de cet apprentissage, iCub a aussi appris à se situer dans l’espace en reconnaissant sa droite et sa gauche. “C’est parce qu’on lui a montré plusieurs situations dans lesquelles l’objet est placé à gauche qu’il a fini par intégrer où se trouve la gauche”, explique Maxime Petit, un autre doctorant du laboratoire.

Au total, 25 équipes de recherche collaborent en Europe au développement du robot, qui peut être acquis au prix de 250 000 euros auprès de l’IIT, qui l’assemble. Les projets incluent l’apprentissage du langage, la curiosité artificielle ou l’interaction par le toucher. Au laboratoire dirigé par la roboticienne Aude Billard à l’Ecole polytechnique de Genève, les bras du robot ont ainsi été couverts d’une peau artificielle dotée de capteurs qui lui confèrent une sensibilité au toucher. Le robot apprend à ne pas laisser échapper un objet de sa main, en faisant appel à cette modalité sensorielle.

ÉCHANGE DES CONNAISSANCES ET DES TRAVAUX

Plusieurs projets concernent également le langage. A l’université de Plymouth, auRoyaume-Uni, iCub a appris le sens de certains mots, dans le cadre du projet européen Italk. Le projet Poeticon ++ poursuit cet apprentissage en lui présentant des mots dans des contextes variés. “Le but est d’apprendre au robot le sens des mots remuer et cuillère. Le robot doit ensuite pouvoir comprendre la question “peux-tu remuer le café avec le couteau ?””, explique Angelo Cangelosi, de l’université de Plymouth, coordinateur du projet.

Si chaque équipe de recherche travaille de manière indépendante, le projet iCub prévoit l’intégration des travaux, afin de faire évoluer le robot. A chaque fois qu’un nouveau logiciel est mis au point, les chercheurs le rendent accessible, suivant le principe de l’open source, sur la plate-forme de robotique YARP. On peut ainsidemander au robot iCub de Lyon de réfléchir aux mouvements qu’il vient d’effectuer grâce à un logiciel puisé dans YARP et mis au point au laboratoire de Plymouth. Sur l’écran de l’ordinateur qui le commande, on voit apparaître la représentation de ces mouvements. “Les chercheurs impliqués dans le projet iCub forment une communauté autour de cette plate-forme qui leur permet d’échanger leurs connaissances et leurs travaux. Cela fait d’iCub un projet assez unique”, commente Giorgio Metta.

Lancé dans les années 2000 avec la plate-forme de robotique URBI, créée par l’informaticien Jean-Christophe Baillie, ce mode de collaboration marque un tournant dans la conception des robots. “Un robot, c’est aussi compliqué qu’un avion, et sa conception fait appel à des corps de métier et des compétences très variés allant de la reconnaissance vocale au contrôle des moteurs, explique Jean-Christophe Baillie, devenu directeur de recherche chez Aldebaran. Avoir une communauté de gens qui contribuent est aujourd’hui un atout indispensable.”

“Ces plates-formes intégratives rendent possibles des recherches qui ne l’étaient pas il y a une dizaine d’années. Elles ont un rôle de catalyseur entre des chercheurs issus de disciplines variées”, renchérit Pierre-Yves Oudeyer, dont l’équipe vient de lancer une nouvelle plate-forme de robotique pour le développement d’un autre robot, Poppy, plus adapté qu’iCub pour l’apprentissage de la marche. “Avant, il y avait une multitude de robots et de systèmes d’exploitation et il était plus difficile d’échanger les logiciels. Avec ces plates-formes, on a des systèmes standards. Cela permet d’accélérer les progrès”, commente encore Tony Belpaeme, un roboticien de l’université de Plymouth (Royaume-Uni). Cette standardisation concerne aussi les robots non humanoïdes, comme ces petits modules à roulettes régulièrement enrôlés dans des compétitions de football destinées à tester diverses capacités de perception et de coopération – et celles de leurs programmeurs.

“DÉMOCRATISATION DE LA ROBOTIQUE”

“Ces plates-formes contribuent aussi à la démocratisation de la robotique. Elles rendent accessible la fabrication d’un robot à des personnes qui ne sont pas spécialistes de la robotique”, remarque Frédéric Fol Leymarie, du Goldsmiths College de Londres. Certains logiciels qui commandent les mouvements du bras de Paul, un robot artiste qui a été mis au point dans son laboratoire, ont été puisés dans la plate-forme YARP, tandis que le bras lui-même a été commandé à une société coréenne. “En intégrant ainsi des logiciels et en achetant des bouts de robot, dit-il, on peut se fabriquer le sien à des prix modiques, de l’ordre de 100 à 200 euros.”

Soit une fraction du coût d’iCub. Si celui-ci est un robot de recherche, Nao est conçu pour devenir un produit commercial. “Le parti pris d’Aldebaran est defabriquer un robot qui est plus un compagnon qu’un serviteur”, raconte Rodolphe Gelin, directeur de recherche chez Aldebaran après avoir effectué la première partie de sa carrière au Commissariat à l’énergie atomique sur les robots de service. “Sa forme, sa taille (58 cm) et ses expressions font que l’interaction avec les gens est naturelle. Quand ils passent devant Nao, leur première réaction est de faire un signe de la main et de lui dire bonjour.”

COLLABORATION DES LABORATOIRES DE RECHERCHE EUROPÉENS ET AMÉRICAINS

Depuis la création d’Aldebaran, en 2005, environ 3 500 exemplaires de Nao ont été vendus à travers le monde, essentiellement à des chercheurs et à des enseignants. Au prix de 12 000 euros, il est livré équipé d’un ensemble de programmes à télécharger. On choisit ainsi de le doter de la capacité de parler, dedanser, d’écouter ou encore de marcher“Il s’agit d’une architecture ouverte, qui donne aux gens la liberté de programmer ce qu’ils veulent dans le robot ou d’utiliser nos programmes. Cela se distingue de l’open source par le fait que certains logiciels du robot, comme celui qui commande la marche, sont protégés par des brevets. Mais, si vous êtes expert en marche et que notre programme ne vous convient pas, vous pouvez en faire un autre pour le remplacer”, poursuitRodolphe Gelin.

En donnant ainsi la possibilité de modifier ses programmes, Aldebaran compte sur la communauté créée autour de Nao pour les améliorer. La société collabore ainsi avec des laboratoires de recherche européens et américains pour développer des programmes qui lui permettront, à terme, de conquérir des niches de marché. Le projet ALIZ-E d’assistance aux enfants diabétiques et aux enfants autistes s’inscrit dans cette logique. “C’est en allant vers des populations qui ont un besoin simple qu’on va d’abord rencontrer un premier marché. Après, on ira vers les marchés plus grand public”, explique encore Rodolphe Gelin.

“NOMBREUX OBSTACLES SCIENTIFIQUES, TECHNOLOGIQUES, SOCIÉTAUX ET ÉTHIQUES”

S’ils risquent de modifier notre rapport aux machines animées, les robots humanoïdes d’aujourd’hui sont pourtant encore loin des robots dont la science-fiction a nourri notre imaginaire. “Il existe un décalage entre la réalité des robots et la façon dont ils sont appréhendés”, commente Denis Vidal, anthropologue à l’Institut de recherche et de développement. “La science-fiction a ancré l’idée, dans l’imaginaire collectif, qu’il se passerait quelque chose d’inouï à partir du moment où les robots deviendraient autonomes. C’est une représentation répandue à tous les niveaux de la société, y compris chez les roboticiens eux-mêmes”, poursuit-il.

“Il ne faut pas imaginer une technologie dans sa tour d’ivoire en pensant qu’elle va tout résoudre. Il faut d’abord aller vers les gens pour comprendre leurs besoins”, souligne Pierre-Yves Oudeyer. “Il existe encore de nombreux obstacles scientifiques, technologiques, sociétaux et éthiques avant d’envisager que des robots puissent vraiment interagir avec les humains dans la vie quotidienne. Mais on peut envisager des applications spécifiques comme l’aide à la mobilité des personnes âgées au moyen de chariots motorisés capables de s’adapter à leur rythme de marche”, conclut-il.

 

 

Share Button