● Journal du Net
📅 27/03/2026 à 12:17
Sentir pour agir : pourquoi le futur de la robotique se joue au bout des doigts
Géopolitique
👤 Evann Hislers
Le sens de la vision, longtemps prédominant en robotique, atteint aujourd'hui ses limites. Pour rendre les robots plus sûrs, plus efficaces et mieux acceptés, les chercheurs et industriels se tournent vers le sens du toucher. Imaginez devoir craquer une allumette avec des gants de boxe, en vous fiant uniquement à votre vision. C'est le défi permanent des robots actuels : leur intelligence artificielle est bridée par un corps peu sensible. Si la vision par ordinateur a permis des avancées, les experts s'accordent sur un constat : elle atteint un plafond de verre si elle n’est pas couplée à d’autres sens. Pour devenir fiables et autonomes, les robots doivent apprendre à "sentir". Nicolas Lauzier, gestionnaire de produits chez le concepteur de système d'automatisation Robotiq, observe ce basculement sur le terrain. Il y a un an à peine, la conviction générale était que l'IA couplée à la vision suffirait. Aujourd'hui, il admet qu'il est "difficile de réaliser des tâches tactiles juste avec la vision". D’ailleurs, le marché des capteurs tactiles, estimé à 18,6 milliards de dollars en 2025, devrait exploser pour atteindre 66 milliards d'ici 2035, selon Future Market Insights. Pourquoi la vue ne suffit plus Le toucher ne se limite pas à la manipulation, il est essentiel à la sécurité. Pour Abderrahmane Kheddar, directeur de recherche au CNRS, l'enjeu dépasse la main : "Il faut équiper tout le corps". Le tactile est important pour évoluer dans des environnements confinés, où un robot doit pouvoir sentir où il s'appuie pour se stabiliser. Son équipe au Laboratoire d'Informatique, de Robotique et de Microélectronique de Montpellier (LIRMM) a développé une peau électronique capable de dissocier les forces en trois dimensions. Cette technologie, composée d'un film magnétique souple et de capteurs, permet au robot de pouvoir manipuler un œuf sans le briser. Cette sensibilité est aussi une condition d'acceptation sociale. Pour Firas Abi-Farraj, le chief technology officer (CTO) d'Enchanted Tools, un robot doit savoir faire la différence entre un objet et un humain. "C'est très important pour l'acceptation sociale. Il y a aussi la question de sentir une main humaine", souligne-t-il. Le fait qu'un robot Miroki sente qu'on le "gratte sur la tête" change l'interaction. Le double enjeu du toucher robotique Les capteurs tactiles permettent de mesurer la force de pression des préhenseurs (dispositifs d'un robot qui permettent de saisir des objets). © Robotiq Recréer ce sens reste un défi. Chez Robotiq, on mise sur des "taxels", des pixels tactiles, "disposés en grille sur les doigts des pinces pour mesurer la pression". Mais le toucher humain est plus riche. Firas Abi-Farraj rappelle que nous avons deux types de sensations : le contact cutané (la peau) et la perception kinesthésique (muscles et articulations). C'est cette dernière qui nous permet de savoir quelle force nous exerçons, même avec des gants. "Si je pousse sur quelque chose, je sens combien de force je suis en train de faire sur cet objet", précise-t-il. En pratique, le tactile est une contrainte matérielle car ces capteurs restent chers, souvent plus de 1 000 euros l'unité, et peu standardisés. "Si l’on regarde les mains de robots, chaque robot en a une différente", note Firas Abi-Farraj, signe que le domaine n'est pas encore mature industriellement. L'usine, puis le salon Enchanted Tools a donc choisi une approche pragmatique pour ses robots Miroki et Miroka. Ils utilisent des poignées spécifiques pour garantir un taux de succès de 99,9%. "Dans la vraie vie, 80% de réussite signifie que le robot échoue une fois sur cinq. Personne n'acceptera ça chez soi", tranche le CTO. L'objectif est une version grand public vers 2030, capable de manipulations plus fines. Le robot d’Enchanted Tools ne peut saisir pour l’instant que des objets avec des poignées spéciales. © Enchanted Tools - Annie Girardot Ehpad Paris Pour manipuler des objets variés sans poignée dédiée, le robot doit apprendre. Cette phase d'apprentissage passe majoritairement par le virtuel. Grâce au Sim2Real, les robots s'exercent des millions de fois dans des simulateurs avant de transférer ce savoir à la machine. Une autre voie, plus directe, est la démonstration où l'on guide la main du robot. Abderrahmane Kheddar y voit un futur proche : "Est-ce que demain, n'importe qui pourra apprendre des tâches ménagères à son robot, un peu comme on guide un enfant par la main ?" L'enjeu n'est plus de rendre les machines plus "humaines", mais simplement de leur permettre de manipuler un objet sans le briser ou de frôler un opérateur sans danger. C'est à cette seule condition que les robots pourront enfin sortir des environnements confinés pour intégrer plus massivement nos usines, puis nos salons.
🔗 Lire l'article original
👁️ 0 lecture