● Journal du Net 📅 10/04/2026 à 11:22

Arnaud Robert (Hexagon Robotics) : "Le robot d'Hexagon AB peut fonctionner jusqu'à 23h30 par jour contre 12 heures pour nos concurrents"

Géopolitique 👤 Mattis Meichler
Illustration
Créé en 2025, Hexagon Robotics a l'ambition de développer des robots humanoïdes destinés à l'industrie. Son président, Arnaud Robert, revient sur le lancement de son premier robot humanoïde, AEON, testé chez BMW. Fondé l'année dernière en Suède, Hexagon AB s’est imposé comme un acteur mondial de référence dans les technologies de mesure et les jumeaux numériques. Historiquement ancrée dans la métrologie industrielle et les systèmes de positionnement, l’entreprise a progressivement élargi son champ d’action à l’intelligence artificielle et à l’autonomie. JDN. Le robot AEON est votre premier produit. Pouvez-vous nous le présenter ? Arnaud Robert est le président d’Hexagon Robotics © Hexagon Robotics Arnaud Robert. AEON a été lancé en juin 2025. Il mesure 1,65 mètre pour 60 kilos et dispose de 34 à 40 degrés de liberté ainsi que de 20 capteurs embarqués. Sa première catégorie d’usage est la manipulation : pick-and-place, tri, déplacement de cartons. AEON est aussi capable de mener des inspections : grâce à sa suite de capteurs, il peut inspecter des pièces ou des environnements et détecter des défauts dans l’infrastructure. Il peut aussi se déplacer dans une usine ou un entrepôt et générer un jumeau numérique de l’environnement Pourquoi avoir choisi de développer un robot humanoïde plutôt qu’un autre type de robot ? D’abord, les clients veulent des robots polyvalents, capables d’intervenir dans des environnements variés. Ensuite, les clients ne veulent pas modifier leurs usines. Ils ont investi des centaines de millions d’euros dans des infrastructures conçues pour des humains. L’attente est donc que les robots puissent s’intégrer dans ces environnements sans transformation majeure. Qu’apportent-ils par rapport aux êtres humains ? Il faut distinguer deux logiques : répondre à la pénurie de main-d’œuvre et augmenter les capacités des travailleurs. L’objectif est notamment de déléguer les tâches répétitives afin de libérer du temps pour des activités à plus forte valeur ajoutée. Sur certaines tâches comme l’inspection ou la capture de données, les robots sont déjà comparables, voire supérieurs aux humains, notamment grâce au machine learning capable de détecter des défauts très fins. En revanche, sur la manipulation, les humains restent supérieurs en termes de dextérité et de vitesse. Mais les industriels raisonnent de plus en plus en termes de cycle de production. Un robot capable de fonctionner 24 h/24 peut ainsi atteindre une productivité globale comparable, voire supérieure, à celle d’un humain. Qu’est-ce qui distingue AEON des autres robots du même type ? Un point clé est notre suite de capteurs. Elle permet non seulement l’inspection et la capture de données, mais surtout ce que nous appelons l’intelligence spatiale et la perception spatiale. Le robot a une conscience en temps réel de son environnement global. Là où d’autres solutions se concentrent uniquement sur la tâche en cours, en environnement industriel, il est essentiel de détecter les mouvements humains et les objets déplacés, pour des raisons d’efficacité et de sécurité. Le design du robot est également original, notamment avec des roues, des mains interchangeables et un système de changement de batterie automatisé. Quels ont été vos choix de conception ? Nous avons fait plusieurs choix structurants. D’abord, les roues permettent une locomotion très efficace. Il ne s’agit pas seulement d’aller d’un point A à un point B, mais aussi de pouvoir se repositionner rapidement : le robot peut effectuer des rotations de 180° ou 360° en quelques secondes, ce qui est essentiel dans des environnements industriels. Ensuite, nous avons opté pour une approche modulaire au niveau des effecteurs. Plutôt que de concevoir une main universelle, nous utilisons l’outil le plus adapté à chaque tâche, que l’on peut remplacer facilement selon les besoins. Enfin, nous avons développé un système de remplacement automatique des batteries. La plupart des robots concurrents fonctionnent selon un cycle de deux heures de travail suivies de deux heures de recharge, soit environ 12 heures d’activité sur une journée de 24 heures. Notre robot peut fonctionner jusqu’à 23h30 par jour : il se rend simplement à une station, remplace sa batterie en moins de 30 secondes, puis reprend son activité. Vous avez signé un partenariat avec BMW. En quoi consiste-t-il ? Nous avons commencé par mener des tests dans leur usine. Les deux principaux cas d’usage, définis par leurs équipes, sont l’assemblage des batteries haute tension et le pilotage de la production, notamment en transférant des opérations d’une ligne à une autre grâce au machine learning. Nous entrons maintenant dans la phase suivante : d’ici la fin de l’année, nous voulons passer à une production complète dans l’usine BMW de Leipzig. Les deux cas d’usage testés seront industrialisés au cours des six à sept prochains mois. Quels enseignements avez-vous tirés jusqu’à présent ? Les données collectées directement en usine ont un impact déterminant. Nous avons surtout investi du temps pour capturer l’environnement réel et les pratiques de travail. Le gain de performance obtenu a été plus important que prévu. Ensuite, le passage à l’échelle est un véritable enjeu. Lors d’un pilote, on oublie que l’usine est un environnement vivant. Par exemple, si cinq robots travaillent sur une même ligne, il faut comprendre comment ils interagissent sans entrer en collision. L’objectif à court terme est de passer à quelques centaines d’unités en 2027 afin de valider et préparer le passage à l’échelle. Quel est le prix des robots ? Il n’est pas encore communiqué, mais il est aligné sur le marché, autour de 120 000 dollars au départ, avec une baisse attendue à mesure que les volumes augmentent. Sur la production, 2027 constitue une étape clé : quelques centaines d’unités sont attendues d’ici là, puis plusieurs milliers par an à l’horizon 2030. Le principal frein n’est pas la production, mais le rythme de déploiement chez les clients. Les industriels ne déploieront pas des milliers de robots immédiatement : cela doit se faire de manière progressive et réfléchie. Concernant le logiciel et l’intelligence des robots, vous avez mentionné des partenariats avec Microsoft et NVIDIA. Pouvez-vous expliquer comment vous les utilisez ? Avec Microsoft, il s’agit d’un partenariat à deux niveaux : les capacités de calcul et l’infrastructure, ainsi que la chaîne d’apprentissage par imitation. L’objectif est de structurer tout le pipeline, des données à l’exécution par le robot, en passant par l’entraînement des modèles, afin d’optimiser l’ensemble de bout en bout. Nous développons nos propres modèles d’IA, mais nous nous appuyons sur Microsoft pour l’orchestration de cette chaîne. Avec NVIDIA, nous travaillons à trois niveaux. D’abord pour l’entraînement des modèles, via leurs GPU. Ensuite sur la simulation, avec des environnements virtuels et du reinforcement learning, appuyés par des jumeaux numériques très précis. Enfin, sur l’edge AI, c’est-à-dire l’IA embarquée directement dans le robot, qui permet de traiter en temps réel la fusion de capteurs, la perception et l’intelligence spatiale. Concernant les modèles d’IA, vous entraînez vos propres modèles ? A ce stade, tous les modèles d’IA nous appartiennent. Nous utilisons parfois des briques open source, que nous ajustons fortement. Le seul domaine où nous envisageons des partenariats concerne les modèles vision-language-action (VLA) et les world models, des domaines très investis. Nous pensons qu’il est plus pertinent de collaborer puis d’adapter ces modèles à nos besoins, plutôt que de les développer entièrement en interne. Et concernant le hardware, comment travaillez-vous ? Nous développons une partie du hardware en interne, notamment le "squelette" du robot. Nous avons également noué un partenariat avec Maxon pour les actionneurs, un composant clé. Pour les capteurs, nous travaillons avec des fournisseurs OEM : nous achetons le matériel, puis nous développons nous-mêmes les couches logicielles associées. Nous suivons ainsi une approche hybride : développer les éléments différenciants, acheter les composants standard et nouer des partenariats lorsque cela apporte un avantage stratégique.
← Retour