● Silicon.fr Télécom 📅 13/04/2026 à 18:13

Comment La Centrale a passé sa plate-forme GenAI du mono au multi-agent

Data Science 👤 Clément Bohic
Illustration
DynamoDB pour gérer le contexte, S3 pour centraliser les configurations d’agents, Lambda pour orchestrer les outils et l’observabilité… À l’origine, il y avait un peu de tout ça dans la plate-forme GenAI de La Centrale. Cette v1 a permis la mise en prod d’une vingtaine de cas d’usage. Parmi eux, la création de descriptions à partir des données de véhicules pour rendre les annonces plus attractives. Ou l’aide au pricing pour les vendeurs professionnels. Elle s’est cependant révélée inadaptée pour faire du multi-agent. Et, dans une certaine mesure, du multifournisseur. Il fallait en tout cas un certain « effort d’implémentation » pour sortir de l’écosystème Bedrock et se brancher en direct avec OpenAI, par exemple. Quoique flexible (couche applicative au-dessus de l’API Converse), cette plate-forme était par ailleurs de moins en moins pertinente à mesure que les frameworks du marché gagnaient en maturité, selon Fabien Roussel, head of architecture chez Groupe La Centrale. Des agents en tant qu’outils Pour la v2, La Centrale a basculé sur AgentCore, en y associant Strands Agents, un SDK open source (Python, NodeJS) made in AWS. Fabien Roussel – © DR « On peut faire du multi-agent sans faire nous-mêmes le code de collaboration », explique Fabien Roussel. Il ajoute que Strands Agents fournit des intégrations natives avec OpenAI & Cie. Ainsi qu’avec AgentCore (exemple avec la brique de gestion de la mémoire : « Ce n’est pas nous qui allons coder le GET et le PUT »). Ce socle a permis d'améliorer l'assistant de recherche de véhicules que La Centrale avait déployé en 2024. Notamment grâce au pattern agent as tool : Strands Agents peut encapsuler des agents en tant qu'outils. Sur cet assistant de recherche, l'agent principal (l'orchestrateur) qualifie la demande de l'utilisateur, y répond s'il le peut et délègue sinon à des agents spécialisés... traités, donc, en tant qu'outils. D'une part, Caraguide, spécialisé dans le conseil auto, à l'appui d'un RAG basé sur Caradisiac, le site éditorial du groupe. De l'autre, Free Text Search, qui normalise les données véhicule puis appelle l'API de recherche. Chaque agent est déployé dans son runtime, avec une mémoire à court et long termes. « Environ 1 $ » pour adapter des articles Caradisiac porte un autre cas d'usage : la transformation de son contenu éditorial pour l'intégrer sur La Centrale. À la fois pour l'aide à la décision des utilisateurs en début de parcours et pour améliorer le positionnement sur les moteurs de recherche. Le processus implique une vingtaine d'agents. Il prend environ 10 minutes par article. Coûts LLM : environ 1 $ (les coûts de compute sont négligeables, affirme Fabien Roussel). Les agents travaillant ensemble, ils partagent un runtime. Les deux cas d'usage exploitent des serveurs MCP managés déployés avec AgentCore Gateway. La Centrale a opté pour un serveur MCP par domaine. Une gateway pour tous les outils n'était pas envisageable (« On explose le contexte »). Une gateway par outil ne l'était pas non plus (« C'est trop fin, trop petit, on ne peut pas scaler »). Pour l'authentification des agents, c'est de l'OAuth 2 avec Cognito derrière. Pour l'authentification entre la passerelle et les outils, cela dépend : clés pour les API, IAM pour les fonctions Lambda. Au-delà des déploiements dans AgentCore Runtime, le système gère aussi les agents externes. Illustration principale générée par IA
← Retour