● Silicon.fr Télécom 📅 09/03/2026 à 14:34

« More agents is all you need »... ou pas : une esquisse de lois d'échelle pour l'IA agentique

Géopolitique 👤 Clément Bohic
Illustration
« More agents is all you need. » En octobre 2024, le labo IA de Tencent avait publié un article ainsi intitulé. Il y présentait une méthode permettant d’accroître la performance d’un LLM en augmentant le nombre d’agents instanciés. La technique, dite « forêt d’agents », est simple dans son principe : envoyer une requête à plusieurs agents (instances d’un LLM) et les faire voter à la majorité sur les outputs. Un « agent LLM » peut aussi bien être un LLM seul qu’un groupe d’agents. Google Research y fait référence dans un autre article… qui en prend partiellement le contrepied. Il y propose des principes de mise à l’échelle des systèmes agentiques. Lire aussi : IA : la Chine rattrape son "retard" selon le patron de Google DeepMind 3 familles de LLM, 4 benchmarks, 5 architectures Ces principes découlent de l’analyse de 180 configurations. En l’occurrence, 5 architectures agentiques appliquées à 3 familles de modèles et testées sur 4 benchmarks. Les architectures en question : Mono-agent Agents indépendants (aucune communication entre eux) Centralisé (plusieurs agents, chacun communiquant avec un orchestrateur) Décentralisé (communication entre pairs) Hybride (orchestrateur + P2P limité) L’orchestrateur détermine la manière dont sont agrégés les outputs des agents et s’il a le droit de passer outre. Il gère aussi la mémoire. Ces architectures ont été appliquées à des modèles d’Anthropic (Claude Sonnet 3.7, 4.0 et 4.5), de Google (Gemini 2.0 Flash, 2.5 Flash et 2.5 Pro) et d’OpenAI (GPT-5, 5 mini et 5 nano). Les benchmarks étaient les suivants : Finance Agent (2025 ; analyse financière sur dépôts SEC) BrowseComp-Plus (2025 ; « recherche approfondie » sur le web) Plancraft (2024 ; planification en environnement Minecraft) WorkBench (2024 ; exécution de tâches en environnement de bureau) Les tests se sont faits à paramètres fixes (outils, prompts, budgets de calcul). En sont ressorties 8 métriques, le taux de réussite étant la principale. À partir de ces métriques, ainsi que de trois autres indicateurs (propriétés des tâches, nombre d'agents, capacités de modèles de base), Google Research a élaboré un modèle prédictif. Son rôle : identifier l'architecture optimale pour une tâche donnée. Ce n'est pas (vraiment) le nombre qui compte Là semble effectivement résider le véritable enjeu. Si on en croit les résultats communiqués, ce n'est pas tant le nombre d'agents qui importe que l'adéquation entre la tâche et l'architecture agentique. Lire aussi : IA générative : Wikipedia fait enfin passer les chatbots à la caisse La complexité des tâches joue moins que la capacité à les décomposer. Les résultats sur Finance Agent et Plancraft en témoignent. Fait d'informations statiques et structurées, Finance Agent se prête à une division du travail. Toutes les architectures multi-agents apportent effectivement un gain important par rapport au mono-agent. Plancraft est, au contraire, intrinsèquement séquentiel (chaque action modifie potentiellement l'environnement). Le multi-agent y est systématiquement moins efficace que le mono-agent. Diviser le travail implique que chaque agent synchronise l'état du système. Dans un tel environnement dynamique, cela impacte significativement le budget de calcul disponible. Les agents compressent alors d'autant plus les informations qu'ils (se) transmettent, au risque de perdre de l'information. Les taux en rouge et en vert s'entendent par rapport au résultat en mono-agent. Les boîtes représentent l'intervalle des taux de réussite ; les diamants, la performance moyenne. Sur WorkBench, la différence est plus marginale. Idem sur BrowserComp-Plus, où l'approche décentralisée, adaptée à l'exploration parallèle de pages web (espaces de recherche à forte entropie), affiche le meilleur score de précision. Google perçoit un modèle généralisable La surcharge liée à la coordination des agents pèse démesurément sur les tâches qui impliquent beaucoup d'outils. L'étude ne révèle pas, en revanche, de corrélation entre l'augmentation de cette surcharge et celle de la complexité des tâches. À performance équivalente, le multi-agent consomme bien plus de tokens que le mono-agent (+ 58 % en mode « indépendant », + 263 % en décentralisé, + 285 % en centralisé, + 515 % en hybride. Dès qu'un agent seul dépasse les 45 % de taux de réussite, en ajouter a des effets négatifs. Quant à la redondance des tâches (en confier une à plusieurs agents), elle n'a, à l'échelle, qu'un bénéfice marginal. La présence ou l'absence de points de validation engendre une grande différence dans l'amplification des erreurs. En centralisé, elles sont multipliées par 4,4 par rapport au mono-agent ; en décentralisé, par 7,8 ; en hybride, par 5,1 ; en indépendant, par 17,2. Lire aussi : Gemini 3 Pro : à J+10, un enthousiasme plus tempéré Les architectures centralisée et décentralisée tendent à réduire le taux moyen d'erreurs par rapport au mono-agent. Notamment pour ce qui est de l'omission de contexte. Et, dans une moindre mesure, les contradictions de logique. C'est n'est pas toujours le cas pour les architectures hybrides, avec lesquels ce taux s'accroît même parfois. En particulier sur les dérives numériques (découlant d'arrondis ou de mauvaises conversions en cascade). La hiérarchie des architectures est relativement stable entre domaines. Google Research y voit la preuve que son modèle est généralisable. Sur labase de ses expérimentations, il affirme qu'à budget constant, au-delà de 3 ou 4 agents, la qualité de raisonnement de chacun se dégrade. Illustration principale générée par IA
← Retour