● Journal du Net
📅 15/04/2026 à 11:02
Adapter la sécurité à l'ère de l'IA agentique, une priorité en 2026
Géopolitique
👤 James Robinson
Du fait de leur capacité à interagir avec d'autres logiciels ou infrastructures, les systèmes d'IA agentiques pourraient constituer des cibles de choix pour les cybercriminels. En février 2026, une note du Conseil de l’IA et du numérique souligne les limites et les risques liés aux IA agentiques, en particulier en matière de sécurité. Elle indique que, du fait de leur capacité à interagir avec d’autres logiciels ou infrastructures, ces systèmes pourraient constituer des cibles de choix pour les cybercriminels. L’émergence de l’IA agentique transforme en effet la façon dont se déroule les attaques, le comportement des systèmes et la nature du travail des équipes de sécurité. Cette technologie reste encore trop peu maîtrisée par la majorité des services, ce qui engendre des risques de sécurité potentiels. Il est donc essentiel de mettre en place et d’adapter des dispositifs de surveillance pour accompagner son déploiement rapide. Par ailleurs, il est primordial de former les équipes de sécurité ou de s’appuyer sur des experts pour répondre à ces nouvelles problématiques. Cela implique de concevoir des stratégies adaptées qui tiennent compte à la fois du comportement réel des agents, de leurs limites et des données auxquelles ils ont accès. L’urgente élaboration d’une approche de la sécurité adaptée à l’économie agentique Alors que les agents opèrent déjà au sein des entreprises, souvent sans supervision, la plupart des équipes ne savent toujours pas où ni comment l’IA agentique est utilisée dans leurs systèmes. Pour ne pas se laisser dépasser, élaborer une approche de la sécurité adaptée à l’économie agentique devient ainsi nécessaire. Cela implique dans un premier temps de dresser un inventaire de chaque agent présent dans l’environnement. Toutefois, une fois ce diagnostic effectué, la rapidité avec laquelle travaillent les développeurs devient un nouveau problème. En effet, quelques minutes leur suffisent pour créer, modifier et déployer des agents. Une approche dynamique de la sécurité est primordiale. Les équipes IT doivent ainsi se doter de systèmes de contrôle intégrés dans les processus de création, de tests et de déploiement des agents. Les comités de gouvernance n’offrent pas une réactivité adaptée à la progression rapide de l'IA agentique. Il est urgent de se munir de dispositifs de gouvernance automatisés, intégrés et fonctionnant en continu. Par ailleurs, un suivi en temps réel et la mise en œuvre automatisée des politiques, permettrai la détection immédiate de toute anomalie. Adapter les dispositifs de surveillance aux nouvelles menaces liées aux agents IA Historiquement, la majorité des compromissions de sécurité reposaient sur une étape d’ingénierie sociale et un maillon humain dans la chaîne d’attaque. De nombreux dispositifs de réponse aux incidents s’articulent donc encore autour des comportements humains. Par exemple, un individu clique sur un lien piégé, accède à des données confidentielles ou effectue un changement non autorisé. Toutefois, ce modèle devient inopérant lorsque l’action est réalisée par un agent autonome qui exécute une instruction mal conçue ou interprète incorrectement une consigne. D’ailleurs, même les dysfonctionnements prennent une forme différente pour les agents. Ils peuvent halluciner des étapes, agir en se basant sur un contexte incomplet, obéir aux instructions d’un cybercriminel, ignorer les limites qui leur sont assignées ou encore lancer une séquence d’actions échappant à toute logique humaine. Ces comportements créent une catégorie d’incidents inédite pour les équipes de sécurité chargées de les analyser. Par conséquent, les méthodes traditionnelles d’investigation centrées sur l’analyse des actions humaines deviennent insuffisantes. À l’heure actuelle, aucune entreprise ne dispose de stratégies établies pour faire face à ce type de problème. Elles doivent ainsi adopter une approche de gestion des incidents qui considère ces systèmes comme des acteurs autonomes plutôt que comme des extensions d’utilisateurs humains. Pour se faire, il faut commencer par définir les éléments de preuve à cibler lors d’une enquête sur un agent : sa chaîne d’instructions, les résultats du modèle qu’il a reçus, la fenêtre contextuelle de son action, les autorisations utilisées et les limites décisionnelles outrepassées. Sans ces informations, le comportement de cet agent restera inexpliqué. Il est donc primordial de créer un modèle de réponse aux incidents de compromission par les agents. Les RSSI doivent redéfinir ce qui les caractérise. Cela suppose notamment de faire le tri dans les approches existantes, de comprendre comment reconstituer le comportement des agents a posteriori et de trouver la bonne manière pour faire la part entre les incidents causés par des machines et ceux qui sont d’origine humaine. Intégrer une capacité de Red Teaming basée sur l’IA Les équipes de sécurité manquent de formation pour comprendre le raisonnement d’une IA malveillante. Collaborer avec un partenaire ayant cette capacité peut être la solution pour les organisations qui ne disposent pas d’experts en IA offensive. En effet, ces experts ont une approche à l’opposé des équipes de sécurité traditionnelles. Leur rôle consiste à chercher des failles dans les modèles, soumettre les agents à des tests spécialisés et provoquer des comportements qui ne se manifestent qu’en cas d’attaque. Leur force est qu’ils pensent comme les cybercriminels, car ils pratiquent ces techniques au quotidien, en toute sécurité, de façon concertée et dans des environnements sous contrôle. Le Red Teaming appliqué à l’IA doit être aligné avec les stratégies de réponse aux incidents. Lorsqu’un agent adopte un comportement inattendu ou difficile à interpréter, il est nécessaire de reproduire des défaillances réalistes, comme des injections de commandes, des instructions malveillantes, des abus de privilèges ou des dépassements des limites définies, ainsi que toute situation imprévisible. La mise en place de tests réguliers de ces scénarios est essentielle, car même les cas encore inédits finiront, tôt ou tard, par se présenter. À l’ère de l’agentique, la manière dont les cybercriminels mène leurs attaques évolue. Il devient donc crucial de développer rapidement de nouvelles capacités pour conserver une longueur d’avance et éviter d’en subir les conséquences. L’adoption d’un modèle de sécurité permettant aux RSSI de disposer d’une visibilité réelle sur les agents, ainsi que la définition de stratégies de réponse aux incidents capables de traiter des comportements inédits, s’imposent comme des priorités pour l’année à venir. Dans cette optique, les organisations doivent ancrer ces pratiques dans leur culture, en s’exerçant régulièrement à tester le comportement de leurs agents, à anticiper leurs défaillances et à évaluer la robustesse de leurs dispositifs de défense en situation de crise.
🔗 Lire l'article original
👁️ 0 lecture