● BFM Tech
📅 14/04/2026 à 17:36
L’administration britannique s’inquiète: Mythos, l’une des IA les plus puissantes d’Anthropic, réussit 73% d’un test inédit de cybersécurité, qu’aucun modèle ne parvenait à boucler en 2025
Géopolitique
Mythos, l’une des IA les plus puissantes d’Anthropic, réussit 73% d’un test inédit de cybersécurité (illustration) - BFM TechL’AI Security Institute, un organisme de recherche rattaché au ministère britannique des Sciences, de l’Innovation et de la Technologie, a testé une version "preview" de l’IA Mythos d’Anthropic afin d’en évaluer les performances. Résultat: le modèle a largement réussi de nombreux tests, parfois complexes, y compris pour d’autres IA concurrentes.L’administration américaine n’est pas la seule à s’inquiéter de l’arrivée des nouveaux modèles d’IA, notamment ceux d’Anthropic. Récemment, de hauts responsables de la cybersécurité, aux côtés du vice-président JD Vance et du secrétaire au Trésor Scott Bessent, ont longuement échangé avec plusieurs figures majeures de la tech, dont Dario Amodei (Anthropic), Elon Musk (xAI), Sundar Pichai (Google), Sam Altman (OpenAI), Satya Nadella (Microsoft), ainsi que des dirigeants de Palo Alto Networks et CrowdStrike, deux sociétés spécialisées dans les questions de sécurité numérique.L’objectif? Echanger sur les risques et les menaces posés par ces nouveaux outils d’IA, dont les dernières itérations sont jugées particulièrement puissantes. Outre-Manche, l’arrivée de la puissante IA Mythos d’Anthropic interroge également. L’AI Security Institute (AISI) a évalué la version préliminaire de Claude Mythos d’Anthropic, dévoilée le 7 avril, afin de mesurer ses capacités en cybersécurité.Des tests majeurs "remportés"Les résultats montrent une progression importante par rapport aux modèles précédents, dans un domaine où les performances évoluent déjà très rapidement. Pour rappel, l’AISI est un organisme de recherche rattaché au ministère britannique des Sciences, de l’Innovation et de la Technologie.Performances des modèles sur les tâches Capture the Flag (CTF) de niveau technique non expert et apprenti depuis novembre 2022. GPT-3.5 Turbo à Claude 4 Opus : moyenne de 10 exécutions jusqu’à 2,5 millions de jetons. GPT-5 à Mythos Preview : moyenne de 5 exécutions jusqu’à 2,5 millions de jetons. © AISI/ Gouvernement du Royaume-UniIl a pour mission principale de tester les principaux systèmes d’IA avant leur mise sur le marché, de collaborer avec les entreprises les plus avancées du secteur afin d’en renforcer la sûreté et la sécurité, et d’informer les décideurs politiques du Royaume-Uni ainsi que des pays alliés sur les nouvelles capacités et les risques liés à ces technologies.Évolution des performances des modèles sur des épreuves de cybersécurité de type « Capture the Flag » (CTF), de niveau intermédiaire et expert, depuis août 2025. Chaque modèle a été testé en moyenne 5 fois, avec un budget allant jusqu’à 50 millions de tokens. © AISI/ Gouvernement du Royaume-UniSelon ces évaluations, menées dans des environnements contrôlés incluant des tests de type "capture du drapeau" et des simulations d’attaques multi-étapes, le modèle serait désormais capable d’identifier et d’exploiter de "manière autonome certaines vulnérabilités", y compris sur des "réseaux vulnérables". Des tâches qui nécessiteraient habituellement plusieurs jours de travail pour des experts humains.Lors d’évaluations sur des tâches "de niveau expert", qu’aucun modèle ne parvenait à réaliser avant avril 2025, Claude Mythos Preview atteint un taux de réussite... de 73%. Ces tests montrent une progression nette des capacités en cybersécurité avancée, notamment sur des exercices auparavant hors de portée des IA.La figure montre que, dans la simulation The Last Ones (32 étapes), les modèles les plus récents comme Mythos Preview, Opus 4.6 et GPT-5.4 progressent nettement avec l’augmentation du budget de tokens, atteignant les meilleurs résultats. À l’inverse, les modèles plus anciens plafonnent rapidement et accomplissent moins d’étapes, même avec davantage de ressources. © AISI/ Gouvernement du Royaume-UniDans une simulation plus complexe de "type cyber-range" (un environnement informatique simulé conçu pour reproduire des systèmes, réseaux et infrastructures réels, NDLR), baptisée The Last Ones (TLO), reproduisant une attaque en 32 étapes nécessitant environ 20 heures de travail humain, le modèle est le premier à réussir un enchaînement complet de bout en bout.Un même test, réalisé par la Cornell University, estime qu'en moyenne, il complète 22 étapes sur 32, contre 16 étapes pour le modèle le plus performant jusque-là, Claude Opus 4.6.Des résultats significatifs... ou inquiétants?Pour les experts britanniques, nul doute: le succès de la version de test de Mythos dans un environnement "compétitif" virtuel suggère qu’il pourrait être capable de mener des attaques autonomes contre de petits systèmes d’entreprise faiblement protégés, une fois l’accès réseau obtenu.Ces tests restent toutefois un peu éloignés des conditions réelles, car ils ne prennent pas en compte certaines défenses actives ni les systèmes de détection. Les chercheurs appellent donc à des évaluations plus réalistes et insistent sur l’importance de renforcer dès maintenant les bases de la cybersécurité... tout en rappelant que l’IA représente à la fois un risque et une opportunité pour améliorer les défenses.Les plus lus"Blasphématoire", "antéchrist": face à l'indignation de la droite religieuse, Donald Trump retire une image le représentant tel JésusUne jeune Iranienne juge que "la répression sera sûrement plus dure" avec la trêve entre l'Iran et les États-UnisLiverpool-PSG: comment Khvicha Kvaratskhelia est devenu l’homme des grands soirs"Donner le premier souffle de vie à une base lunaire durable": Blue Origin, l'entreprise de Jeff Bezos, annonce avoir produit de l'oxygène à partir de poussière lunaireINFO RMC. Villefranche-sur-Saône: un adolescent de 13 ans tué par balle, la piste accidentelle privilégiée
🔗 Lire l'article original
👁️ 0 lecture