● Next INpact Télécom
📅 06/05/2026 à 16:10
Le Pentagone choisit ses nouveaux fournisseurs IA et exclut Anthropic… enfin presque
Intelligence Artificielle
👤 Mickael Bazoge
Une erreur ? Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement. Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense. Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises. Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public. Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité. Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public. Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique. Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé. IA Le Pentagone choisit ses nouveaux fournisseurs IA et exclut Anthropic… enfin presque IA Lundi 04 mai 2026 à 10h43 04/05/2026 10h43 5 Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant. Accédez en illimité aux articles d'un média expert Profitez d'au moins 1 To de stockage pour vos sauvegardes Intégrez la communauté et prenez part aux débats Partagez des articles premium à vos contacts Abonnez-vous Signaler un commentaire Voulez-vous vraiment signaler ce commentaire ? Non Oui
🔗 Lire l'article original
👁️ 1 lecture