● BFM Tech 📅 01/05/2026 à 17:18

Le Pentagone écarte officiellement Anthropic et signe des accords avec OpenAI, Google, Nvidia, Microsoft, Amazon, SpaceX et Reflection afin d'utiliser leurs modèles d'IA pour des opérations classifiées

Géopolitique
Illustration
En froid avec Anthropic, le ministère américain de la Défense a annoncé avoir écarté l'entreprise au profit de sept autres qui vont donner accès à leurs modèles sur des opérations secrètes.Le ministère américain de la Défense a annoncé vendredi avoir passé des accords avec sept entreprises technologiques ouvrant l'accès à leurs modèles d'intelligence artificielle pour des opérations classifiées, selon un communiqué. SpaceX, maison mère du laboratoire d'IA xAI, OpenAI, Google, Nvidia, Reflection, Microsoft et la filiale d'Amazon AWS dédiée à l'informatique à distance (cloud) ont été retenus par le Pentagone."Accélèrer la transformation de l'armée américaine"Le gouvernement a écarté la start-up Anthropic, avec laquelle il est en contentieux, bien que son modèle, Claude, soit considéré comme l'un des plus performants au monde. Fin février, le gouvernement Trump a décrété la rupture de tous les contrats le liant à Anthropic, une décision contestée en justice par la start-up californienne.Anthropic blacklisté par le Pentagone – 09/03 26:11Il a alors décidé de diversifier ses prestataires d'IA pour ses activités classifiées, dont l'accès est restreint et qui concernent souvent la sécurité nationale. Le Pentagone avait déjà fait état de conventions en ce sens avec OpenAI et Google."Ces partenariats vont accélèrer la transformation de l'armée américaine en une force d'intervention tournée vers l'IA", a expliqué le ministère dans le communiqué.Les modèles d'IA des sept sociétés retenues vont être déployés pour des opérations de niveau 6 et 7, les plus élevés au sein du Pentagone. Il serviront à "rendre plus efficace la synthèse de données, la compréhension du contexte et à contribuer à la prise de décision d'un combattant dans des environnements complexes", selon le ministère. C'est dans ce cadre qu'a servi le seul modèle d'intelligence artificielle actuellement autorisé pour des opérations classifiées, Claude d'Anthropic, lors de l'offensive américaine contre l'Iran. Les décisions relatives aux attaques, le moment d'une frappe, le choix de la cible, restent prises par des militaires.Des salariés de Google vent debout contre cet accordEn multipliant ses fournisseurs, le ministère veut "éviter d'être dépendant d'un prestataire et s'assurer d'une flexibilité à long terme", a justifié le Pentagone. Ce dernier entend s'appuyer sur "des développeurs de modèles qui permettent leur utilisation pleine et entière pour soutenir (ses) missions".Le différend entre le gouvernement Trump et Anthropic est né de la volonté de l'entreprise californienne d'empêcher l'utilisation de ses modèles pour de la surveillance de masse de la population américaine et pour des attaques mortelles. Le ministère de la Défense estimait, lui, que la garantie d'un usage dans les limites de la loi était suffisante. Lundi, une lettre signée par plus de 600 salariés de Google a réclamé à la direction du groupe de renoncer à fournir à l'armée américaine ses modèles pour des opérations classifiées.Les plus lusL'État va-t-il devoir payer les amendes des boulangers? Entre tolérance du gouvernement et absence de nouvelle loi, les commerces dans le brouillard complet sur le droit d’ouvrir ou non ce 1er-MaiL'Italie d'"aucune aide" et l'Espagne "odieuse": après l'Allemagne, Donald Trump envisage d'autres réductions de ses troupes militaires en EuropeDeux hommes exécutés aux États-Unis, dont un qui avait passé près de 50 ans dans le couloir de la mortLes images impressionnantes du bus tombé dans la Seine en EssonneCongrès de la Fifa: un dirigeant palestinien refuse une photo avec un dirigeant israélien proposée par Infantino
← Retour