● Next INpact Télécom 📅 04/05/2026 à 10:43

Le Pentagone choisit ses nouveaux fournisseurs IA et exclut Anthropic… enfin presque

Géopolitique 👤 Mickael Bazoge
Illustration
Le Pentagone choisit ses nouveaux fournisseurs IA et exclut Anthropic… enfin presque La guerre l'IA au fusil Illustration : Flock Mickael Bazoge Le 04 mai à 10h43 Le Pentagone fait ses emplettes IA dans plusieurs échoppes. Le ministère américain de la Défense a signé des accords avec huit fournisseurs de modèles pour déployer leurs capacités IA dans des opérations classifiées. Anthropic n’en fait pas partie. Une erreur ? Le Department of Defense (DOD), rebaptisé Department of War par Donald Trump, a fait son choix. Exit le fournisseur d’IA dominant : l’armée américaine va s’appuyer sur les capacités d’un panel d’acteurs pour déployer leurs IA dans des opérations militaires classifiées. En l’occurrence, OpenAI, Google, Microsoft, AWS (Amazon Web Services), NVIDIA, Oracle, SpaceX (xAI) et Reflection ont été appelés à la rescousse. Google balaie les inquiétudes de ses employés Les modèles de ces entreprises pourront intervenir dans des missions IL6 (« secret defense ») et IL7, ce dernier niveau « Impact Level » recouvrant des données encore plus sensibles, souvent liées aux opérations militaires en cours. Les outils IA serviront donc à des missions particulièrement critiques : analyse de renseignement, planification d’opérations, soutien à la prise de décision en temps réel. IA L’IA dans la guerre : « Le cas le plus critique concerne la prise de décision militaire » IA Mercredi 04 mars 2026 à 14h08 04/03/2026 14h08 6 « Ces accords accélèrent la transformation de l’armée américaine vers un modèle centré sur l’IA et renforceront la capacité des forces à conserver un avantage décisionnel sur l’ensemble des théâtres d’opérations », explique le communiqué du DoD. Plusieurs de ces fournisseurs étaient déjà connus, comme SpaceX, OpenAI ou encore Google. Au sein de cette dernière, l’accord signé lundi 27 avril a suscité une fronde interne. Une lettre ouverte signée par plus de 560 employés demande à Sundar Pichai, le CEO de Google, de refuser l’utilisation de sa technologie IA pour des opérations militaires classifiées. « Nous voulons que l’IA profite à l’humanité, pas qu’elle soit utilisée de manière inhumaine ou extrêmement nuisible », expliquent les signataires. « La seule façon de garantir que Google ne soit pas associé à de tels dommages est de refuser tout travail sur des projets classifiés », poursuivent-ils. « Dans le cas contraire, de tels usages pourraient se produire sans que nous en ayons connaissance ni la possibilité de les empêcher. » Des inquiétudes balayées du revers de la main par Kent Walker, président des affaires juridiques d’Alphabet. Dans un mémo, il écrit : « Nous travaillons avec fierté avec les ministères de la Défense depuis les débuts de Google et continuons de penser qu’il est important de soutenir la sécurité nationale de manière réfléchie et responsable. » Il ajoute que « rester engagés auprès des gouvernements, y compris sur les questions de sécurité nationale, permettra aux démocraties de tirer parti de technologies responsables. ». Circulez… Mythos envers et malgré tout Le Pentagone utilisait Claude depuis 2024, avec un certain succès. Les modèles Claude gov développés par Anthropic ont ainsi été mis à profit pour la capture du président du Venezuela, Nicolas Maduro, le 3 janvier. Et aussi pour les premières opérations de la guerre menée avec Israël contre l’Iran. L’entreprise d’IA a soulevé des objections concernant l’exploitation de sa technologie à des fins militaires : elle ne doit pas servir à la surveillance de masse des citoyens aux États-Unis ni équiper des armes totalement autonomes. Or, le très guerrier DoD actuel ne veut pas se laisser dicter ses actions par un fournisseur. IA Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA IA Lundi 02 mars 2026 à 17h40 02/03/2026 17h40 11 L’affaire s’est envenimée à un point tel que le DoD a désigné Anthropic « fournisseur à risque », autrement dit une menace pour la sécurité nationale, une première pour une entreprise du pays. Depuis, l’affaire s’embourbe en justice… Le lancement de Mythos début avril a rebattu les cartes en faveur d’Anthropic. Emil Michael, le directeur technique du DoD, affirme ainsi que si Anthropic demeure un risque pour la chaîne d’approvisionnement de l’armée US, Mythos constituait « un moment à part pour la sécurité nationale ». Il a expliqué à CNBC que « nous devons nous assurer que nos réseaux sont suffisamment renforcés […] ce modèle dispose de capacités spécifiques pour identifier des vulnérabilités informatiques et les corriger ». Le ministère américain de la Défense exploite donc déjà l’IA depuis un moment pour ses opérations. Les modèles des nouveaux fournisseurs sont censés servir à synthétiser d’importants volumes de données, améliorer la compréhension des situations complexes (champ de bataille, cybersécurité…), et accélérer la prise de décision. Le DoD a développé GenAI.mil, sa plateforme officielle d’IA. Elle a été utilisée par plus d’1,3 million de membres du personnel, « générant des dizaines de millions de requêtes et déployant des centaines de milliers d’agents en seulement cinq mois ». Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant. Accédez en illimité aux articles d'un média expert Profitez d'au moins 1 To de stockage pour vos sauvegardes Intégrez la communauté et prenez part aux débats Partagez des articles premium à vos contacts Abonnez-vous potn Premium À l'instant Message 1 Signaler Bloquer cet utilisateur J'aimerais bien savoir un truc : le DoW fait-il appel aux IA du Cloud, ou est-ce qu'il a des datacenters en propre ?Dans le premier cas, c'est quand même assez fou de se dire qu'ils envoient des données sensibles aux entreprises du Cloud, non ? Signaler un commentaire Voulez-vous vraiment signaler ce commentaire ? Non Oui
← Retour