● BFM Tech 📅 05/05/2026 à 15:29

Vers des modèles IA vérifiés avant leur sortie? La Maison Blanche souhaiterait changer de méthode et imposer une surveillance plus concrète des géants de l’intelligence artificielle

Géopolitique
Illustration
L’administration Trump a demandé à ses diplomates de s’opposer aux réglementations étrangères sur les données, estimant qu’elles pourraient nuire aux services liés à l’intelligence artificielle - BFM TechJusqu'ici peu interventioniste, la Maison Blanche étudierait désormais la possibilité de vérifier les modèles d'intelligence artificielle avant qu'ils ne soient rendus publics.Donald Trump se prépare à un nouveau revirement. Depuis le début de son second mandat, le président américain a fait de l'intelligence artificielle son mantra. Elle est utilisée à tous les étages de l'administration, y compris pour préparer l'enlèvement d'un chef d'Etat étranger ou le conflit actuellement en cours en Iran. Mais si la Maison Blanche laissait jusqu'ici les modèles sortir sans autre vérification, le New York Times révèle qu'un décret exécutif pourrait voir le jour pour changer la donne.Selon le quotidien américain, l'objectif serait de mettre en place un groupe de travail dédié à l'intelligence artificielle. Il serait composé de dirigeants de la tech et de responsables gouvernementaux. Chacun d'entre eux serait alors amené à examiner les différents modèles avant leur arrivée sur le marché.Du "bébé" en liberté à plus de régulationL'une des idées mise sur la table consiste en un "processus officiel d'examen gouvernemental", qui a été présenté la semaine dernière aux dirigeants d'Anthropic, Google et OpenAI.Ce processus pourrait se rapprocher de celui en cours de développement au Royaume-uni, ajoute le New York Times, et qui doit permettre de s'assurer que les nouveaux modèles d'IA respectent les normes de sécurité en vigueur.Si cela se confirme, ce serait un revirement de Donald Trump en la matière. Le président américain a en effet jusqu'ici accordé une grande liberté au secteur de l'IA, jugeant que des restrictions pourraient ralentir l'innovation et permettre à la Chine de faire la course en tête.En juillet 2025, il annonçait vouloir "faire grandir ce bébé et le laisser s'épanouir", arguant qu'il n'était pas possible "de l'arrêter avec de la politique".Mais les événements récents ont visiblement eu raison de cette position non interventionniste. Anthropic a en effet lancé son modèle Mythos, particulièrement puissant pour identifier les failles de sécurité. La start-up a jusqu'ici refusé de rendre ce modèle public, mais en a néanmoins ouvert l'accès à quelques entreprises triées sur le volet.C'est pour éviter que de tels modèles se retrouvent dans la nature que la Maison Blanche souhaite renforcer son pouvoir de régulation. Certains témoins interrogés par le New York Times ont également précisé que plusieurs responsables souhaiteraient que les modèles les plus puissants soient fournis en premier aux organismes gouvernementaux, sans empêcher leur sortie publique, mais dans un second temps.L'affaire Anthropic au coeur du revirementFace à ce changement de ton, les entreprises de la tech avancent néanmoins en ordre dispersé. Si elles s'accordent à dire qu'une trop grande régulation nuirait à l'innovation et que cela permettrait à la Chine de rattraper son retard, de moins en moins important, aucune d'entre elles n'arrive à statuer sur une réglementation.Dean Ball, l'ancien conseiller de Donald Trump sur l'IA - parti en fin d'année 2025 - explique qu'il s'agit d'un "équilibre délicat". Interrogé sur ce sujet, la Maison Blanche a précisé que le sujet n'était que de la "spéculation", renvoyant la presse à une déclaration éventuelle de Trump.Avec le départ en mars de David Sacks, décrit comme "le tsar de l'IA" à la Maison Blanche, le sujet a été récupéré par Susie Wiles, chef de cabinet, et Scott Bessent, secrétaire au Trésor. Ce duo a néanmoins dû faire face à la bataille entre l'administration américaine et Anthropic, dont l'IA Claude était jusqu'à présent utilisée par plusieurs agences gouvernementales, dont le Pentagone.Depuis, Anthropic a été écarté, Donald Trump jugeant la startup "trop woke" puisqu'elle ne souhaitait pas que son IA soit utilisée pour espionner des Américains. De nouveaux accords ont été signés avec plusieurs grosses entreprises du secteur, dont Google, OpenAI, Nvidia et Amazon. Cela n'a cependant pas empêché la National Security Agency (NSA) d'utiliser Mythos, notamment pour évaluer les vulnérabilités des logiciels utilisés par le gouvernement. La NSA, qui, justement, serait en bonne position pour superviser l'analyse de futurs modèles d'IA, avec les risques de surveillance inhérents à cette agence contestée.Les plus lusPrésidentielle 2027: le RN toujours en tête des intentions de vote selon un nouveau sondage, Édouard Philippe bien placéL'avion du Premier ministre espagnol Pedro Sánchez contraint d'atterir en urgence en Turquie en raison d'un "imprévu technique"Audiovisuel public: une plainte contre X pour prise illégale d'intérêts déposée, le rapporteur Charles Alloncle ciblé par l'association AC!! Anti-CorruptionReal Madrid: "Chacun fait ce qu'il juge bon pendant son temps libre", la réponse d'Arbeloa sur la virée de Mbappé en Sardaigne38 millions de visiteurs accueillis pour 10 millions d'habitants: face au surtourisme dont son économie dépend largement, la Grèce augmente son nombre de plages protégées (sans transats, ni bars, ni parasols)
← Retour