● BFM Tech 📅 15/04/2026 à 08:24

Simple oubli ou indifférence? Anthropic n’a pas prévenu les législateurs européens de l’arrivée de son super-modèle, qui pourrait bouleverser la cybersécurité

Géopolitique
Illustration
Les régulateurs européens mis à l'écart sur le modèle de "super-piratage" d'Anthropic (illustration) - BFM TechAnthropic n’a pas prévenu les législateurs européens de l’arrivée de son super-modèle Mythos, susceptible de bouleverser la cybersécurité, alors même que plusieurs dizaines d’entreprises et d’organisations, ainsi que certains organismes d’État, ont déjà pu l’évaluer.Même pas un coup de fil. L’entreprise américaine d’intelligence artificielle Anthropic a choisi de limiter la diffusion de son modèle Mythos à quelques partenaires afin d’en corriger les failles, elle affirme que celui-ci surpasse la plupart des humains dans la détection et l’exploitation des vulnérabilités. Une décision qui a provoqué une onde de choc dans les milieux de l’IA et de la cybersécurité, faisant même reculer certains acteurs du secteur en Bourse.Mais voilà que, alors même que l’administration américaine a réuni les acteurs majeurs de la tech, que plusieurs grands groupes ainsi qu’une quarantaine d’organisations ont pu tester le modèle, tout comme le Royaume-Uni, l’Union européenne, elle, n’a pas été conviée. Une absence qui interroge, au regard des enjeux de sécurité et de régulation autour de ces technologies.L'Europe mise à l'écartSelon Politico, les autorités européennes de cybersécurité n’ont, en effet, pas été consultées par Anthropic. Parmi les responsables de huit des principales agences nationales, seule l’Allemagne a indiqué avoir entamé des discussions avec l’entreprise, sans encore avoir pu tester Mythos. D’autres institutions évoquent un accès limité, voire partiel, alimentant les inquiétudes sur la transparence et le contrôle de ce modèle."Il est difficile de vérifier l'impact réel des vulnérabilités découvertes sans détails techniques", a expliqué Job Holzhauer, porte-parole de l'agence néerlandaise de cybersécurité. Malgré plusieurs initiatives internationales pour encadrer la sécurité de l’IA, du G7 aux Nations unies, aucun cadre concret n’a réellement émergé faute de soutien politique.Au niveau européen, le Vieux continent s’appuie déjà sur le règlement sur l’intelligence artificielle (AI Act), adopté le 13 juin 2024, qui impose des obligations aux fournisseurs de systèmes d’IA à usage général (GPAI) et interdit certaines applications jugées contraires aux droits fondamentaux. En outre, cette "non-annonce" s’inscrit dans un contexte de tensions entre l’Union européenne et les géants de la tech.Sur le même sujetEntre les États-Unis et la Chine, l’Europe à l’épreuve de la souveraineté technologiqueD’un côté, l’UE cherche à renforcer la régulation et sa souveraineté numérique. De l’autre, les grandes entreprises du secteur conservent une position dominante. Mais dans un contexte de compétition mondiale pour la domination de l’IA... les enjeux de sécurité passent souvent au second plan.Les plus lus"Blasphématoire", "antéchrist": face à l'indignation de la droite religieuse, Donald Trump retire une image le représentant tel JésusUne jeune Iranienne juge que "la répression sera sûrement plus dure" avec la trêve entre l'Iran et les États-UnisLiverpool-PSG: comment Khvicha Kvaratskhelia est devenu l’homme des grands soirs"Donner le premier souffle de vie à une base lunaire durable": Blue Origin, l'entreprise de Jeff Bezos, annonce avoir produit de l'oxygène à partir de poussière lunaireINFO RMC. Villefranche-sur-Saône: un adolescent de 13 ans tué par balle, la piste accidentelle privilégiée
← Retour