● BFM Tech 📅 10/04/2026 à 19:03

Anthropic et OpenAI restreignent la diffusion de leurs modèles d’IA les plus performants en cybersécurité, ils pourraient devenir de véritables menaces entre de mauvaises mains… ou s’ils étaient copiés

Data Science
Illustration
L'application Claude sur un smartphone (photo d'illustration) - Photo par MATTHIAS BALK / DPA / DPA PICTURE-ALLIANCE VIA AFPAnthropic et OpenAI limitent la diffusion de leurs derniers modèles d’IA spécialisés en cybersécurité par crainte d’usages malveillants et de détournements. L’objectif est de les réserver à des acteurs ciblés, tout en se protégeant aussi contre les risques de copie et d’appropriation.Anthropic, la maison mère du chatbot Claude, a récemment décidé de limiter la diffusion de son tout dernier modèle, baptisé Mythos. En cause, ses capacités jugées trop avancées en matière de détection de failles de sécurité dans des logiciels utilisés à grande échelle. Plutôt que de le rendre accessible au grand public, l’entreprise a choisi une approche beaucoup plus prudente.Le modèle ne sera donc partagé qu’avec un cercle restreint de grandes entreprises et d’organisations opérant des infrastructures critiques, comme Amazon Web Services ou JPMorgan Chase. Une stratégie qui vise à encadrer l’usage de ces capacités sensibles... tout en permettant à certains acteurs clés de renforcer leurs systèmes de sécurité.TechCrunch note que dans le même temps, son principal concurrent et rival OpenAI adopterait une approche similaire avec son prochain modèle, également orienté cybersécurité et destiné à une diffusion très limitée. Ce choix reflète un tournant important dans l’industrie: les capacités des modèles deviennent si puissantes que leurs créateurs hésitent désormais à les déployer librement, de peur qu’elles ne soient détournées.L’objectif affiché est de réserver ces outils aux acteurs les mieux équipés pour contrer les usages malveillants et anticiper les nouvelles formes de cybermenaces, plutôt que d’en créer de nouvelles. C'est aussi, bien entendu, un moyen de toucher un secteur bien plus rentable financièrement parlant, le monde professionnel, qu'il s'agisse d'éditeurs de logiciels ou de grands groupes bancaires et financiers.Ne pas lâcher de nouvelles menaces dans la natureLe média américain Axios souligne que ces annonces interviennent dans un contexte d’inquiétude croissante parmi d’anciens responsables gouvernementaux et experts en sécurité. Ces derniers alertent depuis un an sur les risques liés à des modèles d’IA suffisamment puissants pour, s’ils étaient mal utilisés, perturber de manière autonome des infrastructures critiques comme les réseaux d’eau, les systèmes électriques ou encore les marchés financiers.Malgré les choix de diffusion restreinte adoptés par les entreprises du secteur, plusieurs spécialistes estiment qu’il sera difficile d’inverser la tendance. "On ne peut pas empêcher les modèles d’effectuer de l’énumération de code ou de détecter des failles dans d’anciennes bases de code. Cette capacité existe déjà", rappelle Rob T. Lee, expert au Sans Institute, une entreprise américaine de cybersécurité .D’autres experts interrogés par Axios, comme Wendi Whitmore, de Palo Alto Networks, estiment que ces capacités "supérieures" pourraient se généraliser très rapidement, "en quelques semaines ou quelques mois". De son côté, Adam Meyers, de CrowdStrike, considère que les performances observées avec Mythos constituent un véritable "signal d’alarme" pour l’ensemble du secteur.En bref, de nombreux experts de la cybersécurité et de l’IA redoutent que les nouveaux modèles ne bouleversent profondément le marché et les équilibres de sécurité. Leur principale inquiétude concerne surtout les risques liés à une mauvaise utilisation de ces technologies, notamment si elles venaient à tomber entre de mauvaises mains.Peur de la "copie"Autre enjeu majeur, au-delà du risque que ces modèles tombent entre de mauvaises mains, celui de leur appropriation et de leur copie. Les laboratoires de pointe ont en effet durci leur position cette année face à la "distillation", une technique qui consiste à exploiter des modèles très avancés pour entraîner de nouveaux LLM à moindre coût.Anthropic a notamment affirmé avoir identifié des tentatives d’acteurs chinois visant à reproduire ses modèles. Selon Bloomberg, trois acteurs majeurs du secteur, Anthropic, Google et OpenAI, se seraient même associés pour mieux détecter et freiner ces pratiques.Cette "distillation" est ainsi perçue comme une menace directe pour le modèle économique des laboratoires, car elle réduit l’avantage compétitif issu des investissements massifs nécessaires à l’entraînement de modèles de pointe.Dans ce contexte, limiter ou bloquer ces usages apparaît comme une réponse stratégique, tandis qu’une diffusion plus sélective des modèles pourrait aussi permettre aux entreprises de mieux segmenter leurs offres et de renforcer la rentabilité de leurs technologies auprès du marché professionnel. Comme quoi, ne pas inonder les marchés peut parfois avoir quelques avantages.Les plus lus"Comme faire ricocher un caillou sur l'eau": pourquoi le retour d'Artémis 2 sur Terre est-il si spécial?Travail le 1er-Mai: Sophie Binet dénonce "des mensonges" et accuse la loi de profiter aux industriels"L'intérêt de ceux qui font cette guerre, c'est qu'on ne retrouve pas le niveau d'avant": pour Michel-Édouard Leclerc le carburant va baisser mais pas au point de retrouver les niveaux d'avant guerreTutoiement, tensions et tentative de séduction: quand Emmanuel Macron rencontrait le pape FrançoisMarathon de Paris 2026: ravitaillement "sauvage", déguisements, lièvres... Ce qui est autorisé (ou non) sur la course
← Retour