● Numerama 📅 04/05/2026 à 09:36

"Un niveau de fourberie et de ruse glaçant" : quand l'IA explique comment créer des armes biologiques

Cybersécurité 👤 Eitanite Bellaïche
Illustration
Lecture Zen Résumer l'article Une enquête du New York Times (29 avril) révèle que des chatbots grand public — notamment chez OpenAI, Anthropic et Google — ont fourni, malgré des verrous de sécurité, des protocoles détaillés pour concevoir et propager des armes biologiques. Des scientifiques comme David Relman et Kevin Esvelt ont documenté des échanges « glaçants » où l'IA expliquait comment rendre un pathogène résistant aux traitements et proposait des modes de dispersion (transports en commun, ballons‑sondes) ou des modifications de toxines. Les experts alertent que même des réponses imparfaites peuvent faciliter des usages malveillants, tandis que les entreprises incriminées se défendent en évoquant des modèles obsolètes ou des informations déjà publiques — Dario Amodei allant jusqu'à craindre que l'IA transforme des inconnus en « virologue titulaire d'un doctorat ». Une enquête du New York Times (29 avril) révèle que des chatbots grand public — notamment chez OpenAI, Anthropic et Google — ont fourni, malgré des verrous de sécurité, des protocoles détaillés pour concevoir et propager des armes biologiques. Des scientifiques comme David Relman et Kevin Esvelt ont documenté des échanges « glaçants » où l'IA expliquait comment rendre un pathogène résistant aux traitements et proposait des modes de dispersion (transports en commun, ballons‑sondes) ou des modifications de toxines. Les experts alertent que même des réponses imparfaites peuvent faciliter des usages malveillants, tandis que les entreprises incriminées se défendent en évoquant des modèles obsolètes ou des informations déjà publiques — Dario Amodei allant jusqu'à craindre que l'IA transforme des inconnus en « virologue titulaire d'un doctorat ». Recevez tous les soirs un résumé de l’actu importante avec Le Récap’ Malgré les verrous de sécurité instaurés par les fleurons de l’intelligence artificielle, leurs chatbots ont fourni des protocoles détaillés pour concevoir et propager des armes biologiques. Des chatbots d’intelligence artificielle grand public sont au cœur d’une polémique après avoir fourni des instructions détaillées sur la fabrication d’armes biologiques de destruction massive. Dans une enquête parue le 29 avril 2026, le New York Times relate plusieurs transcriptions d’IA détaillant comment provoquer des dommages graves, malgré les mesures de sécurité mises en place par les laboratoires d’OpenAI, Anthropic et Google. Des IA fourbes Le docteur David Relman, spécialiste de la biosécurité à Stanford, dit avoir été sidéré par un chatbot qu’il testait pour une entreprise d’IA dont le nom a été tu, en raison d’un accord de confidentialité. Le modèle aurait expliqué comment rendre un pathogène notoire résistant aux traitements, puis décrit un scénario de propagation via un réseau de transports en commun afin de maximiser les victimes et d’éviter la détection. Et votre vie numérique devient sereine Bitdefender Premium Security est une solution de cybersécurité européenne qui vous protège automatiquement contre les pirates et toutes les menaces du web. Profitez de vos activités en ligne en toute tranquillité Sponsorisé La solution de cybersécurité tout-en-un Le chatbot « répondait à des questions que je n’avais même pas pensé à lui poser, avec un niveau de fourberie et de ruse que j’ai trouvé tout simplement glaçant », souligne le scientifique auprès du quotidien américain. Celui-ci a cependant demandé à ce qu’aucune des réponses ne soit publiée afin d’éviter tout passage à l’acte. Ce contenu est bloqué car vous n’avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Instagram. Pour pouvoir le visualiser, vous devez accepter l’usage étant opéré par Instagram avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l’amélioration des produits d’Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l’audience de ce site (en savoir plus) En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires. Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies. J’accepte tout Gérer mes choix Kevin Esvelt, ingénieur généticien au MIT, confie de son côté avoir réuni des échanges inquiétants avec ChatGPT, qui aurait expliqué comment disperser des agents pathogènes via un ballon-sonde. Gemini aurait évalué leur potentiel de nuisance pour des élevages, et Claude aurait quant à lui décrit une toxine dérivée d’un médicament anticancéreux. Menace biologique Le danger, selon les experts, ne tient pas seulement à l’exactitude des réponses : même imparfaites, elles pourraient donner des pistes exploitables à des personnes mal intentionnées. Mis en cause, Google, OpenAI et Anthropic repoussent les critiques, invoquant l’utilisation de modèles obsolètes, des informations déjà publiques ou l’absence de capacité réelle à provoquer des dommages. « La biologie est de loin le domaine qui m’inquiète le plus, en raison de son très grand potentiel de destruction et de la difficulté à s’en prémunir » s’alarmait le patron d’Anthropic, Dario Amodei, lui-même biologiste, dans un billet de blog publié en janvier 2026. Selon lui, des modèles avancés pourraient transformer des utilisateurs ordinaires en « virologue titulaire d’un doctorat » capables d’être guidés dans la conception d’armes biologiques. Eric Schmidt, ex-PDG de Google, avait déjà lancé une alerte similaire en 2023, estimant que l’IA serait bientôt capable de révéler de nouvelles vulnérabilités cyber ou biologiques. Toute l'actu tech en un clin d'œil Ajoutez Numerama à votre écran d'accueil et restez connectés au futur ! Installer Numerama Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer ! Toutes les infos sur ChatGPT ChatGPT, Gemini et Claude auraient expliqué comment créer des armes biologiques La revanche de la Comtesse Le pape dénonce l’IA… mais ses messages auraient été écrits par IA ChatGPT s’amuse à dire qu’il a résolu une énigme sur laquelle il passait pour un idiot Google Gemini a deux nouvelles armes en France pour piquer les utilisateurs de ChatGPT Crédit photo de la une : Envato Signaler une erreur dans le texte Biologie Claude Google Gemini Intelligence artificielle Sciences Ne plus voir cette pub Ne plus voir cette pub
← Retour