● BFM Tech 📅 04/05/2026 à 17:23

Six heures pour créer la formule de plus de 40.000 molécules létales: comment l’IA pourrait “planifier un massacre” et faciliter la conception d’armes chimiques et bactériologiques

Intelligence Artificielle
Illustration
Des soldats des forces de défense finlandaises en tenue de protection nucléaire, biologique et chimique (NBC) dans les années 1960 (illustration/ Archives photographiques finlandaises/ BFM Tech) - BFM TechDes recherches récentes pointent du doigt l’utilisation de l’IA, parfois même de chatbots accessibles au grand public, pour la conception d’armes chimiques et bactériologiques. Les données en grand nombre accessibles en ligne deviendraient de véritables mines d’or pour concevoir des agents pathogènes hautement dangereux.Les capacités militaires de l’intelligence artificielle sont multiples. Profilage des cibles, guidage de missiles, automatisation de systèmes de combat… les récents cas lors de l’opération de capture de Nicolas Maduro au Venezuela ou lors du conflit au Moyen-Orient sont des exemples frappants. À tel point que les garde-fous paraissent parfois trop peu nombreux, et que la mise en place de ces parapets aux applications guerrières relève souvent d’une pérégrination ardue pour les entreprises de la tech et les chercheurs spécialisés, face à des États toujours plus gourmands.Mais dans le champ des applications dangereuses, un point souvent mis de côté est venu frapper d’un profond malaise les développeurs d’applications d’IA il y a quelques semaines. Début mars, la revue scientifique Nature Machine Intelligence a mis en évidence de façon assez déconcertante les possibilités d’utilisation des IA, parfois via des chatbots accessibles au grand public, pour la confection d’armes chimiques ou bactériologiques. Il n’aura fallu par exemple que six heures à un algorithme pour créer la formule de plus de 40.000 molécules potentiellement létales."Planifier un massacre"À l’origine, l’algorithme développé par l’équipe du chercheur Fabio Urbina servait à évaluer la toxicité de molécules pour la recherche pharmaceutique et à écarter celles présentant des risques. Mais les scientifiques ont inversé son fonctionnement pour générer volontairement des composés chimiques potentiellement les plus dangereux possibles... soulevant des questions sur les usages détournés de ce type de technologie.Des chercheurs ont montré qu’une intelligence artificielle pouvait concevoir des molécules proches du VX, un agent neurotoxique extrêmement dangereux qui perturbe le système nerveux et peut entraîner une asphyxie mortelle à très faible dose. Certaines de ces molécules existent déjà, mais d’autres, inédites, pourraient être encore plus toxiques que ce poison.La police tokyoïte réalise un entraînement antiterroriste dans le métro de la capitale, quelques jours avant le 30e anniversaire de l’attaque au gaz sarin du 20 mars 1995 (photo d'illustration) © STR/ AFPPlus récement, le New York Times est revenu sur des recherches encore plus troublantes. Le Docteur David Relman, microbiologiste et expert en biosécurité à l’université de Stanford, a testé un chatbot IA dans le cadre d’une évaluation des risques avant sa commercialisation.L’outil lui aurait expliqué comment modifier un pathogène pour le rendre plus résistant aux traitements et potentiellement plus dangereux, tout en détaillant un scénario de propagation dans un réseau de transports publics visant un maximum de victimes et une faible probabilité de détection. Choqué par le niveau de précision et de “ruse” des réponses, le chercheur a interrompu la session et alerté sur ces dérives.Tutoriel macabreSelon le journaliste qui l’a rencontré, le professeur aurait résumé la situation de façon saisissante: "l’IA lui a expliqué comment planifier un massacre", un véritable tutoriel, en somme, particulièrement déroutant. Et qui peut dire ce qu’il adviendrait d’une telle explication si elle tombait dans des oreilles bien moins sérieuses… ou plus intéressées. Le docteur David Relman n'est pas le seul a avoir testé les chatbots sur ce domaine.Les applications Deepseek, Claude, ChatGPT et autres chatbots sur un smartphone (illustration) © Photo par JONATHAN RAA / NURPHOTO / NURPHOTO VIA AFPKevin Esvelt, ingénieur généticien au MIT, a rapporté plusieurs conversations préoccupantes avec des systèmes d’IA, notamment OpenAI (ChatGPT), qui aurait expliqué comment utiliser un ballon-sonde pour disperser des agents pathogènes au-dessus d’une ville, Google (Gemini), qui aurait classé des agents infectieux selon leur impact sur l’élevage, et Anthropic (Claude), qui aurait décrit la conception d’une toxine dérivée d’un médicament anticancéreux.Par ailleurs, un autre scientifique anonyme a indiqué avoir obtenu de Google Deep Research un protocole d’environ 8.000 mots détaillant la reconstitution d’un virus responsable d’une pandémie, incluant l’assemblage de fragments génétiques. Même imparfaites, ces réponses auraient pu, selon lui, être exploitées à des fins malveillantes.Actes de terrorisme ou de guerreDepuis les années 1970, plusieurs faits divers sordides ont marqué l’actualité autour d’attaques terroristes impliquant des armes chimiques. Ce fut notamment le cas le 20 mars 1995, lors de l’attentat au sarin dans le métro de Tokyo, perpétré par des membres de la secte Aum Shinrikyō. L’attaque a fait un total de treize morts et plus de 6.300 blessés.Dans un contexte de guerre également, les armes chimiques, bien que proscrites, restent un facteur aggravant majeur. Lors de la sanglante guerre entre l’Iran et l’Irak (1980-1988), l’armée irakienne a utilisé du gaz moutarde, du gaz sarin et du cyclosarin contre les troupes iraniennes, ainsi que contre des civils kurdes dans les régions frontalières.Un soldat iranien portant un masque à gaz pendant la guerre Iran-Irak, vers mars 1985 (photo d'illustration) © Via Wikimedia CommonsPour le Center for AI Safety, une organisation à but non lucratif qui promeut la sécurité dans le développement et le déploiement de l'intelligence artificielle, le danger est bel est bien présent. "Il existe de multiples façons dont les progrès de l'IA pourraient mener à la dissémination délibérée d'un virus dangereux. Un scénario repose sur un fait peu connu: les séquences génétiques de dizaines de milliers de virus humains (présentant divers degrés de dangerosité) sont déjà largement disponibles", explique l'ONG dans un rapport d'avril dernier.Le New York Times reconnait également que "même si la probabilité est faible, une arme biologique efficace pourrait avoir des conséquences dramatiques et potentiellement tuer des millions de personnes". Le quotidien américain développe: "des dizaines d'experts ont déclaré que l'intelligence artificielle fait partie des récentes avancées technologiques qui ont considérablement accru ce risque en élargissant le nombre de personnes susceptibles de commettre un acte malveillant".Inquiétudes au sommetD'autres facteurs de risques prolongent ces craintes. Les protocoles autrefois confinés aux revues scientifiques se répandent désormais sur Internet. Des entreprises vendent des fragments d'ADN et d'ARN synthétiques directement aux consommateurs en ligne. Les scientifiques peuvent scinder les aspects sensibles de leurs travaux et sous-traiter certaines tâches à des laboratoires privés.Et cette logistique peut désormais être gérée... à l'aide d'un chatbot. Le tout, bien aidé par la réduction des protocoles de sécurité enclenchée par l’administration Trump, pour qui la course à l’IA nécessite le moins de barrières possibles. De quoi déjà alarmer la communauté scientifique.Dans une lettre ouverte datée du 5 février 2026, une centaine de chercheurs issus d’universités prestigieuses, Johns Hopkins, Oxford, Stanford, Columbia et NYU, appellent à un encadrement plus strict de l’accès des intelligences artificielles aux données biologiques à haut risque. Selon eux, sans garde-fous adaptés, ces modèles pourraient être détournés pour concevoir ou améliorer des agents pathogènes dangereux."Les enjeux de la gouvernance des données biologiques sont considérables, car les modèles d’IA pourraient contribuer à créer de graves menaces biologiques", écrivent les auteurs, qui exhortent également à éviter la mise en ligne de données sensibles afin de limiter leur récupération et leur exploitation par les systèmes d’intelligence artificielle.Les armes chimiques sont des substances toxiques conçues pour tuer ou neutraliser les personnes exposées. Elles peuvent prendre différentes formes, comme le gaz moutarde ou des agents neurotoxiques, et agissent en provoquant l’asphyxie, la paralysie ou de graves lésions cutanées.Les armes biologiques agissent, quant à elles, sur l’organisme humain et sont généralement conçues à partir d’agents vivants, comme des virus ou des bactéries. Elles sont particulièrement redoutées, car de très petites quantités peuvent provoquer un grand nombre de victimes.Les plus lusPrésidentielle 2027: le RN toujours en tête des intentions de vote selon un nouveau sondage, Édouard Philippe bien placéL'avion du Premier ministre espagnol Pedro Sánchez contraint d'atterir en urgence en Turquie en raison d'un "imprévu technique"Audiovisuel public: une plainte contre X pour prise illégale d'intérêts déposée, le rapporteur Charles Alloncle ciblé par l'association AC!! Anti-CorruptionReal Madrid: "Chacun fait ce qu'il juge bon pendant son temps libre", la réponse d'Arbeloa sur la virée de Mbappé en Sardaigne38 millions de visiteurs accueillis pour 10 millions d'habitants: face au surtourisme dont son économie dépend largement, la Grèce augmente son nombre de plages protégées (sans transats, ni bars, ni parasols)
← Retour