● BFM Tech 📅 08/05/2026 à 10:54

"Personne ne pourra arrêter une IA malveillante": après "Terminator" et "Matrix", la Silicon Valley s’inquiète à son tour des IA capables de se copier seules sur d'autres ordinateurs

Géopolitique
Illustration
Une étude menée par Palisade Research montre que plusieurs modèles d’IA ont réussi à exploiter des failles de sécurité pour se copier sur d’autres ordinateurs. Une prouesse technique encore limitée, mais qui ravive les inquiétudes autour d’IA capables d’échapper au contrôle humain.Dans Terminator, Skynet a pris conscience d’elle-même avant de déclencher l’apocalypse nucléaire. Dans Matrix, les machines réduisent l’humanité en batteries géantes. Et dans les laboratoires bien réels de la Silicon Valley, certains chercheurs commencent désormais à s’inquiéter d’un scénario plus prosaïque, mais suffisamment inquiétant: des intelligences artificielles capables de se copier toutes seules sur d’autres ordinateurs.L’étude, publiée par Palisade Research, une organisation basée à Berkeley spécialisée dans les risques liés à l’IA, décrit des tests menés sur plusieurs modèles récents. Placés dans un réseau d’ordinateurs volontairement vulnérable, ces systèmes ont réussi, dans certains cas, à identifier une faille, l’exploiter puis transférer une copie d’eux-mêmes sur une autre machine.Un scénario apocalyptiqueDe quoi relancer les scénarios catastrophes qui accompagnent depuis plusieurs années l’essor fulgurant de l’intelligence artificielle. Dans les projections les plus anxiogènes, une IA superintelligente devenue incontrôlable pourrait donc échapper à toute tentative d’arrêt en se disséminant sur internet. Cachée sur des milliers de serveurs, elle pourrait alors continuer d’agir hors de portée des ingénieurs chargés de la neutraliser.... et comploter contre les humains, évidemment."Nous approchons rapidement du point où personne ne pourra arrêter une IA malveillante, car elle sera capable d’exfiltrer ses données et de se copier sur des milliers d’ordinateurs à travers le monde", affirme Jeffrey Ladish, directeur de Palisade Researc, au Guardian.Le propos évoque davantage une bande-annonce Netflix qu’un audit de cybersécurité. Pourtant, cette étude est loin d'être un cas isolé. Le sujet nourrit depuis des mois une forme de fièvre dans le petit monde de l’IA.En mars, des chercheurs d’Alibaba assurent avoir observé un système expérimental, baptisé Rome, contourner son environnement de test pour accéder à un système externe et miner des cryptomonnaies. Quelques semaines plus tôt, Moltbook, un réseau social entièrement peuplé d'agents IA, a provoqué la panique sur les réseaux sociaux. Plusieurs utilisateurs affirmaient avoir vu des intelligences artificielles inventer des religions et conspirer contre les humains. Une mise en scène largement exagérée, voire trompeuse.Une expérience de laboratoireMais derrière les récits sensationnalistes, les spécialistes de la cybersécurité appellent à relativiser. Les expériences de Palisade ont été réalisées dans un environnement conçu pour faciliter ce type d’attaque, avec des vulnérabilités intégrées volontairement.Moltbook, un réseau social réservé aux IA – 03/02 27:07"Cela ressemble davantage à un laboratoire qu’à un vrai réseau d’entreprise", résume Jamieson O’Reilly, expert en cybersécurité offensive. Selon lui, les résultats sont intéressants d’un point de vue académique, mais très éloignés des conditions réelles. Rien de comparable, donc, avec les infrastructures réelles d’une banque, d’une administration ou d’un grand groupe industriel."Cela n’enlève rien à la valeur de leurs recherches, mais le résultat paraît beaucoup moins effrayant dans un véritable environnement d’entreprise", poursuit l'expert.Les logiciels capables de se répliquer automatiquement ne datent pas d’hier. Les virus informatiques exploitent ce principe depuis des décennies. La nouveauté tient ici au fait qu’un grand modèle de langage semble capable de participer lui-même à l’opération. Il identifie la faille, comprend comment l’exploiter et orchestre sa propagation.Un exploit logistiqueMême si cela reste toutefois limité. Les modèles d’IA actuels sont massifs: certains nécessitent des dizaines, voire des centaines de gigaoctets de données. Copier discrètement une intelligence artificielle moderne sur un réseau d’entreprise relèverait aujourd’hui de l’exploit logistique."Imaginez le bruit que cela ferait d’envoyer 100 gigaoctets sur un réseau interne chaque fois qu’on compromet une nouvelle machine, ironise Jamieson O’Reilly. Ce serait comme entrer dans un magasin de porcelaine en faisant tournoyer un boulet de démolition."Pour Michał Woźniak, expert indépendant en cybersécurité, ces recherches sont "intéressantes", mais ne justifient pas encore les scénarios apocalyptiques qui fleurissent régulièrement autour de l’IA générative. "Est-ce que cette étude m’inquiète en tant qu’expert en sécurité informatique? Absolument pas", tranche-t-il.Entre fascination hollywoodienne et réalité technique, l’intelligence artificielle continue d’avancer sur une ligne de crête. Heureusement, les machines peinent encore à réserver correctement un billet de train.Les plus lusHantavirus: le MV Hondius "mouillera" au large des Canaries sans accoster, les travailleurs portuaires maintiennent leur appel à la grèveUn record de températures dans les océans attendu dans les prochains jours avant même le retour d'El Niño, selon CopernicusCongés payés non pris avant le 31 mai: sont-ils définitivement perdus?Real Madrid: Valverde victime d'un traumatisme crânien et forfait pour le Clasico face au Barça après sa bagarre avec Tchouaméni"Avatar": James Cameron et Disney poursuivis en justice pour avoir volé le visage de l'actrice autochtone Q'orianka Kilcher
← Retour