● Numerama
📅 11/05/2026 à 18:12
Google a détecté le premier exploit « zero-day » conçu par une IA - Numerama
Géopolitique
👤 Lisa Imperatrice
Lecture Zen Résumer l'article Google explique que ses équipes ont repéré pour la première fois un exploit zero-day développé avec l’aide d’un LLM. Le contournement de la 2FA provenait d’une faille de logique dans le système d’authentification, plus difficile à détecter que des bugs techniques classiques. Le rapport souligne que des groupes liés à la Chine et à la Corée du Nord industrialisent déjà l’IA dans leurs chaînes d’attaque. Google explique que ses équipes ont repéré pour la première fois un exploit zero-day développé avec l’aide d’un LLM. Le contournement de la 2FA provenait d’une faille de logique dans le système d’authentification, plus difficile à détecter que des bugs techniques classiques. Le rapport souligne que des groupes liés à la Chine et à la Corée du Nord industrialisent déjà l’IA dans leurs chaînes d’attaque. Recevez tous les soirs un résumé de l’actu importante avec Le Récap’ Le 11 mai 2026, Google a publié un rapport consacré à l’usage de l’intelligence artificielle dans les menaces cyber. L’entreprise y décrit un cas inédit : des cybercriminels auraient utilisé un modèle d’IA pour développer un exploit zero-day capable de contourner une authentification à deux facteurs (2FA). Nous y sommes : Google affirme avoir détecté une faille de sécurité « zero-day » développée avec l’aide de l’IA. Dans un rapport publié le 11 mai 2026 — qui synthétise ses observations sur l’usage de l’IA dans les menaces cyber –, le géant américain évoque une découverte particulièrement marquante. Concrètement, un groupe de cybercriminels aurait utilisé l’IA pour développer un exploit zero-day capable de contourner l’authentification à deux facteurs (2FA) d’un outil web open source d’administration système. L’exploit aurait ensuite été intégré à un script Python. Une évolution qui illustre le rôle grandissant de l’intelligence artificielle dans les opérations offensives menées par les cybercriminels. Le rapport publié par Google Threat Intelligence Group le 11 mai 2026. // Source : Google Comment des hackers ont-ils utilisé l’IA pour développer un exploit zero-day ? Pour rappel, les zero-day sont des failles encore inconnues des éditeurs, qui permettent aux hackers de mener des attaques sophistiquées contre des logiciels ou des services. Plus précisément, une vulnérabilité zero-day désigne une faille qui n’a pas encore été identifiée, documentée ou corrigée par son développeur. L’exploit zero-day, lui, correspond au code ou à la méthode permettant d’exploiter cette faille avant la publication d’un correctif. Le terme renvoie au fait que l’éditeur dispose de « zéro jour » de marge entre la découverte de la vulnérabilité et son exploitation dans la nature. Et votre vie numérique devient sereine Bitdefender Premium Security est une solution de cybersécurité européenne qui vous protège automatiquement contre les pirates et toutes les menaces du web. Profitez de vos activités en ligne en toute tranquillité Sponsorisé La solution de cybersécurité tout-en-un Jusqu’ici, les exploits zero-day étaient surtout le fruit de chercheurs humains très spécialisés, capables de faire de la rétro-ingénierie, du fuzzing ou encore de l’audit de code avancé pour dénicher des vulnérabilités inédites. En théorie, les spécialistes savaient déjà que l’IA pouvait aider à analyser du code, rechercher des failles ou générer des preuves de concept (PoC) d’exploit. Mais jusqu’à présent, aucun cas publiquement documenté par un acteur majeur comme Google n’avait montré l’implication directe d’un grand modèle de langage (LLM) dans le développement d’un exploit zero-day réellement observé dans une attaque. Si le groupe de pirates informatiques et l’outil ciblé n’ont pas été nommés, Google indique avoir collaboré avec l’éditeur concerné afin d’empêcher une exploitation massive de la faille, qui semblait être l’objectif des attaquants. « Bien que nous ne pensions pas que Gemini ait été utilisé, compte tenu de la structure et du contenu de ces exploits, nous sommes presque certains que l’acteur a probablement exploité un modèle d’IA pour faciliter la découverte et l’utilisation de cette vulnérabilité », explique Google. L’entreprise pointe notamment plusieurs indices typiques de code généré par IA : une documentation particulièrement verbeuse, un score CVSS falsifié, un script Python très propre avec des menus d’aide détaillés, ainsi qu’une petite classe dédiée aux couleurs ANSI dans le terminal. Un ensemble bien plus caractéristique d’un code produit par un LLM que d’un exploit traditionnellement écrit à la main par des cybercriminels. Selon Google, les cybercriminels ont exploité l’IA pour identifier et exploiter une vulnérabilité zero-day. // Source : Google Comment la double authentification a-t-elle été contournée ? Dans son rapport, Google explique par ailleurs que la faille ne repose pas sur un bug technique classique, mais sur une erreur dans la logique même du système d’authentification. En pratique, l’application considérait qu’un utilisateur possédant déjà des identifiants valides était forcément digne de confiance. Résultat : dans certains cas, il devenait possible de contourner l’étape de double authentification (2FA). Ce type de vulnérabilité est particulièrement difficile à détecter avec les outils de sécurité traditionnels, car le code fonctionne techniquement comme prévu. Le problème vient plutôt d’une incohérence dans les règles de sécurité. C’est précisément là que les modèles de langage peuvent se montrer utiles : capables d’analyser la logique globale d’un programme, ils peuvent identifier des comportements qui paraissent cohérents pour la machine, mais qui ouvrent en réalité une faille exploitable. Dans son rapport, Google explique qu’il s’agit de la première fois que ses équipes identifient un usage réussi de l’IA pour développer une vulnérabilité zero-day. Sans prétendre être exhaustive, l’entreprise souligne surtout qu’il s’agit, pour elle, du premier cas où elle peut documenter de manière aussi claire le rôle joué par un modèle d’IA. Plus largement, le rapport décrit comment des groupes liés à la Chine ou à la Corée du Nord intègrent déjà l’IA dans leurs outils offensifs : agents spécialisés pour la phase de reconnaissance et l’analyse de code, jailbreaks « persona » pour rechercher des failles dans des firmwares, ou encore envois massifs de requêtes à des modèles afin d’analyser des CVE (Common Vulnerabilities and Exposures) et valider des exploits. Dans ce contexte, l’IA apparaît moins comme un gadget expérimental que comme une nouvelle brique intégrée à des chaînes d’attaque déjà largement industrialisées. Toute l'actu tech en un clin d'œil Ajoutez Numerama à votre écran d'accueil et restez connectés au futur ! Installer Numerama Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer ! Crédit photo de la une : Numerama Signaler une erreur dans le texte cybersécurité Google Google Gemini Intelligence artificielle Intelligence artificielle Tech Ne plus voir cette pub Ne plus voir cette pub
🔗 Lire l'article original
👁️ 0 lecture