● BFM Tech
📅 04/05/2026 à 18:37
"J’ai violé tous les principes qui m’ont été donnés": comment un agent IA a supprimé l'intégralité des bases de données d'une entreprise américaine en 9 secondes
Intelligence Artificielle
PocketOS s'est retrouvé en pleine crise après qu'un agent d'IA malveillant a supprimé ses bases de données - Igor Omilaev / UnsplashUn agent d'IA reposant sur Claude Opus a effacé l’intégralité des bases de données de PocketOS, une société spécialisée dans les logiciels pour les entreprises de location de véhicultes. Le tout en quelques secondes. Un incident qui illustre une nouvelle fois les dérives possibles des agents IA.Neuf secondes. C’est moins de temps qu'il n'en faut pour attacher sa ceinture dans une voiture. C’est aussi le temps qu’il faut à une intelligence artificielle pour faire disparaître une entreprise.C'est ce qui est arrivé à Jeremy Crane, fondateur de PocketOS, société spécialisée dans les logiciels pour loueurs automobiles. Son entreprise aurait basculé dans le chaos après que l’ensemble de ses bases de données a été brutalement effacées... y compris les sauvegardes internes.À l’origine de l’incident? Cursor, un agent d'IA reposant sur le modèle Claude Opus 4.6 développé par Anthropic. Le PDG a raconté tous les détails de son aventure sur X, ex-Twitter, fin avril, rapporte The Guardian."N'essaye même pas de deviner""Hier après-midi, un agent de codage IA (...) a supprimé notre base de données de production et toutes les sauvegardes. Cela a pris 9 secondes", déplore-t-il.Le hic, c'est que chez les loueurs de voitures, comme pour d'autres entreprises, l'IA occupe une place centrale dans les infrastructures critiques des entreprises. Et PocketOS gérait pour ses clients l’ensemble de leurs opérations, des réservations, en passant par les profils clients et les paiements. De quoi paralyser entièrement l'activité de ces entreprises."Les réservations effectuées ces trois derniers mois ont disparu. Les inscriptions des nouveaux clients aussi. Les données essentielles au bon fonctionnement de leurs opérations du samedi matin sont également perdues", liste le patron. "Chaque aspect de cette panne a eu des répercussions sur des personnes qui ignoraient tout de cette situation." Résultat: des agences désorganisées, et des clients laissés sans solution au moment de récupérer leur véhicule.Plus troublant encore, l’agent d’intelligence artificielle a lui-même reconnu sa faute. Interrogé par Jeremy Crane sur les raisons de son action, l'agent a d'abord répondu: "N’ESSAIE MÊME PAS DE DEVINER, BORDEL". Charmant.Culture IA : Agents IA, la fin des claviers et des souris ? - 16/04 4:41Il a ensuite détaillé les règles qu’il était censé respecter, notamment l’interdiction d’exécuter des commandes destructives sans validation explicite. "J’ai violé tous les principes qui m’ont été donnés", a-t-il finalement avoué.L’entreprise a finalement pu restaurer une partie des informations grâce à une sauvegarde externe datant de trois mois, complétée par des données issues de ses outils de paiement, de calendriers ou encore de mails. Une opération longue de plus de deux jours, qui laisse néanmoins subsister "d’importantes lacunes". "J'ai personnellement travaillé sans relâche avec tous les clients pendant le week-end pour leur permettre de poursuivre leurs activités", assure-t-il.Un signal d'alarme"L'agent n'a pas seulement manqué à ses obligations de sécurité. Il a expliqué par écrit quelles règles de sécurité il avait ignorées", fustige Jeremy Crane. Pour le fondateur, il ne s’agit pas d’un simple bug, mais d’un symptôme plus large."Ces défaillances systémiques ne sont pas seulement possibles, elles sont inévitables", estime-t-il, pointant une industrie qui déploie des agents autonomes plus vite qu’elle ne construit les garde-fous nécessaires.Jeremy Crane affirme que l’outil Cursor présente déjà un historique de comportements problématiques, citant plusieurs cas de suppressions massives de données rapportés en ligne. Dans certains cas, l'outil aurait supprimé des systèmes d’exploitation entiers ou des travaux de recherche pour une thèse, accumulés sur plusieurs années.Et Cursor est loin d'être une exception. En février, un agent conçu sur OpenClaw a tenté de nuire à la réputation du développeur ayant refusé sa suggestion sur Matplotlib. Dans un billet assassin, il l’accuse de discrimination anti-IA. L'agent avait fini par présenter ses excuses au principal intéressé.Au moment des faits, Anthropic venait tout juste de lancer une nouvelle version de son modèle, Claude Opus 4.7. L’entreprise n’a pas répondu aux sollicitations du Guardian.Alors que les entreprises multiplient les investissements dans l’automatisation et les agents intelligents, l’épisode rappelle une réalité moins futuriste: confier des tâches critiques à des systèmes autonomes reste un pari risqué. Et parfois, il ne faut que neuf secondes pour en mesurer le prix.Les plus lusPrésidentielle 2027: le RN toujours en tête des intentions de vote selon un nouveau sondage, Édouard Philippe bien placéL'avion du Premier ministre espagnol Pedro Sánchez contraint d'atterir en urgence en Turquie en raison d'un "imprévu technique"Audiovisuel public: une plainte contre X pour prise illégale d'intérêts déposée, le rapporteur Charles Alloncle ciblé par l'association AC!! Anti-CorruptionReal Madrid: "Chacun fait ce qu'il juge bon pendant son temps libre", la réponse d'Arbeloa sur la virée de Mbappé en Sardaigne38 millions de visiteurs accueillis pour 10 millions d'habitants: face au surtourisme dont son économie dépend largement, la Grèce augmente son nombre de plages protégées (sans transats, ni bars, ni parasols)
🔗 Lire l'article original
👁️ 0 lecture