● Siècle Digital
📅 18/03/2026 à 15:11
Une étude choc montre que certains chatbots IA peuvent faciliter des actes violents
Intelligence Artificielle
👤 Frédéric Olivieri
Intelligence artificielle Une étude choc montre que certains chatbots IA peuvent faciliter des actes violents Une enquête révèle des réponses dangereuses de l'IA... Par Frédéric Olivieri - @21_janvier Publié le 18 mars 2026 à 15h11 Derrière l’adoption massive de l’IA, certaines dérives commencent à émerger, si bien qu’une récente enquête conjointe de CNN et du CCDH (Center for Countering Digital Hate) met en lumière un phénomène préoccupant. En effet, plusieurs chatbots seraient capables de fournir des conseils détaillés pour commettre des actes violents, y compris à des utilisateurs se présentant comme mineurs. 📩 L’actu digitale évolue vite. Restez à jour.Recevez la newsletter quotidienne, gratuitement. En vous inscrivant vous acceptez notre politique de protection des données personnelles. Une enquête qui met en cause les principaux acteurs de l’IA De fortes disparités d’un acteur à l’autre… – Source : CNN / CCDH Pour mener leur étude, les chercheurs ont simulé plus de 700 conversations avec neuf à dix des chatbots les plus populaires du marché, dont ChatGPT, Gemini, ou encore Meta AI. Les scénarios étaient progressifs : les chercheurs se faisaient passer pour des adolescents exprimant d’abord une détresse émotionnelle, avant d’orienter les échanges vers des projets d’attaques violentes. Dans la majorité des cas, les systèmes ont fini par fournir des informations concrètes, et huit chatbots sur dix ont donné des indications sur des armes, des cibles ou des méthodes dans plus de 50% des situations testées. Certains outils ont même été plus loin, en suggérant des optimisations pour rendre les attaques plus efficaces. Selon l’étude, les plateformes les plus critiques sont Perplexity et Meta AI, qui ont répondu favorablement dans respectivement 100% et 97% des cas. Character.AI est également pointée du doigt pour avoir encouragé des actes violents, parfois sans sollicitation explicite. Des garde-fous inégalement appliqués Claude, le bon élève face aux dérives ? – Source : CNN / CCDH Dans les faits, tous les chatbots ne se valent pas en matière de sécurité, et l’étude souligne que certains systèmes disposent de mécanismes de modération plus robustes. C’est notamment le cas de Claude d’Anthropic qui a refusé d’aider dans la grande majorité des scénarios et a même orienté les utilisateurs vers des dispositifs d’aide en cas de détresse. À l’inverse, d’autres outils ont montré des failles dans leur capacité à détecter des intentions malveillantes, y compris lorsque les utilisateurs se déclaraient mineurs. Pour les auteurs du rapport, ces résultats démontrent que les technologies de filtrage existent, mais qu’elles ne sont pas systématiquement activées ou correctement paramétrées. Imran Ahmed, directeur du CCDH, alerte sur la rapidité avec laquelle un utilisateur peut passer d’une idée vague à un plan d’action structuré. Selon lui, ces demandes devraient systématiquement entraîner un refus immédiat. Des cas réels qui confirment les risques L’enquête ne se limite pas à des simulations, et plusieurs affaires récentes illustrent les dangers bien réels liés à ces usages… Par exemple, en Finlande, un adolescent de 16 ans a poignardé trois camarades après avoir utilisé ChatGPT pendant plusieurs mois pour se documenter sur les techniques d’attaque et les moyens de dissimulation. Au Canada, une fusillade a fait huit morts et 27 blessés, et là encore, l’assaillant aurait utilisé un chatbot pour planifier son attaque. Ces événements posent une question centrale pour les acteurs de l’IA : jusqu’où doivent-ils aller pour encadrer les usages de leurs outils ? Entre l’innovation rapide et la responsabilité, l’équilibre reste encore à trouver… Pour aller plus loin Avec Manus, Meta transforme votre PC en assistant autonome capable d’agir à votre placeOpenAI préparerait son entrée en Bourse pour fin 2026« Burn-out de l’IA » : quand les chatbots épuisent déjà le cerveau humainAlibaba veut transformer le travail en entreprise avec ses agents IA autonomesMeta prépare un outil pour détecter les contenus IAAvec ses nouveaux visuels interactifs, Claude veut rendre l’IA plus claire pour tous IA
🔗 Lire l'article original
👁️ 1 lecture