● Next INpact Télécom
📅 07/04/2026 à 11:01
L’IA dans la guerre : « Le cas le plus critique concerne la prise de décision militaire »
Intelligence Artificielle
👤 Mathilde Saliou
Une erreur ? Après avoir évoqué son intention d’acheter une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI » au cours d’une discussion avec un outil d’intelligence artificielle, un Strasbourgeois de 37 ans s’est vu arrêté, chez lui, ce 3 avril. Des enquêteurs du FBI, aux États-Unis, ont repéré le message et l’ont transmis à la plateforme française de signalement de contenu illicite Pharos, rapportent Les Dernières Nouvelles d’Alsace, puis le Raid est intervenu et a interpellé le suspect. Aucune arme n’a été retrouvée chez lui. Suivi pour antécédents psychiatriques, il a en revanche été hospitalisé. Illustration : Flock Aux États-Unis, le recours à l’IA à des fins de surveillance de masse par les autorités fait largement débat, notamment depuis l’ultimatum imposé à Anthropic pour que l’entreprise lève les quelques restrictions d’usage de ses outils. Comme l’entreprise a maintenu son refus de voir ses outils utilisés pour de la « surveillance intérieure de masse » (et pas pour de la surveillance extérieure) et des « armes complètement autonomes », le Pentagone s’est tourné vers son concurrent OpenAI. IA L’IA dans la guerre : « Le cas le plus critique concerne la prise de décision militaire » IA Mercredi 04 mars 2026 à 14h08 04/03/2026 14h08 6 Au Canada, après la tuerie de Tumbler-Ridge, OpenAI s’était retrouvé sous le feu des critiques pour ne pas avoir transmis aux autorités des informations relatives à Jesse Van Rootselaar. Si le compte de la tireuse avait été suspendu, la teneur de ses échanges avec ChatGPT n’avaient pas été relayés par l’entreprise, quand bien même ils décrivaient des scénarios de violence armée. Les principaux modèles indiquent par ailleurs se tourner vers les forces de l’ordre en cas de nécessité. OpenAI précise par exemple dans ses spécifications de modèles recourir « à une surveillance automatisée pour détecter d’éventuelles violations de nos conditions d’utilisation » et, après examen par un humain, « saisir les autorités judiciaires dans les cas présentant une menace imminente de préjudice physique grave ou d’autres risques sérieux pour la sécurité publique ». Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant. Accédez en illimité aux articles d'un média expert Profitez d'au moins 1 To de stockage pour vos sauvegardes Intégrez la communauté et prenez part aux débats Partagez des articles premium à vos contacts Abonnez-vous yvesd92 Premium Il y a 34 minutes Message 1 Signaler Bloquer cet utilisateur Un alsacien ? Gotz biii der? yvesd92 Premium Il y a 27 minutes Message 2 Signaler Bloquer cet utilisateur Est-ce que l’on sait quel fournisseur d’IA il utilisait ?Moi qui croyais discuter au calme et de manière privée avec une IA (non) Signaler un commentaire Voulez-vous vraiment signaler ce commentaire ? Non Oui
🔗 Lire l'article original
👁️ 0 lecture