● Silicon.fr Télécom 📅 09/04/2026 à 15:31

Le contrôle de l’IA devient un enjeu d’Etat

Géopolitique 👤 Corinne Thierache & Aya Lyazidi
Illustration
Alors que l’intelligence artificielle s’impose dans des domaines sensibles comme la défense, une question centrale émerge : qui contrôle réellement la machine ? Derrière les débats techniques, l’affaire opposant Anthropic au gouvernement américain révèle une tension inédite entre souveraineté étatique et contrôle algorithmique. Ainsi, l’alignement des systèmes d’IA apparaît comme un nouvel enjeu juridique majeur. L’intelligence artificielle (IA) prend de plus en plus de place dans des secteurs régaliens comme la défense et la sécurité publique, et cette rapide montée en puissance s’accompagne d’une délégation de certaines tâches traditionnellement exercées par l’humain vers des systèmes algorithmiques complexes et parfois opaques. Lire aussi : Claude Mythos : Anthropic dévoile un modèle frontier dédié à la cybersécurité Cependant, les technologies d’intelligence artificielle présentent un risque élevé de générer des résultats biaisés ou erronés ce qui a conduit les concepteurs de systèmes d’IA à développer des mécanismes dits d’alignement afin d’encadrer le comportement de ces systèmes. Ainsi, il paraît légitime de se demander dans quelle mesure l’alignement algorithmique de l’intelligence artificielle, conçu comme un instrument de maîtrise éthique et technique des systèmes autonomes, constitue un droit opposable à l’Etat, ou une entrave à la souveraineté régalienne dès lors que le contrôle humain se heurte aux impératifs de défense nationale et de sécurité publique. L’alignement algorithmique de l’intelligence artificielle comme mécanisme de maîtrise technique des systèmes autonomes L’alignement désigne l’ensemble des techniques visant à intégrer des valeurs humaines (juridiques, éthiques ou sécuritaires) directement dans le fonctionnement et l’architecture des systèmes d’IA. Concrètement, il s’agit d’ajuster ces systèmes pour qu’ils produisent des réponses fiables tout en évitant certains usages jugés dangereux. L’objectif est d’éviter que la machine ne s’écarte des principes fondamentaux et ce même si un utilisateur tente de la détourner. L’alignement devrait être perçu comme une garantie de conformité par défaut. Un exemple emblématique est le « Constitutional AI framework » d’Anthropic qui impose des limites intangibles aux capacités de cet outil d’intelligence artificielle. L’objectif étant de prévenir le risque de divergence entre l’objectif assigné par l’utilisateur et les principes fondamentaux de sécurité et Dans l’affaire Anthropic contre le gouvernement américain, le contrôle humain n’est plus une simple surveillance ex post mais une restriction intégrée ex ante dans l’algorithme du système d’IA « Claude » permettant la protection de certains principes fondamentaux. En refusant de lever ses « garde-fous » pour des armes autonomes et de surveillance de masse, Anthropic exerce un droit de retrait technique fondé sur l’alignement, et soutient que la perte de ce contrôle architectural sur l’IA rendrait le système d’IA imprévisible. Dans le cadre de cette affaire particulièrement sensible outre-Atlantique, une juge fédérale de Californie a prononcé, le 26 mars 2026, une injonction temporaire avec effet au 2 avril 2026 suspendant la décision du Pentagone de qualifier Anthropic de « supply chain risk » pour la sécurité nationale et d’interdire aux agences fédérales d’utiliser sa technologie, estimant que ces mesures sont vraisemblablement illégales et arbitraires ainsi qu’attentatoires à la liberté d’expression. Dans cette bataille, il revient au gouvernement américain de décider de faire appel ou non de cette décision, ce qui n’a pas été encore porté à la connaissance du public. Le contrôle humain sur l’intelligence artificielle se trouve dès lors au cœur d’un affrontement juridique et politique majeur. Lire aussi : KAIROS, ULTRAPLAN... Ce que révèle le leak de Claude Code Les acteurs du marché de l’IA qui ont accepté de collaborer avec les autorités américaines, y compris dans le domaine de la défense, avancent principalement que la coopération avec l’État s’inscrit dans un cadre de légitimité démocratique où les institutions publiques, chargées de la sécurité nationale, doivent pouvoir disposer des technologies les plus avancées. Pour autant, ces acteurs ne revendiquent pas l’absence de limites mais soutiennent que les garde-fous peuvent être maintenus notamment par l’architecture technique du système avec des restrictions intégrées. Cette position s’accompagne parfois d’un assouplissement des principes éthiques, notamment en matière d’usage militaire ou de surveillance, ce qui ne signifie pas un abandon du contrôle humain mais une reconfiguration de celui-ci, passant d’un contrôle strict ex ante par le fournisseur à un contrôle partagé, négocié, et en partie transféré à l’État. L’objection de conscience technologique à l’épreuve de la raison d’Etat et des impératifs de défense Ce désaccord dépasse le simple cadre technique et met en lumière une opposition entre deux logiques : D’un côté, l’Etat invoque ses impératifs régaliens notamment la défense nationale et la sécurité publique. Dans ce contexte, l’accès à des technologies avancées peut alors être considéré comme stratégique. De l’autre, les entreprises défendent leur liberté d’entreprendre et leur responsabilité dans la conception d’outils sûrs ; refuser certains usages devient alors une forme d’objection de conscience technologique. Le contrôle humain se transforme dès lors en terrain d’affrontement : doit-il être exercé par l’Etat au nom de l’intérêt général, ou par les concepteurs au nom de la sécurité des systèmes ? La nécessité juridique d’un contrôle humain effectif sur les systèmes d’IA comme condition de légitimité et de sécurité Au-delà de ce conflit, une question fondamentale demeure concernant l’utilisation des systèmes d’IA sans véritable contrôle humain. Un problème juridique majeur se pose quant à l’absence d’alignement ou de supervision puisque l’IA est par nature irresponsable. Ainsi, en cas de dommage il deviendrait difficile d’identifier un responsable si aucune règle claire n’a été intégrée en amont. Lire aussi : OpenAI, Anthropic et Perplexity livrent bataille sur la santé Ceci renvoie aux règles fondamentales posées par l’AI Act. Le contrôle humain est un principe d’architecture des systèmes d’IA et non une simple faculté ex post, qui participe directement à l’alignement. Le principe « Human-in-the-loop » pourrait être partiellement remis en cause par le Digital Omnibus Package actuellement discuté au sein des institutions de l’Union européenne. En effet, si ce projet ne supprime pas le contrôle humain, il révèle une tension entre simplification réglementaire et maintien des conditions structurelles de l’alignement, dont l’issue dépendra du compromis final entre les institutions. Le maintien de principes humains au cœur des algorithmes des systèmes d’IA n’est pas un frein à l’innovation mais au contraire une garantie de sécurité juridique qui est nécessaire pour éviter que l’automatisation de certaines actions, potentiellement dangereuses, ne s’opère sans réelle supervision par l’humain. * Corinne Thiérache est avocate associée au cabinet ALERION et Aya LYAZIDI, étudiante du Master 2 Droit du Numérique à l'Université Paris Panthéon-Assas
← Retour