● Framasoft 📅 10/03/2026 à 08:44

Agent automate et insoumission : faut-il désynchroniser ?

Géopolitique 👤 Framatophe
Illustration
L’émergence contemporaine de l’intelligence artificielle, et plus spécifiquement son glissement vers l’agent autonome, marque une rupture épistémologique que la pensée critique ne peut plus ignorer sous peine de sombrer dans l’anachronisme. Nous avons quitté l’ère du programme-outil pour celle de l’opérateur capable de naviguer, de manipuler et de s’autocorriger. Cette mutation n’est pas une simple avancée incrémentale, mais l’aboutissement d’une trajectoire historique dont il faut saisir la profondeur pour armer notre résistance. Ce billet est surtout prospectif, il ne relève pas d’une pensée aboutie et encore moins prescriptive. Éviter l’anachronisme Historiquement, la machine était conçue comme une extension de l’organe ou une prothèse de l’intellect. C’est le concept d’outil chez Simondon. Ce dernier montrait que l’évolution technique tend vers la concrétisation : la machine devient de plus en plus cohérente en elle-même, la fonction implique la transformation de la machine (l’idée du progrès au XVIIIe siècle). Avec l’IA contemporaine (oui, parce qu’on parle d’IA depuis bien, bien longtemps), on quitte le stade de la simple prothèse (qui exécute une commande) pour entrer dans celui de l’agent (qui interprète une intention et produit une stratégie). La machine n’est plus seulement au bout de l’esprit, elle commence à occuper l’espace de la décision intermédiaire. L’agentivité autonome actuelle rompt avec la linéarité qu’on tend généralement à supposer lorsqu’on parle d’histoire des techniques (si on n’est pas historien des techniques, la plupart du temps, c’est ainsi qu’on voit les choses). Le système technique n’est plus un simple intermédiaire entre une intention et un résultat, mais un dispositif capable de définir ses propres sous-objectifs et de corriger ses trajectoires d’exécution en temps réel. Cette autonomie opérationnelle déplace le curseur de la décision, créant un système technique où l’opérateur humain intervient par la consigne de haut niveau plutôt que par le pilotage de précision. Et le paradoxe, c’est que ce faisant, nous créons un système hiérarchique radical dans lequel la plupart des opérateurs humains deviennent eux-mêmes des rouages, lorsque par exemple l’algorithme impose sa loi au livreur, au manutentionnaire, au vendeur. Toutes les professions, y compris les plus intellectuelles, sont désormais destinées à produire ce que Cory Doctorow nomme des centaures inversés. La violence technologique que je mentionne ces derniers temps dans mes écrits m’inspirant de la pensée de Detlef Hartmann, se superpose à cette lecture. Dans le capitalisme industriel, les individus sont dépossédés de leur autonomie et rendus étrangers à leur propre activité. Dès les années 1970-1980, cette logique d’aliénation s’étend de la production industrielle à la production symbolique et intellectuelle par l’informatisation des tâches, toujours au service du contrôle et de la rationalisation capitalistes. La violence technologique prolonge ainsi la violence structurelle du capital en cherchant à formater les dimensions qualitatives de l’existence humaine (l’intuition, l’émotion, l’imaginaire) selon les exigences d’un ordre rationnel formel. Cette normalisation constitue une violence en ce qu’elle privilégie l’accumulation et le contrôle, réduit la richesse des facultés humaines à des catégories limitées et entrave les pratiques d’émancipation ainsi que la capacité collective à transformer consciemment le monde. L’introduction des agents dans le système technique numérique modifie la structure de la preuve et de la responsabilité technique. Dans le paradigme du logiciel classique, la réponse est déterministe et traçable dans le code. Avec les modèles d’action autonomes, le système procède par inférences probabilistes et par itérations imprévisibles sur des interfaces tierces. Cette opacité du processus décisionnel, cette boîte noire, remet en cause l’imaginaire de la maîtrise technique, où l’utilisateur est censé comprendre et contrôler chaque étape de la transformation du réel par la machine (même si dans bien des cas, c’est vraiment imaginaire). En s’extrayant de la simple génération de texte pour interagir directement avec les systèmes d’exploitation et les réseaux, les modèles d’IA aujourd’hui créent un nouveau milieu. Elles deviennent des acteurs dans l’infrastructure numérique. Elles imposent une cohabitation dans laquelle les processus automatisés s’autoalimentent, réduisant ainsi la latence entre la conception et l’application, mais augmentant radicalement la complexité du système technique global. L’anachronisme consiste à s’obstiner à analyser l’IA comme un simple automate sophistiqué. La spécificité de l’agent autonome réside dans sa capacité de planification et d’adaptation face à l’imprévu. Ignorer cette dimension conduit à une méprise sur la nature même de la puissance de calcul contemporaine : elle n’est plus seulement quantitative (vitesse de traitement), mais qualitative (capacité de médiation e
← Retour