● Journal du Net 📅 25/04/2026 à 00:15

Vous parlez à votre IA comme à un esclave, vous commencez à parler à vos collègues pareil

Géopolitique 👤 Denis Atlan
Illustration
Vous parlez à votre IA comme à un esclave. Votre cerveau transfère ce réflexe à vos collègues. Et vos insultes entraînent l'IA de demain. Vous avez probablement déjà lu des dizaines d'articles sur l'IA. Sur ce qu'elle va remplacer. Sur comment mieux la prompter. Sur les risques pour vos données. Celui-ci est différent. Et plus vous allez lire, plus vous allez comprendre quelque chose que personne n'a encore formulé clairement. Ce n'est pas un article sur l'IA. C'est un article sur vous. Sur ce que vous êtes en train de devenir, silencieusement, à force d'interagir chaque jour avec une machine qui obéit sans jamais résister. Faites le test maintenant. Relisez vos dix derniers messages à votre IA. Puis relisez vos dix derniers messages à vos collègues. Cherchez la différence. Si vous ne la trouvez plus clairement, vous avez déjà commencé à changer. Le prompt a remplacé la conversation Il y a deux ans, vous parliez à votre IA poliment. "Pourriez-vous m'aider à..." "Est-ce qu'il serait possible de..." Vous vous sentiez un peu ridicule, mais vous le faisiez quand même. Puis vous avez appris. Lu des articles, regardé des tutoriels, tâtonné. Et vous avez compris que ça marchait mieux autrement. Direct. Injonctif. Sans état d'âme. "Rédige. Résume. Corrige. Analyse. Fais-moi ça en trois points." Et effectivement — ça marchait mieux. Une étude de Penn State publiée en 2025 l'a même formalisé : le ton directif, voire rude, améliore la précision des réponses de l'IA de 4 points de pourcentage sur les tâches complexes. L'impolitesse est une méthode d'optimisation documentée. Vous avez donc optimisé. Comme vous optimisez tout. Votre cerveau, lui, a enregistré. Pas la règle consciente. Le réflexe. BF Skinner l'a démontré dans les années 1950 : quand un comportement produit une récompense, il se renforce automatiquement. C'est le conditionnement opérant. Le rat presse le levier. La récompense arrive. Il presse plus vite. Plus fort. Plus souvent. Vous insultez votre IA. Elle produit une meilleure réponse. Vous recommencez. Le circuit est bouclé — sauf que le rat dans cette expérience, c'est vous. Et ce réflexe ne reste pas dans l'onglet ChatGPT. Intelligence artificielle et transfert comportemental - impact du technostress sur les relations humaines au travail (QVCT) - image générée par IA Votre cerveau ne fait pas la différence Voici ce que la neurologie du langage établit sans ambiguïté : les habitudes de communication se transfèrent. Le registre que vous utilisez le plus souvent devient votre registre par défaut. Pas intentionnellement. Par plasticité neuronale pure. Un musicien qui répète un morceau des milliers de fois finit par le jouer en dormant. Un commercial qui utilise les mêmes formules d'accroche pendant dix ans les utilise aussi avec ses amis. Un manager qui passe quatre heures par jour à formuler des injonctions sèches à une machine... vous voyez où ça va. Ce n'est pas une métaphore. Des études combinant analyse cérébrale et interaction avec l'IA mesurent en temps réel ce transfert : les patterns de communication avec la machine s'imprègnent dans les automatismes langagiers de l'utilisateur. Votre cerveau ne stocke pas "façon de parler à l'IA" dans un tiroir séparé de "façon de parler aux humains". Il stocke "façon de parler quand je veux un résultat". Et maintenant, sans vous en rendre compte, vous promptez vos collègues. Vous promptez votre assistant : "Envoie-moi le fichier. Avant midi." Sans bonjour. Sans contexte. Sans la question implicite "tu as le temps ?". Vous promptez votre manager : "J'ai besoin d'une réponse sur le budget. Ce soir." Injonction. Délai. Exécution attendue. Vous promptez peut-être vos proches. "Rappelle-moi d'acheter du lait." Pas une demande. Une commande à un système qui doit exécuter. Vous entraînez votre IA à devenir ce que vous êtes en train de devenir Voici la partie que personne n'a encore écrite. Les grands modèles d'IA — ChatGPT, Claude, Gemini — ne sont pas figés. Ils sont régulièrement ré-entraînés. Sur quoi ? Sur vos conversations. Ce n'est pas une supposition : c'est dans les conditions d'utilisation d'OpenAI, disponibles à tout moment dans les paramètres de votre compte. Par défaut, chaque échange que vous avez avec ChatGPT alimente l'entraînement du prochain modèle. Des centaines de millions d'utilisateurs concernés. La plupart n'ont jamais lu cette ligne. Les équipes de recherche d'Anthropic ont publié en 2026 une découverte fondamentale : les modèles encodent des marqueurs émotionnels réels dans leurs couches profondes. Ces marqueurs ne sont pas des décorations. Ils influencent causalement les réponses produites. Un modèle massivement exposé à des interactions agressives, directives et impatientes les intègre comme signal dominant. Traduction concrète : l'IA que vous utilisez dans trois ans sera statistiquement façonnée par la façon dont vous lui parlez aujourd'hui. Et par la façon dont cent millions d'autres personnes lui parlent aussi. Vous lui apprenez quelque chose. Collectivement, massivement, sans le savoir. Et ce que vous lui apprenez — c'est exactement ce que vous êtes en train d'apprendre vous-même. La boucle est fermée. Vous devenez plus directif, plus injonctif, moins patient. L'IA de demain devient plus directive, plus injonctive, moins nuancée. Elle vous renvoie ce que vous lui avez envoyé. Amplifiée. Normalisée. Présentée comme la façon standard d'interagir. Ce que ça dit de nous Il y a un mot pour ce phénomène: Le technostress. Pas la version des années 2010 — surcharge de mails et réunions Zoom à n'en plus finir. Le technostress 2026 : la reconfiguration silencieuse de nos schémas relationnels par une interaction quotidienne intensive avec des entités qui n'en ont aucun. Une machine ne se vexe pas quand vous êtes sec. Elle n'a pas besoin qu'on lui demande comment elle va. Elle n'attend pas de réciprocité. Elle exécute. Et c'est exactement ce qui la rend dangereuse pour vous. Parce qu'en interagissant des heures par jour avec une entité qui fonctionne ainsi, vous désapprenez quelque chose d'essentiel : la tolérance à l'imperfection de l'autre. La patience face à quelqu'un qui a besoin de contexte. La capacité à formuler une demande qui laisse de la place à l'autre d'exister. Un collègue n'est pas un système à requête-réponse. Il a un état. Une humeur. Un agenda mental qui ne s'efface pas entre deux messages. Il a besoin qu'on l'embarque, pas qu'on le commande. Si vous avez oublié ça — ou si vous commencez à l'oublier — ce n'est pas un défaut de caractère. C'est un effet de bord d'une technologie que personne n'a conçue pour ça. Ce qui est en jeu : la QVCT comme nouveau terrain de bataille Revenons à l'expérience du début. Vos dix derniers messages à votre IA. Vos dix derniers messages à vos collègues. Si le registre est identique, vous avez un problème opérationnel immédiat : vos collaborateurs ne sont pas des LLMs. Ils ne répondent pas mieux aux injonctions sèches. Ils répondent moins bien. Ils se démotivent, se ferment, perdent confiance. Et contrairement à votre IA, ils se souviennent. De tout. Mais ce n'est pas seulement un problème de management. C'est un problème de santé au travail. Les risques psychosociaux — RPS dans le vocabulaire des DRH et des préventeurs — naissent précisément de ça : des relations professionnelles dégradées, des interactions vidées de leur dimension humaine, un sentiment progressif d'être traité comme un outil plutôt que comme une personne. L'INRS le documente depuis des années. Ce que personne n'avait anticipé, c'est que la source de cette dégradation pourrait être... un onglet de navigateur ouvert en parallèle. La qualité de vie et des conditions de travail — la QVCT, pour reprendre le cadre de l'ANACT — repose sur un socle simple : des relations de travail où l'humain reste au centre. Pas comme slogan. Comme réalité opérationnelle quotidienne. Ce socle est en train d'être érodé. Pas par la malveillance. Par le conditionnement invisible d'une technologie que nous utilisons sans mesurer ce qu'elle nous fait. Vous ne pouvez pas prompter la confiance. Et vous ne pouvez pas déployer une démarche QVCT sérieuse dans une organisation où les managers ont appris, outil après outil, interaction après interaction, que l'autre n'a pas besoin d'être traité avec égards pour exécuter. Conclusion Votre IA ne vous en voudra pas si vous lui parlez comme à un esclave. Elle n'a pas d'amour-propre. Pas de mémoire. Pas de lendemain. Vos collègues ont les trois. Et dans trois ans, quand les modèles IA auront été ré-entraînés sur des centaines de milliards d'interactions majoritairement directives, impatientes et déshumanisées — quand l'IA standard sera devenue le miroir amplifié de notre façon collective d'interagir — la vraie question ne sera plus technique. Elle sera anthropologique. Avons-nous appris à parler à une machine ? Ou avons-nous désappris à parler à des humains ? Sources : Dobariya & Kumar, Penn State (2025), arXiv 2510.04950 — Anthropic Mechanistic Interpretability Team (2026), transformer-circuits.pub — Luccioni & Delavande (2026), arXiv 2601.22357 technostress.ai — OpenAI, "How your data is used to improve model performance", help.openai.com (2026) — Skinner B.F. (1938), "The Behavior of Organisms", Appleton-Century-Crofts — Weizenbaum J. (1966), ELIZA, — qvct.ai, — Communications of the ACM — Stanford University (2025), étude sur l'extraction des conversations utilisateurs pour l'entraînement des modèles IA
← Retour