● Journal du Net 📅 05/05/2026 à 11:08

Ce que vos équipes sont en train de désapprendre à force d'utiliser l'IA

Énergie & Environnement 👤 Olga Dudko
🏷️ Tags : rte
Illustration
L'IA ne remplace pas les compétences, elle les contourne. Or ce qu'on n'exerce plus se perd peu à peu, un phénomène discret mais risqué pour les organisations qui ne l'anticipent pas à long terme. La scène est banale. Un collaborateur compétent, habitué depuis plusieurs mois à travailler avec l'IA, doit rédiger une note stratégique sans y avoir recours - panne, restriction d'accès, peu importe la raison. Il s'assoit devant sa page blanche. Et pour la première fois depuis longtemps, il ne sait plus vraiment par où commencer. Ce n'est pas un problème de motivation. Ce n'est pas un manque de compétence originelle. C'est quelque chose de plus subtil, et de plus préoccupant : une compétence qu'on a cessé de solliciter, et qui s'est progressivement effacée — sans qu'on s'en aperçoive. Ce que l'IA contourne sans remplacer Il y a une confusion fréquente sur ce que fait réellement l'IA dans le travail quotidien. On dit qu'elle "aide", qu'elle "augmente", qu'elle "accélère". Ces mots sont justes. Mais ils masquent un mécanisme plus précis : l'IA ne renforce pas une compétence, elle la contourne. Quand un outil fait à votre place ce que vous feriez vous-même, vous gagnez du temps. Mais votre cerveau, lui, ne pratique pas. Et ce qu'on ne pratique pas s'atrophie. Or, les connexions neuronales se renforcent avec l’usage et peuvent s’affaiblir sans sollicitation — un phénomène bien documenté en neurosciences sous le nom de plasticité synaptique. Le cerveau tend ainsi à optimiser ce qu’il utilise le plus, au détriment de ce qu’il mobilise moins. Le GPS, par exemple, n’a pas supprimé le sens de l’orientation, mais peut en modifier l’usage chez ceux qui s’y reposent systématiquement. L'IA suit la même logique. Et dans un contexte professionnel, les compétences contournées ne sont pas anodines. Trois compétences qui s'érodent sans qu'on le remarque La première est la capacité à structurer une pensée sans aide extérieure. Rédiger, c'est penser. Quand l'IA propose un plan, un angle, une formulation, elle fait une partie du travail cognitif à la place du rédacteur. Ce travail, répété des milliers de fois, est précisément ce qui forge le jugement. Le déléguer systématiquement, c'est cesser de l'exercer. La deuxième est la détection d'une erreur plausible. Un expert dans son domaine sait reconnaître une réponse fausse - parce qu'elle sonne faux, parce qu'elle contredit quelque chose qu'il sait, parce qu'elle est trop lisse. Cette capacité de détection repose sur une familiarité profonde avec la matière. Quand on lit moins, qu'on vérifie moins, qu'on produit moins par soi-même, cette familiarité s'émousse. Et on commence à valider des outputs qu'on aurait autrefois questionnés. La troisième est le jugement sur la qualité d'un résultat dans son propre domaine. Pas "est-ce que c'est bien écrit ?" — mais "est-ce que c'est juste, pertinent, utilisable dans ce contexte précis ?" Ce jugement est l'une des compétences les plus précieuses d'un professionnel expérimenté. Il ne s'acquiert pas vite. Et il se perd plus facilement qu'on ne le croit. Quand personne ne peut plus vérifier Prise individuellement, l'érosion de ces compétences est gérable. Un professionnel qui en prend conscience peut les réactiver, les exercer délibérément, maintenir un équilibre entre ce qu'il délègue et ce qu'il garde. Prise collectivement, c'est une autre affaire. Quand une équipe entière a progressivement délégué sa capacité de vérification à un outil qu'elle ne comprend pas, qui gouverne ? Quand personne n'est en mesure de détecter une hallucination dans un rapport stratégique, de questionner une analyse produite par un modèle, ou d'évaluer la fiabilité d'une recommandation automatisée — ce n'est plus un problème individuel. C'est un risque organisationnel. Et ce risque est d'autant plus difficile à identifier qu'il est invisible dans les métriques habituelles. La productivité monte. Les délais raccourcissent. Les reportings sont plus lisibles. Tout va bien — jusqu'à ce qu'une décision prise sur un output non vérifié produise des conséquences que personne n'avait anticipées. Le choix conscient comme alternative Désapprendre n'est pas en soi un problème. Toute évolution technologique redistribue les compétences. Ce qui est en jeu ici n'est pas la nostalgie des méthodes d'avant. Ce qui est en jeu, c'est la conscience du processus — et elle commence par comprendre ce qu'on utilise réellement. Pas à un niveau technique. À un niveau fondamental : comment ce type d'IA fonctionne, ce qu'elle fait réellement, dans quelles conditions elle est fiable, et quand son output mérite d'être questionné plutôt que validé. Cette compréhension change tout. Elle permet de ne pas prendre le premier outil qu'on vous propose avec la promesse de gagner 200 % d'efficacité. Elle permet d'évaluer ce qui est réellement utile pour son organisation — compte tenu de ses ressources, de sa stratégie, de ses problématiques concrètes. Elle permet de déléguer en connaissance de cause, et donc de rester en mesure de gouverner ce qu'on a choisi de déléguer. Ce n'est pas une question d'adopter l'IA ou de la rejeter. C'est une question d'autonomie. Et ce choix est ce qui leur évite de déployer à l'aveugle, de dépenser des ressources sur des outils mal adaptés, et de se retrouver dépendants d'une technologie que personne dans l'organisation ne comprend vraiment.
← Retour