● Les Numériques Télécom
📅 30/03/2026 à 15:45
“On a cessé de réfléchir” : cette étude accablante montre que 8 personnes sur 10 suivent ChatGPT, même quand il dit n'importe quoi
Intelligence Artificielle
👤 Aymeric Geoffre-Rouland
“On a cessé de réfléchir” : cette étude accablante montre que 8 personnes sur 10 suivent ChatGPT, même quand il dit n'importe quoi Par Aymeric Geoffre-Rouland Publié le 30/03/26 à 15h45 Nos réseaux : Suivez-nous Commenter 3 Face à ChatGPT, notre esprit critique s'éteint : une étude de Wharton le mesure pour la première fois.© ShutterstockQue se passe-t-il quand on glisse délibérément des erreurs dans les réponses de ChatGPT sans prévenir personne ? Une étude menée sur 1372 sujets apporte une réponse troublante : la grande majorité suit l'IA aveuglément et se sent plus sûre d'elle en le faisant.Après la pensée rapide et la pensée lente, la pensée artificielleDepuis l'ouvrage de référence Thinking, Fast and Slow, la psychologie cognitive s'appuie sur deux systèmes : l'intuition rapide (Système 1) et la délibération analytique (Système 2). Steven Shaw et Gideon Nave, chercheurs à la Wharton School, estiment que ce dualisme ne suffit plus. Dans un article de recherche pré-enregistré portant sur 1372 participants et près de 9600 essais, ils introduisent un Système 3 : la cognition artificielle, externe au cerveau, algorithmique et mobilisable à la demande.Leur protocole est redoutablement simple. Les sujets doivent résoudre des problèmes de raisonnement (Cognitive Reflection Test) avec ou sans accès à un chatbot IA (en l'occurrence ici, ChatGPT GPT-4o). L'astuce : la fiabilité de l'IA est manipulée à l'insu des participants grâce à des prompts cachés. Elle est tantôt juste, tantôt délibérément erronée.Quand l'IA a raison, la performance grimpe. Quand elle a tort, elle plonge sous le niveau de ceux qui réfléchissaient seuls.© Shaw & Nave, 2026Quatre réponses sur cinq suivies aveuglémentLes résultats sont sans appel. Lorsque l'IA fournissait une mauvaise réponse, les participants la suivaient dans 80 % des cas. Leur précision chutait de 46 % (sans IA) à 31 % (avec une IA fautive), tout en grimpant à 71 % quand l'IA était fiable. Plus troublant encore, la confiance déclarée augmentait de près de 12 points dans tous les cas, y compris face à des réponses erronées. Les décideurs n'ont pas seulement utilisé le Système 3 pour les assister dans leur raisonnement : ils ont souvent capitulé face à ses résultats, qu'ils soient corrects ou erronés.Même face à une IA délibérément faussée, 8 participants sur 10 adoptent sa réponse sans la corriger.© Shaw & Nave, 2026Les chercheurs distinguent cette “reddition cognitive” du simple déchargement cognitif (comme l'utilisation d'une calculatrice). Ici, l'individu ne délègue pas une tâche ; il abdique son jugement.Plus on consulte l'IA, plus notre performance dépend de la sienne. L'effet en ciseaux de la reddition cognitive.© Shaw & Nave, 2026Des garde-fous possibles, mais fragilesLes chercheurs ont tenté de briser ce schéma. En imposant un chronomètre, d’abord, la capitulation s'aggrave. En rémunérant les bonnes réponses et en signalant immédiatement les erreurs ensuite, les participants corrigent davantage l'IA, mais le fossé entre IA fiable et IA fautive reste béant.Autrement dit, même motivés et informés, les sujets continuent de se laisser porter. Les profils les plus exposés sont ceux qui font le plus confiance à l'IA et ceux qui éprouvent le moins le besoin de réfléchir par eux-mêmes. Nous ne nous contentons pas d'utiliser l'IA ; nous pensons avec elle.Les auteurs le soulignent : le problème n'est pas l'IA, mais la douceur avec laquelle elle nous convainc. Tant que les interfaces resteront optimisées pour la fluidité, notre Système 2 restera en veille. La solution tiendrait en un mot que le design actuel déteste : la friction. Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.
🔗 Lire l'article original
👁️ 1 lecture