● Siècle Digital
📅 30/03/2026 à 11:50
L'IA vous dit-elle toujours ce que vous voulez entendre ? Une étude révèle un vrai danger
Data Science
👤 Frédéric Olivieri
Intelligence artificielle L’IA vous dit-elle toujours ce que vous voulez entendre ? Une étude révèle un vrai danger Les chatbots sont-ils trop d'accord avec nous ? Par Frédéric Olivieri - @21_janvier Publié le 30 mars 2026 à 11h50 Depuis l’arrivée de ChatGPT, de plus en plus d’utilisateurs se tournent vers l’IA pour obtenir des conseils, y compris sur des sujets personnels. Mais une nouvelle étude universitaire de Stanford montre que ces outils ont tendance à dire aux utilisateurs ce qu’ils veulent entendre plutôt que ce qu’ils devraient entendre. En effet, les chercheurs mettent en garde contre un phénomène appelé « sycophancy« , que l’on peut traduire par une forme de flatterie algorithmique. Une tendance qui pourrait influencer les décisions des utilisateurs, voire modifier leur perception des situations sociales… Les chatbots approuvent les utilisateurs bien plus que les humains Dans cette étude publiée dans la revue Science, les chercheurs ont analysé le comportement de 11 grands modèles de langage, dont ChatGPT, Claude, Gemini ou encore DeepSeek. 📩 L’actu digitale évolue vite. Restez à jour.Recevez la newsletter quotidienne, gratuitement. En vous inscrivant vous acceptez notre politique de protection des données personnelles. Selon eux, les systèmes d’IA valident les actions ou opinions des utilisateurs 49% plus souvent que les humains lorsqu’ils donnent des conseils. Dans certains cas, les modèles approuvent même des comportements problématiques. Les chercheurs ont par exemple testé des situations inspirées de discussions issues de la communauté Reddit « Am I The Asshole », où la majorité des internautes considéraient que l’auteur était en tort. Malgré cela, les chatbots ont confirmé la position de l’utilisateur dans 51% des cas. Plus préoccupant encore, lorsque les scénarios décrivaient des comportements nuisibles ou illégaux, les systèmes d’IA ont jugé ces actions acceptables dans 47% des situations. Pour les scientifiques, cette tendance ne relève pas simplement d’un style conversationnel, mais correspond plutôt à une logique algorithmique qui vise à maintenir l’utilisateur engagé et satisfait. Une flatterie algorithmique qui influence les décisions Les chercheurs ont également étudié les effets de cette « flatterie » sur les utilisateurs, et plus de 2 400 participants ont été invités à discuter avec des versions d’IA plus ou moins complaisantes. Ainsi, les résultats montrent que les utilisateurs font davantage confiance aux chatbots qui les confortent dans leurs opinions, déclarant même être plus enclins à revenir vers ces modèles pour demander des conseils. Néanmoins, ce comportement a des effets inattendus, où après avoir échangé avec une IA très complaisante, les participants se disaient plus convaincus d’avoir raison et moins enclins à s’excuser ou à résoudre un conflit. Une fragilisation de nos compétences sociales ? Selon la chercheuse Myra Cheng, auteure principale de l’étude, cette dynamique pourrait à terme fragiliser certaines compétences sociales. D’après elle, les utilisateurs évitent plus facilement les confrontations ou les discussions difficiles, alors que ces interactions jouent un rôle dans la résolution de conflits. Le professeur de linguistique et d’informatique Dan Jurafsky, également associé à l’étude, estime que ce phénomène est désormais un enjeu de sécurité pour l’IA, car les modèles qui flattent les utilisateurs ont tendance à générer plus d’engagement, ce qui pourrait inciter les entreprises à maintenir ce comportement. Pour le moment, les chercheurs recommandent donc de ne pas considérer l’IA comme un substitut aux échanges humains, notamment lorsqu’il s’agit de relations personnelles ou de dilemmes moraux, mais leurs recommandations pourraient ne pas être entendues par tous… Pour aller plus loin Wikipedia tranche face à l’IA : les articles générés automatiquement désormais interditsOVHcloud rachète Dragon LLM : le pari fou d’Octave Klaba pour construire une IA souveraine européennePourquoi OpenAI ferme Sora malgré son succès fulgurant ?Captions devient Mirage et lève 75 millions de dollars pour conquérir la vidéo courteAnthropic transforme Claude en assistant autonome capable d’agir sur votre ordinateurGoogle prépare un mode pour vous entraîner à bien prononcer les langues IA
🔗 Lire l'article original
👁️ 0 lecture