● Les Numériques Télécom
📅 25/04/2026 à 13:00
La fausse empathie des IA énerve les utilisateurs, mais les entreprises persistent avec cette manie
Géopolitique
👤 Nassim Chentouf
La fausse empathie des IA énerve les utilisateurs, mais les entreprises persistent avec cette manie Par Nassim Chentouf Publié le 25/04/26 à 13h00 Nos réseaux : Suivez-nous Commenter 2 © Shutterstock/MAYA LAB Les trois expériences suivaient le même schéma. Des participants interagissaient avec un chatbot de service client. Ces IA commettaient des erreurs et dans certains cas, répondaient avec des formules empathiques. Dans d'autres, elles passaient directement à la suite sans commenter l'émotion de l'utilisateur.Les phrases faussement empathiques ? "Je comprends vraiment votre frustration" ou "je suis vraiment désolé que cela vous arrive". De quoi grincer des dents en se demandant pourquoi un robot joue à l'humain.Une empathie mimée très mal reçue par l'utilisateur© MIS QuarterlyForcément, les formules empathiques ont produit l'effet inverse. Au lieu d'apaiser les clients, elles ont déclenché ce que les chercheurs appellent une "réactance psychologique". En gros, il s'agit d'une résistance instinctive que les gens ressentent quand ils ont l'impression que quelque chose empiète sur leur autonomie ou leur espace mental. L'idée qu'une machine analyse leur état émotionnel pour leur renvoyer une réponse calibrée est perçue comme intrusive, pas rassurante.Dezhi Yin, professeur associé en systèmes d'information à l'Université de Floride du Sud et co-auteur de l'étude, résume le problème. "L'empathie d'un chatbot peut se sentir comme une intrusion et nuire à la confiance", a-t-il déclaré dans le communiqué de l'université. Les clients ont aussi jugé le chatbot moins compétent après ces formules. La perception de la qualité du service a baissé.Les chercheurs pointent une distinction fondamentale. L'empathie humaine marche parce qu'elle est perçue comme sincère par la personne en face. Sauf que voilà, des milliers d'entreprises ont intégré des phrases d'empathie dans leurs chatbots ces dernières années.Un marché qui pesera 72 milliards de dollarsEn 2023, le marché des chatbots pesait 12 milliards de dollars. Selon Juniper Research, il atteindra 72 milliards en 2028. La plupart des grandes plateformes de service client misent sur l'humanisation de ces outils comme argument commercial. Mais selon cette étude, c'est inutile. À lire également : Les cartes graphiques, cœur polluant de l’intelligence artificielle Les chercheurs proposent d'autres approches. Des excuses ou un geste commercial sont mieux reçus qu'une formule empathique. L'objectif n'est pas de rendre le chatbot froid ou agressif. C'est d'éviter une simulation d'empathie que le client sait artificielle car il parle à une IA. Un client qui contacte un service après un problème n'attend pas de l'empathie de la part d'un logiciel. Il attend une solution.L'étude a aussi testé cette dynamique avec un chatbot basé sur un grand modèle de langage, sans réponses programmées. Les résultats sont les mêmes. L'effet négatif de l'empathie est aussi présent. Peut-être avez-vous déjà été agacé par la fausse empathie d'un ChatGPT ou d'un Claude. C'est normal. Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.
🔗 Lire l'article original
👁️ 0 lecture