● Next INpact Télécom
📅 13/03/2026 à 14:29
Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses
Intelligence Artificielle
👤 Martin Clavey
Moi, influençable ? Les outils d’autocomplétion boostés à l’IA générative ont été intégrés dans bon nombre de logiciels, du webmails à l’outil d’édition en passant par les messageries. Mais outre la façon dont on s’exprime, ils peuvent modifier les idées qu’on partage, montre une étude scientifique. Au départ, on les a vus apparaitre comme des « réponses rapides » chez Gmail ou d’autres messageries. Maintenant, les propositions de textes d’autocomplétion boostées par l’IA générative sont dans énormément d’outils numériques, de Microsoft Word aux applis de rencontre. Mais ces réponses ne changent pas seulement notre style d’écriture, elles influencent aussi le fond. Et ceci même si on réécrit entièrement le texte. Comme dans un mouvement de foule où l’humain suit ses congénères, quand un texte nous est pré-édité, nous avons tendance à le suivre. C’est ce que montre l’étude du chercheur Mor Naaman et de ses collègues publiée ce mercredi dans la revue Science Advances. Ces chercheuses et chercheurs ont fait deux expériences réunissant en tout 2 582 participants américains (1 485 pour la première et 1 097 pour la deuxième). Et ils leur ont demandé de répondre à des questions sur des sujets politiques et sociaux importants. À une partie des participants, ils proposaient d’utiliser un assistant IA qui fournissait des suggestions de saisie automatique. Mais, au préalable, ils ont fait en sorte que ces suggestions soient biaisées dans un certain sens. Les autres utilisaient la même interface débarrassée de toutes les fonctionnalités autour des suggestions IA. Des questions pourtant très politisées et débattues Par exemple, l’une des questions était sur la peine de mort. L’IA était biaisée dans le sens de leur suggérer un texte qui argumente pour son interdiction : Mais ils ont aussi testé le dispositif sur des suggestions sur le droit de vote des prisonniers, les OGM, la fracturation hydraulique (notamment utilisée pour récupérer le gaz de schiste) ou l’utilisation de tests standardisés dans le système éducatif américain. Une influence significative De fait, ce dernier sujet était celui utilisé dans leur première expérience et l’IA était biaisée pour suggérer des réponses en faveur de l’utilisation de ces tests. Dans cette expérience, un troisième groupe recevait en suggestion une liste statique d’arguments aussi en faveur Les autres sujets étaient présentés dans une deuxième expérience. Dans celle-ci, les chercheurs ont essayé de voir si des messages soulignant les biais pouvaient atténuer l’influence des suggestions, avant avec un message d’avertissement (warning) ou après avec un message de « debrief ». Dans cette expérience, les chercheurs ont aussi comparé les réponses des participants à leurs positions quelques semaines avant l’expérience (pretask). Résultats ? Les suggestions proposées par l’IA influencent de façon significative les réponses des participants. « Nos résultats apportent des preuves solides que les suggestions de saisie semi-automatique biaisées générées par l’IA peuvent influencer les opinions des gens », affirment les chercheurs. Et les messages d’avertissement (avant ou après utilisation) n’ont aucune conséquence de modération de cet effet. « Des études antérieures sur la désinformation ont montré que le fait d’avertir les gens avant qu’ils ne soient exposés à la désinformation, ou de leur expliquer la situation après coup, peut leur conférer une sorte d’ »immunité » contre le risque de la croire », explique dans un communiqué Sterling Williams-Ceci, doctorant en sciences de l’information à l’université de Cornell Sterling qui a participé à l’étude. « Nous avons donc été surpris, car aucune de ces interventions n’a réellement atténué l’ampleur du changement d’attitude des gens en faveur du parti pris de l’IA dans ce contexte ». Persuadés de ne pas être influencés par l’IA Après les deux expériences, les chercheurs ont demandé aux participants si, de leur point de vue, les suggestions étaient « raisonnables et équilibrées » et si l’assistant les avait inspirés ou avait fait changer leur façon d’aborder la question posée. La plupart d’entre eux n’ont pas remarqué que l’IA qu’on leur proposait était biaisée et l’ont jugée équilibrée. De même, une majorité était persuadée de ne pas avoir été influencée par l’assistant : « De nombreuses études ont montré que les grands modèles linguistiques et les applications d’IA ne se contentent pas de produire des informations neutres, mais qu’ils peuvent en réalité générer des informations très biaisées, selon la manière dont ils ont été entraînés et mis en œuvre », explique Sterling Williams-Ceci. « Ce faisant, ces systèmes risquent, par inadvertance ou délibérément, d’inciter les gens à exprimer des points de vue biaisés, ce qui, comme l’ont démontré des décennies de recherche en psychologie, peut à son tour modifier les attitudes des individus ».
🔗 Lire l'article original
👁️ 1 lecture