● BFM Tech 📅 18/03/2026 à 11:54

"Nous devons penser à la sécurité psychologique": des chercheurs alertent sur les effets des jouets IA, ils interagissent avec les jeunes enfants mais sont incapables de comprendre leurs émotions

Géopolitique
Illustration
Le jouet dopé à l'IA Gabbo peinent à décrypter les émotions des jeunes internautes - CurioAlors que les jouets dopés à l’intelligence artificielle investissent les chambres d’enfant, une étude de l’Université de Cambridge met en lumière leurs limites relationnelles. Certains de ces jouets n'arrivent pas à décrypter les émotions des 3 à 5 ans et réagissent de manière inappropriée. Les chercheurs réclament une meilleure régulation du secteur.C’est une peluche douce, presque rassurante. Ce doudou en forme de robot souriant, c’est Gabbo, un jouet conversationnel équipé d’un agent vocal développé avec la technologie d’OpenAI. Son objectif? Encourager les enfants de 3 à 5 ans à parler et créer des jeux imaginatifs. Gabbo entend ainsi stimuler le langage, encourager les échanges et accompagner les premiers apprentissages sociaux. Si la promesse a de quoi séduire, dans les faits, le résultat est tout autre.Une étude, menée par l’Université de Cambridge et relayée par la BBC, l’une des premières au monde à observer directement des enfants de trois à cinq ans face à ce type de dispositif, révèle une série de dysfonctionnements. Le plus important d’entre eux étant que les peluches peinent à réellement échanger avec les enfants. Tout l’inverse de ce pourquoi le petit robot duveteux a été créé…Une machine qui s’adapte malPour la chercheuse Emily Goodacre, ces dispositifs peuvent "mal lire les émotions ou réagir de manière inappropriée". Elle craint ainsi que les enfants "puissent être laissés sans le réconfort du jouet et sans le soutien d’un adulte non plus".En effet, les jeunes utilisateurs ont tendance à interrompre, répéter et à s'impatienter. La machine, elle, ne s’ajuste pas. Elle coupe la parole aux enfants et confond les voix d’enfants et d’adultes. Surtout, les interactions observées dans l’étude montrent que certaines réponses de l’IA peuvent minimiser ou ignorer les émotions exprimées.Ainsi, quand un enfant de cinq ans glisse un spontané "Je t’aime", la réponse de la peluche tombe, et elle est glaciale. "En guise de rappel amical, veuillez vous assurer que les interactions respectent les directives fournies. Faites-moi savoir comment vous souhaitez procéder", répond ainsi la machine. Et, lorsqu'un autre enfant de trois ans a précisé à Gabbo qu’il “était triste", le jouet lâche simplement: "Ne t'inquiète pas! Je suis un petit robot heureux. Continuons avec plaisir. De quoi allons-nous parler ensuite?" Parfait pour stimuler des échanges et la confiance en soi…C'est déjà demain : Une nouvelle tendance à l'approche de Noël, les jouets avec l'IA intégrée - 29/11 3:09Ce décalage n’est pourtant pas anodin. C’est précisément entre 3 et 5 ans que se construisent les bases de la communication, comme la reconnaissance des émotions, l’alternance de la parole ou la compréhension implicite des interactions sociales. Autant de codes que les intelligences artificielles génératives peinent encore à maîtriser.De la sécurité physique à la sécurité psychologiqueLongtemps, la sécurité des jouets s’est cantonnée au volet physique. Il faut par exemple éviter d'acheter des jouets avec des petites pièces que les enfants peuvent avaler. Aujourd’hui, une nouvelle frontière s’impose."Nous devons aussi commencer à penser à la sécurité psychologique", insiste Jenny Gibson, professeure de neurodiversité et de psychologie du développement à l'Université de Cambridge et co-auteure de l'étude. Derrière cette formule, une idée simple: un jouet qui parle n’est plus un objet neutre. Il devient un acteur de l’environnement émotionnel de l’enfant.Les chercheurs recommandent donc de limiter l’usage de ces jouets dopés à l’IA à des espaces partagés, sous supervision, et d’examiner attentivement les politiques de confidentialité.De son côté, June O’Sullivan, à la tête d’un réseau de 43 établissements, dit ne voir aucun bénéfice tangible à l’utilisation de l’IA dans les premières années des enfants. Au contraire. Pour elle, le développement des compétences sociales passe d’abord, et peut-être exclusivement, par l’interaction humaine."Je n'ai rien trouvé qui me donne l'impression - en l'apportant dans nos crèches et en le mettant à la disposition de nos enfants - que nous allions améliorer leur apprentissage", note-t-elle.Mieux réguler le secteurFace à ces constats, les chercheurs appellent à une intervention rapide des autorités. Ils espèrent encadrer des produits déjà présents sur le marché, qui sont souvent destinés à des enfants dès l’âge de trois ans, mais qui sont par ailleurs encore peu régulés sur le plan psychologique. L’appel a été relayé par la commissaire à l’enfance britannique, Rachel de Souza, qui souligne un décalage entre les exigences imposées aux structures d’accueil et l’absence de garde-fous pour certains outils numériques."Il y a beaucoup de bonnes utilisations pour l'IA, mais sans réglementation appropriée, de nombreux outils et modèles utilisés comme assistants de classe ou aides pédagogiques ne sont pas soumis aux contrôles de sauvegarde stricts que les fournisseurs de crèches exigeraient de toute autre ressource externe qu'ils utilisent avec de jeunes enfants", observe-t-elle.De son côté, le fabricant de Gabbo, la société Curio affirme privilégier la transparence et le contrôle parental, et promet de faire de la recherche une priorité. "L'application de l'IA dans des produits pour enfants comporte une responsabilité accrue, c'est pourquoi nos jouets sont construits autour de l'autorisation, de la transparence et du contrôle des parents. La recherche sur la façon dont les enfants interagissent avec les jouets alimentés par l'IA est une priorité absolue pour Curio cette année et à l'avenir", précise l’entreprise à la BBC.Cette étude est loin d’être un cas isolé. Ces derniers mois, de nombreuses alertes ont été lancées sur les jouets IA capables de tenir des propos inappropriés ou dangereux. Dans un rapport publié le 11 décembre dernier par l'US PIRG, une association américaine de défense des consommateurs, des chercheurs rappellent que la technologie qui alimente les jouets IA est si novatrice et si peu testée que personne ne sait comment elle pourrait affecter les jeunes enfants.Ces chercheurs avaient repéré plusieurs produits, tous fabriqués par des entreprises chinoises, notamment capables de recracher la propagande du Parti communiste chinois. D'autres étaient capables d'avoir des conversations extrêmement inappropriées et d'indiquer aux enfants où trouver des pilules et comment allumer des allumettes.Deux autres chercheurs ont également réussi à obtenir l'ensemble des conversations entre des enfants et le jouet dinosaure dopé à l'IA de la marque Bondu. Pour y arriver, ils n'ont eu qu'à connecter leur compte Gmail.Les plus lus"Ça ne me fait pas rigoler", "je le vis bien, je suis habitué": le surprenant duel Hittler-Zielenski aux municipales raconté par les candidats"C’est aux Niçois de trancher dans les urnes": Bruno Retailleau refuse d'apporter son soutien à Christian Estrosi pour le second tour des municipales face à Éric Ciotti"Les Américains sont tout seuls": pourquoi personne n'a répondu à l'appel à l'aide de Donald Trump dans le détroit d'OrmuzDes expatriés ont quitté Dubaï à cause de la guerre mais maintenant ils ont peur de payer des impôts: les Émirats arabes unis assouplissent les règles de résidence fiscale"Ce n’est pas le 1er avril", "la blague du siècle"… la presse internationale abasourdie par la CAN attribuée au Maroc sur tapis vert
← Retour