● BFM Tech 📅 08/04/2026 à 09:06

Ne pas "prétendre être humain" ou "simuler l'intimité": Google assure avoir mis en place des garde-fous pour prévenir la dépendance des jeunes à son IA, Gemini

Géopolitique
Illustration
Alors que les assistants intelligents qui reposent sur des modèles de langage sont souvent pointés du doigt pour leurs effets psychologiques, Google vient d'annoncer mettre en place des mesures qui devraient prévenir l'addiction des jeunes utilisateurs à Gemini, son IA notamment accessible sur tous les smartphones...Google a dévoilé mardi une série de modifications censées empêcher son assistant d'intelligence artificielle (IA) générative de se comporter en compagnon et de risquer de rendre les jeunes dépendants à son interface.Ces garde-fous doivent notamment interdire à Gemini de "prétendre être humain ou posséder des attributs humains", a expliqué la filiale d'Alphabet dans un communiqué.Google a ajouté à son modèle des "protections conçues pour prévenir la dépendance émotionnelle, éviter tout langage qui simule l'intimité ou exprime des besoins", a ajouté le groupe de Mountain View (Californie).Les interactions entre adolescents et applications d'IA générative sont un sujet de préoccupation pour de nombreux parents, associations et élus.En avril 2025, l'ONG américaine Common Sense a recommandé d'interdire aux mineurs les interfaces d'IA se présentant comme des compagnons virtuels, notamment Character.AI et Replika.Culture IA : Comment l'IA nous fait croire n'importe quoi - 08/04 3:58S'ils ne sont pas conçus ou promus de cette façon, les assistants IA les plus connus comme ChatGPT, Claude ou Gemini sont aussi utilisés comme tels par de nombreux adolescents.Un tiers des 13-17 ans interrogés dans le cadre d'une étude commandée, au printemps 2025, par Common Sense indiquaient se servir de ces logiciels IA pour "des interactions sociales et des relations".En janvier, Google et Character.AI ont conclu des accords amiables pour solder des poursuites lancées par des familles accusant des robots conversationnels de nuire à des mineurs et d'avoir contribué au suicide de l'un d'entre eux.Mardi toujours, Google a également annoncé de nouvelles fonctionnalités en matière de santé mentale pour les utilisateurs de Gemini.Si l'interface détecte des signes selon lesquels l'internaute songe au suicide ou à l'auto-mutilation, elle fera apparaître un lien direct vers un centre de soutien psychologique, en ligne ou téléphonique."Gemini peut être un outil utile pour apprendre et trouver de l'information, ce n'est pas un substitut à l'intervention d'un professionnel de santé, à une thérapie ou un soutien en cas de crise", souligne Google.En cas d'alerte, Gemini a été entraîné "à répondre de façon appropriée en orientant (l'utilisateur) vers une assistance humaine".Les plus lusUn conducteur de TGV meurt après une collision avec un poids lourd transportant des véhicules militaires dans le Pas-de-Calais"Carroll": l'équipage d'Artemis 2 baptise un cratère de la Lune en l'honneur de la femme décédée du commandant de la mission"Il n’y aura pas d’aide universelle" à la pompe comme en Italie: Maud Bregeon promet de nouveaux coups de pouce ciblés mais pas de blocage des prix du carburantLa participation de Kanye West à un festival suscite la polémique à Londres, l'organisateur exhorte ses détracteurs à lui accorder "un peu de pardon"Guerre au Moyen-Orient: le gouvernement iranien appelle la population à "former des chaînes humaines" pour protéger ses infrastructures énergétiques
← Retour