● Next INpact Télécom
📅 05/05/2026 à 11:08
En France, deux tiers des jeunes considèrent l’IA comme « un conseiller de vie »
Data Science
👤 Sébastien Gavois
En France, deux tiers des jeunes considèrent l’IA comme « un conseiller de vie » IA là ! Illustration : Flock Sébastien Gavois Le 05 mai à 11h08 Ce n’est pas une surprise : les jeunes Français et Européens utilisent massivement des outils d’IA. Mais dans quelles proportions, à quelle fréquence et pour quels types d’usages ? La CNIL répond à ces questions. Une erreur ? La CNIL vient de publier les résultats d’une enquête réalisée par Ipsos BVA, en partenariat avec le Groupe VYV (acteur mutualiste de santé et de protection sociale en France) dans quatre pays européens. Elle concerne un sujet ô combien d’actualité : « IA conversationnelle et santé mentale des jeunes ». Pour le sondage, 3 800 jeunes âgés de 11 à 25 ans ont été interrogés en janvier 2026 dans quatre pays européens. Quasiment 9 jeunes sur 10 utilisent l’IA, dès 11 ans Premier constat : « 86 % des jeunes Français utilisent des outils d’IA »… et la France est en dernière position sur les quatre pays interrogés. L’Allemagne est en tête avec 92 %, suivie par l’Irlande à 89 % et la Suède à 87 %. À cela s’ajoute un usage dans la durée : « 3 jeunes sur 5 utilisent l’IA conversationnelle depuis plus d’un an ». L’usage est intensif : un quart des jeunes utilise l’IA chaque jour (58 % une fois par semaine), dans le cadre scolaire ou professionnel. Ils sont également un tiers à la questionner au moins une fois par semaine sur leur vie personnelle et à lui demander des conseils, dont 16 % au moins une fois par jour. Sur la santé mentale, la réalité semble bien différente du ressenti des utilisateurs. 84 % des jeunes Français – 79 % des filles vs 89 % des garçons – disent se sentir bien dans leur vie quotidienne, mais ils seraient dans le même temps (toujours selon le sondage) 65 % à présenter des troubles anxieux. Le chiffre varie entre 67 et 69 % dans les trois autres pays de l’étude. L’IA est adoptée très tôt, dès 11 ans selon le sondage. Et, encore, c’est un âge plancher puisque les jeunes interrogés ont, pour rappel, entre 11 et 25 ans (impossible donc de dire ce qu’il en est pour les 10 ans et moins). On passe les 90 % dès la tranche d’âge 15 et 16 ans. Un tiers des jeunes parle de sujets intimes et personnels Les usages sont évidemment variés, avec une forte proportion comme outils scolaire ou professionnel, mais aussi pour les loisirs pour 41 % des interrogés (musiques, images, astuces jeux vidéo, idées d’activités…). Les jeunes sont aussi entre 26 et 35 % à parler de sujets intimes et personnels pour recevoir des conseils lorsqu’ils sont stressés, rencontrent des problèmes avec leurs proches, se sentent tristes, en colère ou pas bien dans leur tête, pour gérer des conflits… Dans sa synthèse, la CNIL note que « les jeunes les plus anxieux déclarent parler plus facilement de leurs problèmes avec une IA qu’avec leurs proches ou qu’avec des professionnels ». La tendance est la même dans les quatre pays. Le fait qu’elle soit toujours disponible arrive en tête, mais aussi car c’est plus facile que de parler à une vraie personne pour 40 % des jeunes français. Autre analyse intéressante : un jeune sur trois « ayant utilisé une IA pour des sujets personnels [déclare] s’être déjà [senti] mal à l’aise à cause d’un conseil reçu ». Là encore, cela ne devrait pas surprendre grand monde, mais cela n’empêche évidemment pas de le dire, au contraire ! Deux tiers des jeunes utilisent l’IA comme… un conseiller de vie Plus de six jeunes Français sur dix considèrent l’IA comme un conseiller de vie et/ou un confident. Un sur deux comme un ami ou un psy, et même un jeune sur cinq comme un amoureux. Pour 50 % des jeunes, l’IA permet aussi de se sentir mieux et d’avoir davantage confiance en soi. Un jeune sur trois considère même que l’IA peut comprendre les émotions humaines et qu’elle conseille mieux que les humains. La jeunesse semble heureusement lucide sur la question de la confiance : « 80 % des jeunes n’ont pas totalement confiance en l’IA, malgré son adoption importante ». En être conscient ne veut pas forcément dire l’appliquer au quotidien, malheureusement. C’est un peu comme les mots de passe : tout le monde ou presque sait qu’il ne faut jamais réutiliser le même ; dans la pratique cela arrive souvent. Les jeunes estiment à 69 % que les IA peuvent donner des conseils fiables, 56 % qu’elles peuvent garder secrets les échanges et 51 % qu’elles peuvent protéger les informations qui leur sont confiées. Preuve que les messages sur le côté statistique des réponses et des données réutilisées pour les entraînements ne sont pas passés auprès de tout le monde. Des avis partagés, quid d’une disparition de l’IA ? Les jeunes Français souhaitent davantage d’informations sur ce que l’IA fait de leurs informations, ce qu’il faut éviter de confier à une IA, connaitre les bonnes pratiques et les risques. Seuls 32 % des Françaisse considèrent bien informés sur ce que deviennent leurs informations confiées à l’IA, contre 37 à 46 % dans les trois autres pays européens. Il serait intéressant de faire le même sondage auprés des autres générations… pas sur qu’elles s’en sortent mieux. « La moitié des jeunes Français considère que l’IA peut aider à se sentir mieux, à gagner en confiance. L’autre moitié est en désaccord avec ces affirmations ». Pour la majorité des utilisateurs, « la disparition de l’IA n’aurait que très peu d’effets ». C’est une moyenne : les jeunes les plus fragiles (anxieux, qui utilisent l’IA pour des raisons personnelles et/ou intimes) sont ceux qui voient le plus de conséquences néfastes. La CNIL milite pour une meilleure éducation au numérique Dans sa conclusion, la CNIL expose qu’une « part croissante de l’expression du stress, du mal-être ou des difficultés personnelles se joue désormais en amont des parcours classiques de prévention et de recours aux professionnels ». Pour la Commission, cela doit appeler une réponse collective, notamment avec une meilleure éducation au numérique. Pour le Groupe VYV et la Commission, « l’enjeu n’est ni de freiner l’innovation ni de banaliser les usages, mais de contribuer à construire un cadre de confiance ». Pour les deux partenaires du jour, « il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages ». Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant. Accédez en illimité aux articles d'un média expert Profitez d'au moins 1 To de stockage pour vos sauvegardes Intégrez la communauté et prenez part aux débats Partagez des articles premium à vos contacts Abonnez-vous treizarque Premium Il y a 22 minutes Voir les réponses Message 1 Aller au commentaire enfant Signaler Bloquer cet utilisateur Big Brother is always there for you. bingo.crepuscule Modifié il y a 14 minutes Voir les réponses En réponse à Message 1.1 Historique Aller au commentaire enfant Signaler Bloquer cet utilisateur Il existe des modèles locaux open source, corrects, susceptible de répondre aux attentes des gens lambda. Pas besoin de passer par big brother. Il faut simplement en faciliter l'usage.GPT & cie ne sont pas inéluctables, c'est leur accessibilité pour le grand public qui leur donne cette avance. treizarque Premium Il y a 2 minutes En réponse à Message 1.1.1 Signaler Bloquer cet utilisateur Je suis d’accord sur le fond, mais dans la pratique, c'est compliqué.Les outils gratuits et accessibles gagnent toujours, surtout avec une régulation en retard et un faible niveau de culture numérique."si c’est gratuit, c’est toi le produit" va encore une fois être le modèle qui va tout remporter. ragoutoutou Premium À l'instant En réponse à Message 1.1.2 Signaler Bloquer cet utilisateur En plus, les modèles locaux avec une quantization agressive peuvent eux-même donner des signes de détresse psychologique, voir d'accident vasculaire cérébral, ce qui peut donner un nouveau sens à la relation. Signaler un commentaire Voulez-vous vraiment signaler ce commentaire ? Non Oui
🔗 Lire l'article original
👁️ 0 lecture