● Numerama 📅 20/03/2026 à 11:15

Bernie Sanders s'attaque aux données de l'IA, mais sa démonstration se retourne contre lui

Data Science 👤 Lisa Imperatrice
Illustration
Lecture Zen Résumer l'article Bernie Sanders met en scène sur X une interview avec Claude d’Anthropic pour dénoncer la collecte massive de données. Interroger un LLM sur ses pratiques internes est trompeur, car il n’a ni visibilité sur les pipelines ni rôle direct de collecte. Une évaluation crédible de la vie privée exige des audits indépendants et une transparence précise sur les flux et politiques de données. Bernie Sanders met en scène sur X une interview avec Claude d’Anthropic pour dénoncer la collecte massive de données. Interroger un LLM sur ses pratiques internes est trompeur, car il n’a ni visibilité sur les pipelines ni rôle direct de collecte. Une évaluation crédible de la vie privée exige des audits indépendants et une transparence précise sur les flux et politiques de données. Recevez tous les soirs un résumé de l’actu importante avec Le Récap’ Dans une vidéo publiée sur X le 19 mars 2026, le sénateur américain Bernie Sanders met en scène une interview avec Claude, l’IA d’Anthropic, pour dénoncer les dérives de la collecte de données et défendre une régulation plus stricte du secteur. Une séquence pensée comme un argument politique — mais qui repose sur un contresens technique. L’intention est louable, mais la méthode pose problème. Dans une vidéo publiée sur X le 19 mars 2026, le sénateur américain du Vermont Bernie Sanders — figure de la gauche économique –met en scène une interview avec Claude, l’IA d’Anthropic. « J’ai discuté avec Claude, l’agent IA d’Anthropic, de la collecte massive de données personnelles par l’IA et de l’utilisation de ces informations pour bafouer notre droit à la vie privée. », écrit-il. Depuis fin 2025, Bernie Sanders défend un moratoire sur les nouveaux data centers dédiés à l’IA, estimant que la dynamique actuelle profite surtout à une minorité tout en faisant peser des risques sur l’emploi et la démocratie. Ainsi, dans cette vidéo, il demande au modèle de détailler la collecte de données, les atteintes à la vie privée et les implications politiques. L’objectif est clair : appuyer un discours critique sur l’IA en s’appuyant… sur l’IA elle-même. Mais l’exercice est trompeur. I spoke to Anthropic’s AI agent Claude about AI collecting massive amounts of personal data and how that information is being used to violate our privacy rights.What an AI agent says about the dangers of AI is shocking and should wake us up. pic.twitter.com/rUGwuZLAye— Sen. Bernie Sanders (@SenSanders) March 19, 2026 Ce contenu est bloqué car vous n’avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Twitter. Pour pouvoir le visualiser, vous devez accepter l’usage étant opéré par Twitter avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l’amélioration des produits d’Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l’audience de ce site (en savoir plus) En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires. Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies. J’accepte tout Gérer mes choix Une bonne question, au mauvais interlocuteur Les questions posées sont légitimes : que collecte l’IA, comment ces données sont utilisées, qu’est-ce qui pourrait surprendre le public américain. « Ce dont je veux te parler, c’est d’un autre sujet : l’impact de l’IA sur la vie privée. Je veux savoir, entre autres, dans quelle mesure les informations que l’IA collecte sont utilisées. Et ce qui surprendrait le peuple américain, s’il apprenait comment ces informations sont collectées. ». La première erreur tient… à l’interlocuteur choisi : un modèle de langage (ici Claude Sonnet 4.6). Concrètement, celui-ci n’a pas accès aux coulisses de son propre fonctionnement. Il ne voit ni les pipelines de données, ni les politiques de rétention, ni les accès internes. Il ne dispose pas d’une vision globale des systèmes dans lesquels il s’inscrit. Il génère des réponses à partir de probabilités apprises sur des textes, pas à partir d’une observation directe des pratiques. Plus encore, un LLM ne « collecte » pas activement des données comme le ferait un réseau social ou un tracker publicitaire. Il répond à une requête à partir d’un entraînement passé et d’un contexte présent. La collecte de données relève des services et de l’infrastructure qui l’entourent (interfaces, logs, produits), pas du modèle en tant que tel. Ironie supplémentaire : l’échange porte sur Claude Sonnet 4.6, un modèle pensé pour des usages professionnels et intégré à des environnements encadrés en matière de confidentialité — loin du tableau générique dressé dans la réponse. Et pas le plus puissant d’Anthropic, qui aurait été Opus 4.6. Bernie Sanders échange avec Claude Sonnet 4.6. // Source : Bernie Sanders sur X En ce sens, interroger Claude sur la collecte de données revient à solliciter une explication générale –pas un constat spécifique. On obtient un discours crédible, mais pas une information vérifiée. Car un audit sérieux de la vie privée exige au contraire des éléments concrets : cartographie des flux de données, durées de conservation, politiques d’accès, mécanismes de minimisation, indicateurs d’incidents. Autant d’éléments qu’un modèle comme Claude ne peut pas fournir autrement que sous forme de rappel de la documentation publique de son éditeur, ce qui n’a rien à voir avec un audit indépendant sur pièces. Une confusion entre types de données La séquence entretient aussi une confusion plus structurelle. Elle mélange en réalité plusieurs catégories de données qu’il faudrait distinguer : les données d’entraînement (les corpus utilisés pour entraîner le modèle), les données d’usage (prompts, logs, interactions avec les utilisateurs), et les données issues d’autres services numériques (navigation, tracking publicitaire, achats, etc.). Ces trois types de données n’ont ni les mêmes usages, ni les mêmes circuits, ni les mêmes cadres réglementaires. Les fusionner dans un même discours donne une impression de cohérence, mais empêche de comprendre les mécanismes réels. Ces distinctions sont pourtant au cœur des cadres d’audit et de gouvernance de l’IA, qui exigent justement une cartographie séparée de ces flux et des obligations différentes selon la finalité (entraînement, personnalisation, publicité, etc.). Or, la réponse du modèle ignore précisément ces distinctions. Elle est d’ailleurs révélatrice. Claude décrit un système où les entreprises collectent massivement des données (historique de navigation, localisation, achats, interactions), les exploitent pour construire des profils détaillés, puis les utilisent à des fins publicitaires, tarifaires ou de recommandation, souvent dans un cadre peu transparent. « Les entreprises collectent des données partout — votre historique de navigation, votre localisation, vos achats (…) », détaille Claude, qui évoque ensuite la construction de « profils incroyablement détaillés » utilisés pour influencer publicités, prix ou contenus. Bernie Sanders. // Source : Bernie Sanders sur X Vous l’aurez compris : cette description n’a en réalité rien de spécifique à Anthropic, ni même aux modèles de langage. Elle correspond à un narratif bien documenté sur le capitalisme de surveillance, déjà largement débattu depuis des années et qui concerne avant tout les réseaux sociaux, la publicité en ligne ou les outils comme Palantir. Autrement dit, Claude ne décrit pas ses propres pratiques ni celles de son éditeur : il reformule des connaissances générales issues de données publiques. Qui plus est, le raisonnement devient circulaire : en interrogeant Claude sur les dérives de l’IA, le sénateur ne fait que solliciter une forme de chambre d’écho. Si la réponse du modèle semble alignée avec ses inquiétudes, c’est parce qu’elle s’appuie sur des critiques déjà largement présentes dans l’espace public — y compris, potentiellement, celles qu’il contribue lui-même à structurer. Loin de livrer un secret industriel, Claude se contente en réalité d’appliquer la « constitution » définie par Anthropic : un socle de principes qui l’oriente vers une posture de prudence, d’alerte sur les risques et de transparence théorique sur les enjeux éthiques. Ce que Bernie Sanders présente comme une confession de l’IA ressemble plutôt…au respect d’un cahier des charges. Rien n’est dit sur les mécanismes concrets propres à ce modèle — sources des données, durée de conservation, filtrage, anonymisation, ou distinction entre entraînement et usage en temps réel. Alors certes, la séquence fonctionne sur le plan rhétorique : elle donne l’impression que l’IA confirme elle-même les inquiétudes formulées à son sujet. Mais sur le plan technique, elle reste superficielle. En résumé, l’exercice illustre davantage la capacité d’un modèle à produire un récit cohérent que sa capacité à informer sur ses propres conditions de fonctionnement. Et c’est précisément pour cela qu’il ne constitue pas une démonstration technique convaincante. À l’inverse, une analyse sérieuse de ces enjeux passerait par des audits indépendants, des obligations de transparence et des enquêtes sur pièces — logs, contrats, politiques internes — menés par des régulateurs ou des chercheurs, plutôt que par un tête-à-tête scénarisé avec un modèle d’IA. Ce contenu est bloqué car vous n’avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par YouTube. Pour pouvoir le visualiser, vous devez accepter l’usage étant opéré par YouTube avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l’amélioration des produits d’Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l’audience de ce site (en savoir plus) En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires. Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies. J’accepte tout Gérer mes choix Toute l'actu tech en un clin d'œil Ajoutez Numerama à votre écran d'accueil et restez connectés au futur ! Installer Numerama Pour ne rien manquer de l’actualité, suivez Numerama sur Google ! Crédit photo de la une : Bernis Sanders sur X Signaler une erreur dans le texte Ne plus voir cette pub Ne plus voir cette pub Anthropic Bernie Sanders Claude Etats-Unis IA générative Intelligence artificielle
← Retour