● BFM Tech
📅 18/03/2026 à 17:14
"Ce n'est pas une priorité": Tiktok et Meta auraient sciemment favorisé des contenus toxiques et violents, plus engageants et donc plus rentables
Géopolitique
Pendant des années, les plateformes ont nié toute amplification volontaire des contenus les plus problématiques. Plusieurs anciens employés affirment pourtant que Titkok et Meta l’ont fait en pleine connaissance de cause. Leur objectif? Retenir les utilisateurs sur leur réseau et évidemment, gagner des parts de marché dans un contexte d’hyper-concurrence.Dans un open space sans fenêtre, les écrans défilent à toute vitesse. Des graphiques de courbes d’attention montent, d’autres chutent. Le mot d’ordre n’est jamais écrit noir sur blanc, mais tout le monde le comprend. Il faut retenir l’utilisateur, coûte que coûte.Un ingénieur de Meta se souvient d’une réunion. L’entreprise traverse une mauvaise passe. La concurrence s’est intensifiée. Résultat, la courbe de l’attention, si chère aux plateformes, vacille. Alors la consigne tombe, à demi-mot: accepter davantage de contenus "borderline". Rien d’illégal, mais tout ce qui provoque de l'indignation, de la colère ou même de la peur.Au programme, des contenus misogynes ou encore des théories complotistes. "C’est parce que l’action baisse", lui glisse-t-on."Les gens ont commencé à devenir paranoïaques et à réagir de manière impulsive, en se disant: 'Faisons tout ce qu'il faut pour rattraper notre retard. Où pouvons-nous trouver 2% ou 3% de chiffre d'affaires pour le prochain trimestre?'", se remémore-t-il.Et cette anecdote est loin d’être une exception. Pendant des années, les plateformes ont nié amplifier volontairement les contenus les plus problématiques. Pourtant, selon une douzaine de lanceurs d’alerte interrogés dans le documentaire Inside the Rage Machine de la BBC, la réalité serait plus nuancée.L’algorithme, une boîte noire qui génère des profitsEn effet, depuis l’irruption de Tiktok et de son algorithme redoutablement efficace, l'écosystème des réseaux sociaux s’est transformé en véritable champ de bataille. Dans cette économie de l’attention, l’émotion est une monnaie... et toutes ne se valent pas. Les vidéos révoltantes ou effrayantes, comme des cas de violence, de chantage sexuel ou de terrorisme, ont un excellent taux d’engagement et de rétention.La logique est donc très simple. Plus un contenu suscite de réactions, plus il sera mis en avant. Car sur les plateformes, rétention d’utilisateurs riment souvent avec parts de marché. Résultat, les ingénieurs optimisent chaque jour la vitesse et la précision de l'algorithme… sans prêter beaucoup d’attention à la qualité du contenu des vidéos propulsé aux internautes. Ils préfèrent laisser ce problème aux équipes de sécurité. Forcément, remettre la faute sur une autre équipe, c’est plus simple."Pour nous, chaque contenu n’est qu’un identifiant, un numéro", se rappelle Ruofan Ding, ancien ingénieur en apprentissage automatique chez Tiktok.Si les ingénieurs semblent peu impliqués, la complexité des systèmes de deep learning ajoute une difficulté supplémentaire. "Il était difficile de construire des systèmes comme celui-ci (l’algorithme de recommandation de Tiktok, NDLR) qui étaient complètement sûrs. Nous n'avons aucun contrôle en profondeur sur l'algorithme d'apprentissage", poursuit-il.Les équipes de sécurité sont pourtant censées supprimer les messages nuisibles pour qu'ils ne soient pas mis en avant par l’algorithme. Mais lorsque la machine s’emballe, les freins suivent difficilement… et les contenus "border" pullulent.Des recherches internes ignoréesL’exemple des Reels d'Instagram, lancé en 2020 pour contrer Tiktok, illustre cette fuite en avant. Selon Matt Motyl, ancien chercheur senior chez Meta, le produit a été déployé sans garde-fous suffisants. Il fallait absolument rivaliser avec Tiktok. Très vite. Quitte à oublier les questions de sécurité.Et l’entreprise savait très bien ce qu’elle faisait. L’ancien employé du groupe a fourni au média britannique des dizaines de documents de recherches internes. Parmi eux, des preuves qui montrent que Meta était au courant des problèmes causés par son algorithme.Ces documents expliquent comment les contenus sensibles, qui peuvent inclure des éléments touchant aux convictions morales des utilisateurs ou des publications incitant à la violence, sont plus susceptibles de susciter des réactions et de générer de l'engagement sur le site, en particulier s'ils provoquent l'indignation. "Compte tenu de cet engagement disproportionné, nos algorithmes en déduisent que les utilisateurs apprécient ce type de contenu et en veulent davantage", indique l'étude.Pourquoi les députés veulent-ils interdire Tiktok aux moins de 15 ans? 3:03"L'algorithme offrait aux créateurs de contenu une "voie qui maximise les profits au détriment du bien-être de leur public" et "l'ensemble actuel d'incitations financières que nos algorithmes créent ne semble pas être aligné sur notre mission" de rapprocher le monde, précise ainsi une autre étude interne.Résultat, la haine en ligne grimpe en flèche. Les commentaires sur Reels présentent 75% de plus de cas de harcèlement et d’intimidation que les publications sur le fil d’actualité classique d’Instagram, 19% de discours haineux en plus, et une progression des contenus violents de 7%."Un déséuqilibre des pouvoirs"Dans le même temps, les ressources allouées à la sécurité peinent à suivre. Si 700 postes sont ouverts pour développer la fonctionnalité, les demandes pour renforcer les équipes de sécurité sont régulièrement refusées. Ainsi, deux postes pour s’occuper de la sécurité des enfants et 10 autres pour aider à la gestion des élections ont été refusés.Pire, Matt Motyl évoque un "déséquilibre de pouvoir". En effet, le personnel de sécurité doit obtenir l'accord des équipes en charge de Reels pour introduire une nouvelle fonctionnalité qui améliorerait la sécurité des utilisateurs. Seul hic, le personnel de Reels a "des incitations à ne pas laisser ces produits se lancer parce que les produits toxiques sont plus engageants que les produits non toxiques", cite l’ancien chercheur chez Meta. Forcément, il y a conflit."Toute suggestion selon laquelle nous amplifions délibérément le contenu nuisible pour un gain financier est erronée", a simplement répondu Meta. La société a déclaré qu'elle avait "fait de réels changements pour protéger les adolescents en ligne", y compris l'introduction d'une nouvelle fonctionnalité de comptes pour adolescents "avec des protections et des outils intégrés permettant aux parents de gérer les expériences de leurs adolescents".Une cadence insoutenableChez Tiktok, les révélations sont tout aussi préoccupantes. Un membre des équipes "trust and safety", désigné sous le pseudonyme Nick, décrit son quotidien totalement saturé. Le volume des cas à analyser est bien trop important pour que les équipes réussissent à suivre la cadence et à assurer la sécurité des utilisateurs. Pire, les coupes et la réorganisation de certaines équipes de modération, où certains employés sont remplacés par l'IA, ont limité la capacité des équipes à traiter efficacement les contenus nuisibles au sein de l'entreprise.Sur son écran de travail, les cas s’enchaînent et le volume augmente de jour en jour. Une adolescente victime de chantage sexuel. Un mineur harcelé. Puis, un contenu moquant une personnalité politique. C’est ce dernier qui passe en tête des priorités. Ainsi, la vidéo d’un internaute comparant une personnalité politique à un poulet a été traitée en priorité, avant le cas d’une jeune fille de 17 ans victime de cyberintimidation et d’usurpation d’identité en France ou d’une autre jeune de 16 ans en Irak, qui a repéré des images sexualisées partagées sur l’application sans son consentement."Si vous regardez le pays d'où vient ce rapport, c'est un risque très élevé parce qu'il s'agit d'un mineur et qu'il implique un chantage sexuel. Pourtant, ce n’est pas une priorité”, déplore Nick.Des messages encourageant les internautes à rejoindre des groupes terroristes ou à commettre des crimes n’ont également pas été considérés comme prioritaires. Selon ce lanceur d’alerte, ces arbitrages visent à préserver des relations avec les autorités, afin d’éviter régulations ou interdictions.Une logique stratégique qui relègue la protection des utilisateurs au second plan. La réalité de ce que l'application recommande, et les mesures prises contre les contenus nuisibles, sont "très différentes à bien des égards de ce que les sites disent" en public, fait valoir Nick.Face à ces accusations, Tiktok dément fermement. L’entreprise assure que le contenu politique n’est pas prioritaire sur la sécurité des jeunes. Cette affirmation "déforme fondamentalement la façon dont les systèmes de modération fonctionnent". Le réseau social rappelle également avoir investi dans une technologie qui empêche le contenu nuisible d'être vu par des jeunes internautes, notamment via les comptes adolescents.Adolescents sous influence algorithmiquePour les utilisateurs, ces arbitrages restent invisibles. Mais leurs effets, eux, sont bien réels. Car les systèmes, permettant aux utilisateurs qu’ils ne veulent pas voir un contenu problématique de le bloquer, ne fonctionnent pas, selon plusieurs témoignages d’adolescents recueillis par la BBC.Calum, aujourd’hui âgé de 19 ans, assure avoir été "radicalisé par l’algorithme". À 14 ans, les vidéos qui lui sont proposées deviennent progressivement plus radicales, plus agressives… ce qui le pousse à adopter des opinions racistes et misogynes.Les vidéos "m'ont dynamisé, mais pas vraiment dans le bon sens", confie-t-il. "Elles m'ont juste mis très en colère. Cela reflétait beaucoup la façon dont je me sentais intérieurement et la façon dont j'étais en colère contre les gens autour de moi."Des spécialistes britanniques de la lutte antiterroriste observent eux aussi une banalisation des contenus extrêmes en ligne, notamment via la prolifération des discours racistes, antisémites, violents. "Les gens sont plus désensibilisés à la violence dans le monde réel et ils n'ont pas peur de partager leurs points de vue", note un officier."Supprimez Tiktok"Dans cette compétition permanente, les plateformes avancent à tâtons. Officiellement, Meta et Tiktok contestent toute amplification volontaire de contenus nocifs et mettent en avant leurs investissements dans la sécurité.Mais en interne, les tensions persistent. Entre croissance et protection, innovation et responsabilité, les arbitrages restent instables. L’ancien dirigeant de Crowdtangle, Brandon Silverman, évoque une direction obsédée par la concurrence, incarnée par Mark Zuckerberg. L'entreprise a, un temps, tenter de réfléchir sincèrement aux problèmes de sécurité. Mais comme souvent, la réalité économique revient au galop."Lorsqu'il a l'impression qu'il existe des menaces concurrentielles potentielles, aucune somme d'argent n'est trop élevée", observe-t-il.Dans ce contexte, les arbitrages se font souvent au détriment de la prudence. Car protéger les utilisateurs réduit parfois l’engagement. Et réduire l’engagement, c’est réduire les revenus.Face à cette mécanique, certains employés finissent par rompre le silence. Nick, le modérateur de Tiktok, livre un conseil sans détour aux parents: "Supprimez l’application. Éloignez-en vos enfants le plus longtemps possible." Une recommandation radicale, qui montre bien l’ampleur du malaise interne.Les plus lus"Ça ne me fait pas rigoler", "je le vis bien, je suis habitué": le surprenant duel Hittler-Zielenski aux municipales raconté par les candidats"C’est aux Niçois de trancher dans les urnes": Bruno Retailleau refuse d'apporter son soutien à Christian Estrosi pour le second tour des municipales face à Éric Ciotti"Les Américains sont tout seuls": pourquoi personne n'a répondu à l'appel à l'aide de Donald Trump dans le détroit d'OrmuzDes expatriés ont quitté Dubaï à cause de la guerre mais maintenant ils ont peur de payer des impôts: les Émirats arabes unis assouplissent les règles de résidence fiscale"Ce n’est pas le 1er avril", "la blague du siècle"… la presse internationale abasourdie par la CAN attribuée au Maroc sur tapis vert
🔗 Lire l'article original
👁️ 1 lecture