● BFM Tech 📅 23/03/2026 à 12:19

Vendre sa voix, louer son visage, filmer son quotidien? Des milliers de personnes vendent des moments de leur vie pour entraîner des IA en échange d'une poignée de dollars

Géopolitique
Illustration
Une jeune fille avec un smartphone - ANNETTE RIEDL / DPA / dpa Picture-Alliance via AFPA mesure que les géants de la technologie épuisent les ressources sur internet, des anonymes vendent leurs données personnelles, comme des appels et des SMS, pour nourrir les intelligences artificielles. Un moyen de gagner de l'argent rapidement qui n'est pas sans danger.Comme tous les matins, Jacobus Louw part en promenade pour nourrir les goélands du Cap et filme son trajet. Rien de très inhabituel, donc. Pourtant, cette séquence anodine lui rapporte 14 dollars. C'est environ dix fois le salaire minimum en Afrique du Sud, soit presque une semaine de courses à moitié payée.Cette mission, le jeune homme de 27 ans l'a trouvée sur Kled AI, une application qui rémunère les utilisateurs pour le partage de données, comme des vidéos et des photos, afin d'entraîner des modèles d'IA. En quelques semaines, il a gagné 50 dollars en téléchargeant des photos et des vidéos de son quotidien. Et Jacobus Louw est loin d'être un cas isolé.Une pénurie de donnéesDe plus en plus d'utilisateurs vendent leurs données personnelles pour entraîner des modèles d'IA en échange de quelques dizaines de dollars, rapporte le Guardian. En effet, les modèles de langage de l'IA, tels que ChatGPT et Gemini, nécessitent d'immenses quantités de données d'apprentissage pour progresserOr, les géants de la Silicon Valley font face à une contrainte inattendue: le manque de données. Après avoir massivement aspiré les contenus disponibles en ligne, les données en ligne ne suffisent plus. Les principales sources d'entraînement, comme C4, RefinedWeb et Dolma, interdisent désormais aux entreprises d'IA générative d'utiliser leurs données pour entraîner leurs modèles. Les chercheurs estiment que les entreprises seront à court de textes récents et de haute qualité pour l'entraînement dès 2026.Certains tentent bien de réutiliser des données synthétiques générées par leurs IA. Avec le risque, donc, de produire des données erronées et des hallucinations. Résultat, les géants de l'IA se tournent directement vers ceux qui produisent des données... les humains. Des plateformes spécialisées, comme Kled AI, Silencio et Neon Mobile proposent de réaliser des missions, comme filmer une rue ou enregistrer des sons, en échange de micro-revenus.Jour-J : Meta utilise nos données pour son IA – 27/05 25:55De son côté, Luel AI, soutenu par Y Combinator, propose des conversations multilingues pour environ 0,15 dollar la minute. Enfin, ElevenLabs permet de cloner numériquement sa voix et de la partager avec quiconque pour un forfait de 0,02 dollar la minute.Une nouvelle catégorie de travailAvec un double avantage pour les géants de la Silicon Valley. Ils disposent de données qualitatives et exclusives pour améliorer leurs modèles de langage. Surtout, rémunérer les personnes physiques pour l'utilisation de leurs données leur permet d'éviter les risques de litiges en matière de droits d'auteur.En Inde, Sahil Tigga s'est laissé tenter. Régulièrement, il enregistre les bruits de son quotidien. Le vacarme des carrefours, l’ambiance feutrée des restaurants, sa propre voix: tout devient matière première pour l'IA. Son téléphone enregistre, Silencio collecte les données, les algorithmes apprennent. À la fin du mois, il gagne plus de 100 dollars. De quoi payer sa nourriture.Plus au nord encore, à Chicago, Ramelio Hill, 18 ans, vend ses conversations privées à Neon Mobile. Ses appels, ses échanges intimes sont transformés en données pour entraîner des intelligences artificielles conversationnelles contre 0,50 dollar la minute. Pour l'apprenti soudeur, le calcul semblait rationnel. Ses données étant déjà collectées, alors autant en tirer profit."La formation en intelligence artificielle à la tâche est une nouvelle catégorie de travail émergente qui va croître considérablement", observe Bouke Klein Teeselink, professeur d'économie au King's College de Londres.L'illusion du choixPour beaucoup, notamment dans les pays en développement, cette activité relève moins du choix que de la nécessité. Dans les pays où le chômage est élevé et où la monnaie est dévaluée, gagner des dollars américains est souvent plus stable et plus avantageux que les emplois locaux. Certains peinent à trouver un emploi et se tournent vers la formation en IA.Jacobus Louw, formateur en IA au Cap, est conscient des compromis liés à la protection de la vie privée. Mais il n'a pas eu le choix. Souffrant d'un trouble nerveux, il n'a pas réussi à trouver d'emploi. "En tant que Sud-Africain, être payé en dollars américains est plus avantageux qu'on ne le pense", rappelle-t-il.Même dans les pays plus riches, la hausse du coût de la vie a fait de la vente de ses compétences une solution financière séduisante. Ramelio Hill a gagné 200 dollars pour environ 11 heures d'appels. "Neon m'a toujours paru louche, mais j'ai continué à l'utiliser pour gagner un peu d'argent facilement et rapidement afin de payer mes factures et autres dépenses diverses", raconte-t-il.Mais cette opportunité immédiate masque une fragilité structurelle. Jennifer King, chercheuse en protection des données à l'Institut Stanford pour l'intelligence artificielle centrée sur l'humain, dénonce le manque de transparence des plateformes d'IA. Sans négociation ni connaissance de leurs droits, "les consommateurs risquent de voir leurs données réutilisées à des fins qu'ils n'apprécient pas, qu'ils n'ont pas comprises ou anticipées, et ils n'auront alors que peu de recours", note-t-elle.Oeuvres dérivées et identités détournéesEn effet, sur certaines plateformes d'IA, les formateurs de données accordent des licences irrévocables et gratuites qui permettent aux entreprises de créer des "œuvres dérivées". Une vidéo de quelques minutes peut ainsi alimenter un système d'IA pendant des années, sans que son auteur ne touche un centime supplémentaire.Selon Enrico Bonadio, professeur de droit à City St George's, Université de Londres, les termes de ces accords permettent aux plateformes, ainsi qu'à leurs clients, de faire "presque n'importe quoi avec ce contenu, indéfiniment, sans paiement supplémentaire et sans possibilité réaliste pour le contributeur de retirer son consentement ou de renégocier de manière significative".Plus inquiétant encore, la perte de contrôle. Une voix peut être clonée, un visage réutilisé et une identité détournée. Les risques de deepfakes, d’usurpation ou d’exploitation commerciale échappent largement aux contributeurs, souvent peu informés des implications. Même si les plateformes de vente de données affirment supprimer toute information permettant d'identifier les utilisateurs, les données biométriques sont, par nature, difficiles à anonymiser de manière fiable.C'est déjà demain : L'une des dérives de l'IA, la prolifération des deepfake - 30/12 3:20C'est justement ce qui inquiète Ramelio Hill. En septembre, quelques semaines seulement après son lancement, Neon Mobile a fermé ses portes suite à la découverte par TechCrunch d'une faille de sécurité permettant à quiconque d'accéder aux numéros de téléphone, aux enregistrements et aux transcriptions des appels des utilisateurs. L'apprenti soudeur craint désormais que sa voix ne soit utilisée à mauvais escient sur internet.Une "impasse"Même lorsque des garanties existent, elles sont loin d'être efficaces. C'est ce qu'il s'est passé pour Adam Coy. L'acteur new-yorkais avait vendu son image en 2024 pour 1.000 dollars à Captions, un logiciel de montage vidéo basé sur l'IA désormais appelé Mirage. Son contrat garantissait que son identité ne serait utilisée à aucune fin politique ni pour la vente d'alcool, de tabac ou de pornographie, et que la licence expirerait au bout d'un an.L'homme a finalement découvert sur Instagram plusieurs vidéos virales... qu'il n'a jamais tournées. Dans l'une d'elles, l'acteur, ou plutôt son double numérique, prétend être "spécialiste du vagin" et fait la promotion de compléments alimentaires non éprouvés pour les femmes enceintes et les jeunes mamans.Le fondateur de Kled AI, Avi Patel, a déclaré que les accords de données de son entreprise limitent l'utilisation des données à la formation et à la recherche en intelligence artificielle. Kled AI vérifirait également les entreprises partenaires avant de leur vendre des ensembles de données, afin d’éviter de collaborer avec celles dont les intentions sont douteuses, comme les entreprises pornographiques, et les organismes gouvernementaux susceptibles d’utiliser les données d’une manière qui compromettrait cette confiance. Captions et Neon Mobile n'ont pas répondu aux demandes du Guardian.Pour Mark Graham, professeur de géographie d'Internet à l'Université d'Oxford et auteur de Feeding the Machine, "structurellement, ce travail est précaire, non progressif et constitue en réalité une impasse".En effet, cette nouvelle économie repose sur une contradiction fondamentale. Elle rémunère aujourd’hui des individus pour contribuer à des technologies susceptibles, demain, de rendre leurs compétences obsolètes. Une fois les modèles suffisamment entraînés, la demande pour ces données humaines pourrait s’effondrer. Ne resteraient alors que des travailleurs sans protection, sans droits, et sans véritable reconversion possible. Dans cette nouvelle ruée vers l’or, les pelles et les pioches sont numériques. Mais comme souvent, ceux qui creusent ne sont pas ceux qui s’enrichissent.Les plus lusL'ancien Premier ministre Lionel Jospin est mort à l'âge de 88 ans"Du combat de sa vie" à la sèche défaite, comment la candidature de Rachida Dati aux municipales à Paris a tourné au fiascoGuerre en Iran: un ministre de Donald Trump affirme qu'il faut parfois "une escalade pour désescalader""On a cru qu’il était mort": Fabien Lecoeuvre hospitalisé après avoir été frappé par Stéphane Tapie hors antenne dans l’émission "Tout beau tout neuf" de Cyril HanounaÉquipe de France: découvrez les maillots que les Bleus porteront à la Coupe du monde 2026, avec une couleur originale
← Retour