● BFM Tech
📅 05/05/2026 à 10:23
Aux Etats-Unis, trois jeunes femmes s’attaquent à une véritable industrie parallèle qui utilise le visage et même le corps d’inconnues pour en faire des influenceuses porno générées par l’IA
Cybersécurité
Malgré un nombre d'abonnés relativement faible sur les réseaux sociaux, une jeune américaine a découvert que son image avait été utilisée afin de générer des clichés pornographiques. Avec deux autres jeunes femmes victimes du même abus, elle a saisi la justice et veut désormais éveiller les consciences.Sur Instagram, MG, ce sont ses initiales et c'est ainsi qu'elle est désignée dans le cadre de l'affaire en justice qui nous préoccupe, aime partager ses boissons au matcha et sa vie de tous les jours avec ses 9.000 abonnés. Elle était loin, en tout cas, de s'imaginer que ses photos allaient ensuite être utilisées par des personnes malintentionnées, être modifiées par IA, pour ensuite être associées à de la pornographie.C'est pourtant ce qui est arrivé à cette jeune américaine, qui vit dans l'Arizona, et qui travaille comme assistante durant la semaine et arrondit ces fins de mois en servant dans un restaurant le week-end.Des tutoriels pour créer des influenceurs pornographiques grâce à l'IATout démarre durant l'été 2025. A cette époque, elle reçoit un message de l'un de ses abonnés lui demandant si elle était au courant que des photos de charme utilisant son image étaient en circulation sur internet. Elle découvre alors que son visage a été superposé, grâce à l'intelligence artificielle, à des corps dénudés. Si ce type de photomontage reste monnaie courante, la jeune femme s'aperçoit néanmoins que ceux derrière les faits ont reproduit ses tatouages aux emplacements originaux."Si vous ne me connaissiez pas, vous auriez très bien pu penser que ce sont des photos de moi," lance-t-elle à Wired, qui relate cette affaire.Elle voit rouge lorsqu'elle découvre que ces images générées sont utilisées pour promouvoir une plateforme où des hommes génèrent des influenceuses par IA, ModelForge.L'affaire rappelle celle des managers Onlyfans, dont la plupart vendent des formations pour apprendre à utiliser des logiciels consistant à récupérer des photos de femmes sur les réseaux sociaux pour créer un modèle virtuel.Ils utilisent souvent la plateforme Creatorcore, avec une série de tutoriels pour "choisir la bonne personne qui ne puisse pas se défendre": "C'était dégoûtant à tous les niveaux," estime-t-elle. Des pas-à-pas explicatifs également disponibles sur Whop.MG et deux autres plaignantes ont donc intenté un procès en janvier 2026 contre trois hommes originaires de Phoenix, identifiés pour l'occasion, et 50 autres comptes anonymes. Dans leur plainte, les jeunes femmes expliquent que ces hommes ont volontairement cherché des corps ressemblant au leur avant d'utiliser l'IA pour intégrer son visage, avant de revendre les clichés sur des réseaux spécialisés comme Fanvue, qui promeut les influenceurs IA.A la clef, de juteux revenus: les contenus ont généré des millions de vues, avec des gains de plus de 50.000 dollars par mois.La responsabilité des plateformesLa plainte pointe aussi du doigt la responsabilité des plateformes dans ce type de business peu scrupuleux. CreatorCore fournit ainsi ses services à plus de 8.000 abonnés qui ont pu générer plus de 500.000 images et vidéos.Les trois hommes identifiés sont aussi suspectés d'avoir fourni les connaissances nécessaires à des hommes pour générer des revenus à partir de comptes Instagram de femmes innocentes et peu connues, dans le seul but "d'éviter les problèmes juridiques": "Ces hommes n'utilisent pas seulement l'IA pour déshabiller les femmes, ils vendent la capacité de le faire à d'autres hommes, qui vont ensuite utiliser les images d'autres femmes pour faire la même chose," explique Nick Brand, l'un des avocats des trois plaignantes.ModelForge, qui a depuis changé de nom pour devenir TaviraLabs, redirige vers un groupe Telegram qui compte plus de 18.000 membres. Grâce à lui, on peut recevoir des conseils afin de créer des influenceuses IA, qui vont ensuite pulluler sur Instagram ou Tiktok.Au-delà de ces plateformes ou de ces groupes illégaux, les plaignantes doivent aussi faire face à des lois qui ont été conçues avant l'ère numérique.Car s'il existe une législation aux Etats-Unis sur le sujet - le "Take it down Act" - promulguée en 2025 par Donald Trump, rendant illégaux les contenus sexuels générés par IA sans le consentement des personnes, cela ne suffit pas. Instagram a ainsi été contacté à de multiples reprises pour supprimer les photos des plaignantes, mais beaucoup restent encore en ligne.Un mutisme du réseau social difficilement compréhensible alors que ses propres règles interdisent normalement ces contenus: "Ce n'est pas juste une personne générée par IA au hasard, ce sont de vraies femmes qui sont modifiées", affirme MG.Avec ce procès, MG souhaite que la peur change de camp: "Je veux que les femmes sachent qu'on ne peut pas arrêter de vivre." Elle sait aussi qu'il ne suffit pas d'être prudent avec son image en ligne: "Il faut que les gens réalisent que cela pourrait aussi leur arriver."Les plus lusPrésidentielle 2027: le RN toujours en tête des intentions de vote selon un nouveau sondage, Édouard Philippe bien placéL'avion du Premier ministre espagnol Pedro Sánchez contraint d'atterir en urgence en Turquie en raison d'un "imprévu technique"Audiovisuel public: une plainte contre X pour prise illégale d'intérêts déposée, le rapporteur Charles Alloncle ciblé par l'association AC!! Anti-CorruptionReal Madrid: "Chacun fait ce qu'il juge bon pendant son temps libre", la réponse d'Arbeloa sur la virée de Mbappé en Sardaigne38 millions de visiteurs accueillis pour 10 millions d'habitants: face au surtourisme dont son économie dépend largement, la Grèce augmente son nombre de plages protégées (sans transats, ni bars, ni parasols)
🔗 Lire l'article original
👁️ 0 lecture