● BFM Tech
📅 01/04/2026 à 15:27
En Californie, l'IA va devoir montrer patte blanche: ce qu'il faut savoir sur la directive du gouverneur Gavin Newsom, ennemi déclaré de Donald Trump
Géopolitique
Lundi 30 mars 2026, le gouverneur démocrate de Californie a publié son décret qui pourrait avoir un impact important sur le secteur de l'intelligence artificielle.Etat privilégié par la plupart des géants de la tech, la Californie vient de s'armer d'une législation plus stricte à destination des entreprises développant des intelligences artificielles. Le gouverneur démocrate Gavin Newsom, ennemi revendiqué de Donald Trump, a en effet publié un décret exécutif le 30 mars dernier pour exiger des garde-fous de sécurité et de confidentialité, rapporte le New York Times.Pour les entreprises concernées, cela va avoir un potentiel impact très important sur les appels d'offres liés aux contrats gouvernementaux. Si elles ne respectent pas les règles, elles ne pourront tout simplement pas candidater et passeront donc à côté de juteux contrats.Mieux réguler les modèles d'IA et s'armer face à TrumpParmi les règles désormais imposées, une politique claire concernant la diffusion ou la création de contenus liés aux abus sexuels sur les enfants. Il ne devrait pas non plus être possible de créer des "deepfakes" sexuels de n'importe quel individu.Mais la Californie ne s'arrête pas là: elle prévoit également d'examiner les différents modèles d'IA en détail. Cela passe notamment par la technologie alimentant les chatbots et les outils dont ils dépendent, notamment pour savoir s'il leur est possible de surveiller des individus ou censurer certains contenus. Les entreprises doivent aussi être en mesure d'expliquer leur politique pour éviter des biais au sein des réponses de leurs modèles.Gavin Newsom a par ailleurs fait en sorte de se prémunir des actions de Donald Trump, qui ne veut pas que les Etats s'occupent des questions liées à l'IA. Si le gouvernement fédéral décide de mettre une entreprise du secteur sur liste noire, la Californie se permettra d'abord de faire sa propre évaluation. Un moyen d'éviter de mettre Anthropic au bord du précipice: la start-up a été exclue de la liste des prestataires du Département de la Défense car elle ne voulait pas laisser son IA servir à la surveillance de masse de citoyens américains et au contrôle d'armes autonomes. La mesure a néanmoins été suspendue par une juge californienne.Et dans le détail, il est également question que chaque contenu IA généré soit clairement identifié comme tel. Sur les images ou les vidéos, cela passera par un filigrane. La plupart le proposent déjà, mais cette option reste très facilement contournable. Pour le gouverneur de Californie, l'objectif est de permettre aux internautes de distinguer plus facilement les contenus produits par l'IA.Les plus lus"Nous terminons le travail": Donald Trump affirme que les États-Unis quitteront l'Iran "d'ici deux à trois semaines"Revalorisation de la prime d'activité, versement du chèque énergie, campagne de déclaration des revenus ... Tout ce qui change au 1er avril 2026Artemis 2: en quoi consiste cette mission qui emmène quatre astronautes vers la Lune?Main sur le but bosnien, carton rouge... Clément Turpin s'attire les foudres de l'Italie après l'élimination de la Squadra AzzurraFaux sites, préventes trompeuses... Comment éviter les arnaques au moment d'acheter ses billets pour les concerts parisiens de Céline Dion
🔗 Lire l'article original
👁️ 0 lecture