● BFM Tech 📅 10/04/2026 à 18:50

Aux États-Unis, un projet de loi soutenu par OpenAI pourrait exonérer les géants de l’IA de toute responsabilité si leurs outils entraînent des morts en masse ou produisent une catastrophe économique

Géopolitique
Illustration
OpenAI a apporté son soutien à un projet de loi débattu dans l’État de l’Illinois. Le texte entend protéger les laboratoires d'IA de toute responsabilité civile dans les cas où leurs modèles seraient impliqués dans des catastrophes majeures. Une prise de position qui relance le débat sur la régulation d’un secteur très mal encadré.Nom de code: SB 3444. Derrière cette référence législative inconnue du grand public se cache un projet de loi débattu dans l’État de l’Illinois qui pourrait profondément redéfinir le régime de responsabilité applicable aux laboratoires d’intelligence artificielle, selon Wired.Soutenu par OpenAI, le projet prévoit d’exonérer les développeurs de modèles d’intelligence artificielle dits "de pointe" de toute responsabilité juridique en cas de "préjudices graves", sous certaines conditions strictes.Des définitions flouesReste à savoir ce qui se cache derrière ces termes très flous. Selon le texte, les scénarios extrêmes, comme les cas impliquant la mort ou des blessures graves d’au moins cent personnes, ou encore des dommages matériels estimés à plus d’un milliard de dollars, sont concernés. Le projet recense plusieurs sources de préoccupation déjà identifiées par le secteur de l’IA, notamment l’usage malveillant de ces systèmes pour concevoir des armes chimiques, biologiques, radiologiques ou nucléaires.Ainsi, si un modèle d’intelligence artificielle adoptait de lui-même un comportement qui, commis par un humain, constituerait une infraction pénale et conduirait à de telles conséquences extrêmes, il pourrait entrer dans la catégorie des "préjudices critiques".Dans ces situations, les entreprises pourraient échapper à toute responsabilité... à condition de ne pas avoir agi intentionnellement ou par négligence, et d’avoir publié des rapports de sécurité et de transparence. Autrement dit, le texte ne supprime pas toute obligation, mais il organise une forme d’immunité encadrée pour les cas les plus catastrophiques. Très rassurant.La définition des modèles concernés est, elle aussi, très large. Seraient considérés comme "de pointe" les systèmes ayant nécessité plus de 100 millions de dollars de calculs pour leur entraînement. Autant dire que l’essentiel des grands acteurs du secteur, comme OpenAI, Google, Anthropic, Meta ou encore xAI, se retrouveraient dans le périmètre de la loi. Plutôt pratique...Un soutien assumé d’OpenAIDans ce dossier sensible, OpenAI a choisi de sortir de sa réserve habituelle. L’entreprise a officiellement exprimé son soutien au texte, assumant une ligne plus offensive sur le terrain réglementaire."Nous soutenons ce type d’approche car elle privilégie l’essentiel: réduire les risques de dommages graves liés aux systèmes d’IA les plus avancés, tout en permettant à cette technologie d’être accessible", a déclaré Jamie Radice, porte-parole dans un communiqué.Ce soutien marque une inflexion notable. Jusqu’à présent, OpenAI s’était surtout illustré par une posture défensive. L'entreprise s'est souvent opposée aux projets de loi susceptibles d’élargir la responsabilité juridique des entreprises du secteur. Avec SB 3444, le mouvement est plus subtil. Il ne s’agit plus seulement de résister à la régulation, mais de contribuer à la définir.Il faut dire que le texte est une aubaine pour OpenAI, empêtré dans les scandales. Le projet se concentre uniquement sur les cas les plus extrêmes en oubliant soigneusement les préjudices individuels. L’an dernier, plusieurs familles d’adolescents décédés par suicide ont porté plainte contre l'entreprise, estimant que ChatGPT avait pu favoriser des relations malsaines ou une forme de dépendance. Des affaires encore en cours, qui illustrent les risques à une échelle plus intime.[DQJMM Bonus] : Une IA a-t-elle poussé au suicide un ado ? 9:04Plusieurs experts interrogés par Wired soulignent d’ailleurs le caractère singulier du texte, jugé plus ambitieux, ou plus permissif selon les points de vue, que les initiatives précédemment soutenues par les laboratoires eux-mêmes.La start-up en a profité pour mettre en avant la nécessité d’éviter une fragmentation des réglementations à l’échelle des États américains, au profit de normes nationales plus cohérentes. "Elle permet également d'éviter une mosaïque de réglementations étatiques et de progresser vers des normes nationales plus claires et plus cohérentes", ajoute Jamie Radice.Vers un cadre fédéral?Lors de son témoignage en faveur du projet de loi, Caitlin Niedermeyer, membre de l’équipe des affaires internationales d’OpenAI, a insisté sur la nécessité d’un encadrement harmonisé au niveau fédéral. L'objectif? Eviter une multiplication de règles locales incohérentes et privilégier un cadre fédéral unique."Chez OpenAI, nous pensons que le principe directeur de la réglementation des technologies de pointe devrait être le déploiement sécurisé des modèles les plus avancés, tout en préservant le leadership américain en matière d’innovation", résume la dirigeante.Une position qui s’inscrit dans une vision largement partagée au sein de la Silicon Valley. Plusieurs entreprises redoutent qu’un empilement de réglementations étatiques ne freine l’innovation et n’affaiblisse la compétitivité américaine dans la course mondiale à l’intelligence artificielle, et notamment face à la Chine. Un avis également partagé par Donald TrumpBien que le SB 3444 soit lui-même une loi étatique sur la sécurité, Caitlin Niedermeyer a fait valoir que ces lois peuvent être efficaces si elles "favorisent une harmonisation avec les systèmes fédéraux".Un avenir incertainPour l’heure, ce projet de loi intervient dans un cadre incertain. Malgré plusieurs initiatives de l’administration de Donald Trump, les discussions au Congrès peinent à aboutir.En attendant, certains États avancent seuls. La Californie et New York ont déjà adopté leurs propres règles, notamment pour imposer davantage de transparence aux entreprises. L'Illinois semble, de son côté, avancer dans une autre direction. Une dynamique qui accentue la fragmentation du paysage réglementaire américain.Mais le texte suscite déjà de fortes réserves. Pour ses opposants, le SB 3444 a peu de chances d’être adopté dans un État comme l’Illinois, pourtant habitué à une régulation plutôt stricte des technologies. Scott Wisor, directeur des politiques du projet Secure AI, juge ainsi que l’initiative va à contre-courant des attentes locales et estime qu’elle dispose de peu de soutien politique. Pour rappel, en août dernier, cet État est devenu le premier du pays à adopter une loi limitant l'utilisation de l'IA dans les services de santé mentale.Selon lui, une large majorité de citoyens s’opposerait au texte."Nous avons sondé les habitants de l'Illinois pour savoir s'ils pensaient que les entreprises d'IA devraient être exemptées de responsabilité, et 90 % d'entre eux s'y sont opposés. Il n'y a aucune raison que les entreprises d'IA existantes bénéficient d'une responsabilité réduite", insiste-t-il.Entre volonté d’encadrement, impératifs d’innovation et inquiétudes croissantes sur les risques systémiques liés à l’IA, le débat reste donc entier aux États-Unis.Les plus lus"Comme faire ricocher un caillou sur l'eau": pourquoi le retour d'Artémis 2 sur Terre est-il si spécial?Travail le 1er-Mai: Sophie Binet dénonce "des mensonges" et accuse la loi de profiter aux industriels"L'intérêt de ceux qui font cette guerre, c'est qu'on ne retrouve pas le niveau d'avant": pour Michel-Édouard Leclerc le carburant va baisser mais pas au point de retrouver les niveaux d'avant guerreTutoiement, tensions et tentative de séduction: quand Emmanuel Macron rencontrait le pape FrançoisMarathon de Paris 2026: ravitaillement "sauvage", déguisements, lièvres... Ce qui est autorisé (ou non) sur la course
← Retour