● Silicon.fr Télécom 📅 08/04/2026 à 12:15

OpenAI lance l'OpenAI Safety Fellowship

Intelligence Artificielle 👤 Philippe Leroy
Illustration
OpenAI lance l’OpenAI Safety Fellowship pour renforcer la sécurité de l’IA. Le programme est destiné à des chercheurs, ingénieurs et praticiens indépendants, souhaitant mener des travaux de recherche sur la sécurité et l’alignement de l’intelligence artificielle. Le programme se déroulera du 14 septembre 2026 au 5 février 2027 *. Un programme ouvert et pluridisciplinaire Cette fellowship est également ouverte à des profils issus des sciences sociales ou de la cybersécurité, élargissant ainsi le spectre des candidats potentiels. Plusieurs domaines prioritaires sont identifiés : l’évaluation de la sécurité, l’éthique, la robustesse des systèmes, les méthodes d’atténuation des risques à grande échelle, les approches de sécurité préservant la vie privée, la supervision des agents autonomes, ainsi que les scénarios de mésusage à haute sévérité. OpenAI indique rechercher en priorité des travaux empiriquement fondés, techniquement solides, et utiles à la communauté de recherche au sens large. Des moyens substantiels pour les fellows Le programme prévoit une allocation hebdomadaire de 3 850 $ ainsi qu’un accès à des ressources de calcul d’environ 15 000 $ par mois pour permettre aux candidats retenus de se consacrer pleinement à leurs travaux. Lire aussi : OpenAI, Anthropic et Perplexity livrent bataille sur la santé Les « fellows » bénéficieront également d’un accompagnement par des mentors internes d’OpenAI et d’une collaboration avec leurs pairs. Un espace de travail est prévu à Berkeley, au sein de Constellation, bien que la participation à distance soit également autorisée. À l’issue du programme, OpenAI attend de chaque participant une contribution concrète : article de recherche, nouveau jeu de données ou benchmark utile à la communauté de l’IA. Un volet bug bounty dédié à la sécurité de l’IA Cette fellowship s’inscrit dans une stratégie plus large dévoilée fin mars avec le lancement d’un Safety Bug Bounty public, venant compléter son programme existant de bug bounty dédié à la cybersécurité. Ce nouveau programme se concentre spécifiquement sur l’identification des risques d’abus et de sécurité liés à l’IA au sein des produits OpenAI. Les signalements qui posent des risques d’abus significatifs, même lorsqu’ils ne répondent pas aux critères d’une vulnérabilité de sécurité classique, sont acceptés. Les scénarios couverts incluent notamment les injections de prompt tierces, les risques liés aux agents autonomes comme Atlas Browser, Codex ou Operator, ainsi que les failles dans les connecteurs MCP susceptibles d'être exploitées pour causer un préjudice réel. Les chercheurs peuvent être récompensés jusqu'à 7 500 $ pour des rapports détaillant des problèmes reproductibles de haute sévérité, assortis de recommandations concrètes. Les soumissions sont hébergées sur la plateforme Bugcrowd et instruites conjointement par les équipes Safety et Security d'OpenAI. Une initiative dans un contexte de compétition pour les talents en sécurité IA Le lancement de ce programme intervient dans un contexte de concurrence accrue entre les entreprise d'IA pour attirer les meilleurs chercheurs en sécurité. Lire aussi : Les milliards d'OpenAI alimentent aussi des acquisitions La structure de la fellowship d'OpenAI s'aligne sur celle du programme proposé par Anthropic. qui propose exactement les mêmes niveaux de rémunération hebdomadaire (3 850 dollars) et d'allocation de calcul mensuelle (15 000 dollars). Cela suggère que ces montants sont devenus des standards dans l'industrie pour attirer les chercheurs de haut niveau spécialisés en sécurité IA. Pour rappel, Anthropic a de son côté récemment annoncé l'ouverture de candidatures pour deux nouvelles cohortes de son propre programme, débutant en mai et juillet 2026. Les domaines couverts intègrent désormais la supervision à grande échelle, la robustesse adversariale, le contrôle de l'IA, et le bien-être des modèles. *Les candidatures sont ouvertes jusqu'au 3 mai 2026. Les candidats retenus seront informés d'ici le 25 juillet 2026.
← Retour