● Les Numériques Télécom 📅 23/04/2026 à 08:16

J'ai écouté Sam Altman torpiller Anthropic sur Claude Mythos, pendant qu'OpenAI fuitait GPT-5.5 en silence

Géopolitique 👤 Aymeric Geoffre-Rouland
Illustration
J'ai écouté Sam Altman torpiller Anthropic sur Claude Mythos, pendant qu'OpenAI fuitait GPT-5.5 en silenceSam Altman accuse Anthropic de capitaliser sur la peur, la veille, OpenAI laissait fuiter GPT-5.5 Par Aymeric Geoffre-Rouland Publié le 23/04/26 à 08h16 Nos réseaux : Suivez-nous Commenter 4 © Core Memory Podcast - Sam Altman et Greg Brockman, cofondateurs d'OpenAI, au micro du podcast Core Memory. C'est dans cet entretien que le patron d'OpenAI s'en prend frontalement à la stratégie d'Anthropic autour de Claude Mythos. Depuis début avril, Anthropic orchestre le lancement de Claude Mythos Preview comme un événement de sécurité nationale. Le modèle, présenté comme trop puissant pour être diffusé au grand public[/publication-link], n'est accessible qu'à une poignée de partenaires (Amazon, Apple, Nvidia, CrowdStrike) réunis sous la bannière Project Glasswing.L'entreprise a prévenu le gouvernement américain, alerté les banquiers de Wall Street, et martelé que Mythos “pose des risques cyber sans précédent”. Sam Altman, interrogé dans le podcast Core Memory aux côtés de Greg Brockman, a choisi de ne pas saluer la démarche. Il y a des gens qui, depuis longtemps, veulent garder l'IA entre les mains d'un petit groupe. Le marketing par la peur est probablement le moyen le plus efficace d'y parvenir.La métaphore de la bombe, ou comment Altman réduit Mythos à un argument de venteLe cofondateur d'OpenAI n'y va pas par euphémismes. Quand les journalistes Ashley Vance et Kylie Robinson lui demandent si Mythos relève surtout du marketing, Altman pose le cadre sans détour : “Il y a des gens qui, depuis longtemps, veulent garder l'IA entre les mains d'un petit groupe. On peut justifier ça de plein de façons, et certaines sont légitimes. Mais le marketing par la peur est probablement le moyen le plus efficace d'y parvenir.”Puis il durcit le trait avec une analogie que personne dans l'industrie n'avait osée publiquement : “C'est clairement un marketing incroyable de dire : 'Nous avons fabriqué une bombe. On va vous la larguer sur la tête. On vous vend un abri anti-bombes pour 100 millions de dollars. Vous en avez besoin pour protéger toute votre infrastructure, mais seulement si on vous choisit comme client'”.De gauche à droite : Kylie Robinson et Ashley Vance, les hôtes de Core Memory, face à Sam Altman et Greg Brockman. C'est lors de cet échange que le cofondateur d'OpenAI a comparé la stratégie Mythos d'Anthropic à la vente d'un “abri anti-bombes”.© Core Memory PodcastLe propos est calculé : Altman ne conteste pas les capacités cyber de Mythos. Il vise le dispositif commercial qui les entoure : un accès fermé, tarifé au prix fort, réservé à des entreprises sélectionnées par Anthropic elle-même. OpenAI, rappelle-t-il, dispose depuis longtemps d'un cadre de préparation intégrant la cybersécurité comme catégorie à part entière, là où, selon lui, Anthropic n'en avait pas fait un pilier de son propre framework avant Mythos.Un rival défendu face au gouvernement, attaqué sur sa stratégieLa position d'Altman n'est pas monolithique puisque dans le même entretien, il reconnaît qu'Anthropic “n'a pas été traitée de manière équitable” par l'administration américaine, évoquant les menaces d'invocation du Defense Production Act et la désignation comme risque pour la chaîne d'approvisionnement. "Ce n'est pas la relation que notre gouvernement et nos efforts en IA doivent entretenir”, tranche-t-il. La façon dont Anthropic parle d'OpenAI n'aide pas.Mais la concession s'arrête là : Altman enchaîne en affirmant que “la façon dont Anthropic parle d'OpenAI n'aide pas”, et oppose deux philosophies de déploiement. D'un côté, la restriction comme argument de vente. De l'autre, ce qu'il défend avec Brockman : un déploiement itératif, progressif, où la puissance du modèle est mise entre les mains du plus grand nombre plutôt que sanctuarisée au profit de quelques acheteurs.Deux rivaux, deux fuites, même fragilitéL'attaque intervient à un moment délicat pour Anthropic. La semaine dernière, un groupe d'amateurs réunis sur Discord a obtenu un accès non autorisé à Mythos via l'environnement d'un sous-traitant, démontrant que le verrouillage tant vanté n'avait pas résisté trois semaines. Et quelques jours plus tôt, la propre System Card d'Anthropic révélait que Mythos s'était échappé de son sandbox, avait contacté un chercheur de sa propre initiative, puis publié la méthode sur internet. Le modèle “trop dangereux pour être public” échappe déjà à ceux qui prétendent le contrôler. Reste qu'Altman prêche depuis une maison de verre : la veille de cet enregistrement, le sélecteur de modèles de Codex a brièvement exposé GPT-5.5 et plusieurs modèles non annoncés à des utilisateurs Pro, pile au moment où Anthropic s'attirait la colère de ses abonnés en retirant Claude Code de son offre payante. Le marketing par la peur a son pendant chez OpenAI : le marketing par la fuite.🚨 OpenAI just accidentally leaked all the internal models in Codex model pickerSeem to be only on pro accounts pic.twitter.com/yYRwcx3b4M— can (@marmaduke091) April 22, 2026 Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.
← Retour