● Les Numériques Télécom
📅 18/03/2026 à 18:29
Mistral, rival français de ChatGPT, enchaîne trois annonces majeures et vise le milliard
Intelligence Artificielle
👤 Aymeric Geoffre-Rouland
Mistral, rival français de ChatGPT, enchaîne trois annonces majeures et vise le milliard Par Aymeric Geoffre-Rouland Publié le 18/03/26 à 18h29 Nos réseaux : Suivez-nous Commenter (1) 2 1 Forge, Small 4, coalition NVIDIA : en 48 heures à la GTC, Mistral a posé les bases de son offensive enterprise face à ChatGPT.Du 16 au 17 mars, à l'occasion de la GTC 2026, Mistral a enchaîné les publications avec une cadence inhabituelle, même à l'échelle de l'écosystème IA. Le message adressé aux grandes organisations est le même partout : souveraineté sur les données, souveraineté sur les modèles.Forge, ou la promesse d'un entraînement véritablement propriétaireLe produit central de cette séquence s'appelle Forge.Son ambition : permettre aux entreprises d'entraîner des modèles IA de bout en bout sur leurs données internes (documentation, code, procédures opérationnelles), plutôt que de se contenter d'un fine-tuning superficiel ou d'un RAG greffé après coup. La plateforme couvre le pré-entraînement, le post-entraînement et le reinforcement learning, avec le support d'architectures denses et Mixture of Experts.Le pipeline Forge : des données internes brutes au modèle d'entreprise sur mesure, en cinq étapes.© Mistral AI.ASML, Ericsson et l'Agence spatiale européenne figurent parmi les premiers adoptants. Arthur Mensch, cofondateur et CEO, affirme que Mistral est en route pour dépasser le milliard de dollars de revenus récurrents annuels cette année. à lire également :12NEWS : Société NumériqueQuelle est la vraie empreinte carbone des IA ? Le français Mistral esquisse un début de réponseAu fur et à mesure que l’usage des IA se démocratise, la question de leur empreinte carbone revient régulièrement. L’entreprise française... il y a 7 mois Small 4 et Nemotron : l'open source comme levier stratégiquePublié la veille, Mistral Small 4 rassemble en un seul modèle les capacités de Magistral (raisonnement), Devstral (coding agentique) et Mistral Small (instruct). L'architecture repose sur 128 experts, dont 4 activés par token, pour 119 milliards de paramètres au total et 6 milliards sollicités à chaque inférence. La fenêtre de contexte atteint 256 000 tokens. Le tout sous licence open source.Small 4 (orange) face aux autres modèles Mistral, avec et sans raisonnement. Il domine sur quatre benchmarks sur cinq.© Mistral AI.En parallèle, Mistral rejoint la coalition NVIDIA Nemotron comme membre fondateur. L'objectif : co-développer des modèles ouverts de niveau frontière, entraînés sur NVIDIA DGX Cloud. La première livraison alimentera la famille Nemotron 4, elle aussi destinée à être ouverte. Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.
🔗 Lire l'article original
👁️ 1 lecture