● Numerama
📅 26/03/2026 à 11:18
15 millions de paramètres. 1 seul GPU. LeWorldModel de Yann LeCun est un premier pas pour comprendre le monde physique
Data Science
👤 Nicolas Lellouche
Lecture Zen Résumer l'article Yann LeCun et son équipe présentent LeWorldModel, une avancée majeure dans l'IA qui s'entraîne à partir de pixels bruts, promettant de résoudre le problème de stabilité des modèles JEPA. LeWorldModel se caractérise par sa simplicité d'entraînement, n'utilisant qu'un seul hyperparamètre tout en nécessitant seulement un GPU grand public, contrastant avec les modèles lourds en ressources actuels. Bien que prometteur, ce modèle n'est pas encore prêt pour une utilisation générale, étant limité à des environnements simulés et des temps courts, mais offre un aperçu des capacités futures de la startup AMI Labs de LeCun. Yann LeCun et son équipe présentent LeWorldModel, une avancée majeure dans l'IA qui s'entraîne à partir de pixels bruts, promettant de résoudre le problème de stabilité des modèles JEPA. LeWorldModel se caractérise par sa simplicité d'entraînement, n'utilisant qu'un seul hyperparamètre tout en nécessitant seulement un GPU grand public, contrastant avec les modèles lourds en ressources actuels. Bien que prometteur, ce modèle n'est pas encore prêt pour une utilisation générale, étant limité à des environnements simulés et des temps courts, mais offre un aperçu des capacités futures de la startup AMI Labs de LeCun. Recevez tous les soirs un résumé de l’actu importante avec Le Récap’ En attendant les premières découvertes d’AMI Labs, sa nouvelle startup créée en France, Yann LeCun et un consortium de chercheurs spécialisés en intelligence artificielle dévoilent LeWorldModel, première version d’une technologie capable de s’entraîner directement à partir de pixels bruts sans problème de stabilité. À terme, les robots pourraient s’appuyer sur ces avancées pour voir le monde et interagir avec. Yann LeCun réussira-t-il à révolutionner l’intelligence artificielle comme il le promet depuis des années ? Considéré par beaucoup comme un des pères de l’IA moderne, le Français est l’une des grandes figures « anti-LLM » de la Silicon Valley. Yann LeCun est convaincu que ChatGPT et Gemini ne sont pas l’avenir de l’intelligence : « Penser qu’on atteindra l’intelligence humaine avec les LLM, c’est des conneries », assénait-il peu après son départ de Meta. Pour Yann LeCun, les modèles de langage ne sont que des illusions statistiques. Ils savent imiter la parole, mais ne peuvent pas raisonner (en tout cas pas vraiment) ou planifier des choses. Son rêve ? Créer des « world models » (modèles du monde) capables de prédire directement la physique pour sortir de la simple prédiction de mots. Au début de l’année 2026, Yann LeCun a lancé AMI Labs à Paris, une startup déjà valorisée 3,5 milliards de dollars après une levée de fonds record. Si AMI Labs n’est pas encore prêt à publier ses premières découvertes, la communauté de l’IA s’est emballée ce 25 mars 2026 avec la publication de LeWorldModel (LeWM). Il ne s’agit pas d’une invention 100 % LeCun, mais d’un papier publié par des chercheurs du Mila (Montréal), de NYU et de Samsung. Ce papier, auquel LeCun a contribué, prétend régler le problème de stabilité qui bloquait les modèles physiques jusqu’ici. LeWorldModel a son propre site. // Source : LeWorldModel Que change LeWorldModel pour l’industrie de l’IA ? Jusqu’à présent, les modèles dits « JEPA » (Joint-Embedding Predictive Architecture) que LeCun défend étaient extrêmement fragiles. Le papier explique qu’ils s’effondraient mathématiquement assez rapidement et arrêtaient de prédire des choses cohérentes. LeWorldModel changerait la donne grâce à trois piliers : Simplicité : Là où les modèles précédents demandaient jusqu’à six hyperparamètres complexes pour ne pas « planter » pendant l’entraînement, LeWorldModel n’en utilise qu’un seul. Il s’appuie sur une nouvelle méthode qui force le modèle à maintenir une diversité de données, ce qui l’empêche de tricher. Entraînement : Le modèle n’a pas besoin de comprendre ce qu’on lui montre. Il analyse des pixels bruts et apprend seul à structurer l’espace pour prédire le mouvement. Efficacité : Alors que les LLM les plus puissants dépassent le milliard de paramètres, LeWorldModel en a seulement 15 millions. C’est un des gros avantages de cette découverte : un seul GPU grand public suffit pour l’entraîner, il n’y a pas besoin de serveurs ultra-coûteux. Dans ses premiers tests, LeWorldModel s’est avéré capable de planifier des actions comme pousser un objet ou naviguer dans une pièce jusqu’à 48 fois plus vite que les modèles basés sur des solutions existantes comme DINOv2. Extrait du site LeWorldModel. // Source : LeWorldModel LeWorldModel est-il un aperçu des futurs modèles d’AMI Labs ? Attention toutefois à ne pas confondre démonstration scientifique et révolution technologique : sur les réseaux sociaux, on lit partout que Yann LeCun vient de révolutionner l’IA. LeWorldModel est encore « inexploitable » pour le grand public : il fonctionne dans des environnements contrôlés (des simulations de bras robotiques en 2D ou 3D) et sur des horizons de temps très courts. La technologie n’est pas capable d’alimenter un robot humanoïde. À l’avenir, on peut imaginer que Yann LeCun et son équipe s’appuieront sur cette percée pour AMI Labs. Si un modèle de 15 millions de paramètres peut comprendre les bases de la gravité et du mouvement sur un seul GPU, les futurs modèles du Français, sans doute plus gros, pourront très certainement avoir des usages beaucoup plus concrets. Toute l'actu tech en un clin d'œil Ajoutez Numerama à votre écran d'accueil et restez connectés au futur ! Installer Numerama Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer ! Tout comprendre à La guerre de l’IA 15 millions de paramètres et 1 seul GPU : Yann LeCun fait un premier pas vers l’IA qui comprend le monde réel Google a peut-être réglé la crise de la mémoire vive (RAM) avec un algorithme OpenAI abandonne la génération de vidéos (Sora) et perd son deal avec Disney : comment expliquer un tel échec ? « Je pense qu’on a atteint l’intelligence artificielle générale » : le patron de Nvidia surprend tout le monde avec cette phrase « Alerte rouge » chez OpenAI : Sam Altman sacrifie ses projets annexes pour sauver ChatGPT Crédit photo de la une : Numerama Signaler une erreur dans le texte Ne plus voir cette pub Ne plus voir cette pub AMI Labs IA générative LLM (Large Language Model) World Model Yann Le Cun
🔗 Lire l'article original
👁️ 0 lecture