● Silicon.fr Télécom
📅 30/04/2026 à 09:08
Mistral AI structure une brique agentique autour du moteur Temporal
Open Source
👤 Clément Bohic
Conserver l’état des applications de sorte qu’elles reprennent toujours où elles en étaient : c’est, dans les (très) grandes lignes, la promesse de Temporal. Netflix, OpenAI et Salesforce, notamment, exploitent ce moteur d’orchestration open source né en 2019. Mistral AI aussi, pour alimenter sa brique Workflows. Déjà utilisée entre autres par CMA-CGM, France Travail et La Banque Postale, elle est désormais en aperçu public. Des environnements distincts pour l’orchestration et l’exécution Workflows fait partie de la stack AI Studio. Il s’incarne en un SDK Python avec lequel on écrit… des workflows. Plus précisément, une logique d’exécution déterministe qui peut encapsuler des actions non déterministes. Lire aussi : Du couac Fluidstack à la levée de dette, Mistral AI face aux aléas de l'infra L’architecture dissocie l’exécution et l’orchestration. Code et workers sont hébergés dans un environnement Kubernetes que contrôle le client. Le cluster Temporal en est indépendant. Par défaut, Mistral AI l’héberge. Mais il est déployable en cloud privé ou sur site. La passerelle entre les deux environnemtns se fait via une API REST publique et l’UI AI Studio. Le déterminisme dans la logique d’orchestration est nécessaire pour pouvoir rejouer les workflows en cas de récupération. On peut toutefois le désactiver pour des actions ou des workers donnés. Lorsqu’il est enclenché, le code s’exécute dans une sandbox qui intercepte les appels non déterministes. Par exemple, current_time = datetime.now() ou rand_value = random.random(). Le SDK y offre des palliatifs, en l’objet de current_time = workflow.now() et rand_value = workflow.random(). Il est possible de contourner temporairement la sandbox. Par exemple pour des lectures ponctuelles qu’on sait sûres. Ou pour intégrer un modèle qui aurait des effets secondaires non déterministes au moment de l’import. Streaming, multilocataire, observabilité… Mistral AI a enrichi Temporal Mistral AI a enrichi les capacités d’exécution durable de Temporal au niveau de la gestion des payloads, du streaming, du multilocataire… et de l’observabilité, avec OpenTelemetry natif. Il a ajouté une composante human-in-the-loop (mise en pause des workflows jusqu’à intervention humaine), un mécanisme d’imbrication (parent-enfant) et une fonction continue-as-new. Celle-ci permet de ne pas dépasser les limites de l’historique (51 200 événements ou 50 Mo) en le réinitialisant tout en conservant l’état. Workflows est accessible dans AI Studio. Ainsi que dans Le Chat, où les workflows sont livrés sous forme d'assistants. Mistral AI compte permettre aux agents intégrés dans ces workflows d'invoquer eux-mêmes des workflows. Il prévoit aussi une version « plus managée » avec abstraction de la logique de déploiement pour qui n'a pas besoin de contrôler finement le placement des workers. Illustration principale générée par IA
🔗 Lire l'article original
👁️ 0 lecture