● Numerama 📅 19/03/2026 à 10:49

Google s'attaque à Figma avec une IA capable de coder vos applications à la voix

Intelligence Artificielle 👤 Lisa Imperatrice
Illustration
Lecture Zen Résumer l'article Google Labs refond Stitch pour générer, via Gemini, des interfaces et du code front‑end directement à partir de prompts. Un canevas infini s’accompagne d’un agent de conception qui suit l’évolution du projet et orchestre l’itération. À l’annonce, l’action Figma a reculé d’environ 8 à 9 %, signe d’une menace concurrentielle perçue. Google Labs refond Stitch pour générer, via Gemini, des interfaces et du code front‑end directement à partir de prompts. Un canevas infini s’accompagne d’un agent de conception qui suit l’évolution du projet et orchestre l’itération. À l’annonce, l’action Figma a reculé d’environ 8 à 9 %, signe d’une menace concurrentielle perçue. Recevez tous les soirs un résumé de l’actu importante avec Le Récap’ Google Labs a annoncé, le 18 mars 2026, une refonte de Stitch — son outil capable de générer des interfaces web et mobiles à partir de simples prompts texte, d’images ou de croquis, en s’appuyant sur les modèles Gemini. Après avoir dévoilé un outil dédié aux photos de produits, Google Labs s’attaque désormais au design d’apps et de sites. Le hub d’IA de la firme a annoncé, le 18 mars 2026, une importante refonte de Stitch, son outil capable de générer des interfaces web et mobiles à partir de simples prompts texte, d’images ou de croquis, en s’appuyant sur les modèles Gemini. À la clé : à la fois une maquette visuelle et du code front‑end (HTML/CSS, Tailwind, JSX/React) directement exploitable dans un workflow de développement. Cette mise à jour — encore en version bêta et uniquement en anglais — concerne néanmoins la France : Stitch est accessible aux utilisateurs majeurs dans les pays où Gemini est disponible. L’accès reste toutefois encadré par des quotas mensuels de génération, au‑delà desquels il faut attendre leur réinitialisation. Google Labs a annoncé, le 18 mars 2026, une importante refonte de Stitch // Source : Capture d’écran Numerama Comment fonctionne Stitch de Google Labs ? Concrètement, pour utiliser l’outil, il faut se connecter sur le site, choisir un type de projet (web ou mobile), puis décrire l’écran ou l’app que l’on souhaite obtenir, éventuellement en ajoutant une image ou un wireframe (maquette simplifiée d’une interface). Stitch génère alors un ou plusieurs écrans complets, que l’on peut modifier, décliner en variantes, chaîner en flow, puis exporter en code ou vers des outils de design. Dans les faits, Stitch vise surtout la phase d’idéation et de prototypage rapide : créer en quelques minutes des maquettes d’applications, des variantes d’écrans ou des parcours sur plusieurs pages pour tester des idées. Il peut aussi servir à transformer des gribouillis de tableau blanc ou des captures d’écran en interfaces propres pour des tests utilisateurs, des présentations ou un passage plus rapide de l’équipe design aux développeurs. « Aujourd’hui, nous faisons évoluer Stitch vers un espace de conception logicielle natif de l’IA. Grâce à lui, chacun peut créer, itérer et collaborer pour transformer le langage naturel en maquettes d’interface utilisateur haute fidélité », peut‑on lire sur le billet de blog. Un exemple sur Stitch. // Source : Capture d’écran Numerama Un canvas infini, un agent et la voix Autre nouveauté importante : l’extension du canevas, désormais associée à un agent de conception intelligent, capable « d’appréhender l’évolution complète du projet ». Celui‑ci « suit votre progression et vous permet de travailler simultanément sur plusieurs idées, tout en vous aidant à rester organisé », assure Google Labs. L’introduction de fonctionnalités vocales permet en outre de parler directement à Stitch pour modifier le design. L’agent est alors censé appliquer les changements en temps réel, et peut même vous conseiller. Plus discret mais tout aussi révélateur, Google ouvre aussi Stitch aux autres outils de la stack grâce à un serveur MCP, un SDK et des « skills » open source. En clair, des agents (dans un IDE, une appli ou un autre service Google) peuvent piloter Stitch à distance, lui demander de générer ou modifier des écrans, puis renvoyer le résultat vers des outils de dev comme AI Studio ou Antigravity. De quoi transformer doucement Stitch en brique d’infrastructure du design dans le futur stack IA de Google. Stitch de Google Labs. // Source : Capture d’écran Numerama Si plusieurs internautes évoquent une attaque frontale contre le célèbre Figma, dans son positionnement actuel, Stitch se place surtout en amont : il génère des écrans et du code, puis les envoie dans Figma pour affinage, gestion du design system et collaboration. Dans la plupart des workflows, Figma reste le centre de gravité du travail de design, tandis que Stitch prend le rôle d’assistant IA pour passer plus vite de l’idée au prototype. Sur le papier, Stitch coche toutes les cases du fantasme selon lequel « l’IA fait le design à ma place ». Dans la pratique, les premiers retours de designers évoquent surtout un générateur de UI propres mais assez génériques, pratique pour casser la page blanche mais loin de remplacer un vrai travail UX. Pour autant, avec sa capacité à récupérer l’apparence d’un site existant et à en faire un système de design réutilisable, Google commence à marcher sur un terrain central pour Figma : aider les équipes à garder le même langage visuel d’un écran à l’autre. Reste que, dans la foulée de l’annonce de la relance de Stitch avec ses nouvelles capacités, l’action Figma a perdu environ 8 à 9 % en séance, les marchés y voyant un nouveau risque concurrent venu de Google. Toute l'actu tech en un clin d'œil Ajoutez Numerama à votre écran d'accueil et restez connectés au futur ! Installer Numerama Pour ne rien manquer de l’actualité, suivez Numerama sur Google ! Crédit photo de la une : Google Labs / Numerama Signaler une erreur dans le texte Ne plus voir cette pub Ne plus voir cette pub Design Figma Google IA générative Intelligence artificielle
← Retour