● Journal du Net
📅 16/04/2026 à 10:39
Devin, l'IA de code qui remplace (presque) totalement les développeurs
Géopolitique
👤 Benjamin Polge
Devin promet un software engineer virtuel, autonome et asynchrone. Nous l'avons testé. Il tient ses promesses, mais il a un prix. C'est un agent d'IA qui ambitionne, sur le papier, de remplacer entièrement les développeurs. Lancé en juin 2024 par la start-up américaine Cognition (valorisée 10 milliards de dollars), Devin s'inscrit dans le credo des agents de code IA entièrement autonomes. L'agent est pensé pour réaliser des tâches de software engineering à forte valeur ajoutée. A rebours de Claude Code, Codex, Gemini CLI ou Cursor, l'outil se présente comme un software engineer virtuel capable de créer de A à Z un produit logiciel de façon asynchrone. Une approche encore expérimentale, mais qui séduit déjà une partie des grands comptes américains (Microsoft, Goldman Sachs, Nvidia, Cisco) jusqu'à l'armée américaine. Un agent d’IA asynchrone Comme si Cognition avait pressenti la vague OpenClaw, Devin est axé depuis le début de son développement sur le caractère asynchrone de son agent. Quand Claude Code et les agents d’IA de code traditionnel exigent un minimum de retour de l’humain pour avancer, Devin est pensé pour limiter au maximum les rétroactions humaines. Cognition souhaitait dès le départ remplacer véritablement les software engineers. Concrètement, lorsqu'une tâche lui est assignée, Devin provisionne automatiquement une machine virtuelle dans le cloud, clone le dépôt de code source, installe les dépendances, puis se met au travail de façon totalement indépendante. L'agent est capable de lire une documentation technique pour se former à un framework qu'il ne connaît pas, de planifier une architecture, d'écrire le code, d'exécuter les tests, puis de soumettre une pull request. L'humain n'intervient qu'aux deux extrémités du processus : au moment de la commande initiale, et à la revue finale du code. Un agent parent peut même orchestrer des agents enfants et leur assigner des sous-tâches. C'est l'autre singularité de Devin par rapport à la concurrence : Cognition a très tôt investi dans le développement de ses propres modèles. La start-up a lancé une famille de modèles propriétaires baptisée SWE (pour Software Engineering). Le dernier en date, SWE-1.6, sorti en avril a été spécifiquement entraîné par reinforcement learning sur des environnements de développement réels. Il est servi en partenariat avec Cerebras à une vitesse revendiquée de 950 tokens par seconde, soit 13 fois plus rapide que le Sonnet 4.5 d'Anthropic, selon Cognition. A cela s'ajoute SWE-grep, un modèle spécialisé dans la recherche contextuelle rapide au sein de gros dépôts de code. En pratique, les cas d'usage les plus courants vont de la migration de code à grande échelle (domaine où Kiro excelle) au développement de nouvelles fonctionnalités en passant par la revue automatique de PR et la correction de bugs à partir de tickets. Un pricing premium, aligné sur les promesses Cognition semble miser sa stratégie sur la rentabilité première de son outil, à l'inverse d'un Anthropic qui mise avant tout sur l'usage (avant probablement de monter ses prix). La facturation de Devin repose sur une unité propriétaire baptisée ACU (Agent Compute Unit), une mesure qui agrège le temps de machine virtuelle, l'inférence des modèles et la bande passante réseau consommés par l'agent. Selon Cognition, un ACU correspond à environ 15 minutes de travail actif de Devin. Trois formules coexistent : un plan Core en paiement à l'usage (minimum 20 dollars par mois, à 2,25 dollars l'ACU), un plan Team à 500 dollars par mois incluant 250 ACU (soit 2 dollars l'unité) avec accès à l'API et aux sessions parallèles illimitées, et un plan Enterprise sur devis pour les grands comptes exigeant SSO, contrôle d’accès et déploiement dans leur cloud. Abonnements Core Team Enterprise Prix mensuel 20 $ 500 $ Sur mesure ACU inclus /mois 0 250 Sur mesure Coût par ACU supplémentaire 2,25 $ 2,00 $ Sur mesure Coût horaire estimé ~9,00 $ ~8,00 $ Sur mesure Sessions simultanées 10 Illimitées Illimitées Accès API ❌ ✅ ✅ Devin Wiki / Search ✅ ✅ ✅ Support dédié ❌ ✅ ✅ SSO / RBAC ❌ ❌ ✅ Déploiement cloud privé ❌ ❌ ✅ Ramené en heures, le coût de Devin s'établit entre 8 et 9 dollars de l'heure selon la formule choisie. Un tarif que Cognition positionne explicitement face au coût horaire d'un développeur humain ou d'un prestataire offshore. Le plan Team, avec ses 250 ACU mensuels, offrirait l'équivalent d'environ 62 heures de travail autonome garanti, selon Cognition. Le test du JDN Pour tester les capacités de cet agent de code, nous allons le soumettre à un projet simple : lui faire développer une application de santé intelligente basée sur l’IA générative. Le but ? Avoir un assistant santé utilisable simplement pour des conseils et des analyses. Nous demanderons à Devin d’utiliser le modèle GPT-5.4, l’un des meilleurs modèles génératifs en santé (Meta Muse Spark n’étant pas encore disponible). Nous utilisons un repository Github pour stocker le projet avec une version gratuite mais limitée de Devin (Trial). Les deux modes de Devin. © Capture d’écran / JDN Pour générer le projet, nous passons directement par l’interface web de Devin connectée à notre compte GitHub. Par défaut, Devin propose 2 modes : un mode agentique classique et un mode Fast. Nous utilisons le premier pour limiter la consommation de tokens. Nous donnons ainsi à l’agent le prompt suivant : # HealthChat – Interface web de santé par IA générative ## Description Générer une interface web de santé par IA générative. L'utilisateur peut : - Interroger une IA sur des questions de santé via un chat - Envoyer des images (radios, photos du corps, etc.) pour analyse visuelle ## Design - Interface sobre, simple d'usage, moderne - Mobile-first (utilisable sur smartphone) - Style messagerie : bulles utilisateur/IA, champ de saisie + bouton ???? pour les images - Disclaimer permanent en bas : "⚠️ Cet outil ne remplace pas un avis médical. En urgence, appelez le 15." ## Configuration du modèle IA - Par défaut : clé API OpenAI, modèle `gpt-5.4` (avec support vision pour les images) - Alternative : accès à un modèle open source via Ollama (URL serveur + nom du modèle configurables) - Les paramètres sont accessibles via un bouton ⚙️ ## Onboarding (première connexion) A la première utilisation, demander à l'utilisateur de renseigner ses variables rapides : - Prénom - Age - Poids - Antécédents médicaux (ATCD/MHT) Ces infos sont stockées en localStorage et modifiables à tout moment. ## Prompt system Le profil utilisateur (prénom, âge, poids, antécédents) est injecté automatiquement dans le prompt system à chaque échange. Le prompt system doit imposer à l'IA de : 1. Poser des questions de clarification à l'utilisateur avant de répondre, dans la limite de 5 questions maximum, pour obtenir le maximum de contexte 2. Ne jamais poser de diagnostic, uniquement informer et orienter 3. Si une image est jointe, décrire ce qui est observé sans interpréter comme un diagnostic ## Contraintes techniques - Stockage local uniquement (localStorage) - Déployable en statique (Vercel, Netlify, GitHub Pages) - Images converties en base64 avant envoi API Lors de la génération (en arrière-plan), il est possible de suivre en direct les actions de Devin depuis sa VM en mode GUI. L'expérience est assez saisissante. © Capture d’écran / JDN Une fois le code entièrement généré, Devin teste dans son interface la version mobile et desktop de notre application. Là encore, c'est assez surprenant : l'agent semble vraiment excellent en computer use. En moins de 10 minutes, le projet entier est livré. A part quelques retouches mineures via un prompt (ajout d'un README, changement d'un modèle, ajout d'un fichier de licence...), le projet final est opérationnel et production-ready en moins de 20 minutes au total. Un vrai record. La vraie force de Devin est de ne pas sur-solliciter l'utilisateur avec des questions en tout genre, et de développer en arrière-plan, rapidement et silencieusement. Devin a utilisé pour cette session 3,45 ACU, pour un coût réel de 7,76 euros avec l'offre Core (hors abonnement mensuel de 20 dollars). Le coût est certes élevé, mais l'application finale fonctionne à la perfection. L'installation depuis le dépôt se déroule sans aucun problème tout comme l'usage en conditions réelles. Interprétation d’une radio avec notre assistant. © Capture d’écran / JDN Notre application est disponible en open source, sous licence Apache 2.0, sur GitHub pour les plus curieux : https://github.com/BenjaminPolge/HealthChat. Quelques modifications d’UX ont été réalisées, par la suite, avec Claude Code pour ne pas payer un abonnement Devin. Un agent qui tient ses promesses Au terme de ce test, Devin s'impose comme une alternative crédible, et même redoutable, aux agents de code que nous avons pu évaluer ces derniers mois. Car si les alternatives à Claude Code, Codex ou Gemini ont chacune leurs mérites, force est de constater que peu d'entre elles ont livré des résultats aussi convaincants que les stars du marché en conditions réelles. Le véritable différenciant de Devin tient en un mot : l'autonomie. Devin pousse la logique plus loin grâce à sa machine virtuelle dédiée. L'expérience est plus fluide, moins verbeuse, et le résultat s'en ressent. Le code livré est quasi production-ready, notamment parce que l'agent enchaîne spontanément développement, tests et vérification visuelle, un réflexe que seuls les utilisateurs les plus aguerris de Claude Code pensent à exiger de leur agent. Tout cela a un prix, et il est loin d'être négligeable. Avec un coût horaire effectif situé entre 8 et 9 dollars, Devin est sensiblement plus cher que ses concurrents directs. Il y a toutefois un avantage indirect à cette transparence tarifaire : le prix de Devin reflète au plus près le coût réel de l'IA générative lorsqu'elle est mobilisée de façon intensive sur des tâches complexes. Les entreprises qui adoptent cet outil aujourd'hui s'acclimatent à un niveau de facturation qui sera, tôt ou tard, celui de l'ensemble du marché. Quand viendra le moment de payer l'IA à sa juste valeur, la transition sera bien moins brutale.
🔗 Lire l'article original
👁️ 0 lecture