● Les Numériques Télécom 📅 11/04/2026 à 16:15

Chatbots médicaux : une étude Oxford prouve qu'ils n'améliorent pas les diagnostics des patients

Cybersécurité 👤 Nassim Chentouf
Illustration
Chatbots médicaux : une étude Oxford prouve qu'ils n'améliorent pas les diagnostics des patients Par Nassim Chentouf Publié le 11/04/26 à 16h15 Nos réseaux : Suivez-nous Commenter 4 © Shutterstock/TippaPatt - médecin ia Chez Novartis, en fin d'année 2025, une équipe a utilisé l'IA générative pour créer 15 millions de molécules potentielles contre la maladie de Huntington. Il s'agit de dégradeurs moléculaires capables de franchir la barrière hémato-encéphalique. Sur ces 15 millions de candidats, les chercheurs en ont synthétisé 60 en laboratoire. Ils sont arrivés à une structure prometteuse qui avance vers l'optimisation. On parle d'un exploit de tri computationnel, mais pas d'un traitement contre Huntington. La maladie reste sans solution.L'IA n'a trouvé aucun remède contre des maladiesEt pour cause, aucun médicament découvert grâce à l'IA n'a reçu d'autorisation de la FDA. En janvier 2024, 75 médicaments ou vaccins issus de biotechs spécialisées en IA étaient en essais cliniques selon le Boston Consulting Group. L'IA compresse les délais de découverte de 30 à 40 % et réduit la phase préclinique de trois ou quatre ans à 13 ou 18 mois.Il faut dire que le développement classique coûte 2,5 milliards de dollars par molécule approuvée et que 90 % des candidats échouent en essais cliniques. L'IA fait arriver plus vite à la ligne de départ. Mais elle n'améliore pas les chances de franchir la ligne d'arrivée.En février 2026, Raminderpal Singh, chercheur, a écrit dans Drug Target Review que la vraie question n'était pas de savoir si l'IA accélère la phase préclinique. Mais si elle améliore les taux de succès en clinique. Tant que les essais de Phase III ne confirment rien, la prudence de l'industrie pharmaceutique est "entièrement justifiée". Un PDG anonyme a été plus direct : "L'IA nous a tous déçus ces dix dernières années. On n'a vu qu'échec après échec."Sauf que voilà, le problème n'est pas la puissance de calcul. La maladie d'Alzheimer, le cancer du pancréas, la SLA et Huntington restent sans solution parce que la biologie humaine est d'une complexité irréductible. Les maladies mal comprises ne le sont pas plus parce qu'on crible des millions de molécules plus vite. À lire également : ChatGPT réussit les examens de médecine, mais échoue à aider les vrais malades Le blocage reste notre ignorance du fonctionnement de ces maladies au niveau cellulaire et l'échec des modèles animaux à prédire les résultats humains. En janvier 2026, Novartis l'a reconnu au Forum économique mondial : "L'IA n'est pas une baguette magique. C'est un outil pour naviguer la complexité plus intelligemment."Et puis il y a le versant grand public qui fait peur. En janvier 2026, l'ECRI a classé les chatbots d'IA en santé comme le danger technologique numéro un de l'année. Ces outils ne sont pas réglementés comme des dispositifs médicaux et pas validés pour une utilisation clinique. Et pourtant des millions de personnes les utilisent. L'ECRI a documenté des cas où des chatbots ont suggéré des diagnostics erronés, recommandé des examens inutiles et, au moins une fois, inventé un organe du corps humain.En février 2026, des chercheurs de l'université d'Oxford ont publié une étude randomisée sur 1 298 participants dans Nature Medicine. Les résultats sont accablants. Testées seules, les IA identifiaient les pathologies dans 94,9 % des cas. Mais quand de vrais patients utilisaient ces mêmes modèles, le taux tombait à 34,5 %. En clair, ces résultats n'étaient pas meilleurs que ceux du groupe témoin qui utilisait une simple recherche sur le web.L'IA ne remplacera jamais votre médecinRebecca Payne, médecin à Oxford, a résumé la situation : "Malgré tout le battage médiatique, l'IA n'est tout simplement pas prête à remplacer le médecin." En gros, la médecine n'est pas un exercice de recherche d'information. C'est une conversation. Les médecins posent des questions, recoupent, reformulent. Les chatbots répondent à ce que le patient tape. Et les patients ne savent pas quoi taper.En santé mentale, la situation est pire encore. L'American Psychological Association a émis un avertissement sanitaire selon lequel les chatbots d'IA générative n'ont pas été conçus pour fournir des soins de santé mentale. Des chercheurs de Stanford ont montré que ces chatbots reproduisaient des biais mesurables envers des pathologies comme la schizophrénie. À lire également : “Incroyablement dangereux” : ChatGPT Santé rate une urgence vitale sur deux, des chercheurs sonnent l'alarme Résultat, l'IA en santé n'est pas inutile. Les outils d'imagerie améliorent la détection précoce de certains cancers. Les applications administratives font gagner du temps aux soignants et la découverte de médicaments avance plus vite dans ses premières étapes. Mais ces contributions relèvent de l'assistance, pas du raisonnement clinique.Rebecca Payne a trouvé la formule exacte. Le bon rôle pour l'IA en santé est "secrétaire, pas médecin". En 2030, la maladie d'Alzheimer touchera 78 millions de personnes dans le monde. Le taux de survie à cinq ans du cancer du pancréas n'a presque pas bougé depuis des décennies. Trois ans après le début de l'ère de l'IA générative, l'application la plus visible reste 40 millions de personnes par jour qui demandent à un chatbot si leur mal de tête cache quelque chose de grave. Suivez toute l'actualité des Numériques sur Google Actualités et sur la chaîne WhatsApp des Numériques Envie de faire encore plus d'économies ? Découvrez nos codes promo sélectionnés pour vous.
← Retour