● Silicon.fr Télécom 📅 23/03/2026 à 17:23

OpenAI, Anthropic et Perplexity livrent bataille sur la santé

Intelligence Artificielle 👤 Clément Bohic
Illustration
OpenAI en janvier, et désormais Perplexity : b.well a fait coup double. L’un et l’autre ont effectivement fait appel à cet éditeur américain dont la plate-forme centralise les données de santé. En toile de fond, les lancements successifs de ChatGPT Health et Perplexity Health. Entre-temps, Anthropic a ouvert Claude for Healthcare. Il ne s’appuie pas sur b.well, mais sur un concurrent : HealthEx, que Microsoft a aussi choisi pour Copilot Health. Des déploiements à (très) petit périmètre Tous ces services portent la même promesse : contextualiser les conversations dans le domaine de la santé en permettant aux utilisateurs d’intégrer leurs informations personnelles. Parmi elles, les dossiers médicaux électroniques, via b.well et HealthEx… mais uniquement aux États-Unis. Lire aussi : Les milliards d'OpenAI alimentent aussi des acquisitions Claude for Healthcare n’est encore officiellement disponible que sur place, en bêta, pour les abonnés aux forfaits Pro et Max. Même périmètre pour Perplexity Health, sur les abonnements du même nom, avec une liste d’attente pour les autres utilisateurs. ChatGPT Health est plus ouvert sur le papier : tous les forfaits individuels sont concernés, sur l’ensemble des territoires où le chatbot est disponible… sauf dans l’Espace économique européen (+ Suisse et Royaume-Uni). Outre les dossiers médicaux, il est possible de connecter des applications santé/bien-être. Perplexity mentionne Fitbit, Google, Clue, Ultrahuman, Withings. Il entend y ajouter ŌURA et Function. La connexion se fait dans tous les cas via Terra API. Une jonction est également établie avec Apple Santé sur iPhone. Anthropic cite Function, Apple Santé et Santé Connect sur Android. OpenAI évoque lui aussi Apple Santé, ainsi qu’Alltrails, Function, Instacart, MyFitnessPal, Peloton, Weight Watchers. La santé, une bataille également B2B Claude for Healthcare est aussi le nom d’une déclinaison de Claude Enterprise certifiée HIPAA. Lancée parallèlement à la version « grand public », elle s’inscrit dans la lignée de Claude for Life Sciences, qui avait émergé quelques mois plus tôt. Claude for Life Sciences exploite des connecteurs spécifiques vers des bases de données scientifiques (Benching, BioRender, PubMed, Synapse.org…) ainsi que des skills dédiées (contrôle qualité du séquençage de cellule unique, par exemple). Claude for Healthcare en reprend le principe, avec des bases de connaissances globales pour certaines (Classification internationale des maladies), américaines pour beaucoup (registre national des prestataires de santé, centres de services Medicare et Medicaid…), et des skills telles que le développement d’interfaces FHIR et l’évaluation de couverture assurantielle. OpenAI a aussi sa déclinaison de ChatGPT Enterprise « spécial santé » : ChatGPT Healthcare. Le principe est le même que chez Anthropic : une certification HIPAA et des bases de connaissances spécifiques. Perplexity Enterprise n'a pas de « version santé », mais Perplexity en présente un cas d'usage dans ce domaine, à base d'espaces de travail adaptés. Garder les médecins dans la boucle Dans tous les cas, même avertissement : pas de diagnostics ou de recommandation de traitements (ni d'aide médicale d'urgence, précise Perplexity). Il s'agit de « répondre aux questions du quotiden » et d'aider l'utilisateur à « comprendre les tendances », explique OpenAI. Anthropic parle quant à lui de rendre « plus productives » les conversations avec les professionnels de santé. Tandis que Perplexity affirme que son service « ne remplace pas un avis médical professionnel ». Lire aussi : IA militaire : en refusant le Pentagone, Anthropic conquiert le grand public OpenAI déclare que ChatGPT Health est le fruit de « plus de 2 ans de travail » avec quelque 260 médecins dans 60 pays et couvrant « des dizaines de spécialités ». Du côté de Perplexity, on dit avoir mis en place un conseil consultatif qui « mettra à l'épreuve [les] futures décisions produit ». Il comprend pour le moment 4 membres : Eric Topol, cardiologue et généticien, fondateur et directeur du Scripps Translational Science Institute Devin Mann, professeur de santé des populations et de médecineà la NYU Grossman School of Medicine Wendy Chung, généticienne et physicienne, cheffe du département de pédiatrie au Boston Children's Hospital Tim Dybvig, fondateur et dirigeant dans le domaine des technologies de la santé (Calibrater Health, Maribel Health) « Isolé », « cloisonné », « renforcé »... Le sujet sensible de la data Les garanties techniques qu'avancent Anthropic, OpenAI et Perplexity se ressemblent. Au-delà de s'abstenir d'entraîner des modèles avec les données de santé, tous prônent une forme d'isolation vis-à-vis des autres conversations. Perplexity parle, entre autres, d'un dépôt distinct pour stocker les documents de santé que l'utilisateur téléverse. Il souligne par ailleurs que si des « souvenirs » (memories) peuvent être créés, il ne sont exploités qu'en réponse aux questions qui s'y prêtent - et peuvent être supprimés à tout moment. Quand aux informations des dossiers médicaux, elles demeurent sur des serveurs externes. Concernant les applications externes, Anthropic précise que Claude ne peut pas y écrire de données. Il ajoute cadrer les « souvenirs » afin, là aussi, que le chatbot ne les réutilise qu'à bon escient. OpenAI promet également un espace cloisonné (« Si vous démarrez une conversation liée à la santé dans ChatGPT, nous vous proposerons de passer dans [cet espace] pour bénéficier [des] protections »). Il ajoute qu'il est possible d'ajouter des instructions personnalisées. Et d'exploiter des « souvenirs » à partir du compte principal, mais pas dans le sens inverse. Illustration générée par IA
← Retour