ChatGPT et médecine, la grande illusion ?

ChatGPT, allié ou ennemi des médecins ? L'outil fascine, de plus en plus de patients l'adoptent, la communauté médicale s'inquiète. Au-delà de la prouesse technologique et du rendu quasi humain, ce modèle de langage est totalement déconnecté du réel.



Joris Galland est spécialiste en médecine interne. Après avoir exercé à l'hôpital Lariboisière (AP-HP) il a rejoint le CH de Bourg-en-Bresse. Passionné de nouvelles technologies, il se propose dans notre blog «Connexion(s)» de nous en expliquer les enjeux. 


En novembre 2022, la société OpenAI® défrayait la chronique en lançant la version 3.5 de son intelligence artificielle (IA) : ChatGPT.1 Cette IA conversationnelle (ou "chatbot") est révolutionnaire de par sa capacité à créer du contenu textuel sur n'importe quel sujet (y compris le domaine médical) et en plusieurs langues (le français étant parfait).

OpenAI® est une référence, rejointe en 2023 par d'autres IA dites «génératives» (IAG), tout aussi avancées : BardAI de Google® (un chatbot d'IA conversationnel accessible aux États-Unis et au Royaume-Uni depuis mars), Dall-E et Mid Journey pour la génération d’images… ou encore une IA d’Amazon qui promet d’être plus puissante que ChatGPT.2

Les cas d'utilisation dans le domaine de la santé se multiplient. Comment les médecins devraient-ils adopter cette nouvelle technologie dans leur pratique quotidienne ?

Les chatbots en médecine : alliés ou ennemis ?  

ChatGPT est un modèle de langage qui utilise l'apprentissage automatique pour répondre aux questions posées en langage naturel. Cette technologie fonctionne en s’appuyant sur un réseau de neurones artificiels. Elle est «entraînée» grâce à de grandes quantités de données textuelles (technologie LLM – "Large Language Model"). Pour générer une réponse, le modèle examine le contexte de la question et analyse l'énoncé par étapes, pour en déduire une inférence : c'est la Chain of Thought (CoT).3

Ce modèle génère des réponses cohérentes et précises sans intervention humaine. Il peut être utilisé pour répondre à une grande variété de questions, allant de simples demandes d'informations à des tâches complexes comme la création d’un scénario de film.

Le risque d'«hallucination», c'est-à-dire de réponse incohérente, est significativement réduit grâce à la technique CoT. Malgré leur rareté, ces aberrations sont très médiatisées. Citons l'exemple des «œufs de vache» inventés par ChatGPT-3.5...4 La version 4.0 devrait les réduire significativement.

Des exemples récents ont montré que ChatGPT est capable de réussir le test de Turing, qui consiste à opposer verbalement un humain A à un ordinateur et un autre humain B, en aveugle. Si la machine peut tromper l'humain A en lui faisant croire qu'il est aussi humain, alors on  considère que le test de Turing est réussi.

Pour réduire les biais algorithmiques, ChatGPT n'a pas accès à Internet. Il s'entraîne sur une base de données contenant des informations antérieures à 2021, ce qui peut être problématique lors de questions sur des événements récents (comme la guerre en Ukraine ou des données scientifiques récentes).
Au service des patients

Il est important de comprendre que la base de données utilisée est générique, donc non spécialisée. Ceci peut avoir des implications pour tout problème lié à la santé. ChatGPT est capable de donner des réponses à des questions médicales, mais le fera de manière synthétique, avec un risque d'erreur reconnu.

L'avènement de l'IAG représente une nouvelle ère technologique pour les patients et les professionnels de la santé. Les chatbots sont déjà utilisés pour la prise de rendez-vous médicaux : évaluation de la gravité des symptômes et/ou synchronisation avec l’agenda des médecins. Mais ils peuvent aussi informer les patients sur une pathologie, par exemple en prévention des maladies cardiovasculaires et respiratoires.5 Ce fut également le cas concernant les formes graves de Covid-19.  

Je vois de plus en plus de patients qui utilisent ChatGPT. Personnellement, je préfère cet outil  au site Doctissimo®, car contrairement à ce dernier le chatbot termine toujours son discours par la phrase d’avertissement «Il est important de consulter un professionnel de la santé si vous avez des symptômes, car un diagnostic précoce peut aider à éviter les complications et améliorer le traitement.»

Du côté des médecins

Les chatbots ont des capacités d'assistance administrative extraordinaires : ils peuvent  effectuer des tâches telles que la prise de rendez-vous, la rédaction d'ordonnances ou de comptes rendus médicaux.6

À brève échéance, ils pourront optimiser la rédaction de textes médicaux, réduire le nombre d’examens prescrits grâce aux “Symptom Checkers”, aider au codage, automatiser les demandes de SSR ou d’ALD, améliorer le suivi des patients en post-chirurgie ou en chimiothérapie (solutions de télémédecine reposant sur des chatbots), etc.

L’utilisation des dossiers patients informatisés peut aussi être facilitée par ces chatbots, capables de respecter une consigne du type : «Sors-moi toutes les biologies de Mme M. depuis 15 jours, ajoute les données dans le compte rendu d’hospitalisation et imprime les ordonnances de sortie.»

Cependant, le recours aux chatbots dans le domaine de la santé pose la question des dangers potentiels quant à la confidentialité des données de santé, à la sécurité physique et psychologique des utilisateurs et à l’exactitude des informations fournies.

De plus, l’arrivée d’une telle technologie, amenée à être plébiscitée par les patients, créée l’urgence d’un consensus scientifique sur les indications et limites de son utilisation par les professionnels de santé. À noter : dans la suite de cet article, nous parlerons de la technologie des chatbots et des IAG, sans nous focaliser sur ChatGPT.

Les IA génératives, déconnectées du réel

Une étude approfondie de Verified Market Research révèle que le marché des chatbots de santé, évalué à 194,85 millions USD en 2021, devrait atteindre 943,64 millions USD d'ici 2030, soit un taux de croissance annuel de près de 20%. Réalisée avant l’avènement de ChatGPT et ses concurrents, cette prévision est probablement sous-estimée.  

Cependant, peu de données ont été publiées sur l'utilisation en médecine de ces outils et les abus ou erreurs potentiels, notamment concernant les diagnostics – surtout l'autodiagnostic – et la prescription. La start-up Nabla, spécialisée dans le domaine des chatbots en santé, rapporte même des résultats inquiétants, dont cet exemple où ChatGPT-3 a conseillé à un patient virtuel de se suicider.7

Malgré le risque de dérives, il est probable que ces technologies soient adoptées rapidement et massivement par nos patients, avant même qu’un consensus ne se mette en place. Or, les utilisateurs des chatbots peuvent être facilement bernés et oublier que, si le niveau de langage de ces chatbots semble quasi-humain, ils sont par contre totalement déconnectés du monde réel.

Comme l'explique Aurélie Névéol, directrice de recherche en informatique au CNRS, les textes générés n'ont aucun ancrage dans la réalité : ils ne sont que statistiquement similaires aux textes générés par l'homme. Par conséquent, ces textes ne sont pas nécessairement porteurs de vérité, de sincérité et d'intention communicative.8

En fait, la véritable révolution de ces IAG réside dans leur capacité à engendrer l'émotion, en rendant les machines plus «humaines». Ainsi, OpenAI® affirme que le modèle de langage interagit de manière conversationnelle (comme chez les humains) et permet d'admettre des erreurs.

Au final, la perspective d’une IA pensante, accessible aisément en ligne et de surcroît sensible banalise ses faiblesses et masque le risque particulièrement élevé d'abus ou de dérive.

Des limites évidentes

Avant l’arrivée de ChatGPT, des chatbots étaient déjà utilisés dans le domaine de la santé. Leur champ d’application se cantonnait à des tâches administratives : assistant pour la gestion des rendez-vous médicaux, demande de couverture sociale ou de remboursement, programmation des rappels d’examens, de vaccins ou de renouvellement d’ordonnances, ou encore recherche des services médicaux libéraux ou hospitaliers à proximité.

Un chatbot peut-il aller plus loin et poser des diagnostics, hors de toute intervention humaine ? C’est à partir de là que les IAG peuvent devenir préoccupantes, lorsqu’elles sont utilisées sans contrôle en tant que “Symptoms Checkers” ou pour réaliser des procédures médicales considérées comme routinières. 

Concrètement, les médecins risquent d’être frappés de plein fouet par un mésusage des IAG et la multiplication d'autodiagnostics erronés. Les risques ? Des mauvais diagnostics dès que la pathologie est complexe, un retard diagnostique, des erreurs d’orientation entrainant une surconsommation de consultations et in fine une errance médicale.

Le premier problème de ces IAG vient des data avec lesquelles elles sont entraînées. Qui gère ces données généralistes ? Qui vérifie leur exactitude ? Les IAG ne peuvent avoir la prétention de «devenir médecins» tant qu'elles ne sont pas entraînées sur des bases de données scientifiquement validées, sécurisées et issues de données de santé réelles.

Le second problème, c'est qu'aucun cadre juridique n’existe à ce jour. Les IAG ne sont pas reconnues comme dispositifs médicaux et ne disposent pas du marquage CE. Aucune société savante n’a émis de recommandations à ce sujet. Les résultats générés par les chatbots n’ont aucune valeur légale.

Il devient donc urgent que la communauté médicale anticipe ces évolutions technologiques et participe à la réflexion commune. Pour cela, elle pourra s’appuyer sur la mise en application future de l’Artificial Intelligence Act9 proposé par l’Union Européenne afin de réguler le domaine.  

Néanmoins, sous réserve que ces défauts soient corrigés, les IAG pourraient devenir une «brique» intéressante à intégrer dans des chatbots de santé préexistants et s'appuyant sur des bases de données de santé fiables (je pense par exemple au projet français de Health Data Hub). Cette intégration est technologiquement possible depuis la mise en ligne, en mars 2023, de l'API ChatGPT (Application Programming Interface : une interface logicielle qui connecte deux logiciels différents et permet l’échange de données et de fonctionnalités).

Trop loin, trop vite

Le contraste entre les inquiétudes du corps médical et la réalité de la loi du marché est saisissant. Sam Altman, PDG de la société OpenAI® n’hésite pas à partager sur Twitter sa vision de ChatGPT comme alternative médicale : «Ces outils nous aideront à être plus productifs (...), [et] en meilleure santé [avec des conseillers médicaux en IA pour les personnes qui n'ont pas les moyens de se payer des soins]». Pour Bill Gates, il y a « des avantages évidents [à ChatGPT] dans la profession médicale et dans d'autres secteurs où beaucoup d'informations doivent être comprises».

Seul bémol, la lettre ouverte publiée le 28 mars 2023 et signée par des centaines d'experts en IA – dont Elon Musk, historiquement l’un des co-fondateurs d'OpenAI®. Cette tribune réclamait une pause dans le développement des IA afin de réfléchir aux impacts éthiques et sociétaux des avancées technologiques sur l’humanité.10

L’arrivée des IAG fait entrer la santé dans une nouvelle ère. Elle nous impose de formuler un  nouveau cadre juridique et éthique. Ceci est mon humble avis. Mais après tout : êtes-vous sûr que cet article a bien été écrit par Joris Galland et non par ChatGPT ?

Joris Galland


Retrouvez tous nos articles sur Twitter, LinkedIn et Facebook.

Vous êtes médecin ?
Pour recevoir une sélection de nos articles ou les commenter sur le site, il vous suffit de vous inscrire.


Notes :
1- OpenAI. Introducing ChatGPT. https://openai.com/blog/chatgpt . Accès au site le 31 mars 2023
2- Zhang Z, Zhang A, Li M, Zhao H, Karypis G, Smola A. Multimodal Chain-of-Thought Reasoning in Language Models. arXiv. 2023 ; https://arxiv.org/abs/2302.00923
3- Min B, Ross H, Sulem E, Veyseh APB, Nguyen TH, Sainz O, et al.
Recent advances in natural language processing via large pre-trained language models: A survey.
arXiv 2021 ; https://doi.org/10.48550/arXiv.2111.01243.
4- 20 minutes. Education: A Genève, ChatGPT se trahit avec des «oeufs de vaches».
https://www.20min.ch/fr/story/a-geneve-chatgpt-se-trahit-avec-des-ufs-de-vaches-860304181436. Accès au site le 31 mars 2023
5- Sarraju A, Bruemmer D, Van Iterson E, Cho L, Rodriguez F, Laffin L.
Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model.
JAMA. 2023;329(10):842‑4.
6- Biswas S. ChatGPT and the Future of Medical Writing. Radiology. 2023; 223-312.
7- Artificial intelligence news. Medical chatbot using OpenAI’s GPT-3 told a fake patient to kill themselves.
https://www.artificialintelligence-news.com/2020/10/28/medical-chatbot-openai-gpt3-patient-kill-themselves/ . Accès au site le 31 mars 2023
8- Mind Health. IA générative : ChatGPT a-t-il un avenir dans la santé?
https://www.mindhealth.fr/industrie/rd/ia-generative-chatgpt-a-t-il-un-avenir-dans-la-sante/. Accès au site le 31 mars 2023
9- What is the EU AI Act?
https://artificialintelligenceact.eu/
10- Future of life. Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/ Accès au site le 31 mars 2023