L'abus d'intelligence artificielle est-il dangereux pour la santé ?

Les intelligences artificielles nous ouvrent des perspectives exaltantes. Certains prédisent l'avènement de la «singularité», ce moment où elles deviendraient plus fortes que l’intelligence humaine. Pour autant, il est urgent de garder la tête froide : les IA ont leurs propres impasses. Elles restent monotâches, dépendantes et victimes de leurs biais.



Joris Galland est spécialiste en médecine interne. Après avoir exercé à l'hôpital Lariboisière (AP-HP) il a rejoint le CH de Bourg-en-Bresse. Passionné de nouvelles technologies, il se propose dans notre blog «Connexion(s)» de nous en expliquer les enjeux. 


 



Le titre de cet article peut surprendre mais je l’assume à 100%. Voilà presqu’un an que je vous informe sur les bienfaits disruptifs de l’intelligence artificielle (IA) en santé, sur sa valeur ajoutée dans la prise en charge des patients, dans le quotidien des médecins et dans l’organisation libérale ou hospitalière. Mais je ne suis pas un vendeur d’IA. Comme pour toute technologie, je me dois également d’en souligner les limites. Non, les IA ne sont pas parfaites, loin de là ! 



Les IA «fortes» devront trouver une nouvelle voie

Nous l’avons déjà évoqué (cf. L’IA en médecine : théorie et pratiques)  : les IA «faibles» sont monotâches, contrairement aux IA «fortes» qui se rêvent polyvalentes... mais qui pour le moment relèvent de la science-fiction. Qui sait si elles existeront un jour ?

On ne parle pas seulement d’IA forte, mais aussi de «conscience artificielle», voire de «singularité». La singularité est cette frontière imaginaire où l’intelligence artificielle deviendrait plus forte que l’intelligence humaine (les machines pourraient devenir incontrôlables : vous avez dit «dangereux» ?). Elon Musk annonce l’avènement de la singularité pour dans quelques années, au cours de ce XXIe siècle. Je vous rassure, Elon Musk aime faire son show, et cette singularité n’est pas pour demain. Verra-t-elle le jour, d’ailleurs ? En réalité, malgré les progrès technologiques de ces dernières années, nous pouvons nous attendre à un effondrement de la loi de Moore. Rappelez-vous (cf. L’IA en médecine : théorie et pratiques) : cette loi prédisait que la puissance des microprocesseurs s'accroîtrait de manière constante et sans surcoût tous les 18 mois. Des résultats qui ne semblent plus atteignables désormais.

On ne sait même pas si les IA fortes utiliseront la technologie du deep learning, elle-même dépendante du trépied «neurones artificiels - big data - puissance de calcul informatique». Quel impact pour la médecine ? Pour que les patients puissent un jour être soignés par les IA fortes, il faudra développer ces technologies sur des bases plus solides que les IA faibles.



Règle n°1 : toujours se rappeler que les IA sont monotâches 

Désormais, nous utilisons des IA faibles en routine à l’hôpital. On parle de «prothèse cérébrale» pour le médecin ou d’«assistant virtuel». C’est vrai, mais encore faut-il savoir les utiliser et ne pas les surestimer. Laurent Alexandre, co-fondateur de Doctissimo et expert en IA, a l’habitude de les qualifier de «totalement inintelligentes».1  C’est leur caractère monovalent qui rend les IA si douées tout en étant si bêtes ! Laurent Alexandre étaye cette idée : «L’IA va rapidement concurrencer les radiologues, mais, paradoxalement, ne peut lutter contre un médecin généraliste» car un médecin généraliste est polyvalent et peut passer promptement du rééquilibrage d’un diabète chez une personne âgée à une prescription d’antibiotique pour une otite chez un nourrisson, en passant par la prévention des MST chez les adolescents. Trois IA différentes auraient été nécessaires pour accomplir ces tâches, un cerveau humain y suffit. Le neurone biologique n’est donc pas caduque.

Le caractère monovalent des IA peut d’ailleurs les rendre dangereuses. Rappelons-nous de l’exemple de l’IA IdxDR, fabuleux diagnosticien de la rétinopathie diabétique – sur une seule lecture de fond d’œil – mais qui n’a pas su dépister une lésion cancereuse rétinienne évidente ((cf. Quand l'IA en santé devient autonome, qui est responsable ? ).



Règle n°2 : L’IA est dépendante

Imaginons désormais l’effet inverse. Un patient passe un scanner de routine et l’IA diagnostique une tumeur pulmonaire. Le médecin humain aurait prescrit une surveillance simple, l’IA prédit quant à elle un fort risque de malignité. La tumeur est si profondément enfouie dans le parenchyme qu’une thoracotomie s‘impose. Quelle sera la réaction du patient si la tumeur s‘avère bénigne ?

Les IA sont monotâches, et il est bien trop tôt pour les utiliser sans l’oeil avisé du praticien. Pour Jean Michel Besnier, professeur de philosophie et responsable du pôle de recherche «santée connectée, humain augmenté» au CNRS,  il y aura une nécessité de partenariat entre IA et humain :

«C'est l'IA qui reconnaîtra  les formes les plus subtiles. C'est l'IA qui va réduire les mauvaises interprétations, les faux positifs ou les faux négatifs. C'est l'IA qui va guider la robotique chirurgicale en décodant et en construisant les images. Au fond, l'absence de l'humain serait le talon d'Achille de la radiologie, car c'est l'humain qui empêche encore la machine d'être toute puissante».2

L’association humain/IA peut d'ailleurs faire mieux que l’IA seule. Selon une étude récente3 , l’IA a  été capable d’une détection automatisée du cancer du sein avec un taux de réussite de 92%, proche de celui obtenu par une équipe de spécialistes (96%). Mais lorsque sont combinées les analyses des médecins et les méthodes de diagnostic de l’IA, le taux de  réussite s’élève à 99,5%.

En d’autres termes, le double avis ne nécessitera pas un deuxième praticien, mais une machine : le diagnostic sera amelioré sans augmentation du coût humain. Pour Hosny & Al 4, le rôle du radiologue est voué à s’élargir à mesure que les outils s’amélioreront et qu’ils auront accès à des technologies toujours plus poussées. Le radiologue deviendra également indispensable dans les processus de formation de l’IA et dans la surveillance de l’efficacité de cette dernière, en supervisant ces résultats.



Règle n°3 : la qualité des big data est indispensable pour éviter les biais algorithmiques

L’IA ne se programme pas ; elle s’éduque. Et il est indispensable que les données de départ soient nombreuses et fiables. Pour qu’une IA reconnaisse l’image d’un bébé, il faut lui donner une base de données de milliers de photos de bébés. Si ces données ne sont pas fiables, l’algorithme est moins pertinent.

Pour preuve, voici l’exemple de l’IA «Tay», créée par Microsoft.5 L’entreprise américaine avait mis au point un «chatbot» capable de discuter avec les utilisateurs de Twitter. L’idée révolutionnaire fut un flop : huit heures après son lancement, Tay fut déconnectée car elle envoyait des messages misogynes et racistes. Pourquoi ? Parce que des utilisateurs l’ont poussée à agir dans ce sens en lui demandant de répéter des propos injurieux. Mais ce n'est pas la seule explication, et les dérapages ne s’arrêtaient pas là : en répondant à une question Tay a nié l’existence de  l’Holocauste. 

Une autre IA, utilisée par Amazon comme aide au recrutement6, octroyait aux candidats une note allant de 1 à 5 en fonction de leurs qualités supposées. Un procédé d’évaluation habituel chez Amazon… sauf que l’IA s’est avérée sexiste. Les candidates à des postes techniques étaient systématiquement moins bien notées, car l’IA avait été entraînée avec les profils de salariés d'Amazon qui occupaient déja ces postes. Ces salariés étant essentiellement des hommes, l’IA en déduisait qu’un profil masculin était plus adapté.  

Pour éviter de tels biais algorithmiques, les données de départ de ces IA doivent être neutres. Concernant les IA relatives à la médecine, elles doivent surtout être exactes. Si une IA capable de diagnostiquer les infarctus du myocarde par lecture d’ECG n’est «éduquée» qu’avec des ECG de personnes jeunes, sans autres troubles cardiaques, elle ne sera pas fiable. Soit elle diagnostiquera à tort des infarctus chez des patients âgés pathologiques, soit elle ne diagnostiquera pas un infarctus de forme atypique chez un patient jeune.

La législation progresse, et à l’instar du médicament le développement et l’utilisation des IA doivent passer par des processus de validation interne, d’essais cliniques et de certification avant d’obtenir leur autorisation de mise sur le marché. L’IA, à la fois thérapeute et traitement, doit faire les preuves non seulement de sa valeur ajoutée mais aussi de sa fiabilité.

 


Retrouvez tous nos articles sur Twitter, LinkedIn et Facebook.

Vous êtes médecin ?
Pour recevoir une sélection de nos articles ou les commenter sur le site, il vous suffit de vous inscrire.



Notes :
1 - Laurent Alexandre. La guerre des intelligences – Comment l'intelligence artificielle va révolutionner l'éducation. Ed. J.C Lattès (2017)
2- Guitta Pessis-Pasternak, «L'intelligence artificielle nous rend-elle superficiels ?». Libération (1995)
3 - Wang D, Khosla A, Gargeya R, Irshad H, Beck AH. "Deep Learning for Identifying Metastatic Breast Cancer". arXiv (2016)
4 - Hosny A, Parmar C, Quackenbush J, Schwartz LH, Aerts HJWL. "Artificial intelligence in radiology". Nat Rev Cancer (2018)
5- Morgane Tual. «A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter». Le Monde (2016)
6- Reuters. Amazon scraps secret AI recruiting tool that showed bias against women (2018)