(par les Drs Hubertus Glaser et Jörg Zorn)
Si vous n’êtes pas un médecin expert dans ce domaine, peut-être aurez-vous besoin d’un temps de réflexion. Profitons de ce temps pour nous tourner vers la très classique radiographie du thorax.
À l’aube du 3ème millénaire, la radiographie est la technique de diagnostic la plus utilisée pour explorer le corps humain et en particulier les poumons. C’est pourtant en 1895, le 8 novembre pour être précis, que Wilhelm Conrad Röntgen - physicien allemand - a découvert les rayons X.
En 2015, environ 135 millions de radiographies ont été effectuées en Allemagne, pays d’origine de M. Röntgen. Avec environ 40 % de toutes les radiographies effectuées, le secteur dentaire représentait la part la plus importante, suivi des radios du squelette et du thorax.
La fréquence des examens radiologiques est restée presque constante entre 2007 et 2015, à savoir 1,7 examen par habitant et par an. Alors que le nombre de radiographies standards a diminué au cours de la période considérée, les examens de tomodensitométrie ont augmenté d'environ 40 % et ceux par IRM de 60 % environ.
Revenons à la radiographie du thorax. Nous vivons à une époque où se juxtaposent des pratiques familières et conventionnelles et des évolutions ultra-modernes (fascinantes ou effrayantes selon les points de vue), qui peuvent être à l'origine de progrès spectaculaires. D'un point de vue médical, citons le Big Data, le machine learning et l'intelligence artificielle.
Il est intéressant de noter que cette coexistence perdurera longtemps, et qu’il ne s’agira pas, comme pour d'autres innovations « de rupture », du remplacement brutal de manières de faire conventionnelles. Heureusement… car nous souhaitons continuer à avoir le droit d'exister en tant que médecins et en tant que personnes.
Concernant la radiographie du thorax, il pourrait s'agir - à l'époque de l'IA - d'une sorte de mine d'or. Cet or, c’est le trésor d'informations prédictives qui sommeille dans les images produites régulièrement et qui pourront, éventuellement, être extraites avec un algorithme (donc à très faible coût).
Maintenant, parlons du réseau neuronal convolutif. Wikipédia répond à la question posée plus haut, aussi bien que nous aurions pu le faire :
« En apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour Convolutional Neural Networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. […] Les réseaux neuronaux convolutifs ont de larges applications dans la reconnaissance d'images et vidéos, les systèmes de recommandation et le traitement du langage naturel.
Un réseau neuronal convolutif se compose de deux types de neurones artificiels, agencés en « couches » traitant successivement l'information :
Un traitement correctif non-linéaire et ponctuel peut être appliqué entre chaque couche pour améliorer la pertinence du résultat.
L'ensemble des sorties d'une couche de traitement permet de reconstituer une image intermédiaire, qui servira de base à la couche suivante. »
Laissons tomber la comparaison architecturale avec un perceptron multicouche et préférons citer la définition de l’apprentissage profond (Deep learning) :
«[C’]est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage ».
Il s’agit donc d’une étude1 pronostique qui nous vient de l’école technique de Stralsund, en collaboration avec l’université de Harvard.
Les chercheurs ont créé un réseau neuronal artificiel, qui peut évaluer indépendamment les données d'image des radiographies du thorax et prédire la mortalité à long terme.
Pour la mise au point de leur réseau neuronal artificiel - nommé CXR-risk pour la stratification en fonction du risque total de mortalité - les chercheurs ont utilisé des données provenant de deux grands essais cliniques :
L’IA a été entraînée avec plus de 85 000 images (radiographie initiale et premier examen de contrôle) et du matériel de suivi de 42 000 participants à l’étude PLCO. Pour la validation interne de l’étude (échantillon aléatoire de 20 % avec plus de 10 000 participants au PLCO) et pour le test externe (NLST), seules des images initiales ont été utilisées.
Grâce à la collecte algorithmique d'informations, uniquement sur la base des données d'image provenant d'une radiographie thoracique, il est désormais possible de procéder à une évaluation progressive du risque (CXR risk score) en matière de survie à long terme.
Pour ce faire, l’algorithme a besoin de moins d’une seconde. Selon le communiqué de presse de l'école technique de Stralsund, les radiographies existantes peuvent ainsi être évaluées « à peu de frais ou gratuitement en ce qui concerne la probabilité de décès ».
Les scientifiques ont stratifié en quintiles à l'aide du score de risque CXR :
Dans l'analyse non ajustée, cela signifie un risque plus de 18 fois plus élevé (PLCO) ou plus de 15 fois plus élevé (NSLT) dans la classe de risque la plus élevée (hazard ratio, HR) par rapport à la plus faible.
Même après ajustement pour tenir compte des résultats radiologiques et des facteurs de risque, la relation entre les deux était solide (HR 5 pour PLCO et HR 7 pour NLST).
Des associations similaires ont émergé pour les trois causes de décès suivantes :
Le professeur Thomas Mayrhofer de l'école technique de Stralsund, coauteur, suppose que les connaissances sur le risque de mortalité individuel peuvent être utilisées pour prendre des décisions éclairées.
Les auteurs espèrent que ce score obtenu par IA pourra permettre de motiver les personnes haut risques à adopter des mesures préventives afin d’éviter un décès prématuré : participation régulière au dépistage, changements dans leur mode de vie, etc.
Il est tout à fait imaginable que des images diagnostiques de routine puissent être téléchargées sur des sites web dédiés à l’analyse des risques par IA.
Le premier auteur, le Dr Michael Lu, de la Harvard Medical School, est toutefois prudent : « La technologie est là, mais nous avons besoin d'essais cliniques qui prouvent que l’information obtenue aide réellement à la prise de décision et améliore la santé ». Il note également qu'il n'est pas évident de savoir combien de patients voudront réellement connaître leur risque de mortalité sur 12 ans. C'est compréhensible...
Deux confrères new-yorkais invités à commenter cette étude ont exprimé des critiques2. Ils ne croient pas - dans un avenir proche - à la prévention basée sur des résultats décelés par l'IA. Ils s'interrogent sur la valeur des informations obtenues grâce à l'IA si l'on ne sait pas (encore) clairement ce que l'on peut en faire, ni ce que pourrait être une stratégie préventive efficace.
Pour eux, cette étude démontre - malgré le potentiel indéniable du deep learning pour l'évaluation et les soins cliniques - « l'écart entre le développement d'un algorithme scientifiquement irréprochable et son application concrète dans la vie quotidienne ».
Références :
1. Lu MT et al. Deep Learning to Assess Long-term Mortality From Chest Radiographs. JAMA Netw Open 2019;(7):e197416. doi:10.1001/jamanetworkopen.2019.7416
2. Tsega S, Cho HJ. Prediction and Prevention Using Deep Learning. JAMA Netw Open 2019;2(7):e197447. doi:10.1001/jamanetworkopen.2019.7447