Ideas - L’IA hybride et explicable au service de l'imagerie médicale

Compatibilità
Salva(0)
Condividi

Entretien

Isabelle, nous allons tenter d’appréhender avec vous les principaux enjeux de vos travaux et leurs applications dans le domaine de la santé. Pour commencer par une approche très générale, on peut dire que vous construisez des modèles mathématiques, qui sont ensuite intégrés dans des algorithmes pour l’aide à l’interprétation d’images, notamment médicales. Pouvez-vous nous expliquer en quoi cela consiste ?

Effectivement, cela correspond aux deux grands axes de mes recherches. Un premier axe qui est très formel sur la modélisation mathématique, et en particulier la modélisation d’informations sur l’espace et du raisonnement sur ces informations. Le deuxième axe de mes recherches concerne les applications, en particulier en imagerie médicale. J’essaie de faire le pont en montrant comment des modèles mathématiques, qui modélisent par exemple nos connaissances sur un domaine, sur une application médicale, peuvent être transformés en formules mathématiques, en algorithmes, et ensuite servir justement pour guider l’interprétation des images. Telle est la chaîne dont nous disposons.

Vous parlez d’IA symbolique puisqu’on a besoin de la logique pour représenter des connaissances et raisonner sur ces connaissances. Pouvez-vous nous en dire plus ? Qu’est-ce que l’IA symbolique ?

L’IA symbolique est le domaine qui cherche à modéliser des connaissances, à les représenter et ensuite à raisonner sur ces connaissances.

Je travaille surtout sur des modèles mathématiques, algébriques et logiques. L’idée est d’arriver à trouver le bon formalisme qui soit à la fois assez expressif, c’est-à-dire qui permette de vraiment représenter les informations, les connaissances dont on a besoin, et de raisonner sur celles-ci pour aider à prendre des décisions.

Pour interpréter ces images, vous modélisez les relations entre structures plutôt que leurs formes elles-mêmes ? C’est ce que vous appelez le raisonnement spatial. Alors qu’est-ce que c’est précisément ?

Le raisonnement spatial est le domaine qui consiste à modéliser des entités spatiales, donc des objets, et des relations entre ces objets pour pouvoir ensuite, dans le cas des applications sur lesquelles je travaille, guider l’interprétation d’une image, en allant l’explorer à partir de la recherche de ces objets, des relations entre ces objets. Alors il existe un pan purement symbolique : comment va-t-on modéliser une relation spatiale par exemple entre des objets ? Cela peut être une relation décrite de manière très qualitative dans une base de connaissances, par exemple tel objet est à droite ou est proche de tel autre. Pour modéliser cela, nous allons mettre en œuvre des modèles mathématiques, et ensuite faire le lien avec l’image, donc avec des informations très concrètes et numériques telles qu’on les a dans les images.

Par exemple, dire qu’un objet est proche d’un autre n’aura pas la même signification si l’on parle de structures anatomiques dans une image médicale ou si l’on parle de distance entre des villes dans une image satellitaire par exemple. Ce que je fais en raisonnement spatial, c’est à la fois cette modélisation, le pont avec des informations qui sont dans les images, et guider l’exploration de l’image en combinant les informations de l’image et ces modèles de connaissances sur les relations spatiales.

Vous dites sur le raisonnement spatial qu’il est plus fiable et pérenne de se reposer sur les relations spatiales entre les objets plutôt que sur leur forme ? Pouvez-vous nous expliquer pourquoi ?

En imagerie cérébrale, on a beaucoup travaillé sur la reconnaissance des noyaux gris internes par exemple, qui sont des structures au milieu du cerveau, et qui en imagerie par résonance magnétique ont à peu près le même niveau de gris. Donc on ne peut pas les reconnaître juste d’après leur apparence. Ces structures ont des formes qui sont parfois difficiles à distinguer et, surtout lorsqu’il y a une pathologie, ces formes peuvent beaucoup changer. Par exemple si une tumeur vient compresser des structures ou les repousser, la forme n’est pas du tout celle à laquelle on s’attend en l’absence de pathologie. Donc s’appuyer uniquement sur les formes n’est pas très robuste, justement dans le cas où il y a ces grosses déformations à cause de pathologies. Au contraire, les relations spatiales sont assez stables et elles restent vérifiées même quand il y a ces déformations. Ainsi par exemple, dire qu’une structure est à droite d’une autre reste vrai même si la structure a été compressée. Et cela est renforcé par la manière dont on modélise les relations spatiales qui reposent sur des modèles qui sont assez souples.

Vous avez travaillé auparavant sur la fusion d’informations, ou comment combiner des informations variées issues d’images d’origines différentes d’un même problème et améliorer ainsi la prise de décision quant à l’objet d’observation. Ces travaux sur la fusion font aujourd’hui partie du processus de traitement de l’information dans plusieurs domaines, y compris les travaux en cours en imagerie médicale et en raisonnement spatial. De quoi s’agit-il ?

Effectivement, j’ai travaillé pendant assez longtemps sur la fusion d’informations, plus précisément la fusion d’images multisources. Je me suis penché en particulier sur les opérateurs qui permettent de combiner des informations venues de ces différentes images en fonction de leurs spécificités. Ensuite j’ai exploité ces méthodes pour combiner des informations de natures différentes. Cela peut être des images, des modèles de connaissances, différents types de relations spatiales.

Par exemple, pour reconnaître une structure, on va utiliser des relations spatiales de différentes natures par rapport à différents objets et il va falloir combiner toutes ces informations pour aider à la prise de décision. C’est dans ce sens que je travaille sur la fusion d’informations actuellement, sur le volet plutôt applicatif. Un autre volet, théorique, porte sur les approches logiques, donc symboliques à nouveau, pour résoudre des problèmes de fusion d’informations, par exemple des opinions de personnes, des préférences, etc. avec des modèles logiques. On en revient aux méthodes algébriques et symboliques dans ce cas-là.

La fusion d’information nous amène à parler de l’IA hybride qui va mélanger de la modélisation des connaissances, du raisonnement avec des informations qu’il est possible d’apprendre à partir des données. Je crois qu’elle est importante dans vos travaux. Alors pouvez-vous nous parler de cette hybridation, qui permet de prendre en compte les spécificités du domaine pour guider les algorithmes d’IA par apprentissage ?

L’IA hybride est le domaine sur lequel je travaille le plus en ce moment avec les questions d’explicabilité. L’idée est justement de combiner des approches qui viennent de l’IA que l’on appelle symbolique et des méthodes d’apprentissage à partir de données (qui est le sens que l’on donne couramment à l’IA en ce moment, mais ce n’est pas la seule partie de l’IA !).

On peut apprendre beaucoup de choses à partir des données et il y a des algorithmes désormais très puissants qui permettent de réaliser des tâches assez complexes uniquement à partir de données, mais en imagerie médicale on n’a pas toujours assez de données. Je travaille beaucoup en particulier en imagerie pédiatrique où il y a vraiment peu de données – heureusement pour les enfants, d’ailleurs – et où il existe des pathologies rares et très spécifiques aux enfants.
En revanche, on a énormément de connaissances, accumulées depuis des siècles. Donc, combiner les deux permet à la fois d’exploiter ces connaissances mais aussi d’utiliser l’information que l’on a dans ces bases de données même si elles sont plus limitées que dans d’autres domaines.

Donc l’hybridation permet de contribuer à bénéficier de systèmes pouvant fonctionner avec des jeux de données limités et plus explicables ; en quoi précisément ?

L’IA hybride permet d’aller vers l’explicabilité dans le sens où l’on va maintenir un lien entre les connaissances, les données et les résultats. On peut donc faire une sorte de va-et-vient.

Par exemple, les connaissances vont guider l’interprétation des données pour arriver à un résultat. Inversement, il est possible d’expliquer un résultat en regardant quelles connaissances ont été mobilisées pour l’obtenir et donc expliquer ce résultat par le lien avec tel ou tel aspect des connaissances et des données. L’explicabilité est un domaine très vaste. Il y a beaucoup de significations. C’est un domaine très ancien, les philosophes se sont posé ces questions dans l’Antiquité déjà, et il a été formalisé surtout avec des approches logiques à la fin du XIXe siècle, avec des processus de raisonnement que l’on appelle par abduction. C’est-à-dire qu’étant donné une base de connaissances, on cherche à expliquer une observation à partir de la base de connaissances. On a beaucoup travaillé sur ces approches logiques et on essaie de faire le lien avec les méthodes qui manipulent des données.
C’est là où on retrouve le lien avec l’IA hybride .

Après cette revue des modèles de raisonnement que vous utilisez, passons à l’interprétation d’images, notamment médicales. Pouvez-vous nous préciser ce que sont la segmentation et la reconnaissance en imagerie médicale ?

Une image médicale est un volume de points avec une intensité, un niveau de gris. Dans ce volume on veut extraire des informations utiles pour les médecins, et une des tâches importantes est ce que l’on appelle la segmentation, c’est-à-dire extraire une structure particulière qui va intéresser les médecins.

Par exemple, on va s’intéresser à extraire les noyaux gris, pour reprendre l’exemple de tout à l’heure. Ensuite, la reconnaissance consiste à être capable d’identifier la structure extraite. Donc lui attacher un nom, le nom de l’organe, le nom de la pathologie… c’est la partie reconnaissance. Dans la plupart des méthodes que l’on développe, la segmentation et la reconnaissance sont souvent effectuées simultanément, c’est-à-dire que l’on cherche à segmenter un organe particulier dont on connaît la nature, l’étiquette en quelque sorte, ou une pathologie particulière.

Quelles sont les applications de vos travaux dans le domaine médical ? On voit que de fréquents échanges sont nécessaires entre vous et ces différents praticiens. Avec quels acteurs travaillez-vous le plus régulièrement ?

Les applications médicales sont mon domaine de prédilection depuis de nombreuses années, et je travaille de manière très étroite avec des services hospitaliers dans des CHU, avec des radiologues et avec des chirurgiens. La demande vient parfois des médecins qui ont une question à résoudre et nous en discutons ensemble. Les méthodes que nous développons résultent d’un dialogue et d’allers et retours permanents entre les médecins qui vont exprimer leurs besoins et ce qu’on peut leur apporter. Trouver le juste équilibre prend un petit peu de temps, mais c’est aussi l’intérêt du domaine.

Vous nous avez parlé au début de cet entretien de l’IA hybride, qui permet de prendre en compte les spécificités du domaine pour guider les algorithmes d’IA par apprentissage. C’est le cas ici ?

Dans toutes ces applications-là justement, j’utilise beaucoup les méthodes que j’ai décrites en IA hybride. Nous essayons de comprendre les connaissances qu’utilisent les médecins pour effectuer une certaine tâche, parfois visuellement, pour ensuite essayer de modéliser les informations qu’ils utilisent, pour les aider à faire cette tâche de manière moins fastidieuse, peut-être plus reproductible…

Vous avez travaillé sur de nombreuses applications, notamment un projet avec Necker sur la reconnaissance de faisceau de nerfs en imagerie pédiatrique (dans lequel Pietro Gori, maître de conférence à Télécom Paris, est aussi impliqué, je crois ?)

Nous avons travaillé dans plein de domaines différents, dont beaucoup en imagerie pédiatrique, en particulier sur un grand projet avec l’hôpital Necker, auquel Pietro Gori participe, dans lequel nous cherchons à aider les chirurgiens à préparer la chirurgie à l’aide d’images. Les outils que nous développons comblent ce fossé entre l’image et les besoins du chirurgien : les images sont des volumes que l’on voit souvent sous forme de coupes, donc en deux dimensions, et ça n’est pas très facile en voyant quelques coupes d’imaginer l’espace à trois dimensions, les rapports entre les organes, les pathologies et les organes, etc.

L’objectif est de guider les chirurgiens pour avoir des modèles qui comprennent les organes du patient, mais aussi les nerfs ?

Ce que nous proposons consiste à travailler sur des algorithmes pour segmenter et reconnaître des organes, des pathologies mais aussi les vaisseaux sanguins, les nerfs, etc., à partir des images, puis pour construire des modèles 3D numériques qui sont des modèles individuels, donc au niveau du patient. Une fois ce modèle disponible, la chirurgienne avec laquelle nous travaillons à Necker peut visualiser en 3D les organes, les rapports entre les tumeurs et les organes, voire le trajet des nerfs parce qu’évidemment ce sont des structures qu’elle va éviter de léser pendant la chirurgie pour éviter les effets secondaires, et donc préparer sa chirurgie à partir de toutes ces informations.

Pouvez-vous nous citer un exemple concret et assez poignant d’une application de ces modèles 3D numériques sur un enfant, je crois ?

On a un exemple emblématique d’un petit enfant d’environ 18 mois qui avait plusieurs tumeurs dans les deux reins. En voyant juste les coupes, les chirurgiens et toute l’équipe pluridisciplinaire qui traitait ce cas avaient l’impression qu’il allait falloir enlever les deux reins… Cela implique des dialyses trois fois par semaine, d’énormes conséquences pour l’enfant. En voyant le modèle 3D, la chirurgienne a mieux compris où étaient vraimen

Recapiti
Stéphane Boucart