IA médicale : Cancérologie et consultation

Jean-Emmanuel Bibault, professeur en cancérologie à l’Université Paris-Cité et chercheur en IA appliquée à la médecine à l’Inserm, est l’invité de l’épisode de Data Driven 101.

Il nous plonge dans l’univers de l’IA médicale en cancérologie, nous présentant comment l’intelligence artificielle révolutionne le diagnostic, le traitement, et le suivi des patients atteints de cancer. 

De l’utilisation des données satellitaires pour prédire l’épidémiologie du cancer à l’optimisation de la radiographie par l’IA, le Pr.Bibault partage des insights précieux sur le potentiel transformateur de la data science en médecine.

Il nous partage son opinion tranchée sur les freins à l’adoption de l’IA en médecine d’une part et sur les obstacles réglementaires à la recherche.

   Marc 00:00:00 – 00:00:09 : Aujourd’hui, je reçois le professeur Jean-Manuel Bibault, professeur en cancérologie à l’Université Paris-Cité et chercheur en IA appliqué à la médecine à l’Inserm. 

 

Pr Bibault 00:00:09 – 00:00:10 : Bonjour. 

 

Marc 00:00:10 – 00:00:18 : Bonjour Jean-Manuel. Alors, est-ce que tu peux nous parler de ton travail plus en général et spécifiquement dans le domaine de l’IA ? 

 

Pr Bibault 00:00:18 – 00:00:50 : J’ai la particularité d’être professeur, c’est une activité qui est séparée entre la médecine pure, où je fais du soin à l’hôpital en cancérologie, ça on va dire que c’est à peu près 50% du temps, et puis la recherche, dont on va parler je pense surtout aujourd’hui sur l’IA, appliquée à la médecine et plus particulièrement à la cancérologie. On va voir que la cancérologie c’est une spécialité qui se prête particulièrement à l’IA. Et puis ma troisième casquette c’est l’enseignement, puisque Je m’occupe d’enseigner la cancérologie aux étudiants de notre fac. 

 

Marc 00:00:50 – 00:00:54 : Quel genre de data on peut être amené à manipuler dans le domaine de la médecine ? 

 

Pr Bibault 00:00:54 – 00:02:25 : Alors on peut, comme d’ailleurs dans tous les domaines, manipuler beaucoup de data différentes, de types différents, et d’ailleurs faire ce qu’on appelle des modèles hétérogènes, multi-échelles, c’est-à-dire qu’on va utiliser des données qui vont aller dans l’incroyablement petit, entre guillemets, le génome par exemple, mais aussi on peut être amené à utiliser des données beaucoup plus larges, par exemple des images satellitaires, comme certains travaux qu’on a pu faire à Stanford, on pourra en parler si tu veux. L’idée, c’est de créer des modèles qui vont chercher à adresser des problèmes cliniques réels. On ne parle pas forcément d’un défi technique, comme parfois on peut partir dans d’autres entreprises ou d’autres labos d’IA purs. Là, on va prendre une question médicale. Et on va se demander qu’est-ce qu’il faudrait que j’ai pour pouvoir répondre à cette question-là de façon la plus précise possible, éventuellement totalement automatisée. Donc en cancérologie, ça va aller de l’épidémiologie ou du dévisage jusqu’au diagnostic lui-même, c’est-à-dire utiliser de l’IA pour poser un diagnostic de façon automatique. Et puis ensuite, ça va aller jusqu’à la délivrance du traitement, c’est-à-dire donner le traitement de façon automatique. Ça, ça existe déjà. Et puis par la suite, pour la dernière étape, suivre le patient plus ou moins à distance avec de la télésurveillance assistée par de l’IA. Et donc l’IA vraiment est à chaque étape du parcours de soins en cancérologie très, très importante. Elle n’est pas encore utilisée en routine clinique, mais je pense que d’ici 5 à 10 ans, elle va l’être dans la majorité des étapes. 

 

Marc 00:02:26 – 00:02:35 : D’accord. Alors je fais une petite parenthèse parce que je ne peux pas ne pas rebondir là-dessus. Des images satellites dans le domaine médical, tu peux nous expliquer ? 

 

Pr Bibault 00:02:35 – 00:06:03 : Alors en fait, c’est un travail qu’on avait fait à Stanford quand j’y étais il y a quelques temps maintenant, où on avait cherché à déterminer l’épidémiologie du cancer. C’est-à-dire… Dans une zone géographique donnée, combien de personnes ont un cancer ? Alors ça semble être une question un peu triviale. En fait, c’est très important parce que c’est ça qui nous sert à guider un peu les politiques de santé publique, savoir où est-ce qu’il faut faire des campagnes de dépistage, où est-ce qu’il faut faire des campagnes de prévention. Et puis à la fin même, peut-être, où est-ce qu’il faut ouvrir des hôpitaux pour traiter les gens ? Et donc, le problème, c’est qu’aux Etats-Unis, quand j’y étais, et c’est toujours le cas, on a des données que très parcellaires. On sait qu’on couvre moins de 30% de la population. C’est-à-dire que pour 70%, on ne sait pas de façon très détaillée dans quelle zone il y a le plus de cancers. Et donc, c’est assez problématique. Au-delà du fait qu’on ait ces données très parcellaires, ces données coûtent quand même très très cher. Aux Etats-Unis, à chaque fois qu’on veut savoir ça, c’est à peu près 220 millions de dollars, juste pour savoir… l’épidémiologie de certaines maladies. Et donc l’idée c’était, comme bien souvent en IA d’ailleurs, est-ce qu’on a des données qui sont facilement accessibles, qui sont quasi gratuites, pour essayer de déterminer la prévalence du cancer sans avoir à dépenser 220 millions de dollars ? Et donc, il y a déjà des travaux qui avaient été publiés au milieu des années 2010, où ils avaient cherché à prédire la prévalence de la pauvreté en Afrique et aussi de l’obésité aux États-Unis, uniquement à partir de données satellitaires. Pourquoi ce n’est pas bête? ? Parce qu’en fait, le milieu dans lequel tu vis détermine tes comportements et tes facteurs sociaux, démographiques et économiques, qui sont eux-mêmes des facteurs de risque de maladie. Et donc le milieu où tu vis, il est très très bien reflété par l’image satellitaire. Et donc ce qu’on a fait, c’est qu’on a téléchargé les images de Google Maps, donc exactement les images qu’on a quand on fait son trajet sur son application ou sur le web. Donc on avait à peu près 700 000 images qui étaient des petits carreaux, des tiles. Et ensuite, on a récupéré les données épidémiologiques que l’on connaissait pour sept des plus grosses villes américaines, ce qui représente à peu près 14 millions d’habitants. Dedans, il y a des personnes qui ont un cancer et des personnes qui n’ont pas de cancer. Et on a corrélé d’abord, enfin rattaché la taille, le carreau, à l’endroit où on connaissait l’épidémio, la zone où on connaissait l’épidémio précisément, qui était des zones à peu près de 4000-6000 personnes, donc une très très haute résolution spatiale, ce qui est très rare. Et ensuite on a utilisé un réseau neuronal qui s’appelle ResNet50, qui est ultra classique, et on s’en est servi en fait pour extraire de chacune des 700 000 images un vecteur mathématique constitué de 4096 valeurs, pour représenter le contenu de l’image de façon mathématique. Pour terminer, on a fait un modèle qui s’appelle ElasticNet, qui n’est pas particulièrement du machine learning, mais qui est une régression logistique classique, où on a fait le lien entre ce modèle mathématique et la prévalence connue du cancer sur ces 14 millions de personnes vivant dans ces 7 plus grandes villes américaines. Donc ça marche plutôt pas mal puisqu’on arrive à déterminer la variance de la prévalence du cancer jusqu’à 60% et sans utiliser quoi que ce soit d’autre que l’ima    ge satellitaire. Donc c’était vraiment le but, c’était ne se servir que de ça, rien d’autre pour prédire le cancer. 

 

Marc 00:06:03 – 00:06:15 : D’accord. On va essayer d’estimer le cancer en se basant sur les causes du cancer qu’on réduit à le niveau de vie, l’environnement. 

 

Pr Bibault 00:06:17 – 00:08:12 : En fait, on sait que les deux grands déterminants du risque de cancer, c’est les déterminants génétiques. On a tous entendu parler du gène BRCA, par exemple, pour le cancer du sein, avec Angelina Jolie, par exemple, qui a eu ça, qui a une mastectomie bilatérale. Mais on sait que ses facteurs génétiques, en réalité, sa participation au risque de faire un cancer, il est très faible. Son vrai risque personnel de faire un cancer, c’est son comportement. C’est-à-dire, est-ce que vous avez une activité physique ? Est-ce que vous ne buvez pas d’alcool ? Est-ce que vous ne fumez pas ? Est-ce que vous ne mangez pas trop de viande rouge ? Etc., etc. Et en fait, ça, c’est bien reflété par l’endroit où vous vivez, tout simplement. Et aussi, il y a un autre facteur de risque, c’est l’environnement pur. Cette fois-ci, la proximité avec la forêt ou alors au contraire, la proximité avec une autoroute. On pense que c’est aussi déterminant du risque du cancer. Et ça, le réseau le voit très, très bien par définition, puisqu’on le voit sur les images satellitaires. Et donc, on pourrait travailler à raffiner ce résultat-là. Parce que 60%, ce n’est pas optimal, évidemment. Mais pour ça, on aurait besoin d’avoir des données beaucoup plus nombreuses sur une diversité architecturale aussi et environnementale différente. Et je dis ça parce que probablement que ce résultat-là qu’on a obtenu sur des villes américaines, il y avait Los Angeles, Phoenix, Chicago, etc., Comme l’architecture et l’environnement, l’organisation de la ville est extrêmement différente avec la France, je pense que la méthode ne peut pas être directement réutilisée en France. Il faudrait réentraîner un nouveau modèle à le faire. Et ça aussi, on l’a montré. Je vais rentrer dans la technique, mais on y est un petit peu déjà. On a calculé deux facteurs. On a calculé la distance cosine, la similarité cosine, pardon, et la distance euclidienne, qui sont deux métriques qui permettent de juger de la similarité d’image. Et donc, on a montré que si deux villes avaient en moyenne une similarité cosine et une distance euclidienne qui montraient que les images étaient très semblables, on pouvait utiliser un modèle d’une ville pour l’autre. 

 

Marc 00:08:12 – 00:08:13 : D’accord. 

 

Pr Bibault 00:08:13 – 00:08:35 : Donc je pense par contre que si on estime la similarité cosine ou la distance euclidienne entre une ville française et Los Angeles ou autre, vous allez avoir de telles différences que vous ne pourrez pas utiliser le modèle. Ce qui permet de dire que, et ça c’est vrai en médecine de façon globale et en IA, un modèle entraîné sur une population ne va pas forcément fonctionner sur une autre population. Il y a d’autres exemples qu’on pourra évoquer plus tard. 

 

Marc 00:08:36 – 00:08:43 : Alors, où on en est, on y a aujourd’hui en termes de performance, que ce soit le diagnostic, la consultation, etc. 

 

Pr Bibault 00:08:43 – 00:10:53 : Alors, ça dépend vraiment du domaine auquel on s’intéresse. Il y a une étude qui a été assez frappante, qui a été très, très bien faite récemment, réalisée en Suède, mais sortie dans un très, très grand journal de cancérologie mondiale, où en fait, ils ont évalué les capacités d’un algorithme de deep learning à interpréter des mammographies automatique ment. L’idée, c’est que vous savez que pour dépister le cancer du sein, en France et dans le monde, on fait une mammographie régulièrement aux femmes qui sont entre 50 et 74 ans. Et il va y avoir une double lecture humaine de la mammographie. Et en fonction de la double lecture, on va voir ou pas une anomalie qu’on va ensuite éventuellement biopsier et donc éventuellement voir s’il y a un cancer ou pas. Là, ce qu’on fait, c’est le chercheur suédois. Et c’était assez original parce que c’était la première fois que c’était fait de façon prospective sur autant de patients, 80 000 patientes. ils ont évalué les performances d’une IA plus un médecin versus deux médecins. Donc, ils ne sont pas passés au full IA, on va dire, mais ils ont déjà fait ça. Personne d’autre ne l’a fait pour. l’instant. Et ils montrent que l’IA plus le médecin fait aussi bien que les deux médecins seuls, mais en deux fois moins de temps. 44% de temps gagné sur l’interprétation. Donc, globalement, sur la performance pure, On va dire la classification. Ça fonctionne a priori aussi bien et dans certains cas mieux que la majorité des médecins humains. Et sur d’autres métriques de qualité, que ce soit la rapidité ou l’exhaustivité, on est aussi en train de voir que ça va plutôt être mieux que les médecins. La seule petite chose où il faut être assez vigilant, c’est que cette étude-là a été validée sur des vraies patientes de façon prospective. C’est la meilleure façon de le valider. Mais toutes les études qu’on lit sur l’IA, et je pense qu’on va en évoquer certaines qui sont sorties, sont très souvent des études purement in silico. dans lequel il n’y a jamais eu de vrais patients ou patientes évalués ou participants. Et c’est extrêmement différent d’évaluer les performances d’une IA dans un ordinateur, même si vous avez des millions d’exemples, de validation externe par des millions d’exemples, ce n’est pas forcément pareil que de valider sur des vrais patients dans la vie de tous les jours. 

 

Marc 00:10:54 – 00:11:00 : Alors quels sont les principaux freins, obstacles à l’adoption de l’IA dans le domaine de la médecine ? 

 

Pr Bibault 00:11:00 – 00:15:56 : Alors le premier frein c’est de s’assurer que les algorithmes sont correctement faits et validés. Je crois que le premier danger, je suis évidemment ni anti-IA ni pro-IA à fond, je pense simplement qu’il faut être vigilant parce que le diable se cache un peu dans les détails et on a parfois des mauvaises surprises sur des IA qui marchent très très bien in silico mais qui ne marchent pas bien dans la vraie vie de tous les jours. Il y a un exemple qui est très, très connu, qui est l’étude d’une équipe de Stanford de 2016 sur la détection automatique de lésions cutanées par Deep Learning, où ils avaient comparé les performances de l’algo versus des médecins, des experts dermatologues. Et ils avaient publié dans Nature le fait que leur algo était meilleur que les dermatologues. Ça a beaucoup fait parler, mais ils se sont rendus compte quelques mois plus tard que qu’en fait l’algorithme fonctionnait très très mal sur des peaux afro-américaines, noires, pour la simple et bonne raison que dans les données qui avaient été utilisées pour l’entraînement, il n’y avait pas de peaux noires. Et donc l’algorithme était incapable de faire ce pour quoi il n’avait pas été entraîné. Et donc si on n’est pas vigilant, c’est donc ça le premier frein à l’adoption, On peut se retrouver avec des algorithmes qui, a priori, fonctionnent bien, mais qui en réalité fonctionnent mal pour certaines populations données. Et derrière, très concrètement, c’est une perte de chance, c’est-à-dire une perte de chance d’être bien diagnostiqué ou une perte de chance d’être bien traité. si on se sert d’IA défectueuse. Pour moi, ça, c’est le premier risque dont les gens sont en général assez bien conscients. Et donc, la réponse à ça, c’est de trouver des méthodes, de développer des méthodes pour correctement les valider. Alors, correctement valider une IA qui pose un diagnostic à une échéance de quelques jours ou semaines, c’est facile parce qu’on fait un essai et puis on voit si ça marche ou pas. Valider une IA prédictive, parce que nous on travaille beaucoup là-dessus au labo, qui par exemple vont prédire votre risque de décéder d’un cancer dix ans après votre diagnostic ou alors au contraire votre risque de développer un cancer cinq ans avant. que vous ne le fassiez vraiment, ça c’est beaucoup plus difficile à valider, parce que vous imaginez bien que pour le valider, il va falloir peut-être faire des essais cliniques qui vont durer plusieurs années. Donc ça c’est très discutable aussi, et c’est plus sur ces IA-là que ça va être difficile de valider les choses. Les autres difficultés sur l’implémentation de l’IA dans la vie de tous les jours, à l’hôpital et en clinique, on va dire, c’est l’interopérabilité. On ne se rend pas forcément compte, mais les médecins, ou quelque soit l’endroit où ils travaillent, ils ont déjà une sorte d’environnement logiciel très rigide, parce que répondant à beaucoup de contraintes de sécurité et beaucoup de normes, et qui font que… C’est extrêmement difficile d’ajouter un module dedans qui va pouvoir s’articuler automatiquement avec les autres. C’est-à-dire importer de la donnée, faire une tâche et en exporter un résultat. Ça, c’est extrêmement difficile et je pense que la voie à suivre, paradoxalement, c’est justement de ne pas forcément chercher à faire un logiciel, un outil interopérable à tout prix. Faire un logiciel qui est relativement indépendant, qui fonctionne bien sur une plateforme indépendante ou autre, et qui peut exporter un résultat facilement, quitte à ce qu’il y ait une intervention manuelle pour l’exportation et l’intégration. Mais tous ceux qui se sont heurtés, on va dire, ou qui ont voulu faire de l’interopérabilité poussée dans les plateformes médicales existantes, se sont un peu cassés les dents. Et je pense que c’est prêt de changer. Donc ça, c’est vraiment un énorme frein à l’intégration de l’IA dans l’instinct tous les jours. Et puis, il y a deux autres freins qui, à mon avis, sont un peu moins importants. Le premier frein, c’est la réticence éventuelle des médecins. Il y a une part, en tout cas de ce que moi je connais, plutôt minoritaire de médecins qui sont un peu réfractaires à l’utilisation d’IA. En réalité, la grande majorité des médecins veulent plutôt avoir accès à des outils d’IA performants et donc ont plutôt une appétence pour ça. Donc le cliché ou l’idée selon laquelle les médecins seraient très réticents, en vrai, n’est pas tout à fait exacte. Et le dernier frein, là j’y viens du coup, c’est les patients eux-mêmes, pour avoir discuté avec différents décideurs, ils se discuteraient de mettre en place des labels, entre guillemets, de prise en charge avec IA ou sans IA. C’est-à-dire que pour que le patient sache si à un moment donné de sa prise en charge, il y a eu une intervention d’une IA. Alors l’intention initiale est louable, c’est toujours bien d’avoir l’information, mais ce qu’il faut bien comprendre c’est que Déjà à l’heure actuelle, il y a plein d’étapes qui font appel à une certaine forme d’IA, que ce soit du machine learning ou une IA symbolique basée sur des règles. Donc limite, pour faire des parcours de soins dans lesquels il n’y aurait pas d’IA, c’est quasiment déjà impossible. Et donc c’est un peu illusoire de se mettre à imaginer qu’on va pouvoir faire un label et que les patients vont pouvoir choisir à la fin s’ils veulent être dans un parcours sans ou avec IA. Parce que les parcours vont tous être avec de l’IA. 

 

Marc 00:15:57 – 00:16:01 : C’est quoi la place de l’IA dans un parcours de soins typiquement

 

Pr Bibault 00:16:01 – 00:17:48 : On peut prendre l’exemple de la cancéro, c’est celui que je connais le mieux et c’est justement un de ceux dans lequel l’IA est déjà très implantée. Ce n’est pas le seul. Le parcours du soin d’un patient qui aurait un cancer, ça commence par le diagnostic. Je ne vais parler que des choses qui ne sont pas de l’ordre de la recherche, mais qui sont vraiment déjà implantées, implémentées ou existantes sous la forme de produits, on va dire, donc accessibles. Au niveau du diagnostic, vous avez déjà la possibilité d’avoir de l’analyse de biopsie automatisée. C’est ce qu’on appelle l’anatomopathologie. Vous savez que c’est une spécialité médicale qui consiste à analyser des biopsies sous microscope pour vérifier les caractéristiques des cellules et voir s’il y a des cellules suspectes d’être cancéreuses ou pas. Donc, c’est vraiment ça qui fait le diagnostic du cancer. Ce n’est pas la radio, ce n’est pas autre chose. Et ça, c’est en train d’être déjà très, très automatisé. Pas forcément en routine, mais dans certains cas, on a déjà des assistances par de l’IA, surtout aux États-Unis, qui permettent de poser un diagnostic automatiquement. et qui est toujours vérifiée par un médecin derrière. Pourquoi c’était une des disciplines qui allait être révolutionnée par l’IA ? C’est parce que l’IA, et plus particulièrement les réseaux de neurones profonds, deep learning, sont particulièrement adaptés aux tâches de perception. l’analyse de cellules sur le microscope c’est exactement ça et donc ça colle parfaitement bien à l’IA et donc je pense que ça va de plus en plus se généraliser. la deuxième étape tu as dit vérifier par un médecin quel que soit le diagnostic s’il est positif ou négatif il y a toujours un médecin. à l’heure actuelle je ne sais pas encore si ce sera le cas dans 10 ans ou dans 15 ans mais à l’heure actuelle c’est toujours vérifié par un humain. là pour le coup les enjeux sont tels qu’on comprend bien que ce soit important que ce soit un humain qui le vérifie derrière. 

 

Marc 00:17:48 – 00:17:54 : Oui, mais du coup, pour le moment, tant qu’on est dans cette étape-là, on n’a pas tellement gagné sur le processus. 

 

Pr Bibault 00:17:54 – 00:20:56 : Alors si, parce qu’en fait, il y a des algos qui vont aussi permettre d’éviter que le médecin passe à côté du diag. Ça peut arriver, il y a des algorithmes qui ont été publiés qui, par exemple, vous disent la classification… Oui, non, il y a un cancer, mais qui, en plus, vous exporte une carte de chaleur, une heatmap qui vous dit l’endroit où il faut regarder. Et donc, le nanopathe peut aller voir vite s’il y avait effectivement quelque chose et quelque chose qu’il aurait potentiellement peut-être pu aussi louper. Donc, s’il y a un avantage, il y a des choses en plus. Il y a une valeur ajoutée, entre guillemets. Donc une fois que le diagnostic a été posé, si on va un peu vite, il y a l’étape dite du bilan d’extension. C’est pour voir où est-ce qu’il y a de la maladie. Donc là, on va faire un scanner du corps ou alors une IRM ou un TEP scanner, peu importe. Donc là aussi, sur cette étape-là d’interprétation d’une imagerie, il y a, vous le savez, je pense déjà, beaucoup d’étapes et beaucoup d’IA disponibles pour automatiser ça. Ce n’est pas encore des IA qui sont utilisées forcément en routine clinique pour faire du bilan d’extension automatique, mais on est juste à la limite. Je pense que dans les années qui viennent, on va y être très clairement. Et l’idée, c’est un peu comme pour la napate, ça va permettre d’éviter de passer à côté du micro-nodule que personne n’a vu et qu e l’IA, elle, n’a pas de difficulté à mettre en évidence. Et puis ensuite, toutes les étapes de traitement, L’IA a une place très variable, on ne va pas passer trop de temps dessus. La première place, c’est sur la définition de la stratégie thérapeutique. Pour définir une stratégie, le mieux, c’est de savoir ce qui va se passer à l’avance, d’être capable de le prédire. Tous les modèles prédictifs permettent de savoir si le patient est très à risque ou pas à risque du tout de décéder de son cancer. Et donc en fonction de faire des traitements plus ou moins lourds et qui ont plus ou moins d’effets secondaires. L’idée c’est qu’un patient qui a une maladie qui n’est pas très grave, dont il ne va pas décéder, on lui fasse un traitement moins lourd et donc qu’il ait moins d’effets secondaires. Et que les patients qui au contraire ont des maladies très graves dont il est très à risque de décéder vont avoir des traitements plus lourds pour augmenter ses chances de guérison. Mais effectivement au prix d’effets secondaires plus importants. Et donc, c’est ce qu’on appelle la personnalisation de la médecine. Et ça, ça passe par les modèles prédictifs liés à l’IA. Et puis, une fois qu’on a défini la stratégie, il va falloir faire le traitement lui-même. Et là, en routine clinique, ça s’est déjà totalement utilisé, par exemple en radiothérapie. C’est ma spécialité à moi. où on va envoyer des rayons X sur les tumeurs pour les détruire. Et on a besoin, en état préalable à ça, de faire des scanners des patients et ensuite de dessiner à la main sur un ordinateur, en général sur tablette, en 3D, les volumes qu’on va viser par la machine. Donc ça, on le faisait à la main, ça pouvait prendre plusieurs heures, une demi-journée parfois. Et ce qui est déjà en train de se passer, c’est qu’on a des algorithmes de deep learning qui permettent de contourner ça automatiquement. C’est la sémantation classique d’images en 2 à 3 minutes. Donc on passe de plusieurs heures à 2 à 3 minutes. Et ensuite, c’est ces images-là qui vont être vérifiées une fois de plus par un médecin et ensuite qui vont servir par la suite à faire le traitement. 

 

Marc 00:20:57 – 00:21:02 : Pour vous, c’est comme l’outil de sélection lasso sur Paint, automatique, mais en 3D. 

 

Pr Bibault 00:21:02 – 00:21:24 : Sauf que là, on n’est même pas à prendre un outil de sélection automatique. Les 500 images sont sorties du scanner, envoyées sur un serveur, une baie dans l’hôpital. Et trois minutes plus tard, vous récupérez vos images au format DICOM, c’est le format d’un image scanner médical, et vos structures 3D préségmentées automatiquement. Et là, ça vous fait le corps entier en trois minutes. 

 

Marc 00:21:25 – 00:21:27 : Et vous avez encore la main pour toucher ? 

 

Pr Bibault 00:21:27 – 00:22:01 : On a toujours la main pour toucher. Alors ça pose plein de questions parce qu’actuellement, on apprend encore à le faire aux humains. Mais c’est ce qui va se passer, c’est que les algorithmes vont être de mieux en mieux, vont avoir besoin de moins en moins de corrections. Et donc, ceux qui avaient besoin de l’apprendre n’auront plus forcément besoin de l’apprendre. Et à la fin, il n’y aura plus personne capable de vérifier que ce que fait l’IA est correct ou pas. Donc, il y a aussi un petit risque de perte de compétences, y compris au niveau médical, sur lequel il faut être un peu vigilant dans les années qui viennent. Ça peut représenter un risque médical de ne plus savoir faire des choses nous-mêmes. 

 

Marc 00:22:01 – 00:22:05 : Qu’est-ce que c’est nos options face à ça, selon toi ? 

 

Pr Bibault 00:22:05 – 00:23:13 : Les options au niveau des facs, c’est premièrement, il y a une réflexion en cours, c’est de réfléchir à comment on fait pour former les médecins à l’IA et même avoir une notion même basique de comment ça fonctionne. Et quels sont les critères de qualité ? Qu’est-ce qui fait qu’une IA est bien ou pas ? Donc ça, c’est basique, on va dire, en termes de formation pour tout le monde. Je pense que c’est vraiment quelque chose qu’il va falloir faire. Et la deuxième chose, c’est former les médecins à utiliser les IA bien sûr, mais aussi former les médecins et à garder leurs compétences actuelles. Par exemple, en organisant des simulations régulières sans IA, en humain tout seul, pour continuer à garder les compétences qu’ils ont, exactement comme les pilotes d’avion font. On sait que beaucoup des parties de vol sont faites par des systèmes automatisés. Ce qui représente un risque de perte de compétence. C’est-à-dire que quand le système automatisé ne marche pas ou quand il y a un événement inhabituel, non prévu, si tu ne sais pas faire face tout seul, c’est très compliqué. C’est pour ça que les pilotes sont formés avec des séances de simulation et peut-être qu’il faudra faire la même chose pour les médecins. 

 

Marc 00:23:13 – 00:23:21 : Intéressant. Est-ce que selon toi l’IA a le plus de vocation à être utilisée par le médecin ou le patient ou les deux ? 

 

Pr Bibault 00:23:21 – 00:24:51 : Alors je pense que l’IA va être utilisée par les deux, mais ça ne sera pas les mêmes. Donc nous au labo on travaille pas mal sur de l’IA utilisée entre guillemets par des médecins avec des modèles prédictifs et autres, mais c’est aussi des modèles qui peuvent être utilisés par le patient. En France, ce n’est pas encore tout à fait rentré dans les mœurs. Le patient qui va aller sur un site, rentrer ses caractéristiques et obtenir une réponse de prédiction ou de risque sur quelque chose. Aux États-Unis, c’est beaucoup plus déployé. plus ou moins assistés par leur médecin. Et donc, ces modèles-là, c’est une chose, mais il y a aussi tout le pan de ce que l’on appelle le patient-facing AI, qui est quelque chose qui est en train de se développer énormément et qui est très différent des outils de segmentation automatique ou de diagnostic dont on a parlé. Ce sont des algos qui sont souvent des algos d’IA générative, donc pour l’instant plutôt de LLM, qui permettent par exemple d’obtenir un diagnostic à partir d’une somme de symptômes simples. Il y a plusieurs raisons, je pense, qui font que cette partie-là de l’IA médicale va se développer très fortement. D’abord, il semble que les LLM, et en particulier DPT4, soient très bons pour faire de la médecine, en tout cas pour faire du diagnostic simple. On sait, il y a eu pas mal de résultats qui ont été donnés, 85% de bonnes réponses à l’USMLE, qui est la portion écrite de l’examen américain pour devenir médecin aux Etats-Unis. Chaque GPT fait déjà 85% de bonnes réponses, ce qui est bien meilleur que beaucoup d’étudiants américains. 

 

Marc 00:24:51 – 00:24:54 : L’examen de fin d’études de médecine ? 

 

Pr Bibault 00:24:54 – 00:25:00 : avant d’être interne, enfin resident aux États-Unis, mais à la fin des études. Et le deuxième chiffre intérieur. 

 

Marc 00:25:00 – 00:25:02 : 

 

Pr Bibault 00:25:02 – 00:29:17 : Il faut 60, quelque chose comme ça. Enfin, c’est un peu plus compliqué que ça. C’est que les États-Unis ont une procédure de matching. Et en gros, en fonction de votre note que vous avez, vous allez être pris ou pas dans une bonne fac. Donc, en fait, il y a des gens qui ont des mauvaises notes, mais qui sont quand même pris dans des moins bonnes facs, on va dire. qui sont quand même médecins. Mais en tout cas, 85%, ça correspond au niveau expert des étudiants en médecine américain. Ils n’ont pas beaucoup d’étudiants qui arrivent au niveau expert. Les Américains, ils adorent classifier leurs étudiants en fonction de score. Nous, on aime de moins en moins. Mais en tout cas, 85%, c’est… vraiment très très haut. Le deuxième métrique, ce qui est intéressant, c’est une étude d’Harvard qui a fait ça. En fait, c’est une équipe qui régulièrement, tous les ans ou presque, faisait du benchmarking de ce qu’on appelle les Symptom Checkers. Les Symptom Checkers, c’est des logiciels qui étaient souvent en ligne. où vous pouviez rentrer vos symptômes et ça vous donnait les cinq ou six diagnostics les plus probables en fonction de vos symptômes. Alors, il y en a plein, plein, plein qui marchent plus ou moins bien. Et jusqu’ici, les symptômes checkers étaient aux alentours de entre 50 et 60 %. Et donc, avec la sortie de GPT-4, l’équipe d’Harvard qui le faisait régulièrement l’a refait avec les mêmes tableaux, une trentaine de tableaux cliniques. Et GPT-4 sort 87% de bonnes réponses, c’est-à-dire de bons diagnostics par rapport aux symptômes qui lui sont donnés. Là où ça se gâte un peu pour les médecins humains, c’est que si vous leur donnez les mêmes tableaux cliniques et que vous leur demandez leur diagnostic, ils ne sont que 65 ou 66% d’entre eux à trouver le bon diagnostic. Donc ils font déjà moins bien que GPT-4 sur du pur diagnostic classique. Alors, prudence avec ça quand même, c’est qu’une fois de plus, la médecine, ce n’est pas juste faire un diagnostic à partir de symptômes. Ça va un petit peu plus loin que ça. Et en tout cas, ça n’empêche que c’est intéressant. Et donc moi, je pense que cette IA, cette patient-facing IA, ça va avoir un intérêt, surtout pour le triage, par exemple, des patients avant la dose d’urgence. Pour deux raisons. Aux Etats-Unis, par exemple, si vous mettez un orteil aux urgences, vous allez devoir payer 1000 dollars. En général, c’est 500 dollars pour l’hôpital, 500 dollars pour le médecin. C’est vraiment minimum pour avoir fait les frais, entre guillemets. Et donc, aux Etats-Unis, où les gens n’ont pas forcément envie de payer 1000 dollars pour une consultation pour une gastro, une grippe, je ne sais pas quoi… Je pense qu’il y a un marché énorme pour une startup qui mettrait au point un service qui te permet, pour la bobologie, c’est-à-dire les maladies pas graves, qui constituent la majorité des consultations aux urgences, un service à 5 dollars ou 10 dollars la consultation virtuelle avec un LLM performant, ce qui resterait à démontrer. Et ça ferait, à mon avis, un succès monstrueux pour les US. Principalement parce que beaucoup de personnes aux US se privent de soins à cause du coût. Et en France aussi, je pense que ça aurait un intérêt pour réduire le temps d’attente aux urgences, éviter que toute la bogologie qu’on a actuellement engorge les urgences et réserver les urgences aux personnes qui en ont vraiment besoin, c’est-à-dire les infarctus, les AVC, les péritonites, que sais-je, etc. Mais les vraies urgences vitales. Là, on voit toutes les semaines des polémiques sur des patients qui décèdent aux urgences parce qu’ils sont restés sans examen pendant des heures et des heures. donc il y a un vrai défi la santé publique sur ça et je pense qu’on est à une période où on a les outils pour adresser ce problème là à un coût très peu cher au final parce que faire tourner un LLM par rapport au coût de la santé c’est très très peu et en plus ça fait gagner de la qualité de vie aux patients. parce que moi si j’ai le choix entre aller aux urgences et attendre très longtemps pour ressortir avec une ordonnance de paracétamol ou alors être chez moi et accéder à une interface qui fait la même chose et qui me donne le résultat je préfère être chez moi. Alors, évidemment, il ne faut pas me faire dire ce que je n’ai pas dit. Évidemment, si tant est qu’on est capable de développer un LLM aussi bon que ça et qu’on est capable de montrer qu’il est aussi bon que ça. Ça, c’est évidemment le nerf de la guerre. C’est-à-dire que si vous faites quelque chose que vous n’avez pas bien évalué ou qui ne marche pas bien, là, évidemment, vous faites courir un risque au patient. Et je crois que ce n’est pas trop l’idée. 

 

Marc 00:29:17 – 00:29:25 : Bien sûr. Justement, Google Health a sorti un papier sur un chatbot médical. Qu’est-ce que tu penses de ça ? 

 

Pr Bibault 00:29:25 – 00:31:04 : C’est exactement ce que je disais un petit peu tout à l’heure. Je pense que tu fais référence au papier qui s’appelle AMIE, un chatbot qui pose un diagnostic à partir d’un dialogue libre avec les patients. avec des très bonnes performances. Alors, il y a plusieurs choses. D’abord, sur ce qui est bien ou intéressant, c’est qu’ils ont montré quelque chose qui n’avait pas été trop montré jusque-là. C’est que leur chatbot, Ami, fait mieux tout seul que quand c’est un médecin qui s’en sert. C’est assez paradoxal. C’est-à-dire que si vous ajoutez un médecin au résultat d’Ami, le médecin plus Ami fait moins bien que Ami tout seul. Et le médecin tout seul fait moins bien que médecin plus Ami. Donc ça, c’est déjà une première chose qui était assez étonnante, mais c’est ce qui est décrit dans l’article. Deuxième chose, qui pour le coup est un peu moins positive, c’est que ça a été très critiqué quand le papier est sorti, notamment sur Twitter. Si vous lisez des exemples des interactions qui ont été faites, ce ne sont pas des vraies interactions entre un chatbot et un patient. Ce sont des interactions simulées entre un chatbot et des acteurs qui ont reçu des instructions. Et donc les symptômes qui sont décrits par les acteurs qui jouent le patient sont décrits de façon très très très précise et exactement comme dans les livres médicaux. ce qui est en fait très drôle parce que quiconque a interrogé même nous a interrogé un patient il sait que parfois c’est très difficile d’exprimer exactement le symptôme que tu as et puis parfois tu l’exprimes pas bien ou c’est mal écrit etc. ça déjà ça pourrait être une énorme différence entre la réalité et la validation qui en est faite là. 

 

Marc 00:31:04 – 00:31:13 : et puis le tempérament de la personne aussi qui va peut-être pas rentrer dans les détails ou la façon dont il s’exprime aussi simplement les mots qu’il utilise, etc. 

 

Pr Bibault 00:31:13 – 00:32:31 : En fonction du milieu d’où il vient, ça ne va pas forcément être les mêmes. Et donc là, une fois de plus, c’est loin d’être des facteurs triviaux. Et ça peut être des facteurs qui impactent les performances de façon très significative. Et puis le dernier facteur un peu limitant ou sur lequel il faut être prudent, c’est que le papier de Google, ce n’est pas un papier qui a été évalué par des pairs. C’est que dans la recherche médicale, on va dire que le gold standard des publications, c’est quand la publie a été analysée par quelqu’un d’autre qui travaille dans le même domaine que toi et qui dit « là, ça c’est bien, ça c’est pas bien ». Et donc tu fais des corrections, tu améliores ton projet, tu améliores tes résultats. Là, Google, le papier qu’ils ont sorti, comme très souvent la majorité des entreprises ou des startups qui travaillent dans l’IA, sortent des papiers qui ne sont pas évalués par des pairs, en préprint par exemple. Ce qui est très bien pour aller vite et pour avoir des résultats qu’on a envie de publier vite. mais ce qui est moins bien pour la qualité propre de ce qui a été fait dedans parce que parfois il y a des biais de méthodologie qui sont faits, des raccourcis qui sont pris et qui font que ça limite la portée des résultats qui sont communiqués. alors je ne dis pas que dans le papier de Google c’est le cas mais ce qui est sûr c’est que ça n’a pas été évalué par quelqu’un d’autre qui aurait eu accès à l’ensemble de la méthode utilisée qui aurait pu dire voilà ça c’est bien, ça c’est pas bien. 

 

Marc 00:32:31 – 00:32:47 : c’est un peu comme ne pas publier son code c’est de l’ordre de ça. Alors, quel impact a les régulations sur les avancées de l’IA dans la médecine ? On peut parler du RGPD ou de l’AI Act, par exemple. 

 

Pr Bibault 00:32:47 – 00:37:23 : Alors, moi, je suis assez sceptique. Je ne suis pas le seul, mais on n’est pas extrêmement nombreux encore trop à le dire sur le RGPD appliqué à la médecine et sur l’AI Act appliqué aux startups d’IA, à l’innovation et plus particulièrement en médecine. Concernant le RGPD, Ça introduit une lourdeur administrative absolument inadaptée dans la majorité des cas de la recherche médicale, et plus particulièrement lorsque vous cherchez à mener des recherches médicales à petite échelle, sur une question que vous vous posez, pour laquelle vous avez des données rétrospectives, ça veut dire des données du passé, et que vous voulez analyser pour répondre à une question. Il faut bien comprendre que si vous analysez des données du passé, à aucun moment ça n’aura la moindre influence sur le devenir du patient. Donc il n’y a quasiment pas de risque à faire de l’analyse rétrospective d’un point de vue de la confidentialité ou autre. Évidemment de données anonymisées, on ne va pas se mettre à faire des… sur des données non anonymisées. Et malgré ça, si vous êtes interne ou jeune chercheur et que vous voulez faire des travaux sur des petites cohortes de centaines de patients rétrospectives, il va falloir que vous attendiez, je ne sais pas, trois, six mois, parfois plus, pour accéder aux données et faire le travail que vous aviez envie de faire. Et entre-temps, quelqu’un d’autre aura déjà répondu à la question ou vous serez passé à autre chose. Donc le RGPD, c’est très bien pour protéger certaines choses, Mais c’est complètement inadapté pour des services de médecine ou pour des labos de recherche qui font des travaux à des petites échelles, qui ne vont jamais à aucun moment mettre en danger qui que ce soit, puisque par essence, ça fait partir de données du passé. Et en fait, ça a un effet très pervers. C’est que les gros organismes ou les grosses entreprises que je n’aimerais pas, parce que je n’ai rien contre elles d’ailleurs, ont des départements entiers dédiés à, on va dire, le RGPD, à la certification, aux procédures, etc. Donc, en fait, pour elles, ça ne change quasiment rien qu’il y ait ce règlement-là. Mais pour les autres, ça bloque complètement tout. Et donc, je pense que c’est un gros problème. Pour les high-act, c’est pareil, mais amplifié, quoi. Je lisais, je crois que c’est la semaine dernière, un post LinkedIn, alors ça a la valeur que ça a, mais je trouve que les arguments étaient intéressants et c’est un peu ce que je viens de dire sur l’RGPD, c’est-à-dire que les très grosses boîtes vont avoir des départements entiers qui vont faire la certification pour être dans les actes et donc n’auront aucun problème à innover et à avancer puisqu’ils ont des centaines de personnes qui vont le faire pour eux. Par contre, les petites boîtes, je ne parle même pas des labos, je ne sais même pas comment ils vont faire, mais les petites boîtes vont devoir avoir du budget pour avoir un consultant AI Act qui va faire la certification, etc. Donc ça va créer un business de la certification AI Act. Certainement que là, c’est intéressant pour certaines boîtes, mais pour les autres qui veulent innover et qui veulent faire du produit IA en santé, ça va être un frein monstrueux. Et ce qui va se passer, c’est que RGPD plus AI Act, dans cinq ans, on va se réveiller, on va se dire « Ah, c’est bizarre, l’Europe, on était bien à une époque. On avait les données, on avait les ingénieurs qui sortaient de nos écoles, on avait à peu près les infrastructures. Et bien, on s’est encore fait avoir, on est encore super en retard par rapport à la Chine et aux États-Unis. Là, on est en 2024. Je te le prédis, 2029-2030, les gens pleureront en disant ça. ». Moi, je trouve ça assez incompréhensible, en toute honnêteté. J’en veux pour preuve à quelque chose, c’est que quand j’étais à Stanford, déjà à l’époque, c’était en 2019-2020, on me disait « Ah oui, mais c’est bien, l’Europe a innové sur les RGPD, les Américains sont jaloux du RGPD, ils disent que l’Europe a bien fait, etc. ». On est en 2024, les États-Unis n’ont toujours pas fait d’équivalent du RGPD chez eux. Pourquoi ? Parce qu’ils savent très bien. Ils ne vont pas se tirer une balle dans le pied en instaurant des règlements qui ne protègent presque personne, puisque les plus gros, ça ne les dérange pas, pour freiner l’innovation. Sans penser qu’il faille libéraliser totalement et faire en sorte qu’on puisse accéder à tout du jour au lendemain. Ce n’est pas du tout ça que je veux dire. Je pense qu’on est parti trop loin dans la régulation, beaucoup trop loin, et qu’il faudrait vraiment qu’il y ait une réflexion à faire sur comment on fait pour revenir sur quelque chose qui est plus raisonnable, pour ne pas se tirer une balle dans le pied, pour ne pas que dans cinq ans, on se réveille avec la gueule de bois en se disant « Qu’est-ce qui s’est passé ? Pourquoi est-ce qu’on s’est fait avoir comme ça ? ». 

 

Marc 00:37:23 – 00:37:30 : Alors comment on pourrait utiliser au mieux toutes les données qui sont disponibles en médecine, selon toi ? 

 

Pr Bibault 00:37:30 – 00:39:58 : C’est une vaste question. Il y a les données. On a en France beaucoup de données, évidemment, puisqu’elles viennent de notre système centralisé, notamment de remboursement. Il y a quand même une limite, c’est que ces données sont très souvent assez parcellaires, incomplètes et assez mal structurées. Donc la première étape pour bien utiliser nos données, ce serait de réfléchir à leur structuration et au sens qu’elles ont. Pour avoir participé à certains projets dans le cancer de la prostate notamment, on se rend compte que les données que l’on a, même si elles concernent des millions de patients, n’ont pas été pensées pour être exploitées pour répondre à certaines questions médicales. Ce qui est normal, parce que les données, à la base, elles sont là pour rembourser des personnes. Mais en tout cas, c’est un énorme goulot d’étranglement à leur analyse. Mais si on pouvait fantasmer un petit peu et se dire, voilà, vous avez accès à toutes les données que vous voulez et vous allez pouvoir en faire ce que vous voulez parce que vous avez le budget illimité et la puissance de calcul illimitée, eh bien, il faudrait essayer de faire une sorte de modélisation multiechelle individuelle C’est-à-dire partir, un peu comme ce que je disais au début, de la génomique, c’est-à-dire avoir le génome de plusieurs centaines de milliers de personnes. Ça existe déjà en Angleterre, notamment. Et puis pour ces mêmes personnes, avoir leur activité physique et leur fréquence cardiaque et leur saturation d’oxygène et toutes les métriques, ce qu’on peut très facilement avoir maintenant avec des montres connectées ou autres. Et puis avoir leurs données sur ce qu’ils mangent. Ça, c’est très difficile à avoir, par contre. C’est souvent déclaratif. Avoir ensuite le risque d’obésité, le risque de cancer, etc., tout au long de leur vie, donc sur des dizaines d’années. Et puis ensuite, grâce à ça, pouvoir faire un super modèle prédictif, super exhaustif, qui permettrait pour les prochaines personnes, à partir de certaines données, de prédire leurs risques et éventuellement, du coup, de proposer des interventions, par exemple, favoriser l’activité physique, réduire l’alimentation en gras, en sucre, etc. Mais ça, ça a été fait par certaines équipes, une fois de plus de Stanford, il y a déjà quelques années. Cette espèce de comprehensive profiling, on va dire. Mais ça coûte extrêmement cher. Et faire ça à l’échelle de plusieurs centaines de milliers de personnes, pour l’instant, on n’est pas encore prêt à le faire pour plein de raisons budgétaires et de structure. 

 

Marc 00:39:58 – 00:40:05 : Oui, et peut-être de risque aussi de données, parce que là, on est quand même, le génome, on est sur quelque chose d’un peu plus… 

 

Pr Bibault 00:40:05 – 00:40:58 : Oui, bien sûr. Je ne peux pas anonymiser le génome. Il y a eu, je crois que c’est 23andMe qui a eu un vol de données, plusieurs centaines de milliers de leurs données. Tu connais 23andMe ? 23andMe, c’est une boîte américaine qui a été fondée par une des sœurs de la femme de Sergey Brin, qui est chez Google, qui est encore maintenant, qui est revenue. Et donc, qui propose, à partir d’un prélèvement salivaire, de séquencer votre génome pour avoir vos ancêtres, etc. Et puis aussi vos risques de certaines maladies. Et donc, ils ont eu un vol de données, là, il y a quelques temps. Donc oui, clairement, par rapport au génome, il y a des risques significatifs. Même pas que le génome. Tout récemment, on a eu le vol de carte d’Italie. On a entendu parler des centaines de milliers de Français qui ont eu leurs infos de sécurité sociale volées. Rien que ça, c’est déjà aussi la donnée très sensible. 

 

Marc 00:41:00 – 00:41:26 : Oui, mais c’est vrai qu’au niveau du génome, il y a cette notion d’impossibilité d’anonymiser. Et même si on est dans le passé, il y a tous les descendants qui vont partager le génome. Je pense que c’est des controverses qui ont déjà été soulevées par d’autres enjeux. Je pense à Henri Etelax qui a donné des cellules qui se sont réparties, qui ont couvert la Terre et tous ses descendants se sont mis à se demander quelles allaient être les conséquences pour eux vis-à-vis de leurs assurances. 

 

Pr Bibault 00:41:27 – 00:41:32 : Les cellules HeLa sont encore utilisées dans tous les laboratoires du monde pour faire de la recherche sur le cancer. 

 

Marc 00:41:32 – 00:41:35 : Oui, c’est colossal. C’est des tonnes et des tonnes de matière. 

 

Pr Bibault 00:41:36 – 00:42:18 : On estime même qu’elles ont contaminé d’autres lignées cellulaires et qu’il y a plusieurs dizaines de milliers de publications faites sur des résultats sur des lignées cellulaires autres qui sont en fait des résultats sur des HeLa. Mais après, ça va encore plus loin que ça par rapport aux données génomiques. Il y a régulièrement des histoires aux US où on retrouve des serial killers ou des tueurs à partir d’empreintes génétiques anciennes qui n’ont jamais été identifiées. Et en fait, qu’on réidentifie très, très récemment grâce aux données, entre autres, du type 2,5, où on retrouve qu’en fait, c’est le cousin de telle ou telle autre personne. Et donc, on retrouve les gens et on les condamne. Donc, il y a eu, si tu regardes sur Internet, il y a pas mal d’histoires comme ça. 

 

Marc 00:42:18 – 00:42:20 : Oui, ça pose pas mal de questions. 

 

Pr Bibault 00:42:20 – 00:42:21 : Ça pose pas mal de questions, oui. 

 

Marc 00:42:23 – 00:42:26 : Est-ce que tu as une anecdote à nous partager ? 

 

Pr Bibault 00:42:26 – 00:44:17 : J’ai une anecdote qui est en ligne avec ce qu’on a un petit peu parlé sur les RGPD. Quand j’étais à Stanford, j’avais mené un travail notamment sur le cancer de la prostate. Et pour ça, j’avais besoin d’accéder aux données de à peu près 80 000 patients qui avaient été dans un essai prospectif fait aux États-Unis sur une dizaine de centres académiques. Et donc maintenant, les données sont disponibles sur le site du NIH, c’est le National Institute of Health, c’est l’équivalent d’une espèce de ministère de la santé américain, mais pas tout à fait. Et pour accéder à ces données de 80 000 patients, vous remplissez un petit formulaire sur leur site et puis… En deux ou trois semaines, vous recevez un lien et vous téléchargez vos données de 80 000 patients. En France, si vous voulez accéder à des données de 100 ou 150 patients qui ont été traités dans votre hôpital pour répondre à une question rétrospective assez anodine, il va falloir que vous vous passiez entre trois, dans le meilleur des cas, et six mois pour peut-être avoir légalement le droit d’accéder à ces données-là. Je vous laisse voir la différence entre les deux approches. Évidemment qu’en France, il y a d’autres bases de données aussi un peu en libre accès, pas aussi grosses que celles du NIH, mais qui ne prennent pas six mois à avoir. Mais ça n’empêche que je pense qu’on a un gros souci. sur l’accès aux données en France, quoi qu’on en dise, c’est beaucoup trop rigide. Et je terminerai sur ça, c’est qu’on sait qu’en Europe et donc en France, pour chaque euro qui est dépensé pour faire de la recherche, il y a 4 euros qui sont utilisés pour vérifier que cet euro a bien été utilisé. Donc ça veut dire qu’on ne va pas s’en sortir comme ça. Si 80% d’un budget de recherche est voué à de l’administratif et à de la vérification, etc., on va avoir des gros soucis. 

 

Marc 00:44:18 – 00:44:21 : Alors, quels sont tes prochains travaux d’IA ? 

 

Pr Bibault 00:44:21 – 00:46:48 : Alors là, on est en train de travailler sur l’utilisation de LLM, plus particulièrement de GPT-4, pour dépister et grader les effets secondaires des traitements contre le cancer de façon automatique. Donc au lieu que le patient vienne en consultation et discute avec le médecin de ses symptômes, c’est le patient qui directement discute ou répond à des questions qui lui sont posées par le LLM pour donner ses symptômes. Pourquoi c’est intéressant ? Ce n’est pas du tout qu’une question de gagner du temps. C’est aussi que l’on sait que quand les médecins gradent les effets secondaires de leur traitement, Il sous-estime les effets secondaires d’à peu près 30% dans les publications. Et on sait que les patients pour lesquels les effets secondaires sont sous-estimés survivent moins longtemps, tout simplement. C’est une vraie perte de chance. Et donc, l’idée, c’est que si on donne cette capacité aux patients en direct de déclarer ses effets secondaires, il ne va pas les sous-estimer parce que par essence, on va avoir ce qu’il lui dit directement sans le prisme du médecin, entre guillemets. Donc ça, c’est le premier avantage. Le deuxième avantage, c’est qu’on peut, un peu comme pour l’histoire des urgences, trier les patients. C’est-à-dire que les patients qui n’ont aucun effet secondaire et pour lesquels on est certain, on leur propose de venir ou de ne pas venir. On leur proposera au futur, parce que ce n’est pas du tout implémenté, c’est de la recherche pure. Et puis les patients, pour le coup, qui ont des effets secondaires, on va les voir et on va orienter la démarche de prise en charge plus spécifiquement et plus efficacement sur ces effets secondaires-là. Et donc ça, c’est la première étape. Et donc là, les papiers qu’on a faits, qui ont été publiés dans un très grand journal de cancéros européens, on les a faits sur des patients virtuels, puisque le GPT-4, on n’a pas le droit de s’en servir en France pour faire de la médecine comme ça. Donc là, on a généré une cinquantaine de patients virtuels et on a évalué grâce à ça un peu l’efficacité. Et donc la prochaine étape sur laquelle on est en train de travailler, c’est de se servir de LLM frugaux, des plus petits LLM qui tournent en local, donc typiquement mistral, et donc qui tournerait dans l’hôpital, ce qui ferait qu’on n’aurait pas besoin d’utiliser l’API d’OpenAI. Donc, on aurait beaucoup moins de problèmes avec le RGPD, avec toutes ces normes. Et puis, ça permettrait en plus d’être assez efficace et d’avoir un modèle qui serait dans l’hôpital et non plus, on ne sait où, sur Internet. Et donc, on travaille sur ça en ce moment principalement. Super, bon courage. 

 

Marc 00:46:48 – 00:46:52 : Quel prochain invité est-ce que tu nous suggères pour Data Driven 101 ? 

 

Pr Bibault 00:46:52 – 00:46:59 : Pour rester sur la thématique, Thomas Closel, le CEO de Docking, qui aura, je pense, plein de choses intéressantes à dire. 

 

Marc 00:46:59 – 00:47:00 : Merci Jean-Emmanuel. 

 

Pr Bibault 00:47:00 – 00:47:03 : Merci. 

 

Marc 00:47:03 – 00:47:12 : Dans le prochain épisode, je recevrai Louis Thierry, docteur en machine learning et chercheur à l’INRIA, pour nous parler d’intelligence artificielle appliquée à la météo. À très vite.