Les raisons de la suspicion envers les grands modèles de langage en imagerie
VENDREDI 24 MAI 2024
Dans « Seeing the Unseen: Advancing Generative AI Research in Radiology », un nouvel éditorial publié dans la revue Radiology, le Dr Woojin Kim évoque la nécessité d'examiner les informations au-delà de ce qui est visible, pour une recherche plus efficace sur l'IA en radiologie. Il évoque les connaissances partielles que nous avons sur les applications d’IA générative.
Dans un éditorial publié dans la Revue Radiology, le Dr. Woojin Kim, du Palo Alto Medical Center de San Francisco (Californie – USA) approfondit divers aspects des grands modèles de langage (LLM), discutant des évaluations et des modèles fermés et explorant des concepts tels que l'émergence. Il aborde également les données synthétiques et souligne l’importance de l’expertise dans le domaine clinique, en engageant les radiologues non pas après coup, mais dans un processus itératif depuis la création jusqu’au déploiement.
Inciter les acteurs de la radiologie à explorer l’invisible afin de gagner en efficacité dans nos recherches
« Alors que le monde continue d’être captivé par l’intelligence artificielle générative (IA), y compris la radiologie, nous devrions chercher à examiner au-delà de ce qui est visible et voir l’invisible pour une recherche plus efficace sur l’IA en radiologie. » C’est, en substance ce que le Dr Woojin Kim, radiologue dans le service d’imagerie du Palo Alto VA Medical Center (Californie – USA), essaie de démontrer dans l’éditorial intitulé « Seeing the Unseen: Advancing Generative AI Research in Radiology », et publié dans la Revue Radiology.
Même si les performances peuvent paraître impressionnantes, tester les grands modèles de langage (LLM) de la même manière que l’on teste les humains pourrait conduire à des résultats trompeurs et à une mauvaise interprétation de leurs capacités. Le Dr Kim explique le succès des GML par leur capacité à rendre visible l'invisible. Or, au lieu de nous concentrer sur les résultats de leurs trouvailles, nous devrions nous concentrer sur le « comment » et le « pourquoi » de la performance des GML. Autrement dit, il est nécessaire d’approfondir les méthodologies de leur évaluation.
Des grands modèles de langage dont nous ne connaissons ni l’arcuitecture ni leur méthodologie d’entrainement
Il évoque d’autre part la qualification de « modèles fermés » des GML, qui est un des problèmes fondamentaux liés à la recherche de modèles tels que GPT-4. Il remarque ici que nous ne connaissons ni leur architecture, ni leurs données d’entraînement, notamment. À ce titre, il est essentiel d’être prudent lorsqu'on leur attribue une valeur scientifique, dans la mesure où nous n’avons aucune idée de ce sur quoi ces modèles sont formés ni comment.
L'émergence est une autre notion séduisante mais potentiellement trompeuse dans les GML. Le Dr Kim mobilise ici un concept popularisé par l’essai de 1972 « More is Different » du lauréat du prix Nobel Philip W. Anderson. Bien que l’émergence soit possible avec un mélange de modèles, de multimodalités et d’agents multiples, une dépendance excessive à l’égard de ce concept risque de simplifier à l’excès le fonctionnement interne complexe de ces modèles et de nous décourager d’approfondir nos recherches.
Ne pas abuser des données synthétiques d’imagerie
L’utilisation de l’IA générative, dans le cadre de la création de données synthétiques, présente les avantages potentiels de répondre aux problèmes de confidentialité et d’augmenter la diversité et la qualité des données dans le domaine médical. À l’aide de réseaux antagonistes génératifs et de modèles de diffusion, plusieurs groupes ont montré leur capacité à créer des images radiologiques synthétiques.
Mais elles n’ont souvent pas la richesse et la complexité des données réelles et peuvent conduire à un « effondrement du modèle », avec des performances qui se détériorent avec le temps. Dès lors, en adoptant l'IA pour la pratique clinique, le Dr. Kim met l'accent sur l'importance de la personnalisation plutôt que d'une solution unique.
La parabole des aveugles et de l’éléphant tout à fait appropriée dans ce contexte
Il conseille à ses collègues, dans cet éditorial, d'aborder ce domaine avec humilité et prudence. Il leur soumet ainsi la parabole des aveugles et de l'éléphant, où un groupe d'aveugles qui n'avaient jamais rencontré d'éléphant essaient d’en tirer une description en le touchant. Chacun touchant une partie différente du corps de l’éléphant, les aveugles revendiquent souvent la vérité absolue sur la base de leurs expériences limitées tout en ignorant les points de vue tout aussi valables et limités des autres. Le Dr Kim y voit une métaphore pour naviguer sur les terrains inexplorés de l’IA générative.
« L’impact potentiel de l’IA générative sur les soins de santé est significatif et transformateur, conclut-il. Il sera important de garder l’esprit ouvert, d’apprécier le point de vue des autres et de poursuivre notre exploration collective pour voir l’invisible ».
Bruno Benque avec RSNA