Une feuille de route pour atténuer les biais de l'IA
MARDI 20 MAI 2025
Les biais diagnostiques créés par l’IA relèvent d’un manque d’informations démographiques incluent dans les données de santé. Dans un article publié dans la Revue Radiology, des chercheurs américains décrivent l’importance d’une définition homogène décrivant les groupes démographiques. Un travail qui sonne comme une feuille de route pour des pratiques plus cohérentes en matière d’IA en imagerie.

Radiologues, informaticiens et chercheurs ont présenté, dans un article publié dans la Revue Radiology, les pièges et les meilleures pratiques pour atténuer les biais des modèles d'intelligence artificielle (IA), dans la pratique radiologique.
Les points faibles de l’IA qui entraînent des biais diagnostiques
« L'IA a le potentiel de révolutionner la radiologie en améliorant la précision diagnostique et l'accès aux soins, annonce l'auteur principal, le Dr Paul H. Yi, professeur associé du département de radiologie et directeur du département d'informatique d'imagerie intelligente au St. Jude Children's Research Hospital de Memphis (Tennessee – USA). Cependant, les algorithmes d'IA peuvent parfois présenter des biais, désavantageant involontairement certains groupes en fonction de l'âge, du sexe ou de l'origine ethnique. »
Si cette problématique est de plus en plus prise en compte, l'évaluation et la mesure des biais algorithmiques posent des défis. Dans cet article, le Dr Yi et ses collègues identifient les principaux points faibles, ainsi que les meilleures pratiques et initiatives à mettre en œuvre. « Malgré l'attention considérable portée à ce sujet, il existe un manque flagrant de consensus sur des aspects clés tels que les définitions statistiques des biais, la catégorisation des données démographiques et les critères cliniques utilisés pour déterminer ce qui constitue un biais significatif », ajoute le Dr Yi.
Un manque d’informations démographiques dans les données de santé
Le premier écueil est le manque de représentation dans les ensembles de données d'imagerie médicale. Ces ensembles de données sont essentiels à l'entraînement et à l'évaluation des algorithmes d'IA et peuvent comprendre des centaines de milliers d'images provenant de milliers de patients. Nombre de ces ensembles de données manquent d'informations démographiques, telles que l'origine ethnique, l'âge et le sexe.
Par exemple, dans une étude précédente réalisée par le Dr Yi et ses collègues, sur 23 ensembles de données de radiographies thoraciques accessibles au public, seuls 17 % indiquaient l'origine ethnique. Pour créer des ensembles de données plus représentatifs de la population dans son ensemble, les auteurs suggèrent de collecter et de déclarer autant de variables démographiques que possible, en suggérant un ensemble minimal incluant l'âge, le sexe et/ou le genre et l'origine ethnique. De plus, dans la mesure du possible, les données d'imagerie brutes devraient être collectées et partagées sans post-traitement spécifique à l'établissement.
L’importance d’une définition homogène décrivant les groupes démographiques
Le deuxième problème majeur lié aux biais en IA réside dans l'absence de consensus sur la définition des groupes démographiques. Ce problème est complexe car de nombreuses catégories démographiques, telles que le sexe ou l'origine ethnique, ne sont pas des variables biologiques, mais des caractéristiques auto-identifiées qui peuvent être influencées par la société ou le vécu. Les auteurs suggèrent alors d’établir une terminologie démographique plus précise, plus conforme aux normes sociétales, et d’éviter de combiner des catégories démographiques distinctes mais liées, telles que l'origine ethnique ou le sexe.
Bien définir un biais et ses répercussions cliniques et techniques
Le dernier écueil majeur décrit dans cet article réside dans l'évaluation statistique des biais de l'IA. À la base de ce problème réside l'établissement d'un consensus sur la définition du biais, qui peut avoir différentes significations cliniques et techniques. Dans cet article, le biais est utilisé dans le contexte de l'équité démographique et de la manière dont il reflète les différences de paramètres entre les groupes démographiques.
Une fois la notion standard de biais établie, il convient de remédier à l'incompatibilité des paramètres d'équité. Les indicateurs d'équité sont des outils permettant de déterminer si un modèle de machine learning traite différemment certains groupes démographiques. Les auteurs suggèrent d'utiliser des notions standard et reconnues d'évaluation des biais démographiques, fondées sur des comparaisons cliniquement pertinentes des performances des modèles d'IA entre groupes démographiques.
Un travail comme une feuille de route pour des pratiques plus cohérentes en matière d’IA
De plus, ils soulignent qu'il est important de garder à l'esprit que différents points de fonctionnement d'un modèle prédictif entraîneront des performances différentes, ce qui pourrait entraîner des biais démographiques différents. La documentation de ces points de fonctionnement et seuils devrait être incluse dans la recherche et par les fournisseurs de produits d'IA commerciaux. Selon le Dr Yi, ces travaux fournissent une feuille de route pour des pratiques plus cohérentes en matière de mesure et de traitement des biais. Cela garantit que l'IA favorise des soins inclusifs et équitables pour tous.
« L'IA offre une opportunité incroyable de développer des capacités de diagnostic d'une manière inédite, améliorant potentiellement les résultats de santé pour des millions de personnes, conclut-il. Parallèlement, si les biais ne sont pas maîtrisés, l'IA pourrait involontairement aggraver les disparités en matière de soins de santé. »
Paolo Royan