Publicité

Des tags facteurs de confusion pour certaines images du membre supérieur analysées par CNN

23/11/2021
De Bruno Benque avec AJR

Les réseaux de neurones convolutifs utilisés pour aider au diagnostic pour les radiographies du membre supérieur présentent une anomalie majeure, selon un travail de recherche publié dans l’American Journal of Roentgenology. Ils seraient en effet sensibles aux tags créés pour former leurs algorithmes.

Selon un article publié dans l’American Journal of Roentgenology (AJR), les réseaux de neurones convolutifs (CNN) formés pour identifier les anomalies sur les radiographies des membres supérieurs semblent perturbés par les annotations (tags) attachés aux images.

Trois entrées testées pour distinguer les images pathologiques

« Nous recommandons que de tels facteurs de confusion d'image potentiels soient collectés lorsque cela est possible lors de la conservation de l'ensemble de données, et que la couverture de ces tags soit envisagée lors de la formation du CNN », a écrit l'auteur correspondant, le Dr Paul H. Yi du Medical Intelligent Imaging Center de l'Université du Maryland à Baltimore (USA).

L'étude rétrospective du Dr Yi et de son équipe a évalué 40 561 radiographies musculo-squelettiques des membres supérieurs à partir de l'ensemble de données MURA de Stanford qui ont été utilisées pour former trois classificateurs DenseNet-121 CNN. Trois entrées ont été utilisées pour distinguer les radiographies normales des radiographies anormales : les images originales avec à la fois l'anatomie et les tags ; les images avec des tags de latéralité et/ou de technologue recouvertes par la suite d'une boîte noire ; les images où l'anatomie avait été supprimée et où il ne restait que des tags.

Des tags qui ne décrivent que partiellement la nature pathologique d'une image

Pour les radiographies originales, l'AUC était de 0,844, mettant fréquemment l'accent sur la latéralité et/ou les tags des technologues pour la prise de décision. La couverture de ces tags a augmenté l'AUC à 0,857 (p = 0,02) et a redirigé l'attention du réseau de neurones des tags vers les os. En utilisant les tags seuls, l'AUC était de 0,638, indiquant que les tags radiographiques sont associés à des examens anormaux.

« Bien que nous puissions en déduire que les tags sont associés à des catégories d'images normales et anormales, nous ne pouvons pas déterminer l'aspect spécifique de ces tags, ce qui a conduit à ce qu'ils soient des facteurs de confusion, » ont conclu les auteurs de cet article de l'AJR.

SUR LE MÊME THÈME

IA & Données
Un réseau de radiologues français conclut un accord avec un fournisseur d'IA pour le diagnostic

Un réseau de radiologues français conclut un accord avec un fournisseur d'IA pour le diagnostic

Gleamer a annoncé, le 10 Juillet 2025, la signature d’un partenariat stratégique avec le réseau France Imageries Territoires (FIT) pour le déploiement des solutions Gleamer Copilot® dans l’ensemble des centres d’imagerie du réseau FIT.

29/07/2025 -

IA & Données
Les comptes rendus radiologiques ne sont pas près de passer par GPT-4
Abonné(e)

Les comptes rendus radiologiques ne sont pas près de passer par GPT-4

Les grands modèles de langage multimodaux seraient-ils capables de réaliser des comptes rendus radiologiques ? Des résultats d’essais contradictoires troublent le ressenti sur les possibilités de GPT-4V, un modèle qui se concentre uniquement sur la précision diagnostique. Une étude publiée dans la R...

21/07/2025 -

IA & Données
Un nouvel outil d'extraction de données spécialisé en radiologie

Un nouvel outil d'extraction de données spécialisé en radiologie

Les méthodes d’élaboration des grands modèles de langage sont basées sur des règles qui ne traitent pas efficacement les données non standardisées. Des chercheurs britanniques présentent, dans un article publié dans la Revue European Radiology, RADEX, le nouvel outil d’extraction de données radiolog...

15/07/2025 -

IA & Données
Des grands modèles de langage sensés participer à l'annotation des images pour le deep learning
Abonné(e)

Des grands modèles de langage sensés participer à l'annotation des images pour le deep learning

Incontournables pour l’entrainement des modèles de deep learning, les annotations d’images radiologiques sont rébarbatives et chronophages pour les experts qui les créent. Des grands modèles de langage (LLM) pourraient remplacer les annotations humaines, comme l’indique un article scientifique publi...

23/06/2025 -

IA & Données
Les bonnes pratiques pour l'évaluation de la pertinence d'un outil d'IA en imagerie
Abonné(e)

Les bonnes pratiques pour l'évaluation de la pertinence d'un outil d'IA en imagerie

Radiologues, informaticiens et chercheurs présentent, dans un article publié dans la Revue Radiology, les pièges et les meilleures pratiques pour atténuer les biais des modèles d'intelligence artificielle (IA) en imagerie médicale. Ils présentent une sorte de feuille de route pour des pratiques plus...

13/06/2025 -

IA & Données
Abonné(e)

Des LLM affinés pour aider à la relecture des comptes rendus

Selon une nouvelle étude publiée dans la Revue Radiology, un grand modèle de langage (LLM) améliorerait sensiblement la détection des erreurs dans les comptes rendus de radiologie. Les chercheurs ont utilisé des comptes rendus synthétiques et des données ciblées pour donner au LLM de la légèreté.

23/05/2025 -

IA & Données
Abonné(e)

Agir sur la vulnérabilité des grands modèles de langage en radiologie

Dans un nouvel article spécial publié dans la Revue Radiology, des chercheurs abordent les défis de cybersécurité liés aux grands modèles de langage (LLM). Ils soulignent l'importance de mettre en œuvre des mesures de sécurité pour empêcher leur utilisation malveillante dans le système de Santé et m...

21/05/2025 -

LETTRE D'INFORMATION

Ne manquez aucune actualité en imagerie médicale et radiologie !

Inscrivez-vous à notre lettre d’information hebdomadaire pour recevoir les dernières actualités, agendas de congrès, et restez informé des avancées et innovations dans le domaine.