Publicité

Les chercheurs n'ont pas confiance aux chatbots scientifiques

03/02/2023
De Bruno Benque avec RSNA

Un nouvel article publié dans la Revue Radiology met en garde contre « l'épée à double tranchant » que constituent les programmes nationaux de traitement du langage basés sur l'intelligence artificielle (IA) comme ChatGPT. Les auteurs donnent quelques conseils pour utiliser ces systèmes avec parcimonie et précision.

ChatGPT, un chatbot avancé, a été lancé par OpenAI à la fin de l'année 2022 et est rapidement devenu populaire, car il répond à des questions complexes avec des réponses de qualité humaine.

Des modèles d’IA de langage virtuel frappés souvent d’effet d’hallucination

ChatGPT est un système d'IA conversationnel lancé par OpenAI, une société de recherche et de déploiement d'IA. Il est basé sur le GPT-3.5, l'un des plus grands modèles de langage virtuel (MLV) (> 175 milliards de paramètres) à ce jour, et a été formé sur un ensemble diversifié de textes Internet (environ 570 Go), parmi lesquels des livres, des articles et des sites Web, et couvrant un large éventail de sujets tels que les actualités, Wikipédia et la fiction. De plus, ChatGPT est spécialement conçu pour les tâches conversationnelles, une fonctionnalité acquise par renforcement à partir du feed-back humain.

Cette technique permet à ChatGPT d'ajuster son comportement en fonction des commentaires des évaluateurs humains. Il est donc bien meilleur pour comprendre les intentions des utilisateurs, générer un texte de type humain et maintenir la cohérence dans une conversation. Mais malgré ces qualités, ChatGPT a plusieurs limites, notamment la production de réponses apparemment crédibles mais incorrectes, telles que l'invention de termes avec lesquels il doit se familiariser. Ce phénomène, connu sous le nom « d'effet d'hallucination », est un problème commun à de nombreux modèles de traitement du langage naturel. De plus, ChatGPT a tendance à suivre les instructions plutôt qu'à s'engager dans une véritable interaction.

Des chatbots pour donner des conseils sur la pertinence des actes ?

Par conséquent, ChatGPT et autres MLV peuvent avoir des répercussions imprévues et devenir une épée à double tranchant. Dans un article publié dans la Revue Radiology, des chercheurs américains discutent des bonnes pratiques d’utilisation de ChatGPT dans le cadre clinique pour augmenter l'efficacité et potentiellement améliorer les soins aux patients, mais donnent également la parole aux chercheurs qui craignent que ChatGPT puisse rédiger de faux articles de recherche susceptibles de tromper les scientifiques et les examinateurs, jusqu’à réduire l'intégrité scientifique des publications.

Au cours des dernières années, l'accent a été mis sur l'amélioration de la précision des prescriptions d'examens d'imagerie médicale par les correspondants, via des logiciels d’aide à la décision ou, sur la base du Dossier patient informatisé (DPI), afin d’obtenir une meilleure justification des actes. Alors que la technologie de l'IA montait en puissance, une nouvelle question est apparue : une technologie basée sur l'IA peut-elle fournir des conseils sur la pertinence des actes ?

Des questions imprécises entraînent quelquefois des réponses incohérentes

Les auteurs de l’article suggèrent que les chatbots basés sur l'IA comme ChatGPT peuvent tirer parti de vastes bases de connaissances pour répondre rapidement aux questions concernant la meilleure exploration radiologique dans des scénarios cliniques spécifiques. Cependant, bien qu’il puisse fournir des conseils, il a été conçu pour ne pas offrir de conseils directs aux praticiens. Elle confie souvent la prise de décision médicale aux professionnels de santé dans le respect des règles de sécurité dédiées à sa technologie. De plus, les utilisateurs doivent soigneusement rédiger des questions ou des invites, en fournissant des informations spécifiques sur un scénario clinique et les contre-indications potentielles. Sans invites détaillées ni possibilités de réponse limitées, ChatGPT peut souvent donner des résultats inexacts ou incomplets.

D’autre part, la précision des réponses fournies par une technologie basée sur l'IA dépend de la qualité et du type de données utilisées pour la former. Les prestataires doivent être conscients des biais, des inexactitudes ou de potentielles idées fausses dans ces données. Enfin, l'utilisation d'une technologie basée sur l'IA en dehors d'un DPI peut ne pas cibler les bonnes informations du patient ainsi que les préférences, les capacités et les restrictions relatives à la prescription du correspondant pour faciliter la prise de décision.

« Alors que nous naviguons dans les décisions concernant l'utilisation de technologies basées sur l'IA comme ChatGPT, il est important de procéder avec prudence », écrivent les auteurs. Ils donnent quelques conseils pour les utiliser avec parcimonie et précision.

SUR LE MÊME THÈME

Abonné(e)

Une prise en charge pluridisciplinaire du cancer de l'ovaire

Détecter le cancer de l’ovaire plus tôt fait partie des objectifs de la communauté scientifique pour en améliorer le pronostic. Dans un article publié dans la Revue European Radiology, le référentiel IRM O-RADS est présenté comme la base de la stratification du risque pour cette pathologie. Une pris...

12/05/2025 -

Abonné(e)

Covid-19 : quel impact sur les patients atteintes de BPCO et de cancer du poumon ?

Que pouvons-nous retirer de l’expérience de la pandémie de Covid-19 pour les patients atteints de pathologies respiratoires ? Un travail de l’IRDES sur les patients atteints de BPCO et de cancer pulmonaire durant cette période fait état de taux de mortalité élevés pour les patients atteints de BPCO...

02/05/2025 -

Des gènes responsables d'effets secondaires après radiothérapie de la prostate

La radiothérapie dispensée pour le cancer de la prostate est responsable d’effets secondaires urinaires à long terme. C’est ce que rapporte l’essai PROTOX, qui identifie des caractéristiques génétiques qui favoriseraient ces effets secondaires. Une étude récente publiée dans Clinical Cancer Research...

09/04/2025 -

Un logiciel d'IA taillé pour le dépistage du cancer du poumon par TDM low dose

Median Technologies a publié, le 31 Mars 2025, les résultats finaux de l’étude pivot RELIVE, qui confirment et complètent les premiers résultats annoncés le 3 Février 2025 à propos d’eyonis™, une suite de logiciels dispositifs médicaux basés sur l’IA pour le diagnostic précoce du cancer.

03/04/2025 -

Un nouveau marché d'échographes est proposé par UniHA

La plateforme d’achat de dispositifs médicaux UniHA vient de renouveler son marché de prestations concernant le parc d’échographes. Il s’agit de proposer aux hôpitaux une solution permettant aux établissements de santé de bénéficier d’équipements adaptés à leurs besoins spécifiques.

17/03/2025 -

Abonné(e)

L'IA en imagerie thoracique nécessiterait une redéfinition du rôle des radiologues

L’imagerie thoracique à la pointe de l’intelligence artificielle. C’est le message que font passer des chercheurs coréens dans un article publié dans la Revue Radiology. Ils listent les applications de cette technologie, comme l’interprétation assistée par l’IA et dépistage opportuniste des maladies...

07/03/2025 -

Abonné(e)

Adénocarcinome : prévoir la survie globale et la récidive sans survie par TDM

Dans une étude publiée dans l'American Journal of Roentgenology (AJR), le temps de doublement du volume des adénocarcinomes pulmonaires réséqués a fait l’objet d’un travail approfondi. Les chercheurs ont indiqué qu’une période de moins de 200 jours était significativement corrélée à la fois à la sur...

18/02/2025 -

LETTRE D'INFORMATION

Ne manquez aucune actualité en imagerie médicale et radiologie !

Inscrivez-vous à notre lettre d’information hebdomadaire pour recevoir les dernières actualités, agendas de congrès, et restez informé des avancées et innovations dans le domaine.