Dans un nouvel article spécial publié dans la Revue Radiology, des chercheurs abordent les défis de cybersécurité liés aux grands modèles de langage (LLM). Ils soulignent l'importance de mettre en œuvre des mesures de sécurité pour empêcher leur utilisation malveillante dans le système de Santé et mettent l’accent sur la formation des professionnels et sur l’information auprès des patients.
Les LLM, tels que GPT-4 d'OpenAI et Gemini de Google, se sont rapidement imposés comme des outils puissants dans divers domaines de la Santé, révolutionnant la recherche et la pratique clinique. Ces modèles sont utilisés pour diverses tâches, telles que l'aide à la décision clinique, l'analyse des données des patients, la découverte de médicaments et l'amélioration de la communication entre les professionnels de santé et les patients en simplifiant le jargon médical notamment.
Comprendre les vulnérabilités des LLM utilisées dans la pratique radiologique
L'intégration des LLM dans la pratique médicale n’est pas sans risques puisqu’ils sont vulnérables aux menaces de sécurité et peuvent être exploités par des acteurs malveillants pour extraire des données sensibles des patients, manipuler des informations ou altérer les résultats des recherches à l'aide de techniques telles que l'empoisonnement des données ou les attaques par inférence. Cela peut aller de l'ajout intentionnel d'informations erronées aux données d'entraînement d’un modèle d'IA au contournement du protocole de sécurité interne d'un modèle conçu pour empêcher les restrictions de sortie.
En vous abonnant à Thema Radiologie, vous débloquez l’accès à l’ensemble de nos contenus premium : dossiers thématiques, tribunes d’experts, analyses technologiques, interviews et décryptages réglementaires.
Profitez de 15 jours d'essai gratuit pour découvrir tous nos contenus premium !
Déjà abonné ? Connectez-vous pour débloquer cet article.


Microsoft vient d’annoncer la disponibilité en France de Microsoft Dragon Copilot, un assistant clinique IA conçu pour simplifier la documentation, faciliter la recherche d’informations et automatiser des tâches.
08/10/2025 -

Le programme Ségur Vague 2 pour l’imagerie connaît aujourd’hui son premier point d’étape avec l’enregistrement définitif des candidats au référencement RIS et DRIMbox. Nous avons rencontré Jean-Marc Chevilley, Directeur de Projet au sein de la Délégation au Numérique en Santé, qui est le pilote prin...
07/10/2025 -

Depuis la publication de l'AI Act, l'écosystème de l’imagerie médicale doit se préparer à évoluer, notamment pour gérer le consentement et l’opposition des patients. L'équipe de Dr Data a mis à disposition son expertise en protection des données de santé pour construire une solution et des processus...
04/10/2025 -
Le médecin-chercheur Eric J. Topol et le spécialiste en IA de Harvard, Pranav Rajpurkar plaident en faveur d'une séparation claire des rôles entre les systèmes d'IA et les radiologues dans un éditorial publié dans la Revue Radiology. Ils proposent un cadre que les radiologues doivent adapter à leurs...
28/08/2025 -

Gleamer, acteur française de l’IA médicale, a lancé en juillet dernier sa suite OncoView destinée à assister les radiologues dans la détection précoce du cancer par densitométrie (TDM).
22/08/2025 -

Gleamer a annoncé, le 10 Juillet 2025, la signature d’un partenariat stratégique avec le réseau France Imageries Territoires (FIT) pour le déploiement des solutions Gleamer Copilot® dans l’ensemble des centres d’imagerie du réseau FIT.
29/07/2025 -


Les grands modèles de langage multimodaux seraient-ils capables de réaliser des comptes rendus radiologiques ? Des résultats d’essais contradictoires troublent le ressenti sur les possibilités de GPT-4V, un modèle qui se concentre uniquement sur la précision diagnostique. Une étude publiée dans la R...
21/07/2025 -
Ne manquez aucune actualité en imagerie médicale et radiologie !
Inscrivez-vous à notre lettre d’information hebdomadaire pour recevoir les dernières actualités, agendas de congrès, et restez informé des avancées et innovations dans le domaine.