🌐 Vers une régulation intégrée de l’intelligence artificielle en santé
Le guide MDCG 2025-6 a été publié en juin 2025 par le Medical Device Coordination Group (MDCG) et l’Artificial Intelligence Board (AIB). Il propose des lignes directrices pratiques sur l’application conjointe des règlements européens MDR/IVDR et de l’Artificial Intelligence Act (AIA) pour les dispositifs médicaux intégrant des systèmes d’intelligence artificielle, appelés MDAI (Medical Device AI). Il s’adresse aux fabricants, organismes notifiés et autorités compétentes.
Date d’application des obligations du Règlement 2024/1689 :
- Avant le 2 août 2027, les obligations AIA pour les MDAI déjà sur le marché ne s’appliquent pas, sauf en cas de modification significative à partir de cette date
- Après le 2 août 2027, toutes les obligations AIA s’appliquent pleinement aux MDAI mis sur le marché ou modifiés
🔍 Points clés de l’articulation réglementaire
- Double conformité obligatoire
Tout dispositif médical intégrant un système d’IA à haut risque doit satisfaire aux exigences des deux règlements :
- MDR/IVDR pour la sécurité et la performance cliniques
- AIA pour les risques spécifiques à l’IA (droits fondamentaux, biais, cybersécurité…)
- Classification des MDAI
Un MDAI est considéré à haut risque s’il :
- est lui-même un dispositif médical ou un composant de sécurité,
- et fait l’objet d’une évaluation de conformité par un organisme notifié au titre du MDR ou de l’IVDR.
- Documentation technique unique
Les fabricants sont encouragés à intégrer dans une seule documentation l’ensemble des éléments exigés par le MDR/IVDR et l’AIA : architecture logicielle, données d’entraînement/validation, évaluations des risques et performances.
🔐 Exigences renforcées pour les MDAI
Qualité et gestion du cycle de vie
Les MDAI doivent être accompagnés d’un système de gestion qualité intégré couvrant :
- la conception,
- la surveillance post-commercialisation,
- les mises à jour,
- et les modifications prédéterminées.
Gouvernance des données
Les données utilisées pour entraîner, valider et tester un MDAI doivent être :
- représentatives, complètes et exemptes de biais,
- en conformité avec le RGPD,
- et documentées dans un cadre de gouvernance robuste.
Transparence et supervision humaine
Les MDAI doivent :
- offrir des mécanismes de supervision humaine adaptés à leur niveau d’autonomie,
- permettre une interprétation compréhensible des décisions par les professionnels de santé,
- et informer clairement les utilisateurs lorsqu’ils interagissent avec une IA.
Cybersécurité
Des mesures de sécurité spécifiques à l’IA doivent être intégrées dès la conception pour :
- prévenir les accès non autorisés et les manipulations malveillantes,
- garantir la robustesse et la résilience du système tout au long de son cycle de vie.
📈 Surveillance et évolution réglementaire
Le texte précise également :
- les modalités d’évaluation clinique et de performance des MDAI,
- les procédures de mise en conformité combinées MDR/IVDR+AIA,
- les règles encadrant les modifications substantielles post-commercialisation,
- et la nécessité de former les utilisateurs finaux à l’interprétation et à la bonne utilisation des systèmes IA.
Des lignes directrices complémentaires sont attendues, notamment sur les modifications substantielles, les plans de changements prédéterminés et la formation à la littératie en IA.
📌 Conclusion
Ce document marque une étape importante dans l’harmonisation européenne des exigences applicables aux dispositifs médicaux dotés d’intelligence artificielle. Il confirme que l’AIA ne remplace pas le MDR ou l’IVDR, mais les complète avec des exigences ciblées sur l’IA. Les fabricants doivent désormais naviguer dans un cadre réglementaire intégré, garantissant à la fois sécurité des patients et respect des droits fondamentaux.
Pour en savoir plus: