L’EMA et la FDA publient dix principes communs encadrant l’usage de l’IA en développement du médicament, fondés sur une approche fondée sur le risque, la gouvernance et le cycle de vie.
L’intelligence artificielle n’est plus un concept prospectif dans l’industrie pharmaceutique. Elle est déjà utilisée pour optimiser la sélection de cibles, prédire la toxicité, affiner les essais cliniques, améliorer la pharmacovigilance ou sécuriser les procédés de fabrication. Cette accélération soulève toutefois une question centrale pour les autorités : comment garantir que l’IA renforce la décision réglementaire sans en fragiliser les fondements scientifiques et éthiques ?
La publication conjointe, en janvier 2026, par l’Agence européenne des médicaments (EMA) et la Food and Drug Administration (FDA) des Guiding principles of good AI practice in drug development marque une étape structurante. Pour la première fois, deux autorités majeures s’accordent sur un socle commun de principes encadrant l’usage de l’IA sur l’ensemble du cycle de vie du médicament.
Un positionnement clair des autorités
Le message des régulateurs est sans ambiguïté : l’IA n’est acceptable que si elle respecte les exigences historiques de qualité, sécurité et efficacité qui fondent l’autorisation des médicaments. Loin de créer un régime dérogatoire, l’EMA et la FDA inscrivent explicitement l’IA dans la continuité des cadres existants (GxP, systèmes qualité, gestion des risques).
Le document ne constitue pas une ligne directrice juridiquement contraignante. Il s’agit toutefois d’un texte de référence, destiné à orienter les pratiques industrielles, les travaux de normalisation et, à terme, l’élaboration de futures lignes directrices réglementaires.
Une approche fondée sur le risque, fil conducteur du document
Le cœur du positionnement EMA–FDA repose sur une logique désormais familière aux acteurs du secteur : l’approche fondée sur le risque.
L’IA n’est pas évaluée en tant que technologie abstraite, mais au regard de son contexte d’utilisation, de son rôle dans la prise de décision et de son impact potentiel sur la sécurité du patient.
Ainsi, un algorithme utilisé comme outil exploratoire en recherche amont n’appellera pas le même niveau de contrôle qu’un modèle influençant une décision clinique ou réglementaire critique. Cette proportionnalité irrigue l’ensemble des dix principes.
Les dix principes : une transposition des fondamentaux GxP à l’IA
Plutôt que d’introduire des concepts radicalement nouveaux, les autorités opèrent une transposition des fondamentaux réglementaires existants vers l’IA.
- Approche centrée sur l’humain
Les systèmes d’IA doivent être conçus et utilisés conformément aux valeurs éthiques et au principe de supervision humaine.
- Approche fondée sur le risque
Le niveau de validation, de contrôle et de surveillance est proportionné au contexte d’utilisation et à l’impact potentiel sur la décision réglementaire et la sécurité du patient.
- Conformité aux normes applicables
Les systèmes d’IA doivent respecter les exigences légales, réglementaires, techniques et GxP pertinentes.
- Contexte d’utilisation clairement défini
Le rôle exact de l’IA (aide à la décision, automatisation partielle, génération de données) doit être documenté sans ambiguïté.
- Expertise pluridisciplinaire
Les compétences IA, scientifiques, cliniques, réglementaires et qualité doivent être intégrées sur l’ensemble du cycle de vie.
- Gouvernance des données et documentation
La provenance des données, leur qualité, leur traitement et leur traçabilité doivent être documentés conformément aux exigences GxP.
- Bonnes pratiques de conception et de développement des modèles
Les modèles doivent être développés selon des principes robustes d’ingénierie logicielle, en tenant compte de l’interprétabilité et de la généralisabilité.
- Évaluation des performances fondée sur le risque
Les performances doivent être évaluées sur des jeux de données adaptés à l’usage prévu, incluant les interactions homme-machine.
- Gestion du cycle de vie
Les modèles doivent faire l’objet d’une surveillance continue (data drift, performance, biais) et de réévaluations périodiques intégrées au SMQ.
- Information claire et essentielle
Les limites, performances et conditions d’utilisation de l’IA doivent être communiquées de manière compréhensible aux utilisateurs et, le cas échéant, aux patients.
Cette logique positionne clairement l’IA comme un objet du système de management de la qualité, et non comme un simple outil IT périphérique.
Implications concrètes pour les industriels
Pour les laboratoires et leurs partenaires, ces principes impliquent un changement de posture.
L’IA ne peut plus être développée en silo, puis « raccordée » a posteriori à une démarche réglementaire.
Concrètement, cela suppose :
- une implication précoce des fonctions qualité et réglementaires,
- une documentation structurée des choix algorithmiques,
- une articulation claire avec la gestion des risques (ICH Q9),
- une capacité démontrée à détecter et gérer les dérives de performance (data drift, biais).
Les autorités envoient également un signal fort : l’opacité des modèles (« black box ») devient un facteur de risque réglementaire, en particulier lorsque l’IA contribue directement à des décisions impactant le patient.
Un texte fondateur, mais volontairement évolutif
L’EMA et la FDA reconnaissent explicitement que ces principes ne constituent qu’une première étape. L’IA évolue rapidement, tout comme les standards techniques et les attentes sociétales en matière de transparence et d’éthique.
Le document se veut donc un socle commun, destiné à alimenter :
- les travaux des organismes de normalisation,
- les initiatives d’harmonisation internationale,
- le dialogue entre autorités, industriels et développeurs.
Conclusion
Avec ces dix principes de bonnes pratiques, l’EMA et la FDA posent un cadre clair : l’innovation par l’IA est encouragée, à condition d’être maîtrisée, traçable et alignée sur les exigences fondamentales du médicament.
Pour les acteurs du secteur, l’enjeu n’est plus de savoir si ces principes s’imposeront, mais quand et comment ils se traduiront dans les attentes opérationnelles des autorités. Les intégrer dès aujourd’hui constitue un levier stratégique pour sécuriser l’acceptabilité réglementaire des usages de l’IA demain.
Source : EMA

