La FDA a annoncé récemment que l’IA serait déployée dans tous ses centres d’ici le 30 juin tandis que l’EMA prévoit un déploiement progressif jusqu’en 2028.
Alors que l’agence américaine de régulation des produits de santé a annoncé dans un communiqué lapidaire, le 9 mai, un calendrier “agressif” pour “déployer l’intelligence artificielle [IA] dans tous les centres de la FDA d’ici le 30 juin”, l’agence européenne a publié deux jours plus tôt sur le même sujet un plan de travail s’étalant jusqu’en… 2028.
La FDA, qui s’est récemment délestée d’au moins 3.000 collaborateurs, mènera simplement “un test pilote” d’un nouvel assistant d’IA générative pour “les évaluateurs scientifiques” avant de l’intégrer à toutes ses “plateformes de données internes” dans un peu plus d’un mois. Selon le magazine Wired, des réunions ont déjà eu lieu entre la FDA, des membres du Department of Government Efficiency (DOGE), l’entité chapeautée par Elon Musk, et OpenAI, maison-mère de ChatGPT. Les questions des bases de données qui seront utilisées pour entraîner l’IA, des garanties sur la confidentialité des informations, des cadres réglementaires de la formation des agents à l’usage de l’IA générative ou encore de la gestion des hallucinations propres à cette technologie restent pour l’instant sans réponse.
L’EMA préfère, pour sa part, se hâter avec lenteur, en menant tout d’abord des “expérimentations” en vue d'”utiliser d’importants volumes de données réglementaires et de santé” et mettre au point “de nouveaux outils pour encourager la recherche et l’innovation et soutenir la décision réglementaire”. L’agence européenne a dessiné une feuille de route afin de définir comment s’opéreront “la gestion, l’analyse et le partage des données à travers le réseau” des agences et de mettre en place “un cadre de coordination pour aborder les nouveaux textes européens”, dont le paquet pharmaceutique, le règlement sur l’IA ou le règlement sur l’espace européen des données de santé.
Lors du congrès EURO Convergence, Steffen Thirstrup, directeur médical de l’Agence européenne des médicaments (EMA), a expliqué que plusieurs grandes entreprises pharmaceutiques utilisent déjà l’IA pour rédiger leurs soumissions. Cela leur permet de réduire leur équipe dédiée à la rédaction et d’accélérer le processus. Toutefois, il a exprimé ses préoccupations quant aux “hallucinations” que l’IA peut introduire, c’est-à-dire des erreurs ou des données fausses qui nécessitent une vérification humaine.
D’autres experts ont partagé des avis similaires. Suzanne Halliday, vice-présidente de la conformité réglementaire chez BSI, a indiqué que si les organismes de réglementation explorent l’utilisation de l’IA, elle reste sceptique quant à sa fiabilité. Elle a cité des exemples où l’IA lui avait fourni des réponses très inexactes et différentes. Selon elle, l’humain doit encore jouer un rôle essentiel dans l’interprétation des données générées.
Sources : TIC PHARMA, RAPS