L’Agence européenne du médicament (EMA) et le réseau des directeurs d’agences nationales du médicament (Heads of Medicines Agencies -HMA) ont publié le 5 septembre des recommandations pour l’utilisation “sûre, responsable et efficace” des grands modèles de langage (large language model -LLM) par les régulateurs nationaux.
L’objectif des recommandations est de “sensibiliser le personnel des agences de régulation à travers l’Europe aux capacités et aux limites” des LLM, ont fait savoir l’EMA et le HMA dans un communiqué.
Quatre grands principes ont été émis :
- s’assurer de la fiabilité des données, notamment en se renseignant sur chaque application
- faire preuve d’esprit critique et recouper les résultats pour s’assurer qu’ils sont dignes de confiance, fiables et justes
- rester informé sur la meilleure utilisation possible des LLM, par exemple pour réaliser des économies ou réduire l’impact sur l’environnement
- savoir qui contacter et à qui signaler les problèmes, en particulier en cas d’incidents ou de résultats fortement biaisés ou erronés.
L’EMA et le HMA “encouragent les régulateurs à soutenir leurs équipes dans l’utilisation des LLM”, en mettant en place une gouvernance, une liste de cas d’usage autorisés, des formations et une surveillance des risques.
Les grands modèles de langage “ont un énorme potentiel de transformation, qu’ils soient utilisés pour interroger la vaste quantité de documentation que les régulateurs reçoivent, pour automatiser les processus d’extraction de connaissances ou de données, ou en tant qu’assistants virtuels dans les tâches administratives quotidiennes”.
Cependant, ils posent de nombreux défis, dont “la variabilité des résultats, la génération de réponses non pertinentes ou inexactes, et des risques en matière de sécurité des données”, ont-ils résumé.
Rappelons les grands principes du plan de travail de l’EMA et des agences nationales en matière d’IA :
Le plan de travail a été préparé dans le cadre du groupe de travail -conjoint, piloté par le HMA et l’EMA- sur le big data et a été adopté par le conseil d’administration de l’EMA lors de sa réunion de décembre.
“L’IA évoluant à une vitesse fulgurante, les entreprises pharmaceutiques utilisent de plus en plus des outils alimentés par l’IA dans la recherche, le développement et la surveillance des médicaments. Les autorités compétentes nationales répondent à ces nouvelles opportunités et défis en adoptant et en développant des outils IA“, a souligné le gendarme européen du médicament.
Le document se focalise sur quatre “dimensions clés” :
- L’utilisation de l’IA pour l’orientation, la politique et le support produit
Cet axe porte notamment sur le développement et l’évaluation de directives appropriées pour l’utilisation de l’IA tout au long du cycle de vie d’un médicament. Pour rappel, en juillet 2023, l’EMA avait soumis à consultation publique un document de travail sur le sujet.
- Les outils et technologie d’IA
L’objectif est de mieux cibler et encadrer les outils d’IA destinés à accroître l’efficacité, améliorer la compréhension et l’analyse des données, ou encore soutenir la prise de décision. “Une attention particulière sera portée à garantir une conformité totale avec la législation sur la protection des données [règlement européen de protection des données ou RGPD]”, a souligné l’EMA.
- L’IA pour les collaborations et la formation
L’EMA entend développer la capacité du réseau européen des régulateurs à utiliser l’IA et former les utilisateurs être à jour, voire “en avance” avec les nouvelles technologies.
- Favoriser l’expérimentation de l’IA
Le plan de travail reconnaît le rôle fondamental de l’expérimentation pour la bonne prise en main de l’IA. L’EMA prévoit “plusieurs actions” pour inciter les agences nationales à tester la technologie.