Farmaindustria aplaude el decálogo de EMA y FDA sobre IA en el diseño de nuevos medicamentos

Farmaindustria respalda el decálogo de EMA y FDA sobre IA, que fija 10 principios para garantizar buenas prácticas en el desarrollo de medicamentos.

2 minutos

Publicado

2 minutos

Farmaindustria ha recibido con satisfacción el decálogo difundido de forma conjunta por la Agencia Europea de Medicamentos (EMA) y la Agencia Estadounidense del Medicamento (FDA), en el que ambas instituciones reconocen el potencial de la inteligencia artificial y fijan 10 principios destinados a sentar las bases de unas buenas prácticas y a impulsar el avance de estas tecnologías en el desarrollo de fármacos.

El documento “Principios de buenas prácticas con IA en el desarrollo de medicamentos” define la inteligencia artificial (IA) como las tecnologías de sistema empleadas para generar o examinar evidencias durante todas las etapas del ciclo de vida de un medicamento, desde la investigación preclínica y clínica hasta los procesos de fabricación, comercialización y seguimiento posterior.

Según detallan las agencias, estas herramientas deben contribuir a reforzar los estándares de calidad, eficacia y seguridad exigidos a los medicamentos y, en el caso concreto de la IA, se espera que su aplicación permita acortar los plazos de llegada al mercado, mejore la excelencia regulatoria y la farmacovigilancia y, al mismo tiempo, reduzca la dependencia de los ensayos con animales gracias a predicciones más precisas sobre eficacia o toxicidad.

El texto recoge 10 principios de actuación que pueden guiar a los distintos agentes implicados en el proceso, desde los desarrolladores de medicamentos hasta los solicitantes o titulares de las autorizaciones de comercialización, y subraya además la relevancia de forjar alianzas internacionales sólidas que favorezcan una innovación responsable.

La EMA y la FDA remarcan que el diseño y la utilización de tecnologías de IA deben respetar valores éticos y mantener un enfoque centrado en las personas. Igualmente, señalan que el grado de validación y supervisión de cada sistema de IA ha de ser proporcional al riesgo que pueda entrañar para el modelo concreto y en el contexto en el que se aplique.

Ambas organizaciones insisten en que las soluciones basadas en IA deben ajustarse a los marcos legales, éticos, técnicos, científicos, de ciberseguridad y regulatorios pertinentes, incluidas las buenas prácticas (GxP). Del mismo modo, consideran imprescindible que el origen de los datos, su procesamiento y las decisiones analíticas queden documentados de forma detallada, trazable y verificable, conforme a las buenas prácticas, garantizando así una gobernanza adecuada y la protección y confidencialidad de la información durante todo el ciclo de vida de la tecnología.

Finalmente, el decálogo defiende el uso de un lenguaje claro y sencillo para ofrecer información comprensible, accesible y relevante para los destinatarios, incluidos usuarios y pacientes, sobre el contexto de utilización, el rendimiento, las limitaciones, los datos que sustentan la herramienta, las actualizaciones y todo aquello necesario para que la tecnología de IA resulte interpretable y fácil de entender.