EMA y FDA fijan 10 principios para una IA ética y centrada en las personas en el desarrollo de fármacos

EMA y FDA fijan 10 principios para garantizar un uso ético, seguro y centrado en las personas de la inteligencia artificial en el desarrollo de medicamentos.

3 minutos

Comenta

Publicado

3 minutos

La Agencia Europea de Medicamentos (EMA) y la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) han hecho público un documento conjunto con 10 principios de buena práctica para el uso de la inteligencia artificial (IA) en el desarrollo de medicamentos. En este texto subrayan que el diseño y la aplicación de estas tecnologías deben regirse por valores éticos y por un enfoque claramente centrado en el ser humano.

Este trabajo común se puso en marcha tras la reunión bilateral celebrada en abril de 2024 entre la FDA y la Unión Europea. A partir de ese encuentro, ambas autoridades reguladoras iniciaron una colaboración para asegurar un uso responsable de la IA en la generación y el seguimiento de evidencia a lo largo de todas las etapas de vida de un medicamento, desde la investigación inicial y los ensayos clínicos hasta la producción y la monitorización de la seguridad. Ese esfuerzo se concreta ahora en el documento de principios rectores difundido por ambos organismos.

"Los principios rectores de las buenas prácticas de IA en el desarrollo de fármacos son un primer paso de una cooperación renovada entre la UE y EEUU en el ámbito de las nuevas tecnologías médicas. Estos principios son un buen ejemplo de cómo podemos colaborar a ambos lados del Atlántico para mantener nuestro liderazgo en la carrera mundial por la innovación, garantizando al mismo tiempo la máxima seguridad para el paciente", ha destacado el comisario europeo de Salud y Bienestar Animal, Olivér Várhelyi.

El texto recuerda que el empleo de la IA en las distintas fases del ciclo de vida de los medicamentos se ha incrementado de forma notable en los últimos años. Se prevé que estas herramientas contribuyan a impulsar la innovación, acortar los plazos de llegada al mercado, reforzar la calidad de la regulación y la farmacovigilancia, y reducir la utilización de animales de experimentación gracias a una mejor capacidad de predicción de la toxicidad y de la eficacia en personas.

Con este telón de fondo, el documento fija un conjunto de principios compartidos destinados a "informar, mejorar y promover" el uso de la IA en el ámbito de los medicamentos. Su objetivo es servir de referencia a las agencias reguladoras, a la industria farmacéutica y a los desarrolladores de fármacos para aprovechar el potencial de estas tecnologías sin comprometer la seguridad de pacientes y animales.

Diez principios para un uso responsable de la IA

Además de insistir en que el diseño de la IA debe ser humanocéntrico, el texto establece que el desarrollo y la utilización de estas tecnologías han de seguir un enfoque basado en el riesgo, con una validación proporcionada, medidas de mitigación adecuadas y una supervisión ajustada al contexto de uso y al nivel de riesgo asociado al modelo.

El documento también reclama que las soluciones de IA respeten todas las normas legales, éticas, técnicas, científicas, de ciberseguridad y regulatorias aplicables, incluidas las buenas prácticas, y que su finalidad y ámbito de aplicación queden claramente delimitados. Asimismo, señala que la experiencia multidisciplinar, que abarque tanto la tecnología de IA como el entorno en el que se utiliza, debe integrarse en todas las fases del ciclo de vida de estas herramientas.

Otro de los principios se centra en asegurar una gobernanza sólida de los datos empleados por la IA, incluyendo la privacidad y la protección de la información sensible durante todo el ciclo de vida de la tecnología. Igualmente, se defiende que el desarrollo de sistemas de IA se base en las mejores prácticas de diseño de modelos, de arquitectura de sistemas y de ingeniería de 'software', con el fin de favorecer la transparencia, la fiabilidad, la capacidad de generalización y la robustez, elementos clave para salvaguardar la seguridad de los pacientes.

Paralelamente, el documento aborda la necesidad de realizar evaluaciones de rendimiento fundamentadas en el riesgo, implantar sistemas de gestión de la calidad también basados en el riesgo a lo largo de todo el ciclo de vida de la IA y llevar a cabo un seguimiento planificado y revisiones periódicas para confirmar que estas tecnologías mantienen un funcionamiento adecuado.

El último de los principios establece que se emplee un lenguaje claro y sencillo para ofrecer información comprensible, accesible y adaptada al público al que se dirige, incluidos usuarios y pacientes, en relación con el contexto de uso, el rendimiento, las limitaciones, los datos en los que se apoya, las actualizaciones y el grado de interpretabilidad o explicabilidad de la tecnología de IA.

De cara al futuro, está previsto que estos principios se completen con nuevas directrices europeas que tengan en cuenta los requisitos legales vigentes y la normativa que se vaya aprobando en la UE en materia de medicamentos. El marco presentado se alinea con la misión de la EMA de fomentar un uso seguro y responsable de la IA, tal y como se recoge en la estrategia de la red de agencias europeas de medicamentos (EMANS) hasta 2028 y en el plan de trabajo plurianual conjunto de los jefes de agencias de medicamentos y la EMA sobre datos e inteligencia artificial.