La Agencia Europea de Medicamentos (EMA, por sus siglas en inglés) ha publicado un documento de reflexión que aborda el uso de la Inteligencia Artificial (IA) y el aprendizaje automático en el ciclo de vida de los medicamentos. Este documento busca establecer principios regulatorios para garantizar la seguridad y eficacia en el desarrollo, fabricación y uso de medicamentos, en respuesta al rápido avance de estas tecnologías.

Uno de los aspectos destacados es la necesidad de identificar qué aspectos de la IA están bajo la jurisdicción de la EMA y las autoridades nacionales competentes. La EMA subraya que el nivel de escrutinio dependerá del impacto que las aplicaciones de IA puedan tener en la seguridad del paciente y en las decisiones regulatorias.

El uso de la IA en ensayos clínicos es un área crítica, ya que puede proporcionar evidencia para la autorización de comercialización y en la combinación de medicamentos con dispositivos médicos. Aunque el documento se centra principalmente en medicamentos para uso humano, también reconoce las diferencias significativas con la medicina veterinaria, especialmente en cuanto a bases legales y riesgos éticos. Por otro lado, se hace hincapié en la importancia de adoptar un enfoque basado en el riesgo durante el desarrollo, despliegue y monitoreo de las herramientas de IA, debido al potencial peligro que un mal funcionamiento podría suponer para la seguridad del paciente. Los desarrolladores deben gestionar estos riesgos desde las etapas iniciales hasta la desactivación de los sistemas de IA.

En lo que respecta a los ensayos clínicos, la EMA señala que los sistemas de IA que impacten la seguridad o las decisiones regulatorias deben contar con una interacción temprana con las autoridades competentes. Además, el titular de la autorización debe asegurarse de que los algoritmos utilizados sean adecuados y cumplan con las normativas vigentes. El documento también aborda la aplicación de la IA en la fabricación de medicamentos, enfatizando que se espera un aumento en su uso. Los fabricantes son instados a adoptar principios de gestión de riesgos para asegurar la integridad de los datos y la seguridad de los productos.

Otro punto clave es la personalización de tratamientos a través de IA, basada en características individuales como genotipos o biomarcadores. Las decisiones que impliquen cambios en la dosificación deben ser evaluadas con cuidado para garantizar su seguridad. La EMA también prevé que la IA mejore la vigilancia post-autorización de medicamentos, incluyendo la farmacovigilancia y la detección de eventos adversos. Sin embargo, se requiere que las compañías responsables de las autorizaciones validen y monitoreen continuamente estos modelos.

El documento subraya la importancia de evitar sesgos en los datos utilizados para entrenar modelos de IA. Se recomienda asegurar la adquisición de conjuntos de datos balanceados y aplicar técnicas de aumento de datos para mejorar la equidad. La EMA también enfatiza la necesidad de prevenir el sobreajuste en los modelos, que podría afectar su rendimiento en el futuro.

La transparencia en los modelos de IA es fundamental. A pesar de que los modelos de ‘caja negra’ son comunes, la EMA sugiere que se utilicen modelos explicables siempre que sea posible, y que se proporcionen detalles sobre la arquitectura del modelo y los resultados de las pruebas. En términos de protección de datos, los modelos de IA que procesen datos personales deben cumplir con las normativas de protección de datos de la UE. Es esencial evaluar los riesgos de posibles ataques que puedan comprometer información personal, y se debe garantizar la anonimización de los datos antes de su compartición.

Finalmente, la EMA destaca principios éticos como la transparencia, privacidad, robustez técnica y seguridad, además de la necesidad de supervisión humana, y concluye que un enfoque centrado en las personas debe guiar la implementación de IA en el ciclo de vida de los medicamentos, promoviendo el bienestar social y la no discriminación.


También te puede interesar…