El 1 de agosto entró en vigor el Reglamento Europeo de Inteligencia Artificial (IA), un paso determinante en la normalización del uso de esta herramienta en distintos ámbitos de la sociedad, como es el de la salud. Este documento impulsado por la Comisión Europea es realmente relevante al haberse convertido en el primer código global sobre inteligencia artificial del mundo. La necesidad de establecerlo emana de la urgencia de proteger los derechos fundamentales de las personas al ser un instrumento potente pero con unas funcionalidades muy diversas.
Aunque las primeras medidas europeas no empezarán a aplicarse hasta dentro de seis meses, la Unión ha consolidado el denominado “Pacto sobre la IA”. Con él, se pretende que los desarrolladores de IA adopten voluntariamente las obligaciones clave de la Ley de IA antes de los plazos legales.
Una herramienta útil
Desde que comenzó a usarse la IA de forma más generalizada en cualquier ámbito de la sociedad, teniendo su pico de uso en los últimos cuatro años, las distintas organizaciones la han percibido tanto como una herramienta útil como un reto. Es el caso de la Organización Mundial de la Salud (OMS), que en la publicación “Ética y Gobernanza de la Inteligencia Artificial en el Ámbito de la Salud” establece una serie de orientaciones del uso de la Inteligencia Artificial en el ámbito sanitario.
La Organización categoriza esta herramienta como “muy prometedora para la práctica de la salud pública y la medicina” pero se posiciona a favor de la regulación de la misma para “abordar los problemas éticos que conlleva para los sistemas de atención de la salud, los profesionales sanitarios y los beneficiarios de los servicios médicos y de salud pública”.
Principios éticos de la OMS
Por estos motivos, establece cinco principios éticos para la utilización de la IA en salud, como es garantizar la transparencia, la claridad y la inteligibilidad. Esto se refiere a que se publique suficiente antes del diseño o despliegue de una nueva tecnología de IA, fomentando consultas y debates públicos que tengan relevancia, acerca de su utilización. También hace hincapié en la necesidad de promover el bienestar y la seguridad de las personas y el interés público, haciendo explícito que se necesitan medidas de control para preservar la salud mental de las personas.
Otros puntos a los que les confiere especial relevancia son proteger la autonomía humana, es decir, que las personas deben mantener el control sobre los sistemas de atención de la salud y las decisiones médicas. Dentro de este mismo ámbito, señalan que es clave promover una IA con capacidad de respuesta y sostenible. Afirman, concretamente, que las tecnologías deben ser coherentes con la sostenibilidad de los sistemas, los entornos y los lugares de trabajo en el ámbito de la salud.
Garantizar la inclusividad y la equidad es esencial para la OMS, además de promover la responsabilidad y la rendición de cuentas, destacando aquí la aplicación de la “garantía humana” mediante la evaluación de las tecnologías por parte de los médicos y los pacientes.
La legislación europea
La legislación que parte de la Comisión Europea tiene como objetivo que la IA que se desarrolle y se utilice en la UE sea fiable, coincidiendo con la OMS en la necesidad de que respete los derechos fundamentales.
Con el fin de catalogar cómo de segura es una inteligencia artificial, la UE establece cuatro categorías basadas en el riesgo. Las que tienen riesgo mínimo son los sistemas de filtros online y hay un factor muy concreto, el que evalúa el “riesgo específico de transparencia”, pues todas las IAs tienen que avisar a los usuarios de que son máquinas.
Los sistemas de riesgo alto tienen que cumplir unos requisitos muy estrictos, y un ejemplo de estos son los que se utilizan en contratación o para conceder préstamos. El grado más alto es el de riesgo inaceptable, la UE prohibirá las IAs que sean una clara amenaza para los derechos fundamentales de las personas.