Qué conviene saber sobre el futuro reglamento europeo de inteligencia artificial (y por qué te interesa)

En su sesión de 14 de Junio, el Parlamento Europeo da un paso adelante para la regulación integral sobre inteligencia artificial

Claudia Gonzalo

Capsulas Nº 239

Foco en las personas

Poner el ser humano en el centro de la inteligencia artificial (IA). Este es el objetivo que se ha puesto el Parlamento Europeo. El pasado 14 de junio el pleno del Parlamento Europeo aprobó la propuesta de reglamento por la que se instauran reglas armonizadas sobre inteligencia artificial. Este hito llega después de que el 11 de mayo las comisiones parlamentarias de Mercado Interior (IMCO) y la de Libertades Civiles (LIBE) aprobasen la propuesta. Esta aprobación fija la posición del Parlamento para las negociaciones con el Consejo Europeo. Se tratará del primer texto legislativo en el mundo que regula con profundidad la inteligencia artificial.

La pregunta obligada es ¿qué incluye el texto y en qué nos afecta? Las fuentes parlamentarias describen la propuesta como un paso adelante para asegurar que los sistemas de IA son “seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente”. Algunas de las principales medidas para ello son las siguientes:

  • Planteamiento basado en el riesgo: la intensidad de las obligaciones de los proveedores depende del nivel de riesgo que pueda generar la IA. No se regulan, por lo tanto, tecnologías concretas, sino sus usos. En total, se establecen cuatro niveles de riesgo: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo;
  • Se prohibirán los sistemas de IA que se considere que tienen un nivel inaceptable de riesgo. Por ejemplo, aquellos que desplieguen técnicas subliminales o de manipulación intencionada, exploten las vulnerabilidades de las personas o se utilicen para puntuar a los individuos;
  • Aumento del número de “usos intrusivos y discriminatorios de IA” prohibidos. Como norma general, estarán prohibidos los sistemas de identificación biométrica a distancia “en tiempo real” en espacios de acceso público. También lo estarán los sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión, orientación política);
  • Para los sistemas IA de uso general, sus proveedores deberán evaluar y mitigar los riesgos que entrañen sus modelos. Ello implicará un análisis en aspectos tales como afectación a derechos fundamentales, la salud, la seguridad, el medio ambiente, la democracia y el Estado de Derecho; y
  • Los modelos generativos (generative foundation models), como Chat GPT, van a tener que cumplir requisitos adicionales de transparencia, como revelar que los contenidos han sido generados por IA y publicar resúmenes de los datos protegidos por derechos de autor utilizados.

Sistemas de IA de alto riesgo

El Parlamento sigue considerando de alto riesgo los sistemas de IA que sean en sí mismos un producto regulado por la normativa europea y sujeto a evaluación de conformidad en relación con su impacto y riesgos en la salud o seguridad (por ejemplo, los productos sanitarios o los medicamentos); así como aquellos sistemas de IA que sean un componente de seguridad de uno de estos productos.

Se consideran sistemas de alto riesgo aquellos que presentan riesgo de causar un perjuicio para la salud, la seguridad o los derechos fundamentales de las personas o el medio ambiente, y se establecen dos categorías:

  • Sistemas que se utilizan en productos a los que se aplica la legislación de la UE sobre seguridad de los productos, y
  • Sistemas incluidos en ocho ámbitos específicos y que deberán registrarse en una base de datos a nivel de la Unión Europea. Uno de estos ámbitos es el de la identificación biométrica y categorización de personas físicas.

Con esta definición, muchos de los sistemas de IA empleados en el sector life sciences sujetos a evaluación de conformidad por un organismo notificado (productos sanitarios) podrán ser clasificados como de riesgo alto.

Esta clasificación implica que (i) estarán sujetos a obligaciones para su puesta en el mercado, tales como disponer de sistemas de evaluación y mitigación del riesgo, asegurar la claridad de la información al usuario o medidas reforzadas de seguridad, incluyendo un nivel adecuado de revisión humana y (ii) deberán monitorizarse durante su vida útil.

Es indudable que la IA va a tener un efecto transformador en la gestión de la salud de las personas. Precisamente por este impacto, es imprescindible adoptar una regulación integral que maximice su potencial y, al mismo tiempo, preserve las garantías necesarias para su funcionamiento.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información. ACEPTAR

Aviso de cookies