Luz verde para la Ley de IA, una aprobación que se ha producido después de que se alcanzara un acuerdo provisional entre el Consejo Europeo, el Parlamento Europeo y la Comisión Europea en diciembre de 2023.
El reglamento fue respaldado por la mayoría de sus miembros con 523 votos a favor, 46 en contra y 49 abstenciones.
Índice de temas
Próximos pasos para su entrada en vigor
La ley está ahora sujeta a una “revisión final de abogados-lingüistas” y aún debe ser “respaldada formalmente” por la CE por lo que se espera que los países del bloque den su aprobación formal en mayo. Así pues, la norma entrará en vigor 20 días después de su publicación en el Diario Oficial, y será plenamente aplicable dos años después, con algunas excepciones: las prohibiciones entrarán en vigor después de seis meses, las normas de gobernanza y las obligaciones para los modelos de IA de propósito general serán aplicables después de 12 meses y las normas para los sistemas de IA, integradas en productos regulados, se aplicarán después de 36 meses.
Se espera que los países del bloque den su aprobación formal en mayo
Para facilitar la transición al nuevo marco regulador, la Comisión ha puesto en marcha el Pacto sobre IA, una iniciativa voluntaria que tiene por objeto apoyar la futura aplicación e invita a los desarrolladores de IA de Europa y de otros países a cumplir con las obligaciones clave de la Ley de IA con antelación.
Objetivo de la nueva Ley
El objetivo de la nueva ley es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector, explican desde el Parlamento. En este sentido, el reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.
Aplicaciones prohibidas
Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Exenciones de las fuerzas de seguridad
El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido a priori, salvo en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica “en tiempo real” sólo se podrán emplear si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.
Obligaciones para los sistemas de alto riesgo
También se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho). Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones). Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana.
En este sentido, los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.
Requisitos de transparencia
Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.
Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados (“ultra falsificaciones”) deberán etiquetarse claramente como tales.
Medidas de apoyo a la innovación y a las pymes
Asimismo, desde el Parlamento han destacado que habrá que poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.
Europa como referente mundial en IA
Con la legislación que entrará en vigor a principios del próximo año, el comisario europeo de Mercado Interior, Thierry Breton, afirmó que Europa “es ahora un referente mundial en materia de IA”. Y es que, la Ley de Inteligencia Artificial incluye disposiciones que conducirán a la prohibición de la biometría “basada en características sensibles”, el reconocimiento emocional y conductual y la vigilancia predictiva. Sin embargo, el uso de la biometría para investigar “delitos penales” estará exento.
Aunque es una medida que deja muchos frentes abiertos, es histórica por la trascendencia que tiene en un área que apenas se ha regulado. Regula aspectos que pueden afectar a los derechos fundamentales de las personas y obliga a los desarrolladores a cumplir unas salvaguardas más estrictas.