En la última década, la Inteligencia Artificial ha dejado de ser una promesa tecnológica para convertirse en una realidad tangible. Desde las plataformas de streaming con sus recomendaciones hasta asistentes virtuales y atención al cliente, la IA está en todas partes. Sin embargo, su crecimiento y adopción masiva también ha planteado una serie de preocupaciones éticas, sociales y de seguridad, jugando un papel fundamental las regulaciones.
La reciente Ley de Inteligencia Artificial de la Unión Europea, aprobada en marzo de 2024, ha sido clave y abre un nuevo camino en torno a la creación de los marcos regulatorios de esta herramienta para mitigar riesgos y garantizar un uso responsable de la IA. Además de esta ley, también están surgiendo otras regulaciones importantes como la emitida a finales de 2023 por la Casa Blanca para regular el desarrollo de la IA. También en abril de 2024 EE.UU. anunció la colaboración con Reino Unido para probar la seguridad de los sistemas avanzados de IA.
Como vemos, este avance legislativo marca un antes y un después en la manera en que las empresas deben abordar la IA en sus actividades. Y no sólo para las organizaciones que operan dentro de la UE, sino que también esta ley europea se aplica a cualquier organización que tenga algún impacto dentro de la UE, por lo que el cumplimiento de esta normativa no es opcional. La Ley establece una serie de directrices y controles que buscan proteger a los usuarios de los riesgos que una IA mal gestionada puede generar.
La Ley de IA de la UE no es un punto final, es un comienzo que indica que vendrán más cambios. Puede hablar sobre cómo está evolucionando la regulación de la IA y sobre otras medidas, como la IA privada de propiedad empresarial, que marcarán la pauta para el futuro de la IA segura.
Índice de temas
El papel de la ley frente a los riesgos de la IA
La IA lleva muchos años utilizándose de diferentes maneras. Sin embargo, en los últimos años, su crecimiento exponencial, impulsado además por el auge de la IA generativa como ChatGPT, ha despertado una gran preocupación por sus posibles riesgos. Algunos de los más evidentes que encontramos son la creación de contenido falso o dañino, las llamadas “alucinaciones“, respuestas erróneas o incorrectas generadas por la IA, y la falta de transparencia, lo que dificulta entender cómo y por qué la IA toma determinadas decisiones.
La nueva Ley de IA de la UE aborda directamente estos problemas. Entre sus principales objetivos están la necesidad de transparencia, así como la validación y supervisión humana en los sistemas de alto riesgo, los cuales pueden tener un impacto profundo en áreas como el empleo, la justicia, la biometría o las infraestructuras críticas.
La transparencia, validación y supervisión humana: claves para la ley
Como he comentado, la transparencia es fundamental dentro de la nueva ley. Los usuarios deben estar plenamente informados cuando están interactuando con IA, ya sea en una aplicación conversacional o en un sistema más complejo que afecte a su vida diaria, como una solicitud de préstamo o un proceso de contratación. Esto no solo protege a los consumidores, sino que también genera confianza en la tecnología, lo cual es esencial para su adopción a largo plazo.
Los usuarios deben estar plenamente informados cuando están interactuando con IA
Por otro lado, tanto la validación como supervisión humana son otros pilares clave de la regulación. La ley establece que las decisiones críticas no pueden ser tomadas de forma completamente autónoma por IA, sino que deben estar sujetas a revisión y validación humana, asegurando que los errores puedan ser evitados, lo que la ley pretende reducir. Los humanos deben estar al tanto de todo con un control adicional a los sistemas de IA. Si algo sale mal, están a tiempo de corregir los errores gracias a su criteriogarantizando así decisiones adecuadas.
La ley establece que las decisiones críticas no pueden ser tomadas de forma completamente autónoma por IA, sino que deben estar sujetas a revisión y validación humana
Esta combinación de IA y supervisión humana crea lo que denominamos “autonomía mixta“, un concepto que ya hemos implementado con éxito en Appian para maximizar las fortalezas de ambos actores. Esto se debe a que la IA no tiene criterio humano. Puede proponer ideas, pero debe contar con supervisión humana, formando la IA parte de un equipo.
Categorías de riesgo y requisitos normativos
La Ley de IA clasifica los sistemas en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. Aquellos que presentan riesgos inaceptables, como la manipulación o puntuación social basada en datos personales, están prohibidos. Por otro lado, los sistemas de alto riesgo, que incluyen desde dispositivos médicos hasta sistemas de reclutamiento, deben cumplir estrictos requisitos de evaluación y validación.
En este contexto, las empresas deben estar preparadas para registrar sus sistemas, someterlos a auditorías de conformidad y garantizar que cumplen con los niveles exigidos de seguridad, precisión y supervisión humana. Un sistema de gestión de riesgos es imprescindible, así como una gobernanza de datos que asegure que los conjuntos de datos utilizados para entrenar a las IA son representativos y no contienen sesgos.
IA privada, segura y responsable
Las regulaciones de IA tienen como objetivo crear una IA segura y responsable. Por ello, es fundamental utilizar servicios que prioricen una filosofía de IA privada lo que se traduce en no compartir los datos con terceros, permaneciendo dentro de los límites del cumplimiento y seguridad.
Muchos de los principales servicios de IA públicos crean y refinan algoritmos de IA basados en datos de clientes. Esto ayuda a afinar los algoritmos y crear IA basadas en datos del mundo real, pero hay una desventaja obvia: no es posible saber cómo se utilizarán esos datos una vez incorporados a su modelo de IA. De esta manera, no se puede documentar a dónde van estos datos o si habrá sesgo o incluso más “alucinaciones”.
Por último, es importante que los datos permanezcan bajo control en todo momento. Una buena plataforma de automatización de procesos garantiza que los datos nunca salgan del límite de cumplimiento.