El ETSI Securing Artificial Intelligence Industry Specification Group (SAI ISG) publicó el mes pasado su primer informe, ETSI GR SAI 004, que ofrece una descripción general del problema relacionado con la protección de la IA.
ETSI SAI es la primera iniciativa de estandarización dedicada a proteger la IA
El documento describe el problema de proteger los sistemas y soluciones basados en Inteligencia Artificial, con un enfoque centrado en el aprendizaje automático, y los desafíos relacionados con la confidencialidad, la integridad y la disponibilidad en cada etapa del ciclo de vida del aprendizaje automático.
También señala algunos de los desafíos de los sistemas de IA, incluidos el sesgo, la ética y la capacidad de explicación. Se describen varios vectores de ataque diferentes, así como varios casos de uso y ataques en el mundo real.
“Hay muchas discusiones sobre la ética de la IA, pero ninguna sobre los estándares para asegurar la IA. Sin embargo, se están volviendo fundamentales para garantizar la seguridad de las redes automatizadas basadas en IA. Este primer Informe ETSI está destinado a ofrecer una definición completa de los desafíos a los que se enfrenta la industria al proteger la IA. Paralelamente, estamos trabajando en una ontología de amenazas, en cómo asegurar una cadena de suministro de datos de IA y cómo probarla , explica Alex Leadbeater, presidente de ETSI SAI ISG.
Para identificar los problemas relacionados con la seguridad de la IA, el primer paso fue definir la IA. Para el grupo, este concepto alude a la capacidad de un sistema para manejar representaciones, tanto explícitas como implícitas, y procedimientos para realizar tareas que se considerarían inteligentes si las realizara un humano. Esta definición implica un amplio espectro de posibilidades. Sin embargo, un conjunto limitado de tecnologías se está volviendo factible, en gran parte impulsado por la evolución del aprendizaje automático y las técnicas de deep-learning, y la amplia disponibilidad de los datos y la potencia de procesamiento necesarios para entrenar e implementar tales tecnologías.
Numerosos enfoques del aprendizaje automático son de uso común, incluido el aprendizaje supervisado, no supervisado, semisupervisado y por refuerzo. Dentro de estos paradigmas, se podrían utilizar una variedad de estructuras modelo, siendo uno de los enfoques más comunes el uso de redes neuronales profundas, donde el aprendizaje se lleva a cabo sobre una serie de capas jerárquicas que imitan el comportamiento del cerebro humano.
También se pueden utilizar varias técnicas de entrenamiento, a saber, el aprendizaje contradictorio (adversarial learning), que contiene tanto muestras que reflejan los resultados deseados, como muestras contradictorias, que están destinadas a desafiar o alterar el comportamiento esperado.
Si bien el término ‘inteligencia artificial’ se originó en una conferencia en la década de 1950 en Dartmouth College en Hanover, New Hampshire, Estaods Unidos, los casos de uso en la vida real descritos en el Informe ETSI muestran lo que ha evolucionado desde entonces. Tales casos incluyen ataques de bloqueadores de anuncios, ofuscación de malware, deepfakes, reproducción de escritura a mano, voz humana y conversación falsa (que ya ha generado muchos comentarios en relación a los chatbots).