ETSI acaba de presentar un nuevo informe del Grupo sobre Inteligencia Artificial sobre el uso de la IA para lo que comúnmente se conoce como deepfakes. Es decir, un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona.
El documento ETSI GR SAI 011, publicado por el grupo Securing AI (ISG SAI), se centra en el uso de la IA para manipular representaciones de identidad multimedia e ilustra los riesgos consecuentes, así como las medidas que pueden tomarse para mitigarlos.
Las técnicas de IA pueden crear datos multimedia falsos desde cero
“Las técnicas de IA permiten manipulaciones automatizadas que anteriormente requerían una cantidad sustancial de trabajo manual y, en casos extremos, incluso pueden crear datos multimedia falsos desde cero. Deepfake también puede manipular archivos de audio y video de manera específica, al tiempo que preserva una alta calidad acústica y visual en los resultados, lo que era en gran medida inviable utilizando la tecnología comercial anterior. Las técnicas de IA se pueden utilizar para manipular archivos de audio y video en un sentido más amplio, por ejemplo, aplicando cambios al fondo visual o acústico. Nuestro informe ETSI propone medidas para mitigarlos”, explica Scott Cadzow, presidente de ETSI ISG SAI.
Técnicas y amenazas por los deepfakes generados por IA
Asimismo, el informe describe muchas de las preocupaciones más inmediatas planteadas por el aumento de la IA, en particular el uso de técnicas basadas en IA para manipular automáticamente los datos de identidad representados en diversos formatos de medios, como audio, video y texto (deepfakes y, por ejemplo, software de texto generado por IA como ChatGPT, aunque, como siempre según las directrices de ETSI, el informe no aborda productos o servicios específicos).
También detalla los diferentes enfoques técnicos, y también analiza las amenazas planteadas por los deepfakes en diversos escenarios de ataque.
Mediante el análisis de los enfoques utilizados, este documento pretende proporcionar la base para nuevas medidas técnicas y organizativas para mitigar estas amenazas, además de debatir su eficacia y limitaciones.
ISG SAI de ETSI es el único grupo de estandarización que se centra en la seguridad de la IA. Ya ha publicado ocho informes. El grupo trabaja para racionalizar el papel de la IA dentro del panorama de amenazas y, al hacerlo, identificar medidas que conduzcan al despliegue seguro de la IA junto con la población a la que la IA está destinada a servir.