La IA generativa (ChatGPT o Bard) tiene el potencial de facilitar tareas diarias, pero la falta de conocimiento lo hace susceptible al mal uso. El desconocimiento y uso irresponsable de esta IA pueden llevar a brechas de datos y filtraciones que exponen información confidencial y provocan daños irreparables. Los empleados los utilizan para obtener orientación rápida y asistencia en tareas como el desarrollo de software. Sin embargo, estas herramientas pueden dar como resultado fugas accidentales de datos confidenciales a una escala significativa, lo que presenta un desafío de privacidad y seguridad. Por otro lado, los cibercriminales lo usan para crear un flujo completo de infección desde spear-phishing hasta ejecución de códigos maliciosos y ataques de ransomware.
WHITEPAPER
IA y seguridad: el lado oscuro de ChatGPT
Descargar gratis
IA y seguridad: el lado oscuro de ChatGPT
Proporcionado por: BPS
Descargar gratis
DESCARGA EL WHITEPAPERLa neutralidad y falta de una verdadera conciencia de esta IA provoca que este gran potencial también pueda ser utilizado para hacer el mal.
23 noviembre 2023
Descarga el whitepaper
Profundización