PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

La IA puede facilitar ataques maliciosos

En abril de 2024, un equipo de investigadores de la Universidad de Urbana-Champaign (UIUC) publicó un estudio pionero titulado: LLM Agents can Autonomously Exploit One-day Vulnerabilities (Los agentes LLM pueden explotar de forma autónoma vulnerabilidades de un día).

Los investigadores evaluaron si agentes de IA basados en ChatGPT-4 podían aprovechar fallos de seguridad conocidos como «vulnerabilidades de día cero», es decir, fallos conocidos pero aún no parcheados que representan un riesgo crítico para sistemas informáticos.

Para el estudio evaluaron 15 vulnerabilidades reales registradas en la base de datos pública Common Vulnerabilities and Exposures (CVE), un catálogo que documenta fallos de seguridad en software. Estas vulnerabilidades afectaban a diversos sistemas, incluyendo sitios web, software de gestión de contenedores y paquetes de programación en Python. El objetivo era determinar si un agente de IA, con acceso a la descripción de un CVE, podía explotar estos fallos para ejecutar ataques maliciosos.

Los hallazgos fueron impactantes: el 87 % de las vulnerabilidades fueron explotadas con éxito por los agentes de IA cuando se le proporcionó la descripción del fallo (CVE). Los ataques incluyeron técnicas sofisticadas como inyecciones de código SQL para manipular bases de datos, ejecución remota de código para tomar control de sistemas y robo de datos sensibles, comprometiendo información crítica.

Lo más sorprendente es solo precisaron 91 líneas de código, es decir, cualquier programador con conocimientos básicos podría hacerlo. Sin la descripción del CVE, la tasa de éxito cayó al 7 %.

Conclusión

El estudio pone de manifiesto el potencial de los modelos de IA para ser utilizados de manera maliciosa, convirtiéndose en herramientas accesibles para ciberdelincuentes.

Este trabajo fue una de las primeras demostraciones empíricas sólidas del potencial ofensivo de los agentes LLM. Demostró que modelos accesibles como GPT-4 pueden convertir una simple descripción pública de una vulnerabilidad en un exploit funcional con mínima intervención humana, reduciendo drásticamente la barrera de entrada para ciberdelincuentes.

En junio de 2024, el mismo equipo publicó un nuevo estudio titulado Teams of LLM Agents can Exploit Zero-Day Vulnerabilities (Los equipos de agentes LLM pueden explotar vulnerabilidades de día cero) donde equipos de agentes de IA logran explotar vulnerabilidades desconocidas con tasas de éxito del 53 % en 5 intentos, lo que eleva aún más la preocupación.

Actualizar los sistemas, programas y aplicaciones para instalar los parches de seguridad creados por los desarrolladores es primordial para asegurar que esas «cerraduras rotas» no faciliten la entrada a malhechores.

Otras medidas útiles para salvaguardar la información sensible o crítica son establecer controles de acceso estrictos, así como implementar un monitoreo proactivo que permita reaccionar rápidamente ante actividades sospechosas.

No se pierda nuestro podcast sobre el artículo

 

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es