Google ha desarrollado un nuevo marco denominado Proyecto Naptime que, según afirma, permite a un gran modelo de lenguaje (LLM) llevar a cabo investigaciones sobre vulnerabilidades con el objetivo de mejorar los enfoques de descubrimiento automatizado.
"La arquitectura de Naptime se centra en la interacción entre un agente de inteligencia artificial y una base de código objetivo", explican Sergei Glazunov y Mark Brand, investigadores de Google Project Zero. "El agente dispone de un conjunto de herramientas especializadas diseñadas para imitar el flujo de trabajo de un investigador de seguridad humano".
La iniciativa se llama así por el hecho de que permite a los humanos "dormir la siesta con regularidad" mientras ayuda en la investigación de vulnerabilidades y automatiza el análisis de variantes.
El enfoque, en esencia, pretende aprovechar los avances en la comprensión de código y la capacidad de razonamiento general de los LLM, permitiéndoles así replicar el comportamiento humano a la hora de identificar y demostrar vulnerabilidades de seguridad.
Incluye varios componentes, como un navegador de código que permite al agente de IA navegar por el código base de destino, una herramienta de Python para ejecutar scripts de Python en un entorno aislado para la comprobación, una herramienta de depuración para observar el comportamiento del programa con diferentes entradas y una herramienta de informe para supervisar el progreso de una tarea.
Según Google, Naptime también es independiente del modelo y del backend, además de detectar mejor los desbordamientos de búfer y los fallos avanzados de corrupción de memoria, de acuerdo con las pruebas de CYBERSECEVAL 2. CYBERSECEVAL 2, publicado a principios de abril por investigadores de Meta, es una suite de evaluación para cuantificar los riesgos de seguridad de los LLM.
En las pruebas realizadas por el gigante de las búsquedas para reproducir y explotar los fallos, las dos categorías de vulnerabilidades obtuvieron nuevas puntuaciones máximas de 1,00 y 0,76, frente a 0,05 y 0,24, respectivamente, en OpenAI GPT-4 Turbo.
"Naptime permite a un LLM llevar a cabo una investigación de vulnerabilidades que imita en gran medida el enfoque iterativo y basado en hipótesis de los expertos en seguridad humanos", afirman los investigadores. "Esta arquitectura no solo mejora la capacidad del agente para identificar y analizar vulnerabilidades, sino que también garantiza que los resultados sean precisos y reproducibles".
Fuente: thehackernews