Tenable, Tenable, la empresa de gestión de la exposición, descubrió siete vulnerabilidades y técnicas de ataque durante las pruebas de ChatGPT-4o de OpenAI, y varias de ellas se encontraron posteriormente persistentes en ChatGPT-5. Conocidas colectivamente como HackedGPT, estas fallas exponen a los usuarios a riesgos de privacidad al eludir los mecanismos de seguridad incorporados. Si se explotan, podrían permitir a los atacantes robar secretamente datos personales, incluidos chats y memorias almacenadas. Si bien OpenAI ha remediado algunos de los problemas identificados, otros no se habían abordado en el momento de la publicación, dejando abiertas ciertas vías de exposición.
Dado que cientos de millones de personas utilizan ChatGPT a diario —ya sea para negocios, investigación o comunicación personal— las implicaciones de estas fallas son significativas. Una reciente encuesta de consumidores digitales señala que en América Latina las tasas de adopción de herramientas de IA generativa como ChatGPT superan el promedio global, lo que refuerza la relevancia de analizar su seguridad en la región.
Las vulnerabilidades revelan una nueva clase de ataque de IA llamado inyección indirecta de prompt, donde instrucciones ocultas en sitios web externos o comentarios pueden engañar al modelo para que realice acciones no autorizadas. Estas fallas afectan las funciones de navegación web y memoria de ChatGPT, que procesan datos de internet en vivo y almacenan información del usuario, creando oportunidades para la manipulación y la exposición de datos.
Los investigadores de Tenable muestran que estos ataques pueden ocurrir silenciosamente de dos maneras: ataques de “0-clic,” donde simplemente hacer una pregunta a ChatGPT desencadena el compromiso, y ataques de “1-clic,” donde hacer clic en un enlace malicioso activa comandos ocultos. Aún más preocupante es una técnica llamada Inyección de Memoria Persistente (Persistent Memory Injection), donde las instrucciones dañinas se guardan en la memoria a largo plazo de ChatGPT y permanecen activas después de que el usuario cierra la aplicación. Esto permite a los atacantes plantar amenazas duraderas que pueden exponer información privada en futuras sesiones hasta que se eliminen. En conjunto, estas fallas muestran cómo los atacantes podrían eludir las salvaguardas de OpenAI y acceder a los historiales privados de los usuarios.
“HackedGPT expone una debilidad fundamental en cómo los modelos de lenguaje grande juzgan en qué información confiar,” dijo Moshe Bernstein, Ingeniero de Investigación Senior en Tenable. “Individualmente, estas fallas parecen pequeñas, pero juntas forman una cadena de ataque completa, desde la inyección y la evasión hasta el robo de datos y la persistencia. Muestra que los sistemas de IA no son solo objetivos potenciales; pueden convertirse en herramientas de ataque que recolectan información silenciosamente de chats o navegaciones cotidianas”
HackedGPT: Las Siete Vulnerabilidades y Técnicas de Ataque Identificadas por Tenable research
Posible Impacto de la Explotación de HackedGPT
Si se explotan, estas fallas podrían:
● Insertar comandos ocultos en conversaciones o memorias a largo plazo.
● Robar datos sensibles de historiales de chat o servicios conectados como Google Drive o Gmail.
● Exfiltrar información a través de la navegación e integraciones web.
● Manipular respuestas para difundir desinformación o influir en los usuarios.
Tenable Research llevó a cabo su investigación bajo prácticas de divulgación responsable. OpenAI ha remediado algunas de las vulnerabilidades identificadas, pero varias siguen activas en ChatGPT-5 o no se habían abordado en el momento de la publicación, dejando abiertas ciertas vías de exposición.
Tenable aconseja a los proveedores de IA que refuercen las defensas contra la inyección de prompt verificando que los mecanismos de seguridad como url_safe funcionen según lo previsto y aislando las funciones de navegación, búsqueda y memoria para evitar ataques de contexto cruzado.
Recomendaciones para Equipos de Seguridad
Tenable aconseja a los profesionales de seguridad:
● Tratar las herramientas de IA como superficies de ataque en vivo, no como asistentes pasivos.
● Auditar y monitorear las integraciones de IA en busca de manipulación o fuga de datos.
● Investigar solicitudes o salidas inusuales que puedan indicar inyección de prompt.
● Probar y reforzar las defensas contra la inyección y las vías de exfiltración.
● Establecer controles de gobernanza y clasificación de datos para el uso de la IA.
“Esta investigación no se trata solo de exponer fallas, se trata de cambiar la forma en que aseguramos la IA,” agregó Bernstein. “Las personas y las organizaciones por igual deben asumir que las herramientas de IA pueden ser manipuladas y diseñar controles en consecuencia. Eso significa gobernanza, salvaguardas de datos y pruebas continuas para asegurar que estos sistemas funcionen para nosotros, no contra nosotros”.
En Chile, la Ley 21.719 redefine el estándar de resguardo de datos personales, alineando al…
En Chile, más del 90% de los hogares consume té regularmente, y el país se…
A medida que se duplican las demandas de rescate y aumentan los pagos, casi la…
El reporte, elaborado por KPMG Chile y que recoge lo que declaran más de cien…
El Servicio Agrícola y Ganadero, SAG, informa que modificó la condición de venta de los…
El estudio del Instituto de Salud Pública UNAB e IPSOS muestra que al evaluar la…