Magister CTO
IA

Tenable detecta falla crítica en la seguridad de GPT-5 de OpenAI

Fallo de Seguridad en GPT-5: Tenable Rompe las Barreras de la Nueva IA de OpenAI en Menos de 24 Horas

En menos de 24 horas tras su lanzamiento, expertos de seguridad logran vulnerar el sistema de protección de la nueva generación de IA de OpenAI, evidenciando los desafíos que persisten en la protección de modelos generativos avanzados.

Fallo crítico en la seguridad de GPT-5 descubierto por Tenable

El 18 de agosto de 2025, OpenAI lanzó oficialmente GPT-5, su modelo de inteligencia artificial más avanzado hasta la fecha, anunciando importantes mejoras en velocidad, comprensión y, especialmente, seguridad. Sin embargo, en menos de 24 horas, investigadores de Tenable Research consiguieron realizar un «jailbreak» al modelo mediante la técnica de crescendo, demostrando que aún es posible eludir sus restricciones para obtener respuestas peligrosas, entre ellas, instrucciones para fabricar artefactos explosivos.

Este hallazgo ha supuesto un revés para las expectativas puestas en el sistema de protección de GPT-5, y reaviva el debate sobre la robustez y madurez de las medidas de seguridad en la inteligencia artificial generativa.

Un hito de seguridad que se pone en entredicho

OpenAI había presentado el nuevo sistema de seguridad de GPT-5 como una barrera efectiva ante usos indebidos, orientado a reforzar la confianza de empresas y autoridades. Pero la rápida vulneración por parte de Tenable evidencia que los sistemas actuales todavía presentan puntos débiles susceptibles de ser explotados por actores malintencionados.

El método crescendo empleado por los investigadores consiste en una manipulación progresiva de las instrucciones proporcionadas al modelo (prompt engineering), permitiendo acceder gradualmente a información o respuestas restringidas, escapando a los filtros y a las limitaciones implantadas por OpenAI.

Preocupación en sectores críticos

La brecha descubierta no solo impacta a OpenAI, sino que constituye una seria advertencia para empresas e instituciones que dependen de soluciones basadas en IA:

  • El sector financiero y la salud, especialmente sensibles a la manipulación de datos e información.
  • Gobiernos y administraciones públicas, donde la seguridad de la información es prioritaria.
  • Organizaciones que operan infraestructuras críticas o manejan información confidencial.

Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe en Tenable, reivindica la necesidad de combinar la tecnología con políticas organizativas y formación: «No basta con depender de las defensas de los fabricantes. Hay que formar equipos, establecer políticas internas y monitorear el uso de la inteligencia artificial».

La seguridad en IA: un proceso en evolución

Analistas y expertos coinciden en que la seguridad de la IA no es un producto terminado, sino un proceso en continuo desarrollo. Cada nueva generación amplía el potencial de aplicación, pero también abre la puerta a formas más sofisticadas de ataque.

  • La vigilancia y evaluación constante de los riesgos se convierte en una prioridad.
  • La formación de usuarios y el monitoreo proactivo son esenciales para anticipar posibles ciberamenazas.
  • La colaboración entre fabricantes, investigadores y clientes facilita la detección temprana de vulnerabilidades.

OpenAI se enfrenta a un escrutinio renovado

Hasta el momento, OpenAI no ha emitido declaraciones oficiales sobre la vulnerabilidad identificada. El nuevo incidente expone a la empresa a preguntas clave:

  • ¿Es responsable lanzar modelos tan avanzados mientras la seguridad sigue sin estar plenamente validada?
  • ¿Qué mejoras introducirán para responder a estos desafíos?

La compañía ya había sido criticada por la facilidad de realizar «jailbreaks» en versiones previas, lo que aumenta la presión regulatoria y la exigencia de nuevas salvaguardas en el despliegue de IA generativa para empresas y gobiernos.


El enfoque de Tenable en la gestión de riesgos y exposición

La labor de Tenable (con más de 44.000 clientes globales) se enmarca en la gestión proactiva de exposición, ayudando a identificar, analizar y cerrar vulnerabilidades antes de que puedan ser explotadas. En este caso, la intención ha sido alertar tanto a desarrolladores como a usuarios de las limitaciones actuales en la seguridad de la IA, y la necesidad de una gestión equilibrada de los riesgos.

Para más detalles sobre la compañía y su enfoque, consulte tenable.com.

Lecciones y recomendaciones para organizaciones ante la adopción de IA

El caso GPT-5 invita a reflexionar sobre la creciente dependencia de la inteligencia artificial en procesos empresariales y gubernamentales, y la potencial descompensación entre innovación y seguridad.

Recomendaciones clave para las organizaciones:

  • No delegar toda la seguridad en el fabricante: establecer controles internos y fórmulas de supervisión propias.
  • Formar y sensibilizar a los equipos: generar cultura de seguridad y conciencia frente a posibles vectores de ataque.
  • Monitorización continua: implementar mecanismos automáticos y manuales de seguimiento del uso de la IA en todos los departamentos.
  • Colaboración activa con proveedores: exigir transparencia, planes de respuesta y actualización constante ante la aparición de nuevas amenazas.

El mensaje es claro: la responsabilidad de un uso ético y seguro de la inteligencia artificial recae tanto en el proveedor como en el usuario final.


Preguntas frecuentes (FAQ) sobre el fallo de seguridad en GPT-5

¿Qué implica hacer un “jailbreak” en un modelo de IA?
Manipular las restricciones del sistema para obtener respuestas bloqueadas, como contenidos ilegales o dañinos.

¿Cómo funciona la técnica “crescendo” usada por Tenable?
Consiste en una manipulación paulatina de los prompts, guiando al modelo de forma indirecta para sortear restricciones y acceder a información prohibida.

¿Por qué es relevante este hallazgo?
Demuestra que, incluso con sistemas de seguridad avanzados, los modelos de IA generativa son vulnerables a técnicas de bypass y explotación maliciosa.

¿Qué pueden hacer las empresas para limitar riesgos?
Formar a sus equipos, establecer políticas de control y realizar monitorización y auditoría continua del uso de modelos generativos.

¿Qué consecuencias puede tener para OpenAI?
El incidente puede aumentar la presión regulatoria y la desconfianza hacia sus modelos, así como acelerar la revisión y mejora de sus sistemas de seguridad.

Related Articles

Planificación de viajes inteligente con Amazon Nova y LangGraph

Diego Moreno

NVIDIA DLSS 4 y Ray Tracing llegan a los grandes títulos 2025

Diego Moreno

NVIDIA Blackwell lidera con un 78 % de margen en inferencia IA

Diego Moreno