OpenAI soluciona falla de seguridad de ChatGPT que ponía en peligro datos de Gmail

El problema se encontró en el agente de Investigación Profunda de ChatGPT, una herramienta para ayudar a los usuarios a analizar grandes cantidades de información.

PUBLICIDAD
Radware descubrió la vulnerabilidad y los investigadores dijeron que no había pruebas de que los atacantes la hubieran explotado. Fotografía:Andrey Rudakov/Bloomberg
Por Margi Murphy
18 de septiembre, 2025 | 11:01 AM

Bloomberg — OpenAI reparó una falla de seguridad de ChatGPT que podría haber permitido a los piratas informáticos extraer datos de Gmail de sus usuarios, según los investigadores de la empresa cibernética Radware.

El problema se encontró en el agente de Investigación Profunda de ChatGPT, una herramienta lanzada en febrero para ayudar a los usuarios a analizar grandes cantidades de información. La vulnerabilidad podría haber permitido a los atacantes desviar datos confidenciales de cuentas de Gmail corporativas o personales, según los hallazgos. Los usuarios de ChatGPT que vincularon sus cuentas de Gmail al servicio podrían haber expuesto sin saberlo sus datos a los piratas informáticos, según los investigadores de Radware.

PUBLICIDAD

Ver más: OpenAI contrata al exdirector financiero de xAI tras su repentina salida, según CNBC

La herramienta Deep Research de OpenAI está diseñada para realizar investigaciones en línea más exhaustivas en nombre de los usuarios y responder rápidamente a preguntas complejas. También puede conectarse a las cuentas de Gmail de los usuarios si estos lo autorizan. Deep Research está disponible para los usuarios de ChatGPT que paguen una cuota adicional y supuso una ampliación de los agentes de IA de la empresa, o herramientas diseñadas para realizar tareas con una intervención humana limitada.

Radware descubrió la vulnerabilidad y los investigadores dijeron que no había pruebas de que los atacantes la hubieran explotado.

PUBLICIDAD

OpenAI comunicó a Radware que había corregido el fallo el 3 de septiembre.

Un portavoz de OpenAI dijo que la seguridad de sus modelos era importante para la empresa, y que está mejorando continuamente los estándares para hacer que su tecnología sea más robusta contra este tipo de exploits.

“Los investigadores suelen poner a prueba estos sistemas de forma adversa, y agradecemos sus investigaciones, ya que nos ayudan a mejorar”, afirmó el portavoz.

Ver más: De SpaceX a OpenAI y Shein: estos son los 10 unicornios más valiosos del mundo en 2025

Aunque los piratas informáticos han desplegado recientemente herramientas de IA para llevar a cabo sus propios ataques, los hallazgos de Radware constituyen un ejemplo relativamente raro de la forma en que los propios agentes de IA emergentes pueden ser explotados para robar la información de sus usuarios.

Para demostrar la vulnerabilidad, los investigadores se enviaron a sí mismos un correo electrónico con instrucciones ocultas que indicaban al agente Deep Research que buscara en esa bandeja de entrada información personal, como nombres completos y direcciones. A continuación, el equipo de Radware ordenó al agente de IA que enviara esos datos a una dirección web bajo su control.

Pascal Geenens, director de investigación de amenazas de Radware, dijo que el objetivo previsto del robo de datos no habría necesitado hacer clic en nada para que los atacantes comprometieran sus datos.

“Si una cuenta corporativa se viera comprometida, la empresa ni siquiera sabría que la información estaba saliendo”, dijo.

Lea más en Bloomberg.com

PUBLICIDAD