Bloomberg — OpenAI prohibió recientemente varias cuentas que habían estado utilizando ChatGPT para escribir anuncios de ventas y depurar código para una supuesta herramienta de vigilancia de medios sociales que probablemente se originó en China, dijo la compañía - parte de un esfuerzo más amplio de la startup de IA para vigilar los usos maliciosos de sus potentes modelos de IA.
Según un informe que la startup de San Francisco publicó este viernes, las cuentas utilizaban ChatGPT para publicitar y aumentar lo que afirmaban que era un asistente de IA capaz de recopilar datos e informes en tiempo real sobre las protestas contra China en Estados Unidos, Reino Unido y otros países occidentales. Esa información se transmitiría después a las autoridades chinas, según el informe.
Los hallazgos se producen en un momento de creciente preocupación en EE.UU. por el uso que hace China de la tecnología estadounidense para promover sus propios intereses. “Se trata de un vistazo bastante preocupante a la forma en que un actor no democrático intentó utilizar IA democrática o basada en EE.UU. para fines no democráticos, según los materiales que ellos mismos estaban generando”, dijo Ben Nimmo, investigador principal de OpenAI en el equipo de inteligencia e investigaciones de la empresa, durante una convocatoria de prensa el jueves.
Lea además: DeepSeek va contra Meta y OpenAI y planea compartir más código de IA
Al publicar estos casos, Nimmo dijo que OpenAI pretende arrojar luz sobre cómo “los regímenes autoritarios pueden intentar aprovechar la IA construida por EE.UU., la IA democrática, contra EE.UU. y los países aliados, así como contra su propio pueblo”.
OpenAI dijo que las cuentas de la red hacían referencia al uso de otras herramientas de IA para desarrollar su código, incluida una versión de Llama, el modelo de código abierto desarrollado por Meta Platforms Inc (META). En un comunicado, Meta dijo que si su servicio estaba implicado, probablemente era una de las muchas herramientas de este tipo disponibles para los usuarios, incluidos modelos de IA fabricados en China. OpenAI señaló que no tiene visibilidad sobre si este código fue desplegado.
OpenAI no pudo verificar de forma independiente el software, denominado “Asistente de IA para la opinión pública de ultramar Qianyue”, aunque la startup tuvo acceso al texto de aparentes materiales de marketing. La copia de marketing detallaba cómo el propósito del software de “escucha social” era enviar informes de vigilancia a las autoridades chinas, a los agentes de inteligencia y al personal de las embajadas chinas. El software parecía centrarse específicamente en identificar conversaciones en línea en países occidentales sobre manifestaciones relacionadas con los derechos humanos en China. Las descripciones del software decían que extraía información de las conversaciones en las redes sociales en plataformas como X, Facebook e Instagram.
Vea también: TikTok duplica las descargas en su regreso a los iPhones mientras su competidor se desvanece
Va en contra de las políticas de OpenAI utilizar su IA para la vigilancia de las comunicaciones o el seguimiento no autorizado de personas, incluso “en nombre de gobiernos y regímenes autoritarios que pretenden suprimir las libertades y los derechos personales”, según el informe de amenazas de la empresa.
En los últimos meses, OpenAI ha estado advirtiendo a los políticos de EE.UU. sobre lo que considera una creciente amenaza económica y de seguridad nacional por parte de la IA fabricada en China, sobre todo a raíz de los modelos de IA sorprendentemente competitivos de la startup china DeepSeek. Algunas expertos de China en EE.UU. han criticado a Meta por abrir sus herramientas de IA, afirmando que está potenciando los avances de las empresas chinas de IA. Aunque los modelos de OpenAI se mantienen actualmente en propiedad, la empresa ha estado considerando recientemente la posibilidad de abrir sus modelos en línea con la creciente competencia de DeepSeek y otros.
Lea más: Las empresas tecnológicas chinas podrán recaudar más fondos tras repunte de Deepseek
En un comunicado, Meta señaló la creciente disponibilidad de modelos de IA a nivel mundial, afirmando que la limitada disponibilidad de algunas tecnologías occidentales puede no importar mucho cuando se trata de malos actores. “China ya está invirtiendo más de un billón de dólares para superar tecnológicamente a EE.UU., y las empresas tecnológicas chinas están lanzando sus propios modelos abiertos de IA tan rápido como las empresas de EE.UU.”, dijo un representante de la empresa.
En su informe, OpenAI también compartió otros ejemplos de cuentas que prohibió por hacer un uso indebido de sus herramientas, incluidas algunas vinculadas a operaciones de influencia iraní que utilizaban ChatGPT para generar publicaciones y artículos en las redes sociales; otra que parecía representar un esquema de empleo engañoso que imitaba estafas vinculadas a Corea del Norte; y otro conjunto de cuentas probablemente vinculadas a China que generaban artículos en español críticos con el gobierno estadounidense.
Lea más en Bloomberg.com