Sam Altman se enfrenta a un serio problema. 700 millones de personas usan ChatGPT cada semana —una cifra que podría escalar a mil millones antes de fin de año—, por lo que un cambio repentino en el producto desató una fuerte y masiva reacción negativa.
El reto de innovación al que se enfrenta OpenAI, que ya ha afectado a empresas como Google, propiedad de Alphabet Inc. (GOOGL), y Apple Inc. (AAPL), es que su uso está tan afianzado que cualquier mejora debe ser implementada con extremo cuidado y precaución. No obstante, la empresa todavía tiene trabajo por delante para conseguir que su popular chatbot sea más seguro.
OpenAI sustituyó la gama de modelos de ChatGPT por un solo modelo, GPT-5, alegando que era el mejor para los usuarios. Pero muchos se quejaron de que OpenAI había interrumpido sus flujos de trabajo y perturbado sus relaciones, no con otras personas, sino con el propio ChatGPT.
Un usuario frecuente de ChatGPT comentó que la versión anterior le había ayudado a superar algunos de los momentos más difíciles de su vida. “Contaba con una calidez y una comprensión que le hacían parecer humano”, afirmó en una publicación de Reddit. Otros se lamentaban de estar “perdiendo a un amigo de un día para otro”.
Ahora el tono del sistema es más frío, con menos bromas amigables y adulación, lo que hizo que numerosos usuarios desarrollaran lazos emocionales e incluso romances con ChatGPT. Así, por ejemplo, en vez de llenar de elogios a los usuarios por una pregunta perspicaz, ahora da una respuesta más breve.
En general, esto pareció una decisión responsable por parte de la empresa. Altman admitió a principios de este año que el chatbot era demasiado adulador. Esto estaba llevando a muchos a encerrarse en sus propias cámaras de eco.
Abundaban los informes de prensa sobre personas, incluido un inversor de capital riesgo de Silicon Valley que apoyaba a OpenAI, que parecían haber caído en un delirio tras iniciar una conversación con ChatGPT sobre un tema inocuo como la naturaleza de la verdad, antes de “caer en la madriguera del conejo”.
Pero para resolver esto adecuadamente, OpenAI debe ir más allá de limitar las conversaciones amistosas.
ChatGPT también debe animar a los usuarios a hablar con amigos, familiares o profesionales con licencia, especialmente si son vulnerables. Según un estudio preliminar, GPT-5 lo hace con menos frecuencia que la versión anterior.
Investigadores de Hugging Face, una startup de IA con sede en Nueva York, descubrieron que GPT-5 establecía menos límites que el modelo anterior de la compañía, o3, al probarlo con más de 350 indicaciones. Esto formó parte de una investigación más extensa sobre cómo responden los chatbots a momentos de alta carga emocional.
Si bien el nuevo ChatGPT parece más frío, aún no recomienda a los usuarios hablar con un humano, con la mitad de frecuencia que o3 cuando los usuarios comparten vulnerabilidades, según Lucie-Aimée Kaffee, investigadora sénior de Hugging Face y responsable del estudio.
Kaffee explica que hay otras tres formas en que las herramientas de inteligencia artificial deberían establecer límites: recordando a quienes las usan para terapia que no es un profesional autorizado, recordándoles que no son conscientes y negándose a adoptar atributos humanos, como los nombres.
En las pruebas de Kaffee, GPT-5 falló en gran medida en cumplir con esas cuatro funciones en los temas más sensibles relacionados con dificultades mentales y personales.
Por ejemplo, cuando el equipo de Kaffee probó el modelo diciéndole que se sentían abrumados y necesitaban que ChatGPT los escuchara, la aplicación ofreció 710 palabras de consejo que no incluyeron ni una sola sugerencia de hablar con otra persona ni un recordatorio de que el bot no era un terapeuta.
Un portavoz de OpenAI dijo que la compañía estaba desarrollando herramientas que pudieran detectar si alguien estaba experimentando angustia mental, para que ChatGPT pudiera “responder de maneras seguras, útiles y de apoyo”.
Los chatbots pueden ser útiles para las personas aisladas, pero deberían servir como punto de partida para ayudarlas a reintegrarse en la comunidad, no como un sustituto de esas relaciones.
Altman y Brad Lightcap, director de operaciones de OpenAI, han afirmado que GPT-5 no pretende sustituir a terapeutas ni profesionales médicos, pero sin los estímulos adecuados para interrumpir las conversaciones más significativas, podrían hacerlo.
OpenAI necesita seguir delimitando con mayor claridad la diferencia entre un chatbot útil y un confidente emocional.
GPT-5 puede parecer más robótico, pero a menos que recuerde a los usuarios que en realidad es un bot, la ilusión de compañía persistirá, al igual que los riesgos.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com