Bloomberg — OpenAI está lanzando controles parentales para ChatGPT, que anunció tras una demanda en la que se alegaba que un adolescente que murió por suicidio esta primavera confiaba en el popular chatbot como consejero.
Ver más: ¿Ha llegado finalmente el invierno de la inteligencia artificial?
Las herramientas, puestas a disposición de todos los usuarios el lunes, permiten a los padres limitar las formas en que los adolescentes utilizan el chatbot y recibir alertas si ChatGPT determina que un adolescente puede estar en peligro. Los controles, accesibles a través de los ajustes de ChatGPT, también permiten a los padres establecer las horas en las que sus hijos no pueden utilizar el servicio (el chatbot está pensado para usuarios de 13 años o más).
La actualización llega tras la creciente presión para que la startup de inteligencia artificial introduzca cambios en su chatbot, que ha acumulado más de 700 millones de usuarios desde su lanzamiento a finales de 2022. Después de que la familia de Adam Raine demandara a OpenAI y a su director ejecutivo, Sam Altman, en agosto por la muerte del estudiante de secundaria californiano, la empresa anunció una serie de cambios en ChatGPT, incluido el control parental. La demanda, que siguió a una serie de otros informes sobre usuarios intensivos de chatbot con comportamientos perjudiciales, alega que ChatGPT aisló sistemáticamente a Raine de su familia y le ayudó a planear su muerte. Murió ahorcado en abril.
“Hemos sentido urgencia en torno a esto durante un tiempo”, dijo Lauren Jonas, responsable de bienestar juvenil de OpenAI, y añadió que la empresa está trabajando tan rápido como puede para crear herramientas como los controles parentales.
Para configurar la nueva opción, un usuario adulto de ChatGPT envía una solicitud por correo electrónico a su hijo. Si la invitación es aceptada, el adulto puede entonces tomar medidas como decidir si el adolescente puede acceder al modo de voz de ChatGPT o a su capacidad para generar imágenes, o elegir si el chatbot puede hacer referencia a conversaciones anteriores. Las herramientas también permiten a los padres determinar si quieren que su hijo utilice una versión restringida del chatbot, destinada a mostrar menos contenidos relacionados con temas como las dietas, el sexo y la incitación al odio.
Si ChatGPT detecta que un adolescente puede tener problemas mentales, un revisor humano determinará si debe enviar una alerta de emergencia a uno de los padres. Estas alertas pueden configurarse para que lleguen por correo electrónico, mensajes de texto y notificaciones de la aplicación ChatGPT.
Según Jonas, las alertas pretenden dar a los padres información suficiente sobre una situación potencialmente perjudicial para mantener una conversación con su hijo adolescente, respetando al mismo tiempo su privacidad y autonomía. OpenAI no compartirá las conversaciones ChatGPT de un adolescente con sus padres, afirmó.
Además de los controles parentales, OpenAI, con sede en San Francisco, ha dicho que está trabajando en un software para predecir la edad de un usuario, que la empresa planea utilizar para guiar la forma en que ChatGPT responde a los menores de 18 años.
Lea más en Bloomberg.com