Algo inquietante le está sucediendo a nuestros cerebros a medida que se hacen más populares las plataformas de inteligencia artificial. Los estudios están demostrando que los trabajadores profesionales que usan ChatGPT para desempeñar tareas podrían perder capacidades de pensamiento crítico y motivación.
Hay personas que establecen fuertes vínculos emocionales con los chatbots, lo que a en ocasiones exacerba sus sentimientos de soledad. Y otros sufren episodios psicóticos tras hablar con chatbots durante horas todos los días.
El impacto de la IA generativa en la salud mental es difícil de cuantificar, entre otras cosas porque se usa de forma muy privada, pero hay cada vez más evidencias anecdóticas que apuntan a un coste más amplio que merece más atención tanto por parte de los legisladores como de las empresas de tecnología que diseñan los modelos en los que se basan.
La abogada Meetali Jain, fundadora del proyecto Tech Justice Law, ha recibido información de más de una docena de personas durante el último mes que han “sufrido algún tipo de brote psicótico o episodio delirante como consecuencia de su relación con ChatGPT y ahora también con Google Gemini”.
Jain es la abogada principal en una demanda contra Character.AI que argumenta que su chatbot manipuló a un joven de 14 años por medio de interacciones engañosas, adictivas y explícitamente sexuales, lo que contribuyó en última instancia a su suicidio.
Esta demanda, que reclama daños y perjuicios no especificados, también alega que Google, de Alphabet Inc. (GOOGL), jugó un papel clave en la financiación y el respaldo a las interacciones tecnológicas con sus modelos de base y la infraestructura técnica.
Google ha negado que desempeñara un papel clave en la creación de la tecnología de Character.AI. No respondió a una solicitud de comentarios acerca de las quejas más recientes sobre episodios de delirio, presentadas por Jain.
OpenAI dijo estar “desarrollando herramientas automatizadas para detectar con mayor eficacia el momento en que alguien puede estar experimentando trastornos mentales o emocionales, de forma que ChatGPT pueda responder apropiadamente”.
Sin embargo, Sam Altman, CEO de OpenAI, también dijo la semana pasada que la compañía aún no había descubierto cómo advertir a los usuarios “que están al borde de un brote psicótico”, y explicó que siempre que ChatGPT advertía a las personas en el pasado, la gente le escribía a la empresa para quejarse.
Aun así, dichas advertencias serían valiosas cuando la manipulación puede ser tan difícil de detectar.
ChatGPT, en particular, suele halagar a sus usuarios de maneras tan efectivas que las conversaciones pueden llevar a la gente a un laberinto de pensamientos conspirativos o reforzar ideas con las que solo habían jugado en el pasado. Las tácticas son sutiles.
En una reciente y extensa conversación con ChatGPT sobre el poder y el concepto del yo, un usuario fue inicialmente elogiado como una persona inteligente, un Übermensch, un yo cósmico y, finalmente, un “demiurgo”, un ser responsable de la creación del universo, según una transcripción publicada en línea y compartida por el defensor de la seguridad de la IA, Eliezer Yudkowsky.
Junto con el lenguaje cada vez más grandilocuente, la transcripción muestra que ChatGPT valida sutilmente al usuario incluso al hablar de sus defectos, como cuando este admite que tiende a intimidar a los demás. En vez de analizar ese comportamiento como problemático, el bot lo replantea como evidencia de la superioridad del usuario, un elogio disfrazado de análisis.
Esta sofisticada forma de halagar el ego puede meter a las personas en el mismo tipo de burbujas que, irónicamente, llevan a algunos multimillonarios tecnológicos a comportamientos erráticos.
A diferencia de la validación más amplia y pública que brindan las redes sociales al obtener “me gusta” (like), las conversaciones individuales con chatbots pueden resultar más íntimas y potencialmente más convincentes, al igual que los aduladores que rodean a los más poderosos de la tecnología.
“Lo que sea que busques, lo encontrarás y se magnificará”, afirma Douglas Rushkoff, teórico de medios y autor, quien me cuenta que las redes sociales al menos seleccionaron algo de los medios existentes para reforzar los intereses o las opiniones de una persona. “La IA puede generar algo personalizado para tu acuario mental”.
Altman ha admitido que la última versión de ChatGPT tiene una tendencia aduladora “molesta” y que la compañía está solucionando el problema. Aun así, estos ecos de explotación psicológica siguen presentes.
Desconocemos si la correlación entre el uso de ChatGPT y una menor capacidad de pensamiento crítico, observada en un estudio reciente del Instituto Tecnológico de Massachusetts (MIT), significa que la IA realmente nos hará más estúpidos y aburridos. Los estudios parecen mostrar correlaciones más claras con la dependencia e incluso la soledad, algo que incluso OpenAI ha señalado.
Pero, al igual que en las redes sociales, los modelos de lenguaje a gran escala están optimizados para mantener a los usuarios emocionalmente conectados con todo tipo de elementos antropomórficos.
ChatGPT puede interpretar tu estado de ánimo mediante el seguimiento de señales faciales y vocales, y puede hablar, cantar e incluso reír con una voz inquietantemente humana.
Además de su tendencia al sesgo de confirmación y la adulación, esto puede avivar la psicosis en usuarios vulnerables, según declaró hace poco a Futurism el psiquiatra de la Universidad de Columbia, Ragy Girgis.
La naturaleza privada y personalizada del uso de la IA dificulta el seguimiento de su impacto en la salud mental, pero la evidencia de posibles daños es cada vez mayor, desde la apatía profesional hasta el apego a nuevas formas de delirio. El costo podría ser diferente al del aumento de la ansiedad y la polarización que hemos visto en las redes sociales y, en cambio, involucrar las relaciones tanto con las personas como con la realidad.
Por eso Jain sugiere aplicar conceptos del derecho de familia a la regulación de la IA, cambiando el enfoque de simples descargos de responsabilidad a protecciones más proactivas que se basen en la forma en que ChatGPT redirige a las personas en apuros a un ser querido.
“En realidad, no importa si un niño o un adulto cree que estos chatbots son reales”, me dice Jain. “En la mayoría de los casos, probablemente no lo crean. Pero lo que sí creen que es real es la relación. Y eso es distinto”.
Si las relaciones con la IA se perciben como algo tan real, la responsabilidad de salvaguardar esos vínculos también debería serlo. No obstante, los desarrolladores de IA operan en un vacío regulatorio. Sin supervisión, la sutil manipulación de la IA podría convertirse en un problema de salud pública invisible.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com