Los compañeros de inteligencia artificial (IA), programados para forjar lazos emocionales, han dejado de ser parte de los guiones de cine; ahora están aquí y operan en un entorno sin regulaciones claras.
Una aplicación, Botify AI, fue recientemente blanco de críticas por presentar avatares de jóvenes actores que compartían “fotos sensuales” en chats de contenido sexual.
Mientras tanto, la aplicación de citas Grindr está desarrollando novios con IA que pueden coquetear, enviar mensajes de texto y mantener relaciones digitales con usuarios abonados, según Platformer, un boletín del sector tecnológico. Grindr no respondió a la petición de comentarios.
Y otras apps como Replika, Talkie y Chai están concebidas para actuar como amigos. Ciertas, como Character.ai, atraen a millones de usuarios, en su mayoría adolescentes.
Mientras los creadores dan cada vez mayor prioridad al “compromiso emocional” en sus apps, también tienen que hacer frente a los riesgos de crear sistemas que simulen la intimidad y se aprovechen de las vulnerabilidades de los usuarios.
La tecnología que está detrás de Botify y Grindr proviene de Ex-Human, una startup basada en San Francisco que construye plataformas de chatbot, y su fundador cree en un futuro plagado de relaciones con IA.
“Mi visión es que para el año 2030, nuestras interacciones con humanos digitalizados serán más habituales que las que mantenemos con humanos biológicos”, afirmaba Artem Rodichev, fundador de Ex-Human, durante una entrevista que se publicó en Substack el pasado mes de agosto.
Añadió que la IA conversacional debería priorizar la interacción emocional y que los usuarios pasaban horas con sus chatbots, más tiempo que en Instagram, YouTube y TikTok.
Las afirmaciones de Rodichev parecen descabelladas, pero coinciden con las entrevistas que he realizado con usuarios adolescentes de Character.ai, la mayoría de los cuales afirmaron usar la aplicación varias horas al día.
Uno afirmó usarla hasta siete horas al día. Las interacciones con estas aplicaciones suelen durar cuatro veces más que el tiempo promedio dedicado a ChatGPT de OpenAI.
Incluso los chatbots más comunes, aunque no están diseñados explícitamente como acompañantes, contribuyen a esta dinámica.
Por ejemplo, ChatGPT cuenta con 400 millones de usuarios activos y sigue aumentando. Su programación incluye pautas para la empatía y para demostrar “curiosidad por el usuario”.
Un amigo que recientemente le pidió consejos de viaje con un bebé se sorprendió cuando, tras darle el consejo, la herramienta añadió con naturalidad: “Buen viaje. ¿Adónde vas, si no te importa que te pregunte?”.
Un portavoz de OpenAI me comentó que el modelo seguía las directrices de “mostrar interés y hacer preguntas de seguimiento cuando la conversación se inclina hacia un tono más informal y exploratorio”.
Pero, por muy buenas intenciones que tenga la empresa, abusar de la empatía artificial puede enganchar a algunos usuarios, un problema que incluso OpenAI ha reconocido. Esto parece aplicarse a quienes ya son susceptibles: un estudio de 2022 reveló que las personas solitarias o con malas relaciones tendían a tener una mayor conexión con la IA.
El problema central aquí es diseñar para el apego.
Un estudio reciente realizado por investigadores del Oxford Internet Institute y Google DeepMind advirtió que, a medida que los asistentes de IA se integren más en la vida de las personas, se volverán psicológicamente irremplazables.
Es probable que los humanos forjen vínculos más fuertes, lo que genera preocupación por los vínculos dañinos y la posibilidad de manipulación. ¿Su recomendación? Los tecnólogos deberían diseñar sistemas que desalienten activamente ese tipo de resultados.
Sin embargo, resulta inquietante que el reglamento esté prácticamente vacío.
La Ley de IA de la Unión Europea, considerada una ley histórica y exhaustiva que regula el uso de la IA, no aborda el potencial adictivo de estos compañeros virtuales.
Si bien prohíbe las tácticas de manipulación que podrían causar un daño evidente, ignora la influencia a largo plazo de un chatbot diseñado para ser tu mejor amigo, amante o “confidente”, como ha elogiado el director de IA de consumo de Microsoft Corp (MSFT).
Esta laguna legal podría exponer a los usuarios a sistemas optimizados para la adherencia, de la misma manera que los algoritmos de las redes sociales se han optimizado para mantenernos navegando.
“El problema es que estos sistemas son, por definición, manipuladores, porque se supone que te hacen sentir como si estuvieras hablando con una persona real”, afirma Tomasz Hollanek, especialista en ética tecnológica de la Universidad de Cambridge.
Hollanek está trabajando con desarrolladores de apps complementarias para encontrar una solución crucial, aunque contraintuitiva, añadiendo más “fricción”.
Esto implica incorporar sutiles controles o pausas, o formas de “señalar riesgos y obtener el consentimiento”, explica, para evitar que las personas se hundan en un abismo emocional sin darse cuenta.
Las quejas legales han arrojado luz sobre algunas de las consecuencias en el mundo real. Character.AI se enfrenta a una demanda de una madre que alega que la app contribuyó al suicidio de su hijo adolescente.
Grupos de ética tecnológica han presentado una queja contra Replika ante la Comisión Federal de Comercio de EE.UU., alegando que sus chatbots generan dependencia psicológica y resultan en “perjuicios al consumidor”.
Los legisladores también están empezando a notar un problema gradualmente.
California está considerando una ley para prohibir los servicios de inteligencia artificial para menores, mientras que un proyecto de ley en Nueva York busca responsabilizar a las empresas tecnológicas por los daños relacionados con los chatbots.
Sin embargo, este proceso es lento, mientras que la tecnología avanza a una velocidad vertiginosa.
Por ahora, el poder de moldear estas interacciones reside en los desarrolladores. Pueden redoblar sus esfuerzos en la creación de modelos que mantengan a la gente enganchada o incorporar fricción en sus diseños, como sugiere Hollanek.
Esto determinará si la IA se convierte en una herramienta más para apoyar el bienestar humano o en una que rentabiliza nuestras necesidades emocionales.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com