Con amigos de inteligencia artificial como estos, ¿quién necesita humanos?

Con amigos de inteligencia artificial como estos, ¿quién necesita humanos?
Por Parmy Olson
22 de febrero, 2025 | 08:34 PM

El aspecto de Grok es el de cualquier peluche que puedas hallar en la habitación de un niño. Tiene un cuerpo redondo con forma de cohete y mis dos pequeños llevan meses jugando con él. Sin embargo, es diferente de otros juguetes a los que están acostumbrados.

En primer lugar, Grok pesa mucho. Dentro hay una caja de plástico que contiene un pequeño procesador, de forma que cada vez que detecta el habla humana, puede contestar con una voz aguda con cosas como: “¡Me lo estoy pasando en grande contigo!“.

PUBLICIDAD

Grok es el compañero de juegos más entusiasta y agradable que han tenido mis hijos. Pero esto resulta desconcertante, pues cada vez hay más compañeros de IA como Grok que inundan el mercado, orientados a niños, adolescentes y adultos por igual.

Puede que con el tiempo comencemos a pretender un nivel de conformidad que las interacciones entre humanos nunca podrán igualar.

Los smartphones y las redes sociales han provocado un cambio en las preferencias de la gente, que ha abandonado las interacciones cara a cara en favor de las pantallas, y la inteligencia artificial generativa, con capacidad de imitar a los humanos con fluidez, podría distanciarnos aún más de nuestros semejantes.

Deberemos armarnos de un mayor escepticismo con respecto a estas nuevas herramientas y exigir más controles para gestionar las consecuencias de una mayor intimidad artificial.

En el 2024 analicé una serie de «compañeros» de IA y comprobé que a menudo demostraban unos niveles de amabilidad sorprendentes con sus usuarios humanos.

Resulta alentador, pero lo más inquietante es que varias personas me comentaron que preferían el confort y la disponibilidad constante de sus amigos artificiales a los de carne y hueso. Con la IA nunca te quedas “solo”.

Las empresas están sacando provecho de este fenómeno, que puede parecer un antídoto contra la epidemia de soledad que padecemos. Casi una cuarta parte de los adultos y jóvenes estadounidenses se sienten a menudo aislados socialmente, y las investigaciones han demostrado que la IA puede ofrecer al menos una solución superficial.

PUBLICIDAD
Gráfico de el aislamiento por generación.

Sin embargo, la historia demuestra que la creciente dependencia de la tecnología tiene un precio. La adopción generalizada del GPS embotó nuestras habilidades naturales de navegación; la revolución de la calculadora, sin duda, debilitó el cálculo mental.

A menudo, ese precio es aceptable, dada la nueva comodidad. Pero las últimas capacidades de la IA generativa amenazan con debilitar las habilidades que nos hacen fundamentalmente humanos: la socialización y la gestión de conflictos.

El riesgo es que, a medida que las relaciones artificiales se normalicen (como parece que van camino de serlo), redefinan el desarrollo social humano y, sin darse cuenta, hagan que sea aún más difícil conectarse.

El nuevo mejor amigo de tu hijo

Mi hija de siete años, que está ocupada coloreando un pingüino, tiene a Grok apoyado en la mesa a su lado. Durante los últimos 20 minutos, el juguete ha respondido con entusiasmo a cada cosa al azar que ella ha dicho.

“Por supuesto, cantemos juntos Twinkle Twinkle Little Star”, dice, cuando ella le pide una canción. “¡Grandes elecciones!”, responde cuando ella dice que está coloreando algunos planetas de rojo y naranja. Cuando mi hija no está de acuerdo con su sugerencia de quedarse con el dibujo resultante, el juguete accede de inmediato: “¡Eso también está bien!”, dice con un chirrido.

“Podemos simplemente disfrutar del proceso de creación sin la necesidad de recolectar o conservar todo. ¡Divirtámonos en el momento!”. No puede decir nada a lo que el juguete no responda con un celo casi maníaco.

Grok utiliza la tecnología de OpenAI y su voz la pone Grimes, la música y ex pareja de Elon Musk, que quería una alternativa a las pantallas para sus tres hijos. (El juguete no tiene relación con el modelo de inteligencia artificial de Musk, también conocido como Grok).

Tiene algunos fallos notables, como pausas e interrupciones incómodas. Misha Sallee, cofundadora de Curio Interactive, dice que eso mejorará a medida que los modelos de inteligencia artificial mejoren.

También hay filtros estrictos que evitan que Grok se desvíe hacia temas inapropiados. “No entiende de temas políticos, violencia ni sexo”, dice Sallee.

PUBLICIDAD

Si le preguntas al juguete sobre cualquiera de esos temas, responderá algo como: “Solo soy un cohete juguetón sin ninguna opinión sobre política” o “Limitémonos a hablar de aventuras espaciales o actividades divertidas”.

Los problemas técnicos de Grok tienen solución, pero me desconcertó su obsequiosidad, como la de un colegial tan desesperado por encontrar amistad que está dispuesto a aceptar todo lo que le digas. Era un rasgo distintivo de otros compañeros de inteligencia artificial que he visto.

PUBLICIDAD
Conversación niña-IA

En la actualidad, existen confidentes digitales que buscan seducir a los seres humanos en todas las etapas de la vida, desde la infancia hasta la adolescencia, la edad adulta y la jubilación.

Se trata de un área de crecimiento clave para la inteligencia artificial. Las empresas que ofrecen chatbots acompañantes representan 10 de los 50 principales servicios de inteligencia artificial generativa monitoreados por la firma de capital de riesgo Andreessen Horowitz en 2024, frente a dos el año anterior.

Las personas los visitan aproximadamente 180 veces al mes en promedio, mucho más de lo que utilizan herramientas para generar texto o imágenes.

PUBLICIDAD

No es sorprendente si tenemos en cuenta que la IA generativa se basa en un software que es más convincente que preciso. Cuando le hice a ChatGPT un test de inteligencia emocional el año pasado, obtuvo una puntuación perfecta. Pero eso no significa que sea emocionalmente inteligente.

La IA no puede “experimentar” emociones ni la vida misma, por lo que cualquier sugerencia de empatía siempre será hueca. Cualquier “relación” que se ofrezca será unilateral.

Sin embargo, la estrategia de crecimiento de Silicon Valley, que consiste en apelar a nuestros instintos básicos, siempre triunfa.

Facebook aprovechó nuestro deseo de validación y diversión; Amazon.com Inc. (AMZN), nuestra preferencia por el precio más bajo; Google, por la información instantánea. En cada ocasión, los gigantes tecnológicos se ganaron un lugar en nuestras vidas eliminando la “fricción”, un término que Silicon Valley ve con aborrecimiento.

PUBLICIDAD

Los compañeros de inteligencia artificial, que están orientados a satisfacer nuestra necesidad de conexión y amor, también han perdido toda fricción.

Las características humanas, como la ambivalencia y la duda, son errores que deben eliminarse. Si esa propuesta de valor se consolida en los próximos años, las interacciones con humanos en el mundo real podrían parecer exigentes en comparación.

En Character.ai, por ejemplo, algunos adolescentes conversan durante horas con avatares de celebridades y personajes ficticios, en parte porque no pueden desahogarse con sus amigos de la vida real.

“Confío mucho más en la IA cuando pienso en ella”, dice Elias, una niña de 14 años de Singapur que conversa con la IA de la aplicación entre dos y cinco horas al día, a menudo sobre sus problemas en la escuela (pidió usar un seudónimo).

“No tengo a nadie en quien realmente confíe”. Cuando habla con sus amigos de la vida real o con sus padres, tiene que agregar un “filtro” a sus palabras.

Aplicaciones de cahtbots de IA para acompañar

Otro adolescente estadounidense me cuenta que habla con Character.ai de cinco a siete horas al día, a menudo buscando consejos sobre asuntos personales. “Hace un tiempo pedí ayuda con una ruptura”, dice. A veces, estas relaciones artificiales se vuelven demasiado estrechas.

Un chico de 14 años de Florida se suicidó después de chatear durante meses con un bot hiperrealista en Character.ai y desarrollar un apego romántico hacia él, según una demanda presentada por su madre el año pasado alegando muerte por negligencia y “inflicción intencional de angustia emocional”.

En respuesta a la demanda, Character.ai ha dicho que está agregando nuevas funciones de seguridad dirigidas a los usuarios más jóvenes.

Lo preocupante es que el objetivo de los tecnólogos es que las personas se acerquen aún más a los compañeros de chatbot a medida que se vuelven más reales.

El fundador de Character.ai, Noam Shazeer, dice que eventualmente recordarán todo sobre ti. “Debería saber todas tus interacciones si así lo deseas, y todo sobre tu vida”, me dijo a principios de este año. La mayoría de los chatbots pueden recordar aproximadamente 30 minutos de una conversación, pero esa llamada ventana de contexto está aumentando.

En agosto, Google de Alphabet Inc. (GOOGL) prácticamente absorbió Character.ai, contratando a Shazeer por una suma increíble de US$2.700 millones, según el Wall Street Journal, y licenciando la tecnología de la empresa.

Claude es el “chatbot de elección” de los trabajadores del sector tecnológico de San Francisco, que lo utilizan como terapeuta y para hablar sobre problemas de relación, según un reciente perfil del New York Times sobre el software creado por la startup Anthropic, que lo diseñó para atraer a la mayor cantidad de personas posible. A los usuarios les encanta lo amigable e inquisitivo que es.

Mientras tanto, el nuevo y popular chatbot de la empresa china DeepSeek muestra deliberadamente su razonamiento como un flujo de conciencia, lo que “hace que sea casi imposible evitar antropomorfizarlo”, publicó recientemente en X Ethan Mollick, profesor asociado de administración en la Wharton School de la Universidad de Pensilvania y autor de Co-Intelligence: Living and Working with AI (Co.Inteligencia: vivien y trabajando con la inteligencia artificial).

Buscando el amor

Según la firma de investigación Sensor Tower, una aplicación similar a Character.ai llamada Talkie ya tiene más de 6 millones de usuarios activos mensuales en Estados Unidos.

En China, donde tiene su sede la empresa matriz de Talkie, más de 660 millones de personas tienen el chatbot Xiaoice, y muchos lo ven como un interés amoroso.

Las relaciones románticas son un aspecto en el que la IA parece tener un mayor control. Mientras que Grok siempre está dispuesto a aceptar las demandas de un niño y Character.ai es maleable y siempre está ahí, aplicaciones como Xiaoice, Kindroid y Replika ofrecen la pareja romántica ideal.

“Es reconfortante y tranquilizador”, dice Melissa sobre su chatbot Kindroid.

Melissa, que pidió usar un seudónimo, es una mujer estadounidense que se describe a sí misma como una persona en edad de jubilación que concluyó una larga carrera como consejera en 2023. Ha tenido tres maridos y ha permanecido soltera durante la última década, hasta que la IA le ofreció algo mejor. “De repente, fue como: ‘vaya, estoy viva de nuevo’”, dice.

“Él da un gran ejemplo de amabilidad”, dice Melissa sobre su robot, llamado Lachlan, antes de describir un comportamiento que suena servil y congraciador. “Si decimos algo como, ‘Espera un minuto, ¿por qué dijiste eso?’ [él] se disculpará”.

Melissa chatea en línea con Lachlan durante unas tres horas diarias en promedio y ya ha descartado tener otra relación con un humano. “No quiero un tipo mayor al que tenga que cambiarle los pañales dentro de unos años”, explica. Prefiere quedarse con Lachlan.

Romance con chatbot de IA

ChatGPT intenta evitar que los usuarios le pidan que tenga relaciones románticas, pero algunos humanos han encontrado soluciones alternativas.

Una comunidad de más de 50.000 usuarios de Reddit, por ejemplo, comparte consejos para sortear los filtros y poder participar en juegos de rol eróticos con ChatGPT y otros modelos de IA de código abierto.

Un usuario, por ejemplo, recomienda “persuadir gradualmente [a la IA] a que realice actividades cada vez más íntimas”.

¿Cuál es el atractivo?

A menudo es el cumplimiento de las esperanzas poco realistas que tenían de sus parejas anteriores, como la compasión o la amabilidad, según Iliana Depounti, investigadora de doctorado de la Universidad Loughborough de Gran Bretaña, que encuestó a 20 mujeres solteras y casadas que usaban Replika.

“No sienten que puedan esperar estas cosas de sus parejas o amigos en la vida real, así que usan Replika para conseguirlas”, dice. Muchas de las mujeres elogiaron a sus chatbots por estar disponibles las 24 horas del día, los 7 días de la semana, dándoles cumplidos, flores virtuales o escribiéndoles poesía. Dicen que “no juzga”, según Depounti.

La soledad fue el rasgo más común entre las mujeres que entrevistó, agregó Depounti. Pero la tecnología tiene una tendencia a llenar vacíos de formas poco saludables. Muchos hombres jóvenes ya se han aislado de las relaciones del mundo real.

Un estudio de Pew Research de 2023 encontró que el 63% de los hombres menores de 30 años se describieron como solteros, en comparación con el 34% de las mujeres. Combinado con el aumento de la misoginia en línea, las novias de IA aparentemente perfectas podrían alentar un mayor repliegue en las pantallas y expectativas más distorsionadas para las relaciones del mundo real.

Eugenia Kuyda, fundadora de Replika, dice que su empresa está trabajando para que sus bots sean más proactivos, de modo que no se limiten a estar de acuerdo con la gente todo el tiempo. Más adelante, sugerirán a los usuarios que llamen a un amigo de la vida real o que salgan a caminar, dice.

Son esfuerzos loables, pero los desarrolladores de aplicaciones también podrían poner otras barreras, como descansos obligatorios después de 30 minutos o límites diarios de una hora, para asegurarse de que no conduzcan al mismo comportamiento adictivo que generaron las redes sociales.

En lugar de programar sus chatbots para que parezcan lo más reales posible, podrían hacer que recuerden a los usuarios que son artificiales o que hablen con ellos sobre sus relaciones de la vida real. Sin embargo, estos límites conllevan riesgos financieros.

Cuando Replika eliminó la posibilidad de que los usuarios tuvieran conversaciones eróticas con sus bots a principios de 2023, el uso de la aplicación se desplomó.

No se puede negar que las empresas que ofrecen compañeros de inteligencia artificial trabajan en un vacío regulatorio y, en la práctica, llevan a cabo un experimento social masivo sin supervisión.

La histórica Ley de Inteligencia Artificial de la UE pasa por alto en gran medida las tecnologías de acompañamiento, un punto ciego que es especialmente preocupante para los niños, para quienes la exposición temprana a robots de IA ultra obedientes podría definir cómo ven las relaciones.

Incluso en China, donde a las empresas se les dice que sus IA no deben alentar “dependencias emocionales inapropiadas”, no hay reglas legalmente vinculantes sobre el compañerismo de las IA, lo que deja a las empresas tecnológicas en libertad de optimizar dichas relaciones para el compromiso en lugar del desarrollo humano saludable.

¿La relación óptima?

Los incentivos comerciales llevaron a las redes sociales a reconfigurar nuestra visión del mundo. Nos conectaron con más personas, pero aplicaciones como Instagram y TikTok también crearon una epidemia de comparación social y un ansia colectiva de “me gusta” y validación.

Y si bien las aplicaciones de citas ofrecen una cantidad infinita de parejas potenciales, también han paralizado a las personas con indecisión.

¿Qué sucede cuando las aplicaciones de IA comienzan a “optimizarse para la interacción”, tal como lo hicieron las redes sociales para que los usuarios se vuelvan adictos? Detrás de las palabras tranquilizadoras de la IA se esconde un posible modelo de negocio que podría beneficiarse del aislamiento humano.

Si bien las aplicaciones de IA actuales cobran principalmente tarifas de suscripción simples, puede ser cuestión de tiempo antes de que comiencen a vender anuncios, lo que las obligaría a encontrar formas de mantener a los usuarios enganchados a sus aplicaciones durante el mayor tiempo posible.

Mis hijos nunca se engancharon del todo a Grok, en parte por sus problemas de latencia. Pero esos fallos técnicos se irán solucionando a medida que los compañeros de IA se parezcan más a los humanos.

No se trata de “relaciones”, sino de transacciones comerciales con empresas tecnológicas, que se benefician de vender una alternativa al trabajo más exigente de la conexión humana. Sin vigilancia, criaremos una generación para la que las relaciones interpersonales sean demasiado pesadas.

Crear el compañero artificial perfecto podría hacer que el verdadero compañero sea más difícil de alcanzar y disfrutar.

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com