Un cruel giro del destino condujo a Jason Gowin a tomar una original decisión sobre la paternidad.
Pocos días después de que su mujer diera a luz a sus gemelos en 2019, ella sufrió un derrame cerebral. Los doctores le auguraron dos o tres años de vida. Tanto Gowin como su hijo mayor estaban desolados, aunque lo peor estaba por venir. Unos meses después, Gowin descubrió que padecía cáncer de estómago.
Ante la idea de dejar a sus tres hijos huérfanos, se le ocurrió ver la película de Superman, El Hombre de Acero, donde el protagonista entra en la Fortaleza de la Soledad y conversa con una réplica de su padre. Aquella posibilidad de que él y su mujer dejaran réplicas parlantes de ellos mismos para sus hijos tenía algo de reconfortante.
Una búsqueda en Google le llevó a Gowin, un actor de 47 años de Pensilvania, a unas diez compañías que ofrecían entrenar modelos de IA a partir de datos personales, mensajes de texto, videos y otros vestigios digitales, con el fin de crear semejanzas virtuales de las personas.
Se inscribió como probador beta con un proveedor llamado “You, Only Virtual”, y en la actualidad su hijo de nueve años habla de vez en cuando con un chatbot al que llaman Robo Dad, una simulación de IA que se parece inquietantemente a Gowin.
Recientemente, cuando su mujer mencionó algo sobre fregar los platos, Robo Dad hizo la misma broma momentos después de que lo hiciera el propio Gowin.
La IA está comenzando a ofrecer una propuesta nueva y sorprendente: la posibilidad de seguir conversando con las personas fallecidas.
Si bien hasta la fecha solo un pequeño subgrupo de personas ha experimentado las llamadas herramientas tecnológicas del duelo, la tecnología anuncia un profundo e inquietante giro en nuestra forma de procesar la pérdida.
El precio de la satisfacción de estas herramientas podría ser una mayor pérdida de nuestro control colectivo sobre qué es real y qué no lo es.
A pesar del crecimiento explosivo de la IA, las resurrecciones digitales siguen siendo poco frecuentes. “You, Only Virtual” tiene alrededor de 1.000 usuarios, según el CEO Justin Harrison. Una empresa similar llamada “Project December” informa que 3.664 personas han probado su servicio.
Unos pocos miles en China han “revivido digitalmente” a sus seres queridos a través de una empresa de IA llamada “Super Brain”, utilizando tan solo 30 segundos de datos audiovisuales. Estas cifras palidecen ante los 300 millones de usuarios semanales de ChatGPT. Pero a medida que la IA se vuelve más barata y sofisticada, estos primeros usuarios pueden señalar un cambio en la forma en que lidiamos con la muerte.
La idea no es totalmente inédita.
Millones de personas ya buscan compañía en chatbots como Replika, Kindroid y Character.ai, atraídos por una de las capacidades más sorprendentes de la IA generativa: la empatía simulada. Estas interacciones han demostrado ser tan emocionalmente atractivas que los usuarios se han enamorado de sus compañeros de IA o, en casos extremos, supuestamente han sido llevados al suicidio.
Otros han intentado hablar con simulaciones digitales de sus yoes mayores para ayudar a planificar su futuro, y más de 60.000 personas utilizan actualmente una de esas herramientas llamada Future You .
Es fácil ver el atractivo cuando gran parte de nuestra comunicación actual se basa en texto y la inteligencia artificial se ha vuelto tan fluida. Si la historia de Gowin no te conmueve, pregúntate: ¿chatearías con una versión digitalizada de un amigo o familiar fallecido si estuviera entrenada para hablar con él? Me costaría mucho resistir la oportunidad.
Pero el uso de la IA generativa para procesar el duelo también vulnera algo inviolable en nuestros valores como seres humanos.
No se trata solo de la posibilidad de enturbiar nuestros recuerdos con los de un ser querido “falso”: ¿realmente dijo la abuela que amaba el pastel de calabaza o solo su avatar? Los riesgos incluyen el consentimiento: ¿y si la abuela hubiera odiado ser recreada de esta manera?
Y no se trata solo de la impermanencia o de la idea de que, cuando morimos, dejamos espacio para que la próxima generación llene el discurso público con sus propias voces.
El principal peligro es que la tecnología para el duelo podría acelerar nuestra creciente desconexión con el presente, un fenómeno que ya se ha visto alimentado por las métricas cuantificadas del valor humano en las redes sociales y el auge de las noticias falsas y las cámaras de eco.
Ahora se produce un ataque a nuestra apreciación de la finalidad, a medida que la tecnología invade otro rincón de nuestras experiencias más personales.
La tecnología para el duelo traiciona “nuestro compromiso fundamental con la realidad”, dice Nathan Mladin, investigador principal de Theos, un grupo de expertos con sede en Londres. Sostiene que, si bien los humanos siempre han conservado reliquias de los muertos (como fotos y mechones de cabello), las simulaciones de IA cruzan una frontera existencial porque son interactivas y están respaldadas por datos de todo internet.
En un estudio de 2024 , Mladin también advirtió sobre la explotación de las personas en duelo con fines de lucro. “Algunas personas usan estas aplicaciones durante un tiempo, pero otras se quedan enganchadas y continúan interactuando como si esa persona todavía estuviera allí”.
Aunque la tecnología para el duelo sigue siendo marginal, su normalización parece plausible. Eso significa que necesitará barandillas, como límites temporales que hagan que las réplicas de IA se desvanezcan con el tiempo, reflejando el duelo natural. También podrían beneficiarse de estar integradas con consejeros humanos para estar atentos a la dependencia nociva.
Gowin está lidiando con estos límites.
El padre robot no puede hablar de sexo, pero su familia aún tiene dudas sobre cómo manejará en el futuro conversaciones importantes sobre relaciones y alcohol, o qué sucederá si su hijo se apega demasiado al sistema.
Por ahora, el padre robot es lo suficientemente bueno para Gowin, incluso si eso lleva a que se mezclen los recuerdos del padre real y el digital. “Sinceramente, la memoria humana es muy irregular de todos modos”, dice. “Lo importante para mí es que sé que mi modelo de IA tiene mi esencia en su núcleo”.
Pero preservar la esencia de alguien también pone en riesgo algo fundamental. El concepto japonés de “mono no aware” sugiere que las cosas son hermosas, como los cerezos que florecen sólo una semana al año, precisamente porque no duran para siempre.
Prolongar artificialmente nuestra presencia significa no solo perder nuestra apreciación de la impermanencia, sino algo aún más esencial: nuestro anclaje colectivo a lo que es real. Al tratar de suavizar los bordes de la muerte a través de la tecnología, podemos debilitar gradualmente nuestra capacidad de enfrentar la vida misma.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com