La IA no solo miente, sino que también puede hacer que le creas

Una imagen de IA creada con el generador DALL-E 2.
Por F.D. Flam
30 de agosto, 2025 | 01:31 PM

Una de las más sutiles e intrusivas amenazas que plantea la inteligencia artificial y la tecnología relacionada es su capacidad para manipular los recuerdos.

Durante los últimos 50 años, la psicóloga Elizabeth Loftus se ha dedicado a demostrar lo fácil que es manipular a los seres humanos para que recuerden cosas que nunca ocurrieron, sobre todo en los interrogatorios de testigos por parte de fiscales y policías.

PUBLICIDAD

Ahora, Loftus, profesora de la Universidad de California en Irvine, se ha asociado con investigadores del Instituto Tecnológico de Massachusetts (MIT) para explorar cómo la IA puede manipular lo que creemos recordar.

Dicha manipulación se produce aun cuando los sujetos son conscientes de que están viendo textos e imágenes generados por inteligencia artificial. Los resultados sugieren que la inteligencia artificial podría amplificar la capacidad de los seres humanos para implantar recuerdos falsos.

En los años 70, Loftus hizo una serie de experimentos que demostraron que, con las sugerencias adecuadas, los psicólogos conseguían que la gente recordara cosas que jamás habían ocurrido, tales como haberse perdido en un centro comercial cuando eran niños o haber enfermado por comer huevos o helado de fresa en un picnic. Esto último, en efecto, hizo que las personas no quieran volver a consumir esos alimentos.

PUBLICIDAD

Pese a las evidencias, seguimos sin poder desprendernos de la idea de que la memoria es como una grabación de los acontecimientos, y esa percepción errónea de nuestra propia mente nos hace vulnerables.

“Quienes se adhieren a este modelo de memoria de grabadora no parecen comprender que la memoria es un proceso constructivo”, dijo Loftus, explicando que nuestros cerebros construyen recuerdos a partir de fragmentos adquiridos en diferentes momentos.

Intuitivamente, entendemos el olvido como la pérdida o el desvanecimiento de recuerdos, pero no como la adición de detalles falsos.

Loftus también ha estado estudiando el potencial de confusión de las “encuestas de empuje”, donde los encuestadores incorporan información errónea en una pregunta, como: “¿Qué pensarías de Joe Biden si supieras que ha sido condenado por evasión fiscal?“. Dijo que es escalofriante considerar la eficacia con la que la IA podría llevar a cabo esta clase de engaño a gran escala.

La manipulación de la memoria, señala Pat Pataranutaporn, investigador del Media Lab del MIT, es un proceso muy diferente a engañar a la gente con deepfakes (imágenes y sonidos falsos).

No es necesario crear una falsificación elaborada de, por ejemplo, el sitio de internet del New York Times; basta con convencer a la gente de que leyó algo allí en el pasado. “La gente no suele cuestionar su propia memoria”, afirmó.

Pataranutaporn fue el autor principal de tres experimentos de memoria, el primero de los cuales mostró cómo los interrogadores de chatbots pueden alterar el testimonio de los testigos simplemente incorporando sugerencias en sus preguntas: una extensión de IA del trabajo anterior de Loftus sobre interrogatorios humanos.

En ese estudio, los participantes vieron un video de un robo a mano armada. A algunos se les hicieron preguntas engañosas, como: “¿Había una cámara de seguridad cerca del lugar donde los ladrones estacionaron el auto?“.

Aproximadamente un tercio de los participantes recordaron posteriormente haber visto a los ladrones llegar en auto. No había auto. El falso recuerdo persistió incluso una semana después.

Los sujetos fueron divididos en tres grupos: uno no recibió preguntas engañosas, otro las recibió por escrito y el tercero las recibió mediante un chatbot de inteligencia artificial. El grupo del chatbot generó 1,7 veces más recuerdos falsos que quienes recibieron información engañosa por escrito.

Otro estudio demostró que los resúmenes de IA o chatbots engañosos pueden fácilmente insertar recuerdos falsos en una historia leída. Lo que es aún más preocupante, según Pataranutaporn, es que los participantes que recibieron resúmenes o chats de IA engañosos también retuvieron menos información real de su lectura y reportaron menos confianza en la información verdadera que recordaban.

El tercer estudio demostró cómo la IA puede inculcar recuerdos falsos mediante imágenes y videos.

Los investigadores dividieron a 200 voluntarios en cuatro grupos. Los participantes de cada grupo analizaron un conjunto de 24 imágenes: algunas eran imágenes típicas de sitios web de noticias, mientras que otras eran personales, como fotos de bodas que alguien podría publicar en redes sociales.

Durante una segunda visualización, unos minutos después, a cada grupo se le mostró una versión diferente de las imágenes.

Un grupo vio las mismas imágenes, sin modificar. Un segundo grupo vio versiones modificadas por IA. Un tercer grupo vio imágenes modificadas por IA convertidas en videos cortos generados por IA. El último grupo vio imágenes generadas íntegramente por IA, que a su vez se habían transformado en videos generados por inteligencia artificial.

Incluso el grupo que vio las imágenes originales conservó algunos recuerdos falsos, lo cual no sorprende, dada la dificultad de recordar 24 imágenes distintas.

Sin embargo, los participantes expuestos a cualquier nivel de manipulación de IA reportaron significativamente más recuerdos falsos. El grupo con la mayor tasa de distorsión de la memoria fue el que vio videos generados por inteligencia artifical basados en imágenes generadas por IA.

Las personas más jóvenes eran algo más propensas a incorporar recuerdos falsos que las personas mayores. Y el nivel educativo no parecía afectar la susceptibilidad.

Cabe destacar que los recuerdos falsos no se basaban en engañar a los participantes haciéndoles creer que el contenido generado por IA era real; se les dijo desde el principio que verían contenido creado por IA.

En el experimento de imágenes, algunas de las alteraciones implicaron cambios en el fondo, como añadir presencia militar a una reunión pública o cambiar el clima. Las imágenes conservaron la mayoría de las características del original. Como he aprendido de los expertos, para tener un impacto real, la desinformación debe incorporar una historia con al menos un 60% de veracidad.

Esta última investigación debería impulsar un mayor debate sobre los efectos de la tecnología en nuestra comprensión de la realidad, que pueden ir más allá de la simple difusión de desinformación.

Los algoritmos de las redes sociales también incitan a las personas a adoptar ideas radicales y teorías conspirativas al crear la falsa impresión de popularidad e influencia.

Los chatbots de IA tendrán efectos aún más sutiles e inesperados en nosotros.

Todos deberíamos estar abiertos a que nuevos hechos y argumentos sólidos nos cambien de opinión, y desconfiar de los intentos de cambiar nuestra opinión distorsionando lo que vemos, sentimos o recordamos.

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com

PUBLICIDAD