Este año, la empresa Microsoft Corp. (MSFT) tiene previsto destinar US$80.000 millones en el campo de la inteligencia artificial (IA), lo que le permitirá afianzar su posición de líder en este sector.
Entonces, ¿por qué ha hecho público hace poco un trabajo de investigación que revela una pérdida de capacidad de pensamiento crítico entre los empleados que emplean herramientas de inteligencia artificial generativa como ChatGPT?
Si fuésemos generosos, diríamos que se trata de una auténtica investigación científica. Es más probable que quiera permanecer a la cabeza a medida que la inteligencia artificial trastoca determinados puestos de trabajo, y garantizar que sus herramientas continúen siendo útiles para las organizaciones.
En un instante en que las grandes tecnológicas se apresuran a agrandar los modelos de IA, este enfoque es estimulante y reflexivo, tanto con respecto al modelo de negocio de la industria como a sus resultados en la sociedad.
Este estudio, elaborado en colaboración con investigadores de la Universidad Carnegie Mellon, entrevistó a 319 trabajadores del conocimiento acerca de cómo empleaban la inteligencia artificial, entre los que se encontraban un profesor que generaba imágenes para una presentación sobre el lavado de manos a sus alumnos empleando DALL-E 2 y un operador de materias primas que creaba estrategias usando ChatGPT.
Según los investigadores, se observó un patrón sorprendente: Mientras más confiaban los participantes en la inteligencia artificial para la realización de algunas tareas, menos practicaban ellos mismos esas habilidades, como la escritura, el análisis y las evaluaciones críticas. El resultado fue que se atrofiaron sus habilidades en esas áreas.
Varios participantes afirman que empezaron a desconfiar de sus capacidades para llevar a cabo tareas como la verificación de la gramática de un texto o la redacción de cartas legales, lo cual les hizo aceptar de forma automática cualquier cosa que les proporcionara la IA generativa.
Y todavía eran menos proclives a practicar sus habilidades cuando había premura de tiempo.
“En el departamento de ventas, debo cumplir una cuota determinada a diario o me arriesgo a quedarme sin trabajo”, explicó uno de los participantes en el estudio bajo anonimato. “Por lo tanto, utilizo la inteligencia artificial para ahorrar tiempo y no dispongo de mucho tiempo para reflexionar acerca de los resultados”.
Un estudio reciente similar realizado por Anthropic, que analizó cómo las personas usaban su modelo de IA Claude, descubrió que la principal habilidad exhibida por el chatbot en las conversaciones era el “pensamiento crítico”.
Esto pinta el panorama de un futuro en el que los trabajadores profesionales se convertirán en administradores de los resultados de la IA, en lugar de ser los creadores de nuevas ideas y contenidos, en particular a medida que los modelos de IA mejoren.
El último modelo de “investigación profunda” de OpenAI, que cuesta US$200 al mes, puede realizar investigaciones en Internet, examinando imágenes, archivos PDF y texto, para producir informes detallados con citas.
Según una nota a los inversores del 12 de febrero de Deutsche Bank AG, uno de los resultados es que el trabajo cognitivo se va a transformar, y rápidamente.
“Los humanos serán recompensados por hacer a su agente de IA las preguntas correctas, de la manera correcta, y luego usar su criterio para evaluar y repetir las respuestas”, escribe el analista de investigación Adrian Cox. “Gran parte del resto del proceso cognitivo se descargará”.
Por muy aterrador que suene, pensemos que Sócrates alguna vez se preocupó de que la escritura llevaría a la erosión de la memoria, que se esperaba que las calculadoras acabaran con nuestras habilidades matemáticas y que la navegación GPS nos dejaría irremediablemente perdidos sin nuestros teléfonos.
Esto último puede ser algo cierto, pero en general los humanos hemos logrado darle otros usos a nuestro cerebro cuando externalizamos nuestro pensamiento, incluso si nuestras habilidades matemáticas y de navegación se vuelven más vagas.
Lo que diferencia a la IA es que invade una parte mucho más amplia de nuestra cognición cotidiana.
Nos ponen en situaciones en las que debemos pensar críticamente con mucha más frecuencia que en las que debemos calcular sumas o trazar rutas, ya sea redactando un correo electrónico confidencial o decidiendo qué señalarle a nuestro jefe en un informe.
Eso podría dejarnos menos capaces de realizar el trabajo profesional fundamental o más vulnerables a la propaganda. Y nos lleva de nuevo a la pregunta de por qué Microsoft, que gana dinero con las ventas de los modelos GPT de OpenAI, publicó estos hallazgos.
Hay una pista en el propio informe, donde los autores señalan que corren el riesgo de crear productos “que no atiendan las necesidades reales de los trabajadores” si no saben cómo utilizan la IA los trabajadores del conocimiento y cómo funcionan sus cerebros cuando lo saben.
Si las habilidades de pensamiento de un gerente de ventas se deterioran cuando utiliza los productos de IA de Microsoft, la calidad de su trabajo también podría disminuir.
Un hallazgo fascinante del estudio de Microsoft fue que cuanto más confiaban las personas en las capacidades de su herramienta de IA, menos probabilidades había de que comprobaran dos veces sus resultados. Dado que la IA todavía tiene tendencia a alucinar, eso aumenta el riesgo de un trabajo de mala calidad.
¿Qué sucede cuando los empleadores comienzan a notar una disminución en el rendimiento? Podrían culpar al trabajador, pero también podrían culpar a la IA, lo que sería malo para Microsoft.
Las empresas tecnológicas han promocionado a viva voz la IA como una herramienta que “aumentará” nuestra inteligencia, no la reemplazará, como parece sugerir este estudio.
Por lo tanto, la lección para Microsoft está en cómo apunta a sus productos futuros, no en hacerlos más poderosos sino en diseñarlos de alguna manera para mejorar en lugar de erosionar las capacidades humanas.
Tal vez, por ejemplo, ChatGPT y sus similares puedan incitar a sus usuarios a que se les ocurran sus propias ideas originales de vez en cuando. Si no lo hacen, las empresas podrían terminar con fuerzas laborales que pueden hacer más con menos, pero que tampoco pueden detectar cuándo su nueva eficiencia las está llevando por el camino equivocado.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com