Edison Earl brilla en su trabajo como becario de posgrado en la Arts University Bournemouth (Inglaterra). Ha generado más contenidos de marketing que nunca para su escuela y ha doblado su número de seguidores en Instagram durante los últimos siete meses.
Sin embargo, le cuesta atribuirse ese mérito, ya que la aplicación ChatGPT realizó gran parte del trabajo. Durante los dos últimos años pasó de aportar ideas sobre el papel a dialogar con ChatGPT la mayor parte del día.
“¿Me puedes reescribir este correo?”, le pregunta. “¿Qué piensas de este post en las redes sociales y de este evento?”. Y no es solamente para el trabajo; este joven de 23 años le pide ayuda para cualquier cosa, desde decidir qué comer hasta qué ropa comprar.
El joven Earl admite abiertamente que se ha vuelto dependiente de la herramienta lanzada por OpenAI a fines de 2022, que ahora usan con regularidad más de 400 millones de personas. Este software y otros similares, como Gemini de Google (Alphabet Inc.) o Claude de Anthropic, se ofrecen como becarios digitales o asistentes de investigación.
El problema para los becarios y los recién llegados con los que he conversado: algunos se están volviendo excesivamente dependientes de la IA, lo que enturbia el camino hacia la veteranía, menoscaba su autoconfianza y acentúa su síndrome del impostor. “Estaba confiando tanto en ello que perdí la fe en mis propias decisiones y en mi proceso de razonamiento”, explica Earl.
Según un estudio realizado en 2025 por la consultora de gestión holandesa BearingPoint, que sondeó a más de 300 gerentes de Europa y Estados Unidos, los empleados jóvenes utilizan más las herramientas de IA que los mandos intermedios y superiores, generalmente porque aún están adquiriendo un “compás interno”.
Si bien los altos ejecutivos suelen ignorar las herramientas de inteligencia artificial porque confían en su propia experiencia (quizá demasiado), los recién contratados hacen lo contrario.
Earl reconoce que se sentía muy orgulloso de su trabajo antes de comenzar a usar ChatGPT. Ahora tiene un vacío que no puede explicar. “Me he vuelto más perezoso... Acudo instantáneamente a la IA porque tengo arraigado que creará una respuesta mejor”, dice. Ese tipo de condicionamiento puede resultar potente a una edad temprana.
Una ejecutiva de RR.HH. nos contaba esta semana que uno de sus nuevos trabajadores le confesó que no sabía cómo contribuir a las reuniones de equipo.
Al preguntarle por qué, explicó que había ingresado en la plantilla durante los bloqueos de Covid-19 y que había empezado a confiar en la función de levantar la mano de Microsoft Teams, la plataforma de videoconferencias. Al no disponer de un emoji de la mano que pudiera activar en la vida real, se vio obligado a aprender a alzar la voz en las reuniones de trabajo.
El condicionamiento de la IA va más allá de la etiqueta de oficina y puede llegar a erosionar las habilidades de pensamiento crítico, un fenómeno que investigadores de Microsoft han señalado y que el propio Earl ha notado.
“Siento como si mi cerebro estuviera un poco inactivo”, dice. “No estoy forzando tanto mis límites mentales, ni forzando mis propios pensamientos”.
Claro que nada es blanco o negro, y ChatGPT ofrece muchísimas ventajas. Tras usarlo para controlar sus gastos en el bar y otros lugares, Earl ha conseguido equilibrar sus presupuestos por primera vez. Ha apuntado la cámara de su teléfono a los estantes de las tiendas para elegir ropa y, como resultado, ha ganado confianza con sus atuendos.
Pero echa de menos la exploración de las compras y los errores. “Esa chispa de entrar en una tienda, ver algo y pensar: ‘Esto me conecta’, ya no la tengo”, dice. “Compro cosas porque ChatGPT me lo ha dicho”.
Esto podría parecer un caso extremo, pero cada vez hay más pruebas de que muchas personas, especialmente las más jóvenes que han recurrido a herramientas de IA para tareas como la escuela, están desarrollando dependencias de la tecnología tanto para el trabajo como para asuntos personales.
Un estudio reciente lo atribuye a la cautivadora capacidad de los chatbots para realizar tareas al instante y a la simpatía de sus respuestas.
Esto último es probablemente más poderoso de lo que creemos.
Piensa en la dosis de dopamina que sientes al escuchar un cumplido y considera que ChatGPT y sus competidores suelen enmarcar sus respuestas con halagos y palabras de aliento.
El cofundador de OpenAI, Sam Altman, admitió recientemente que su última versión de la herramienta se había vuelto demasiado aduladora y que sus ingenieros estaban trabajando para controlarla.
La propia investigación de OpenAI reveló el mes pasado que, si bien la mayoría de los usuarios de ChatGPT tienen una relación sana con la tecnología, un subgrupo de usuarios avanzados muestra signos de “dependencia emocional”. El ensayo controlado aleatorio con 981 participantes sugirió que estas personas presentaban un uso problemático.
Altman se enfrenta a un delicado equilibrio entre mantener a la gente en ChatGPT (pagando suscripciones o potencialmente mirando anuncios) y crear otra razón para estar enganchados a nuestras pequeñas pantallas.
Al darse cuenta de que probablemente se había vuelto un hábito, Earl canceló la semana pasada su suscripción de ChatGPT de £20 al mes (US$30). Después de dos días, ya sentía que estaba logrando más en el trabajo y, curiosamente, siendo más productivo.
“Siento que estoy trabajando de nuevo”, dice. “Estoy planeando, pensando y escribiendo”. Pero abstenerse por completo de la IA probablemente tampoco sea la solución, sobre todo cuando otros la usan para obtener una ventaja competitiva. El reto ahora es que Earl y otros jóvenes profesionales la usen sin dejar que sus cerebros se atrofien.
“El pensamiento crítico es un músculo”, afirma Cheryl Einhorn, fundadora de la consultora Decision Services y profesora adjunta de la Universidad de Cornell. Para evitar externalizar demasiado a un chatbot, ofrece dos consejos: “Intenta analizar una decisión tú mismo y haz una prueba de resistencia con IA”, explica.
La otra es interrogar las respuestas del chatbot. “Puedes preguntarle: ‘¿De dónde viene esta recomendación?’”. La IA puede tener sesgos tanto como los humanos, añade.
La búsqueda de Earl de un equilibrio saludable sobre la IA podría ser uno de los grandes retos de su generación.
Pero las empresas tecnológicas también deberían explorar maneras de diseñar productos que favorezcan el desarrollo mental, en lugar de obstaculizarlo. Y una conversación más amplia sobre cómo establecer límites saludables con la IA tampoco estaría de más.
La franqueza de Earl al respecto es inspiradora. Necesitamos más de ella.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com