Wall Street promueve la IA en el trabajo, pero refuerza filtros para candidatos que la usen

Los grandes bancos de Wall Street están reforzando controles y software de detección para evitar que los aspirantes usen IA durante las entrevistas y pruebas de entrada.

PUBLICIDAD
Los candidatos a trabajar en Wall Street están siendo entrevistados y sometidos a pruebas donde se les pide no usen IA.
Por Annika Inampudi - Paula Sambo
27 de noviembre, 2025 | 10:47 AM

Bloomberg — Mientras las principales empresas de Wall Street anuncian las numerosas formas en que la IA está mejorando el rendimiento de sus trabajadores, desde cajeros que ayudan a los clientes con problemas relacionados con sus cuentas hasta los banqueros de inversión que gestionan transacciones multimillonarias, existe un grupo que no desean que utilice la inteligencia artificial: los candidatos a un puesto de trabajo.

Durante la pandemia, la banca comenzó a realizar entrevistas virtuales y pruebas en línea para seleccionar a los aspirantes. Eso agilizó y facilitó el proceso de reclutamiento, pero, con el auge de la IA generativa, también abrió la puerta a que los candidatos emplearan ChatGPT para mejorar sus posibilidades de ser seleccionados.

PUBLICIDAD

Ver más: Google lanza Gemini 3, su modelo de IA más avanzado hasta ahora

Wall Street

En la actualidad, las empresas están adoptando medidas para impedir ese uso de la inteligencia artificial, entre ellas la implementación de software de detección, al tiempo que algunos aspirantes aseguran que se están limitando a usar las mismas herramientas que se prevé que empleen una vez contratados.

“Goldman deseará que esos candidatos utilicen GenAI en el trabajo. ¿Por qué no dejarles usarlo en la solicitud previa a la contratación?“, indicó Nathan Mondragon, director de innovación de Hirevue Inc., una plataforma de selección basada en IA que usan la mayoría de los principales bancos estadounidenses, incluido Goldman Sachs Group Inc. (GS). “Su opción es optar por un camino diferente y decir que está restringido, básicamente”.

PUBLICIDAD

En un momento en el que la IA amenaza con eliminar los puestos de trabajo de nivel básico automatizando las tareas más sencillas, el sector financiero se enfrenta al reto de cómo seleccionar a los profesionales con las habilidades de pensamiento crítico necesarias para aprovechar al máximo unas herramientas de IA que son imperfectas y que están en constante evolución.

Están cambiando sus procesos de contratación para garantizar que sus candidatos son verdaderamente los mejores y más brillantes sin necesidad de emplear la IA, incluso si eso implica utilizar la inteligencia artificial para conseguirlo.

El sector financiero se caracteriza por un proceso de selección notoriamente exhaustivo. El proceso típico de entrevista en un banco comienza con una preselección en una plataforma en línea como Hirevue, que utiliza inteligencia artificial para reducir el número de candidatos.

Posteriormente, los aspirantes se someten a entrevistas técnicas, donde se les evalúa sobre sus habilidades prácticas y conocimientos financieros necesarios para el puesto.

Finalmente, los candidatos participan en una jornada intensiva, un evento de un día completo con múltiples entrevistas técnicas y de comportamiento consecutivas, antes de recibir la decisión final.

No obstante, dado que el sector prevé pagar bonos récord este año, los jóvenes se apresuran a conseguir una oportunidad. Para algunos, esto implica utilizar la IA para facilitarles el proceso.

Ver más: Los jefes de Citi acuden a la IA para redactar evaluaciones de rendimiento

TestGorilla, una compañía de software que ofrece una biblioteca de pruebas de personalidad y habilidades específicas para cada puesto, es usada por numerosas empresas financieras para evaluar a los candidatos antes de que sean entrevistados personalmente.

De los más de 5 millones de candidatos evaluados por TestGorilla en diversos sectores, aproximadamente el 15% presenta “actividad potencialmente sospechosa”, categoría que incluye el uso de inteligencia artificial, según Claudia Baijens, vicepresidenta de producto. En el sector financiero, la tasa de comportamiento sospechoso es ligeramente superior, añadió.

Cuando Meridith Dennes, reclutadora de la firma de búsqueda de ejecutivos Prospect Rock Partners, evalúa a los candidatos para enviarlos a empresas financieras, busca indicios de que estén utilizando IA. Si alguien usa un chatbot para generar respuestas a sus preguntas, generalmente lo detecta.

“Si algo me suena demasiado ensayado o genérico, sigo haciendo preguntas más profundas hasta llegar a la respuesta real”, dijo. Si las respuestas siguen siendo genéricas, Dennes suele descartar al candidato.

Los entidades bancarias buscan trabajadores que aporten valor más allá de las herramientas que emplean, afirmó. Un candidato con el que trabajó Dennes usó IA para investigar las operaciones de una firma especializada, y el chatbot le proporcionó información incorrecta.

Fue descartado para el puesto. “Hay que usarla como una herramienta de apoyo, pero no depender totalmente de ella”, concluyó Dennes.

Aidan Swenson, estudiante de tercer año de la Universidad de Bentley, quien acaba de conseguir una pasantía en finanzas, comentó que nunca se planteó usar IA durante una entrevista.

Algunos de sus amigos que recurrieron a chatbots durante el proceso de selección se enfrentaron a una curva de aprendizaje más pronunciada una vez que consiguieron trabajo, explicó.

En cambio, él utilizó la IA para mejorar los puntos clave de su currículum y adaptarlos mejor a la descripción del puesto, y pidió a ChatGPT que le hiciera preguntas antes de la entrevista para prepararse para posibles preguntas.

“Yo no soy de los que piensan que va a sustituir por completo los puestos de trabajo”, dice Swenson. “Más bien, va a sustituir a quien no sepa utilizarla por quien sí sepa hacerlo”.

Ver más: OpenAI entrena su IA con exempleados de Wall Street para automatizar tareas financieras

Compañías de software como Hirevue y TestGorilla han implementado medidas de seguridad para detectar el uso de IA, como el seguimiento de cuándo los candidatos cambian de pestaña en el navegador o tardan demasiado en responder.

TestGorilla también añadió un “acuerdo de honestidad” que exige a los candidatos comprometerse a no utilizar IA para obtener ayuda durante las pruebas.

A comienzos de este año, Goldman Sachs envió a los candidatos, incluidos aquellos que aspiraban a puestos en banca de inversión, una carta en la que se les instruía a evitar cualquier tipo de asistencia digital durante las entrevistas.

“Este lenguaje es coherente con el que enviamos a todos los candidatos que solicitan empleo en nuestros campus, independientemente del puesto”, declaró Jennifer Zuccarelli, portavoz de Goldman Sachs, en un comunicado enviado por email. “Queremos escuchar a nuestros candidatos expresarse con sus propias palabras”.

Aunque un solicitante supere la selección inicial, los bancos también han modificado sus entrevistas técnicas para premiar a quienes no utilizan demasiado la IA.

Las empresas están dando a los candidatos menos tiempo para completar los estudios de caso, una clase de entrevista técnica en la que responden preguntas sobre un problema empresarial específico, según Jake Schneider, reclutador de Selby Jennings.

Si bien antes los bancos les daban días para responder, ahora les piden la información en cuestión de horas. Posteriormente, se llevan a cabo conversaciones con los entrevistadores para que los candidatos puedan explicar su razonamiento y demostrar que resolvieron los casos sin ayuda.

“Estas respuestas no son necesariamente blanco y negro, como lo eran en el pasado”, dijo Dennes.

Para comprobar si un candidato verdaderamente comprende los aspectos técnicos, las compañías están yendo más allá de las preguntas genéricas sobre modelización o contabilidad, y están haciendo a los estudiantes preguntas específicas sobre un modelo financiero, la lógica detrás de un acuerdo o hacia dónde se dirige la industria, dijo Patrick Curtis, fundador de Wall Street Oasis, proveedor de cursos de capacitación para entrevistas y desarrollo de habilidades.

“Todavía quieren poder evaluar la inteligencia y el sentido común” más allá de lo que ofrecen los grandes modelos lingüísticos, dijo Curtis. “Si un modelo lingüístico genera algo sin sentido, precisamente por eso se necesita a alguien que lo entienda a un nivel fundamental y pueda analizarlo con ojo crítico”.

Ver más: Klarna y el impacto de la IA: cómo la inteligencia artificial redefine el trabajo y la banca

Mientras tanto, las jornadas de selección presencial están volviendo al formato tradicional, ya que los reclutadores intentan averiguar cómo encajarán los candidatos en la cultura de su empresa.

“No veo a nadie siendo contratado sin una entrevista personal”, afirmó Dennes. Las empresas comenzarán a dar mayor importancia a las habilidades cualitativas de los candidatos, explicó, porque la alta dirección bancaria depende del desarrollo de relaciones estrechas con los clientes, algo que la IA no puede lograr. “Las relaciones no se pueden externalizar”.

Sin embargo, una vez contratados, se prevé que los candidatos dominen el uso de la IA de inmediato.

El CEO del Royal Bank of Canada, Dave McKay, afirmó que desea que las universidades capaciten a los estudiantes para que adquieran habilidades en el manejo de los modelos grandes de lenguaje (LLM, por sus siglas en inglés) que sustentan las herramientas de IA generativa.

La próxima generación debería “incorporarse a mi empresa y desempeñar funciones de mayor responsabilidad desde el inicio, ya que disponen de acceso a más información, pueden trabajar de forma más eficiente y eficaz, y no tienen que cubrir todas las lagunas de aprendizaje desde el primer día”, afirmó McKay en una entrevista. “Disponen de más tiempo, ya que cuentan con el apoyo de los LLM”.

Lea más en Bloomberg.com

PUBLICIDAD