Bloomberg — Hace un año, Andrew Lo solicitó a ChatGPT su opinión sobre Moderna Inc. (MRNA), una acción de biotecnología que se había disparado durante la época de la pandemia. La recomendación: vender. Pero no lo hizo. Las acciones se hundieron.
Actualmente, Lo, profesor de finanzas del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) y destacado experto en IA, cree que la misma clase de tecnología que acertó en la venta de acciones muy pronto podría hacer mucho más que eso.
Ver más: El auge de la IA provoca gastos récord en red eléctrica de EE.UU. y plantea más centrales

No solo aconsejar, sino también gestionar dinero, sopesar riesgos, diseñar estrategias y cumplir uno de los principales deberes de las finanzas, que es actuar en el mejor interés del cliente. Pronostica que dentro de 5 años los grandes modelos lingüísticos (LLM, por sus siglas en inglés) tendrán la capacidad técnica de tomar realmente decisiones de inversión en nombre de sus clientes.
Lo, de 65 años, conecta desde hace tiempo los mundos financiero y tecnológico.
Cofundó QLS Advisors, una compañía que aplica el aprendizaje automático a la sanidad y la gestión de activos, y fue pionero de la inversión cuantitativa cuando todavía se consideraba marginal.
En su opinión, la IA generativa, pese a sus deficiencias, se está aproximando rápidamente a la capacidad de analizar la complejidad de la dinámica de los mercados, ponderar los riesgos a largo plazo y ganarse la confianza que habitualmente se reserva a un asesor humano.
“Esto se podría traducir en lo que denominamos un agente de IA, en el que disponemos de agentes que trabajan y que toman decisiones en nuestro nombre de manera automatizada”, explicó Lo durante una entrevista. “Yo creo que en los próximos cinco años veremos una revolución en la manera en que los humanos interactúan con la inteligencia artificial”.
La idea aún suena radical en Wall Street, donde las herramientas tipo ChatGPT se limitan principalmente a tareas de nivel junior, como la recopilación y el análisis de datos.
Sin embargo, la visión de Lo va más allá. Con las debidas garantías regulatorias, la IA podría evolucionar a partir de un investigador trabajador pero rígido para cumplir uno de los más altos requisitos de las finanzas, la norma fiduciaria.
Los reguladores estadounidenses se preocupan crecientemente por los riesgos de la IA en la industria de los servicios financieros. En 2023, la Comisión de Bolsa y Valores (SEC, por sus siglas en inglés) planteó una norma que exige a los intermediarios y asesores financieros que usen IA o análisis predictivos que “eliminen o neutralicen” el efecto de cualquier conflicto de intereses.
Ver más: Qualcomm apuesta por la IA en Latam y lleva su programa para startups a México y Brasil
Para Lo, el desafío no es solo técnico. Se trata de la fiabilidad en la toma de decisiones cruciales. ¿Es posible entrenar a un modelo que a veces alucina para que opere con la consistencia y transparencia que exige el mundo financiero?
Con el tiempo, surgirán diferentes herramientas para comprender cómo confiar en los LLM en ciertos contextos y cómo desconfiar de ellos en otros, afirmó. “El sector de los servicios financieros cuenta con capas adicionales de protección que deben construirse antes de que estas herramientas sean útiles. Creo que eso ocurrirá”.
Lo, nombrado una de las 100 personas más influyentes del mundo por la revista Time, fundó la firma de inversión cuantitativa Alphasimplex Group LLC antes de desvincularse. El año pasado, fue coautor de un artículo titulado "Generative AI from Theory to Practice: A Case Study of Financial Advice" (Inteligencia Artificial Generativa de la Teoría a la Práctica: Un Caso de Estudio de Asesoramiento Financiero).
La idea de que la IA seleccione acciones no es nueva. El año pasado se lanzó un ETF impulsado por chatbots con la promesa de aprovechar la capacidad intelectual de las mentes más ilustres del mundo de la inversión, como Warren Buffett.
Los robo-asesores de Fidelity y Charles Schwab ayudan a construir y reequilibrar carteras adaptadas a los objetivos individuales y al apetito de riesgo.
Pero esos sistemas son rígidos. Lo busca algo más adaptable.
Imagina un modelo capaz no solo de generar resultados, sino también de absorber retroalimentación y aprender a relacionarse con clientes humanos. Una inteligencia artificial con capacidad de agencia y responsabilidad fiduciaria.
Por eso también Lo aboga por la cautela.
Wall Street, argumenta, tiene razón al actuar con cautela con lo que podría ser la herramienta financiera más disruptiva en décadas. Señala las consecuencias de la crisis de Knight Capital Group Inc. en 2012 , cuando un error de software provocó una importante pérdida comercial con consecuencias existenciales.
Ver más: OpenAI acelera su expansión: Oracle le suministrará 2 millones de chips de IA
Aun así, cree en la colaboración entre humanos y máquinas. Los humanos aportan intuición, experiencia y relaciones. Las máquinas aportan velocidad, memoria y reconocimiento de patrones. Juntos, afirma, podrían crear estrategias financieras que ninguno de los dos podría generar por sí solo.
Si esto suena ambicioso, es solo el comienzo. Los futuros sistemas de IA podrán hacer mucho más que superar a los humanos en la selección de acciones. Podrían redefinir cómo se integran la confianza, el riesgo y la responsabilidad en la toma de decisiones financieras.
“Estamos en un momento en el que los grandes modelos lingüísticos pueden estar orgullosos de nosotros”, dijo Lo. “Y eso es a la vez emocionante y aterrador”.
Cree que la próxima generación de IA necesitará hacer más que analizar mercados. Tendrá que comprender a las personas, tanto emocional como socialmente, para generar la confianza duradera esencial para la asesoría.
Lea más en Bloomberg.com