Un artículo de unos investigadores del fondo de cobertura AQR Capital Management y la Universidad de Yale aborda una de las preguntas más trascendentales en el mundo financiero: ¿la inteligencia artificial y el aprendizaje automático reemplazarán a los investigadores y operadores humanos?
En sus 44 páginas repletas de teoría y resultados empíricos bajo el título “La virtud de la complejidad en la predicción de la rentabilidad” (The Virtue of Complexity in Return Prediction), Bryan Kelly, Semyon Malamud y Kangying Zhao afirman que los modelos más complejos —demasiado complejos para que los humanos los procesen— superan a los modelos más simples.
Como informa Bloomberg News, la reacción no se hizo esperar, y por lo menos seis artículos cuestionaron los resultados, que Kelly ha defendido posteriormente.
¿Cómo acabará esto?
Yo apuesto por Kelly y sus colaboradores. Los argumentos teóricos son tremendamente técnicos, pero la cuestión básica es antigua y fácil de entender.
Un enfoque para la predicción consiste en buscar algunos indicadores clave con vínculos causales claros con lo que se desea predecir y combinarlos de forma sencilla. Para predecir la rentabilidad del mercado bursátil del próximo mes, por ejemplo, se podría considerar la rentabilidad de este mes, las tasas de interés, la relación precio-beneficio y variables similares. Todo lo demás se considera ruido aleatorio que debe ignorarse.
El problema de usar demasiados indicadores o combinarlos de forma demasiado compleja es el sobreajuste. Se obtiene un modelo que explica el pasado a la perfección, pero el futuro no. Se ha construido un modelo que aprovecha el ruido del pasado para explicarlo todo, pero esas relaciones de ruido no persistirán en el futuro.
Si te interesa comprender o explicar las cosas, el enfoque simple anterior es claramente la mejor opción. Pero si solo te interesa la predicción, hay otra opción: introduce todos los indicadores imaginables en el modelo (el término técnico es “modelo de fregadero”) y prueba todas las combinaciones complejas.
Si las acciones con “V” en su símbolo tienden a subir los martes lluviosos, eso está en tu modelo. La idea es que, incluso si un indicador no tiene valor predictivo, no perjudica tus predicciones; solo añade ruido. Puedes incluirlo todo y luego reducir el ruido o realizar muchas operaciones para diversificarlo.
El debate suscitado por el artículo es más matizado que esa ilustración.
Kelly y los demás no incorporan todos los indicadores posibles a su modelo, sino simplemente 15 variables con 12 valores mensuales cada una (300 en total), a partir de las cuales ajustan 12.000 parámetros para predecir la rentabilidad del mercado bursátil del mes siguiente. No utilizan letras en símbolos de cotización ni el pronóstico del tiempo del martes.
Sus oponentes no abogan únicamente por los modelos más simples; simplemente niegan que la complejidad sea siempre una virtud.
Un debate muy similar tuvo lugar hace medio siglo en el contexto de la ruleta. A inicios de la década de 1960, Ed Thorp, el profesor de matemáticas que ideó el conteo de cartas del blackjack, y Claude Shannon, el padre de la teoría de la información, construyeron el primer ordenador portátil del mundo para predecir los giros de la ruleta.
Los sistemas anteriores para ganar a la ruleta se basaban en la tabulación de resultados anteriores para encontrar los números que salían con más frecuencia que otros. Muchos argumentaban que las ruletas estaban demasiado bien mecanizadas como para obtener una ventaja útil de ello.
La idea clave de Thorp fue que, si las ruletas se construían con la precisión suficiente para que cada número saliera con la misma frecuencia, debían ser predecibles. Su trabajo inicial demostró que un giro de ruleta tenía dos fases.
Cuando la bola giraba contra el borde exterior del recipiente (la pista de la bola) y el cabezal de la ruleta (la parte móvil con todos los números) giraba en sentido contrario, el sistema se regía por la física newtoniana simple.
Si se conocía la velocidad de la bola, el cabezal de la rueda y los coeficientes de fricción, era fácil predecir qué número estaría debajo de la bola al salir de la pista y caer en el cabezal de la rueda. Una vez que la bola salía de la pista, los deflectores, el giro y los rebotes hacían que su movimiento fuera caótico y difícil de predecir.
Sin embargo, el simple hecho de saber qué número estaba debajo de la bola al salir de la pista permitía identificar un tercio de la rueda donde caería la bola el 40% de las veces, más que suficiente para obtener ganancias en las apuestas.
Esto dio origen a uno de los principios fundamentales de los inversores cuantitativos, la oportunidad consiste en descubrir la previsibilidad de lo que otros consideran aleatorio y la incertidumbre de lo que otros consideran determinista.
Para la década de 1970, construir una ruleta portátil y demostrar su funcionamiento era uno de los ritos de iniciación para los inversores cuantitativos.Las mejoras en la tecnología condujeron a enormes mejoras en la precisión y la confiabilidad.
Para cuando me aventuré en esto a mediados de la década de 1970, el campo se había dividido.
Un grupo, los físicos, dedicaba sus esfuerzos a mejorar los dispositivos de medición. Usaban ecuaciones complejas para procesar los datos relevantes mediante modelos causales derivados de la física.
Yo me inclinaba por el otro grupo, los estadísticos. Utilizábamos versiones primitivas de algoritmos de aprendizaje automático para explotar patrones.
Queríamos aprovechar no solo los factores deterministas que suponían una ruleta perfecta, sino también los patrones derivados de imperfecciones, como que algunas ranuras numéricas fueran un poco más blandas o duras que otras, o que la ruleta no estuviera del todo horizontal. Medimos muchos más factores que los físicos, pero con menor precisión en cada uno, y procesamos muchos datos que podrían haber parecido irrelevantes.
Los dos grupos presentaron argumentos bastante similares al actual sobre la virtud de la complejidad.
La gran ventaja de los físicos residía en que los dispositivos requerían poco o ningún entrenamiento para las ruedas individuales, ya que se basaban en leyes físicas universales en lugar de imperfecciones de cada rueda.
Nuestras ventajas eran el bajo coste y una mayor precisión de predecir, especialmente en los casinos más descuidados, con ruedas más baratas y un mantenimiento deficiente, a costa de necesitar horas de calibración antes de que las apuestas fueran rentables.
Llevo 50 años apostando por la complejidad sobre la teoría, y por la predicción sobre la comprensión. Desde hace tiempo creo que el aprendizaje automático y la IA reemplazarán a los analistas y operadores humanos (así como a los conductores, médicos, abogados y científicos, entre muchos otros).
Los algoritmos de aprendizaje automático e IA exitosos encontrarán sus propios patrones a partir de la mayor cantidad de datos posible, en lugar de ser guiados por humanos para seleccionar datos relevantes e imponer restricciones teóricas a priori a las respuestas. Pero a menudo me equivoco, así que no apuestes todo tu dinero al número que más le gusta a mi ruleta de computadora.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com