El 10 de octubre de 2025, el Los mercados de criptomonedas experimentaron una dislocación sísmica.. En cuestión de minutos, una cascada de liquidaciones acabó con miles de millones en intereses abiertos, dejando paralizados los algoritmos comerciales estándar. No fue sólo una caída de precios; fue un fallo estructural de los modelos predictivos. Las estrategias que habían impreso dinero durante meses de repente se enfrentaron a un estado de mercado que no existía en sus datos de formación.
Este evento sirvió como un recordatorio brutal: en el mundo de las finanzas cuantitativas, de alto riesgo, la dependencia del aprendizaje automático (ML) se ha vuelto absoluta, pero sus puntos ciegos siguen siendo fatales. Desde algoritmos de comercio de alta frecuencia (HFT) que se ejecutan en nanosegundos hasta complejos oráculos DeFi, la industria se encuentra en una carrera armamentista por la supremacía de los datos. Pero cuando ocurre un «cisne negro», los modelos entrenados con datos históricos no sólo tienen un rendimiento inferior, sino que se rompen.
Esto crea una paradoja para las empresas comerciales modernas: ¿cómo se construyen sistemas resilientes cuando sus herramientas principales no ven los riesgos más importantes?
Para responder a esto, nos sentamos con Grigori Chikishevlíder de equipo y comerciante cuantitativo en Cerebros cuánticos. Con más de nueve años de experiencia en la creación de soluciones de infraestructura para mercados, que van desde algoritmos HFT y modelos ML hasta sistemas de evaluación de flujo basados en gráficos, Grigory ha desarrollado su carrera en la intersección de la velocidad de ejecución y la resiliencia sistémica. En Quantum Brains, ha transformado los procesos de mercado en arquitecturas escalables diseñadas para resistir la misma volatilidad que rompe los modelos estándar.
Aquí está su perspectiva sobre por qué la industria necesita ir más allá de la «caja negra» y cómo diseñar una verdadera antifragilidad.
El Zen de lo impredecible
Cuando la discusión gira en torno al fracaso de los modelos de riesgo durante eventos como la reciente crisis de octubre, la pandemia de COVID-19 o la crisis financiera de 2008, la crítica estándar es que los modelos «fallaron» en predecir el evento. Grigory cuestiona por completo esta premisa. Sostiene que la expectativa de que un modelo de ML prediga una singularidad es matemáticamente errónea y que la solución no reside en una mejor predicción sino en una mejor aceptación.
«Me gustaría señalar de inmediato que no veo ningún problema con la existencia de cisnes negros. Son, por definición, eventos imposibles de predecir. Y no hay nada que podamos hacer al respecto. Por ejemplo, la colisión de un cometa con la Tierra: podemos decir casi con seguridad que no sucederá en las próximas semanas o incluso años, pero nadie sabe lo que está pasando en la parte invisible de la galaxia…
La palabra «fracaso» puede ser una exageración. Si sabemos de antemano nuestra incapacidad para predecir el evento A, entonces debemos aceptar su ocurrencia con calma budista.»
Sin embargo, aceptar la imprevisibilidad no significa ignorar las consecuencias. Grigory señala que si bien un modelo no puede predecir la momento de una crisis, los expertos en el dominio humano deben diseñar sistemas que entiendan consecuencias del peor de los casos: algo que los modelos puramente basados en datos a menudo pasan por alto porque los puntos de datos simplemente no están ahí.
«En algún lugar entre estos dos números se encuentra el punto crítico que separa un evento predecible de uno impredecible (un cisne negro). Y el defecto fundamental de cualquier modelo es que no puede calcular este punto… Sólo podemos prepararnos para el peor de los casos, que el modelo NO tiene en cuenta».
El mito de la compensación por la transparencia
Un debate importante en las finanzas cuantitativas es la tensión entre la IA explicable (XAI) y las ganancias. La sabiduría predominante sugiere que los modelos de «caja negra» (modelos de aprendizaje profundo no supervisados que son difíciles de interpretar) son más rentables porque son más complejos, y que obligarlos a ser explicables (para el cumplimiento normativo) ralentiza la ejecución y reduce su ventaja.
Grigory no está de acuerdo vehementemente con esta dicotomía. Para él, la transparencia no es una carga regulatoria; es una herramienta de depuración.
«Dudo mucho que un enfoque no supervisado o de caja negra sea en última instancia más exitoso que un enfoque de caja blanca cuando se compara directamente… Por lo tanto, cualquier esfuerzo hacia la ‘interpretabilidad a nivel regulatorio’ es sólo para mejor. Si su hijo recién nacido pudiera explicar lo que le duele, sería muy conveniente y claramente ayudaría con su educación».
Sugiere que la opacidad en las estrategias comerciales es a menudo una máscara de la suerte más que de la genialidad; específicamente, el sesgo de supervivencia.
«Si ve una estrategia de ML exitosa que ‘no está clara cómo funciona’, lo más probable es que una de dos cosas sea cierta:
- O sus creadores realmente lo entienden todo, pero prefieren guardar sus cartas en secreto.
- O estamos ante un sesgo de supervivencia… Si 1.024 personas hacen una cadena de 10 predicciones binarias, precisamente una de ellas será absolutamente correcta en cada predicción.
Desafortunadamente, a veces ambas razones son correctas. ¡Así que exige siempre una explicación a tu agente de IA!»
Ingeniería antifragilidad
Si la predicción es imposible, la única estrategia viable es la antifragilidad: la capacidad de un sistema para beneficiarse del desorden, un concepto popularizado por Nassim Taleb. Sin embargo, implementar esto en hardware e infraestructura es muy difícil. Construir un sistema que pueda manejar 100 veces la carga normal del mercado durante una crisis suele tener un costo prohibitivo.
El enfoque de Grigory sobre la infraestructura en Quantum Brains prioriza la flexibilidad sobre la capacidad de fuerza bruta.
«No puedes preparar tu infraestructura para un evento de cisne negro. Por ejemplo, si calculas la carga máxima de tu servidor y permites un aumento de 100 veces, entonces estás quemando dinero en recursos no utilizados casi el 100% del tiempo… Pero puedes preparar un sistema flexible para reducir los costos de recursos. Por ejemplo, simplemente cerrando una configuración comercial tras otra. ¿Cuál es el punto de todos modos si todo se va al infierno?»
Esta flexibilidad permite a una empresa sobrevivir al shock inicial. Pero en realidad ganancia de la dislocación -para ser verdaderamente antifrágiles- se requiere un cambio de mentalidad. Requiere reconocer que cuando los algoritmos de otros fallan, el mercado deja de ser eficiente.
«Repito, estamos hablando de una situación que nuestros modelos no predijeron… Esta formulación también contiene buenas noticias: podemos suponer que otros participantes del mercado están experimentando el mismo escenario ‘difícil’. El 10 de octubre, las criptomonedas experimentaron un shock importante, lo que provocó la liquidación de muchas posiciones. Algunos participantes literalmente abandonaron el mercado: o eligieron la segunda opción (apagar) o simplemente no tuvieron tiempo de hacerlo (QEPD).
Este fue un buen momento para explotar ineficiencias o aprovechar oportunidades que normalmente estarían cerradas… En cierto sentido, esta también es la manera de Taleb: para evitar ser un pavo, simplemente no tienes que serlo.»
El elemento humano en un juego de suma cero
A medida que la IA continúa dominando la ejecución comercial, muchos cuestionan el papel futuro del comerciante cuantitativo humano. Si las máquinas manejan el flujo, el riesgo y la ejecución, ¿el ser humano está obsoleto?
Grigory cree que la naturaleza misma del mercado salvaguarda el elemento humano: es un juego de suma cero impulsado por el deseo de ganar, una emoción que los algoritmos no poseen. Si bien la IA puede funcionar, carece del impulso para «vencer» al mercado que impulsa la verdadera innovación.
«El comercio se diferencia de muchos otros campos en los que la IA se está desarrollando activamente porque es un juego de suma cero… Imaginemos un extremo: no quedan participantes vivos en el mercado… ¿Hay aquí lugar para los humanos? En mi opinión, no lo hay.
Pero afortunadamente… en el mundo real, siempre habrá participantes vivos… Otro factor humano es el exceso de confianza. La idea: ‘Soy humano, seré más inventivo y original que la IA’ nunca abandonará nuestras mentes».
En última instancia, el futuro del comercio cuantitativo no se trata de reemplazar a los humanos con IA, sino de que los humanos utilicen la IA para competir contra otros humanos. El algoritmo es el arma, no el soldado.
«Como dije, es un juego de suma cero. Pero un algoritmo no tiene ningún interés en ganar dinero en tales condiciones. Sólo el homo sapiens siempre tendrá el deseo de ‘vencer’ a los demás».





