Un vistazo a las oficinas de las instituciones financieras modernas revela estrategias de inversión algorítmicas y computacionales de una complejidad vertiginosa. Las técnicas de aprendizaje automático y los métodos de la física aplicada confunden al profano y fomentan una reputación de complejidad inaccesible en torno al ámbito de las finanzas cuantitativas.
Los intrincados métodos probabilísticos de la economía académica y la erudición matemática que requieren parecen impedir el acceso a aquellos más interesados en cultivar las técnicas del realismo causal. Sin embargo, estos modelos se basan en última instancia en una suposición fundamental sobre la naturaleza de la acción humana, cuya validez apenas se aborda en el ámbito académico y cuya falacia ontológica socava fatalmente su aplicabilidad.
Supuesto
El modus operandi de la academia convencional en el campo de la economía es el desarrollo de modelos cuantitativos artificiales construidos a partir de premisas poco realistas sobre el comportamiento humano. Al igual que en el divorcio de la teoría macroeconómica de los principios más básicos de la acción humana, los postulados inviables de los modelos financieros se justifican como observables y, por lo tanto, efectivamente sostenibles en su conjunto. Mientras se mantenga (aparentemente) la coherencia interna de un modelo, la concentración de los modelos financieros en grandes grupos de datos y participantes en el mercado motiva un desprecio por el rigor holístico completo.
Si bien dichos modelos de probabilidad tienen por objeto informar las decisiones financieras individuales, se presta poca atención a si las afirmaciones a través de las cuales se alcanzan sus conclusiones son válidas desde la perspectiva de un solo agente. Sin embargo, el supuesto más fundamental de las finanzas cuantitativas es el tratamiento de los datos económicos y financieros como generalmente homogéneos, tanto en el tiempo como entre individuos.
En pocas palabras, la actividad financiera de numerosos individuos se recopila, se compara a lo largo del tiempo y se trata como el resultado de un único proceso de generación de datos. Una vez más, no se niega la singularidad de las decisiones financieras individuales, solo que las técnicas estadísticas aplicables a conjuntos de datos homogéneos resultan informativas cuando se aplican a sus resultados agregados. Estos métodos permiten identificar frecuencias empíricas, construir distribuciones de probabilidad y asignar probabilidades a diversos resultados futuros (es decir, las herramientas fundamentales de la teoría moderna de la probabilidad).
Este conjunto homogeneizado de variables heterogéneas es análogo a los procedimientos empleados en las ciencias naturales, donde variables fundamentalmente heterogéneas se agregan con éxito en descripciones homogéneas, como en el análisis de grandes colecciones de partículas de gas para predecir la temperatura y la presión.
Relajación
Aunque muchas técnicas de modelización relajan provisionalmente la hipótesis de homogeneidad, a menudo lo hacen mediante una categorización poco adecuada, como las estandarizaciones bayesianas/gaussianas de los rendimientos por períodos de tiempo y «regímenes» de mercado, o la división de los participantes en los mercados financieros en categorías de aversión al riesgo. Un enfoque similar (utilizado en los modelos ARCH/GARCH) es la hábil transposición de la homogeneidad supuesta a datos normalizados por factores de escala constantes (por ejemplo, los niveles de volatilidad recientes).
Otros modelos (como el de Fama-French) trasladan la hipótesis de homogeneidad de las variables objetivo que pretenden predecir (por ejemplo, los rendimientos) a factores explicativos comunes (por ejemplo, la rentabilidad) que se supone que todos los participantes en el mercado experimentan y valoran de forma idéntica.
Varios modelos centrados en la gestión de riesgos admiten mucha más opacidad e imprecisión que sus homólogos, pero, en el mejor de los casos, introducen elementos estructurados de incertidumbre (por ejemplo, un rango finito de resultados plausibles en MVO robustos).
En última instancia, en el campo de las finanzas cuantitativas no existe ningún escepticismo fundamental sobre la legitimidad epistemológica de la comparación económica interpersonal e intertemporal, ya que tal debate pone en tela de juicio su razón de ser integral.
Heterogeneidad
Pero, tal y como admiten los propios modelos financieros cuantitativos, la acción humana —que es la que genera los datos financieros— es innegablemente heterogénea, tanto entre individuos distintos como a lo largo del tiempo. Las expectativas, preferencias y niveles de tolerancia al riesgo que influyen en las decisiones financieras cambian constantemente, al igual que las condiciones que las influyen, que son inequívocamente variables y funcionalmente infinitas.
Como resultado, los resultados de los acontecimientos financieros no tienden a valores estables y sus variaciones son explícitamente variables y sin límite, lo que invalida por completo la formulación de probabilidades derivadas de distribuciones basadas en datos financieros históricos. Además, los datos acumulados de múltiples participantes en los mercados financieros son en sí mismos heterogéneos, ya que cada decisión de comprar o vender activos en diversas cantidades es única por las mismas razones.
De forma análoga al tropo keynesiano de que «un dólar de gasto es un dólar de gasto», la naturaleza amalgamada de los mercados financieros induce a error a quienes se dedican a la cuantificación, llevándoles a descuidar la naturaleza de los mercados y el mecanismo de los precios. Lejos de ser acontecimientos homogéneos, los precios de mercado son simplemente la relación de intercambio (en este caso, entre un bien monetario y un activo financiero) en la que se maximizó el comercio durante ese período de tiempo a través de las fuerzas de la especulación manual, los sistemas de negociación, los libros de órdenes automatizados, etc.
Prácticamente toda la financiación cuantitativa trata de forma acrítica dicho intercambio a precios de mercado como el resultado de un único proceso estadístico por motivos de conveniencia, a pesar de que ha tenido lugar entre innumerables individuos, cada uno de los cuales posee motivaciones distintas y en constante evolución.
La derivación de probabilidades a partir de las frecuencias empíricas que se encuentran en dichos datos agregados y su empleo para predecir los resultados futuros del mercado, en los que las motivaciones, las condiciones e incluso los participantes habrán cambiado necesariamente, es simplemente el inevitable paso en falso que se deriva de la suposición errónea de la homogeneidad.
Resulta irónico que, dado que la naturaleza innegablemente heterogénea de los datos financieros frustra las posibilidades de éxito constante de cualquier modelo puramente estocástico, la suposición de homogeneidad se traslade simplemente a los métodos estadísticos de estandarización y categorización de datos, lo que garantiza un nuevo fracaso por las mismas razones.
Incluso si se abandonara por completo la homogeneidad a lo largo del tiempo (lo que por sí solo desarmaría a la abrumadora mayoría de las herramientas de las finanzas cuantitativas modernas), habría que aceptar la heterogeneidad entre los distintos actores financieros, lo que desmantelaría por completo todo el edificio de las finanzas académicas.
Implicaciones
Los académicos, los cuantitativos profesionales e incluso los legos enamorados de las complejidades de la teoría de la probabilidad y el aprendizaje automático moderno podrían inicialmente burlarse de una línea de razonamiento tan escéptica. Es comprensible que destaquen los enormes rendimientos obtenidos por diversas estrategias de negociación probabilísticas como ejemplos de la aplicación exitosa de la teoría de la probabilidad en la predicción de los resultados de los mercados financieros. Sin embargo, se puede afirmar fácilmente que el desconocimiento de las condiciones subyacentes de la oferta y la demanda por parte de los modelos modernos basados en la probabilidad desvía el capital de forma adversa y contribuye a las distorsiones extremas que se observan en la economía moderna.
Además, el marco probabilístico moderno de las finanzas cuantitativas puede ser igualmente responsable de agravar varias burbujas financieras generacionales que aniquilaron billones de dólares en riqueza, como la crisis financiera global de 2008, en la que la estructuración probabilística generalizada y los modelos de VaR (valor en riesgo) desempeñaron un papel crucial. Cabe destacar que la amplia aplicación de modelos probabilísticos en los mercados financieros depende en última instancia de métodos no probabilísticos para la supervisión, el desarrollo, la modificación, la orientación y, lo que es más importante, la previsión empresarial.
Por lo tanto, mientras los modelos estocásticos requieran ajustes constantes y los activos se reconozcan como propiedad exclusiva de individuos y no como entidades puramente algorítmicas, los rendimientos (especialmente los rendimientos constantes) deben atribuirse en última instancia a las capacidades empresariales de quienes poseen capital en inversiones rentables.
Conclusión
Las críticas a la hipótesis de homogeneidad no deben interpretarse erróneamente como un rechazo de los métodos estadísticos en su conjunto. Los datos de todo tipo facilitan el emprendimiento y el cálculo económico, lo que aumenta inequívocamente la eficiencia económica. Sin embargo, las probabilidades derivadas de datos que se suponen erróneamente homogéneos no son más que una simulación de empirismo y representan otro ejemplo más de la «envidia de la física» dentro de la academia económica dominante.