DINÁMICA DE MERCADOS

 

 

 

INTRODUCCIÓN

 

            Los precios de los activos financieros son el resultado de una infinidad de interacciones imposibles de resumir de forma sencilla. Por ello, aún considerando que responden a una lógica económica, resultan imposibles de estudiar con precisión.

 

            Esta imposibilidad de estudio se presenta de forma evidente cuando de predecir un precio se trata, pero afecta a toda la doctrina económica en cuanto que la práctica se encarga de destruir una  y otra vez las teorías que pretenden explicar los fenómenos de formación de precios. Los fracasos para explicar el tipo de cambio del Euro desde su nacimiento en enero de 1999 son, solamente, un ejemplo más, especialmente llamativo, de esta situación.

 

            Sin embargo, cuesta creer que los procesos económicos, y en particular los procesos de formación de precios de los activos financieros, respondan a una absoluta falta de lógica. La experiencia parece mostrar una relación coherente entre diversos procesos, aunque esta coherencia sea cambiante o aparezca y desaparezca en distintos momentos. En este sentido se suele recurrir a la explicación sobre el largo plazo, en la que se señala la existencia de un proceso coherente, por más que el “ruido” del corto plazo no nos permita verla en la vida diaria.

 

            Resulta difícil de entender el conjunto de malentendidos y falsedades que se encubre bajo la mayor parte de las explicaciones sobre precios y relaciones entre activos financieros, incluyendo la afirmación del párrafo anterior sobre una supuesta “coherencia en el largo plazo”. Resultará más fácil entender el problema si lo enfocamos de forma general a partir  de la caracterización de los procesos, tal como se comienza a vislumbrar desde hace unas décadas.

 

            Definidas las características de los procesos, y en particular las de los de formación de precios de activos financieros, estaremos en situación de discutir si la pregunta sobre la coherencia de los mercados es, por lo menos, planteable.

 

 

 

CARACTERIZACIÓN DE PROCESOS

 

            En realidad cualquier proceso es el resultado de una teoría. Esta afirmación es trivial, pero exige una pequeña explicación. Dado un proceso cualquiera, nosotros nos limitamos a observarlo, lo que en la práctica se traduce en que tomamos una o más medidas sobre el proceso. Por simplista que esto parezca, lo que después de observar al proceso tenemos es, sencillamente, una o más series de números. Y a partir del estudio de estas series podremos establecer una teoría sobre el proceso. A efectos prácticos sólo tenemos, de partida, series de números; y al final tenemos una teoría. Si las posteriores observaciones, es decir, si las series de números posteriores no concuerdan con la teoría, entonces la teoría es desechada.

 

            Sin embargo, el procedimiento puede exigir una enorme cantidad de tiempo. Enfrentados con las series numéricas de la posición de las estrellas y los planetas, se tardaron cientos de años en establecer una teoría que no plantease discrepancias con las observaciones. Se requiere trabajar de partida con una teoría de procesos que permita definir los tipos de procesos en los que pueden encajar nuestras observaciones.

 

            Hasta hace relativamente poco tiempo una caracterización de procesos era no solamente imposible, sino que se hubiera tildado de inútil. El convencimiento subyacente a          todo el pensamiento científico era que todo proceso era determinista, y el azar era simplemente el resultado de nuestro desconocimiento preciso de la realidad. Curiosamente este punto de vista, denominado generalmente como “mecanicista”, había sufrido serios varapalos procedentes tanto de la física (principio de incertidumbre de Heisenberg y mecánica cuántica), como de las matemáticas (teorema de incompletitud de Goedel) y de la astronomía (el problema de los tres cuerpos, ya planteado por Newton).  Sin embargo, el paradigma “mecanicista” ha calado tanto en nuestra forma de ver el mundo que resulta realmente difícil escapar a él.

 

            Hoy en día podemos establecer una primera caracterización de procesos atendiendo a su grado de predictibilidad. Aunque esta forma de caracterizarlos es superficial, responde a consideraciones mucho más profundas en la distinción de los procesos,  y permite establecer de forma clara por dónde no hemos de ir.

 

            Si lanzamos una piedra y estudiamos (medimos) los puntos de su trayectoria, podremos determinar dónde estará la piedra un tiempo después. La trayectoria de la piedra es totalmente predecible; después de lanzar muchas piedras y medir sus trayectorias podemos establecer una teoría sobre como se mueven las piedras. Este tipo de procesos caracterizados por tener una predictibilidad conceptual de 100% se denominan deterministas. Podemos predecir dónde estará la piedra y, tan importante como ello, donde no estará.

 

            El segundo gran grupo está formado por los procesos aleatorios. En ellos no podemos saber dónde estaremos, pero podemos medir la probabilidad de estar en algún punto determinado. Aquí la primera certeza absoluta es que alguna vez estaremos en ese punto; y una segunda certeza absoluta: pasaremos por todos los puntos posibles. El ejemplo más fácil es la ruleta. Si apostamos al siete sabremos varias cosas: la primera es que, en términos generales acertaremos una de cada treinta y siete partidas, esto es, tenemos una predictibilidad probabilística; la segunda es que inevitablemente acabará saliendo el siete.

 

            Hay un tercer grupo, los caóticos, en el que no solamente no podemos medir la probabilidad de estar en un punto, sino que, además, ni siquiera sabemos si podemos pasar por un punto determinado. Aquí no es fácil encontrar ejemplos, lo que fue la causa de que este tipo de procesos sólo apareciese de forma clara cuando la informática permitió estudiar un tipo especial de subprocesos denominado caos determinista.

 

 

            Aunque esta clasificación de procesos nos ayuda a estudiar la formación de precio de un activo financiero, estamos todavía lejos de poder utilizarla. La calificación del proceso no resulta evidente. Para acercarnos más a esa calificación hemos de dar un paso relativamente sencillo, que permita estimar si existe o no cierto grado de predictibilidad. Para ello recurrimos a una forma intuitiva de ver el proceso que estamos estudiando, utilizando un gráfico de la serie numérica. Desde este punto de vista las series pueden ser de tres tipos:

 

-         Series antipersistentes: se llaman a sí a las que cambian continuamente de dirección, no manteniendo ninguna tendencia. Los cambios de dirección pueden ser relativamente estables, manteniendo una caracterización estadística clara (procesos de retorno a la media), pero no tiene por qué ser así (series antipersistentes inestables)

-         Series aleatorias: mantienen tendencias que cambian de dirección mediante cambios graduales, sin que existan saltos importantes.

-         Series persistentes: mantienen tendencias que acaban de forma abrupta, mediante saltos importantes. Las tendencias suelen ser muy largas.

 

Estos tres tipos de series responden a procesos conceptualmente distintos y, cuando es calculable, se caracterizan por el coeficiente de Hurst (H)

 

-         Procesos sin ninguna memoria del pasado: series antipersistentes; H<0,50.

-         Procesos con memoria del pasado reciente: series aleatorias; H=0,50.

-         Procesos con memoria del pasado lejano: series persistentes; H>0,50.

 

 

Es difícil precisar hasta qué punto estas dos clasificaciones de los procesos son redundantes. La primera atiende a la predictibilidad y la estructura, mientras que la segunda atiende a la memoria del proceso. En algunos casos puede parecer redundante: así, resulta difícil imaginar un proceso no predecible y estructurado sin memoria de largo plazo, ya que no podemos imaginar qué puede dotar de estructura a un proceso si no es un cierto grado de memoria. Sin embargo, nos parece más prudente considerar que no son redundantes, aunque no conozcamos procesos que respondan a determinadas tipologías conjuntas. Visto así, los procesos pueden clasificarse en función  de la memoria, predictibilidad y estructura.

 

 

Según esta clasificación, los procesos de formación de precios podrían clasificarse teniendo en cuenta que tienen memoria, aunque todavía no sabemos si de largo o corto plazo, son impredecibles y deberían estar dotados de cierta estructura. Pero las discusiones teóricas que supone lo anterior son enormes:

 

-         La discusión sobre si los procesos de formación de precios tienen memoria del pasado reciente, lo que les conduciría a ser procesos aleatorios, o del pasado lejano, lo que les conduciría a ser procesos persistentes, no ha sido resuelta. La teoría tradicional considera que son procesos aleatorios, lo que permite su estudio estadístico; la modelización de precios de opciones de Black-Scholes, la teoría moderna de gestión de Sharpe y la disminución del riesgo por covarianzas de Markowitz, son ejemplos de este punto de vista, por más que sus fracasos prácticos la pongan continuamente en cuestión. La consideración de procesos persistentes, por más que haya sido apoyada por matemáticos de renombre (Mandelbrot o Prigogyne, por ejemplo), choca con un fracaso relativo a la hora de justificarla cuyas razones veremos más adelante.

-         La discusión sobre la predictibilidad surge directamente de la discusión anterior, con el inconveniente añadido de la falta de instrumentos de análisis en caso de encontrarnos ante procesos con memoria del pasado lejano, lo que hace que, de momento, no se pueda siquiera evaluar la predictibilidad salvo en el caso de proceso aleatorio.

-         La discusión sobre estructura conduce a la puesta en cuestión de la teoría económica, lo que no puede ser hecho sin una base teórica alternativa. Además, la existencia de una cierta estructura parece confirmada por la experiencia, lo que, desgraciadamente, no arroja ninguna luz sobre qué o cómo puede ser esa estructura.

 

En estas condiciones conviene, antes de continuar, estudiar con algo más de detalle el resultado de nuestra toma de medidas, al que hacíamos referencia al comienzo de este epígrafe.

 

 

 

VARIABLES, DIMENSIONES Y OBSERVACIONES

 

            Un problema añadido se presenta con nuestra toma de datos. Supongamos que lanzamos una piedra y tomamos datos de distancia vertical y horizontal al punto desde el que soltamos la piedra. La representación gráfica de estos datos es una función de la altura y la distancia: es una función en el plano, luego tiene dimensión 2. Sin embargo, el proceso no tiene por qué tener dimensión 2; de hecho, en el ejemplo, la dimensión del proceso, es decir, el número de variables del proceso, no tiene nada que ver con los datos que hemos observado, y tampoco con su representación gráfica.

 

            ¿Cómo podemos, entonces, estudiar un proceso del que desconocemos su dimensión real –número de variables- y del que sólo conocemos un aspecto especial –nuestra serie de datos- cuya dimensión probablemente no tiene nada que ver con la del proceso?. La respuesta es que, salvo excepciones, el proceso no es estudiable.

 

            Supongamos que tenemos un proceso  con un número N de dimensiones, y supongamos que el proceso nos es desconocido. Si fuésemos capaces de tomar datos de todas las variables, tendríamos una representación gráfica del proceso en un especio de N dimensiones. Pero supongamos que se nos ha escapado una variable, que, por alguna razón, no hemos medido: entonces lo que tenemos es una aproximación gráfica al modelo en un espacio de N-1 dimensiones. Esta aproximación gráfica puede ser suficientemente descriptiva como para que podamos caracterizar el proceso: eso es lo que buscamos. Esta aproximación fue introducida por Poincaré y, desde entonces, se denominan “secciones de Poincaré” a las imágenes producidas por  el conjunto de puntos de un proceso de dimensión N, al atravesar un espacio de dimensión menor que N. Normalmente, por razones de claridad, las secciones de Poincaré se estudian en un especio de tres dimensiones cortado por un plano.

 

            Supongamos ahora que tenemos un proceso determinista, totalmente predecible y estructurado en un espacio de tres dimensiones. La sucesión de puntos de ese proceso en el espacio de tres dimensiones (las trayectorias) puede ser la que queramos, pero, en cualquier caso, si cortamos ese espacio con un plano, las trayectorias cortarán al plano en algunos puntos (eso es la sección de Poincaré). Si el proceso es tal como lo hemos definido, entonces la sección de Poincaré será un objeto geométrico sencillo y claramente definido. Puede ser un punto, una circunferencia, una recta, una curva, una espiral; puede ser cualquier otra figura, pero siempre será un objeto claro. La sección de Poincaré revela la estructura y la predictibilidad del proceso.

 

            ¿Y si el proceso es aleatorio?. Entonces la sección de Poincaré será una nube de puntos que tenderá a ocupar todo el plano.

 

            ¿Y si el proceso es caótico?. Entonces la sección de Poincaré será lo que se denomina un atractor extraño, es decir, un conjunto de trayectorias impredecible pero totalmente estructurado. Nunca podremos saber si estando en un punto de una trayectoria vamos a volver a pasar cerca; y mucho menos cuándo. Pero tendremos una figura extraordinariamente compleja, no una figura sencilla ni una nube de puntos.

 

            Este proceder no resuelve el problema de la dimensionalidad de un proceso, pero ayuda a caracterizarlo. Podríamos estudiar las secciones de Poincaré del proceso, y, a partir de ellas, caracterizarlo. Sí, siempre y cuando estemos midiendo variables relevantes en cuanto a la caracterización del proceso: y eso no lo sabemos a priori. Nuestro desconocimiento del proceso nos lleva a intentar caracterizarlo, lo que exige la medida de variables relevantes, lo que a su vez exige un conocimiento previo del proceso, que no existe. La necesidad de una teoría previa, que supla el desconocimiento absoluto inicial, aparece con toda su crudeza. Pero las secciones de Poincaré nos permiten, por lo menos, acercarnos a una caracterización, siquiera sea intuitiva, sobre la que construir una teoría previa.

 

            Supongamos ahora que hemos tomado medidas de un proceso del que desconocemos absolutamente cualquier teoría previa. Pero admitamos que estamos midiendo algunas variables que, efectivamente, pertenecen al proceso. Entonces las trayectorias formadas por nuestras mediciones son, necesariamente, una sección de Poincaré del proceso. Es verdad que las variables tienen que ser relevantes (si no fuese así, nuestra representación del proceso sería inútil; por ejemplo, si medimos una variable lineal, la sección de Poincaré será una línea recta, aunque esta sea la única variable lineal de un proceso caótico de dimensión 1000), pero no hemos, necesariamente, de suponer que estamos midiendo variables no relevantes. Podemos, por la tanto, utilizar nuestras mediciones para intentar caracterizar el proceso.

 

            Existe una coincidencia entre  nuestras tipologías de procesos y las secciones de Poincaré: bastaría con determinar la dimensión fractal o el coeficiente de Hurst de las trayectorias en la sección de Poincaré para caracterizar el proceso. Y podríamos determinar los máximos exponentes de Lyapunov en cada una de las dimensiones de la sección de Poincaré para determinar la existencia de caos. O aproximar la dimensión fractal y el coeficiente de Hurst mediante la pendiente del espectrograma doble-logarítmico de Fourier. Pero en todos estos casos nos encontramos con un problema muy importante: los algoritmos utilizados para calcular esas magnitudes sólo son válidos en procesos de pocas dimensiones. Esto es una restricción esencial en la práctica, ya que, justamente, desconocemos la dimensionalidad del proceso que estudiamos. A modo de ejemplo supongamos que dudamos entre un proceso aleatorio y un proceso caótico, y que nuestra intención es establecer una distribución probabilística sobre una dimensión; la determinación de la dimensión fractal se transforma en esencial, ya que de ser un proceso aleatorio, por la tanto con dimensión fractal 2,  la función de distribución general de Paretto-Levi se transforma en la Normal de Gauss, perfectamente conocida; pero si la dimensión fractal no es 2, entonces estamos ante un proceso cuya distribución no es gaussiana, sino una Paretto-Levi inmanejable, de la que se desconocen más cosas que las que se conocen (por ejemplo, la suma de variables normales con media y desviación típica conocida, es una distribución normal con media y distribución típica conocida; en el caso de las Paretto-Levi, no se sabe como es la distribución de una suma de variables, salvo en el caso particular de que tengan la misma dimensión fractal).

 

            Podemos, en conclusión, utilizar las secciones de Poincaré para caracterizar nuestro proceso, pero sabemos que los algoritmos utilizados sobre estas secciones, para calcular las magnitudes esenciales, sólo son válidos si el proceso es de dimensión baja.

 

 

 

SIMULACIÓN DE PROCESOS DE FORMACIÓN DE PRECIOS: LA CONJETURA DE INDEPENDENCIA

 

            En el año 1992, basándonos en trabajos previos sobre funciones aplicadas a series de precios, iniciamos la construcción de un simulador de series de precios a partir de una modificación complicada de la función logística. Nuestra idea era que los procesos eran suficientemente generales como para que nuestro simulador no requiriese la introducción de datos específicos para cada mercado. La idea consistía en que una serie de precios  se caracterizaba por la volatilidad y el rango intraday medio, y que estas características debían derivarse sólo del diferencial comprador-vendedor y del número de transacciones diarias. Efectivamente, y con ciertas salvedades en cuanto al cómputo del número de operaciones diarias en algunos mercados, las series simuladas tenían un rango intraday y una volatilidad equivalentes a la del mercado que se pretendía simular. La extensión del simulador a series de valores, y no ya de futuros, generó nuevas dudas en cuanto al funcionamiento de los mercados, más esta vez en cuanto al significado del diferencial comprador-vendedor que directamente en cuanto al número de transacciones diarias.

 

La conjetura de independencia dice que los procesos de formación de precios en mercados financieros eficientes sólo dependen del diferencial comprador-vendedor y del número de transacciones diarias. Se entiende aquí por mercado financiero eficiente aquel en el cualquier participante puede presentar una oferta de compra o una oferta de venta, y puede aceptar una oferta de compra o una oferta de venta, sobre un volumen relativamente constante en el tiempo.

 

            Sin embargo, el éxito, relativo, del simulador planteó un serio problema conceptual. Si las características esenciales de una serie de precios solamente dependían del número de transacciones diarias y del diferencial comprador-vendedor, entonces, ¿tenían estructura los mercados?. ¿Por qué parecía haber relaciones entre distintos instrumentos?. La experiencia diaria de los mercados señalaba que los movimientos de los precios parecían apoyar la conjetura de independencia. Pero la experiencia en el largo plazo parecía apoyar la existencia de una estructura de mercados que, en cierta forma, debía anular a la conjetura de independencia. Sin embargo, no podían utilizarse argumentos que distinguiesen el largo del corto plazo, ya que aquel es simplemente la sucesión de éste [1].

            En estas condiciones necesitábamos estudiar con más detalle las series de precios. Y para ello necesitábamos encontrar algún invariante en todas ellas. Afortunadamente disponíamos de un instrumento relativamente sencillo en la función C0, cuya capacidad de análisis estábamos todavía lejos de sospechar.

 

 

LOS INVARIANTES DEL MERCADO

 

            En 1988, trabajando en futuros y coberturas sobre crudo y derivados del petróleo, habíamos establecido una función cuyo comportamiento era interesante para el seguimiento de los mercados. En aquella época esta función era suficiente para gestionar eficazmente la cobertura de contratos de gasoil, pero presentaba serias dificultades para tomar posiciones puras. Aunque trabajamos con ella durante los siguientes cuatro años, nos faltaba una mayor capacidad direccional que estabilizase nuestras posiciones.

 

            Simultáneamente, durante el año 1991, pusimos en marcha una versión totalmente automatizada de un programa de análisis (ANMER), basado en esa función, y comenzamos un estudio de comportamiento de las posiciones. Para ello comenzamos por definir el tamaño de las posiciones de tal forma que todas tuviesen el mismo riesgo. Esto se hacía a través de una segunda función, denominada C0, que, suponíamos, mantenía constante su media y desviación típica para todos los instrumentos. Por último la dirección del mercado era definida por una tercera función llamada OSC. Establecimos como estrategia la siguiente:

 

-         En un movimiento alcista tomábamos una posición que era reducida en 2/3 en el precio correspondiente a C0=58 (media + 1 desviación típica; posición reducida): La posición era reducida, otra vez en 2/3 en C0=66 (media + 2 desviaciones típicas; posición residual). La posición remanente sólo se eliminaba con un cambio de dirección. En los movimientos bajistas hacíamos lo mismo restando la desviación típica.

-         Creamos tres clientes de control: Teo, que tomaba todas las posiciones por debajo del C0=58; Eli, que tomaba todas las posiciones que no tomaba Teo; y, por último, Nadia, que tomaba las posiciones residuales de Teo. Nuestra idea, a priori, era que el cliente más rentable debía de ser Teo, seguido por Eli y finalizando por Nadia (que tomaba las posiciones cuando ya se habían alcanzado todos los objetivos, lo que, creíamos, suponía tomar posiciones de altísimo riesgo). Sin embargo, las pruebas sobre un conjunto de alrededor de 50 instrumentos durante nueve meses condujeron a resultados sorprendentes: el cliente más rentable era Nadia, seguida por Teo; Eli quedaba el último. La conclusión fue que, suponiendo que las funciones utilizadas tuviesen algún contenido real, Nadia aprovechaba muy bien las tendencias.

 

Pero a aparición de las tendencias planteaba otra vez una cuestión complicada. Nuestro análisis trabajaba sobre series diarias. Aunque el resultado de Nadia fuese fruto de una buena estrategia, no parecía razonable que, salvo la existencia de una estructura en el mercado, se separase significativamente de cero. Y la existencia de una estructura en el mercado era contradictoria con la conjetura de independencia. El programa fue modificado para tener en cuenta la posible existencia de estructuras a través de la utilización intensiva de la función C0. Además, y puesto que parecía que existían estructuras, Anmer fue de nuevo modificado para realizar el análisis sobre las series diarias, y de dos y tres días. Por último se creó una versión especial del programa que permitía el análisis de un único instrumento en series agrupadas hasta n días.

 

            En 1997 teníamos suficiente experiencia con la función C0 como para estudiarla de una forma completa. El resultado está escrito en otro documento [2]. Sin embargo, la función C0, que para entonces parecía mantener un invariante en los mercados, no había dado todavía todos sus frutos. Por casualidad encontramos que la representación de la función C0 en el plano (precio, C0) conducía a unas trayectorias sorprendentes.

 

 

LOS GRÁFICOS DE TRAYECTORIAS Y LA FUNCIÓN OSC

 

            Después de otra modificación de Anmer, en 1998, que permitió trabajar con una variación de las funciones denominadas sintéticas, llegamos a la conclusión de que las series de precios pueden modificarse de tal forma que representadas en un plano específico tengan un comportamiento estable.

 

            Sabíamos que la desviación típica de la función C0 es constante (dentro de ciertas restricciones sobre la forma de construirse la serie, ver nota 2) De hecho nuestra interpretación era que la función C0 transformaba una serie persistente en una serie antipersistente estadísticamente estable. Nuestra sorpresa fue que las trayectorias de la función C0 en el plano (log(precio),C0) corresponden a una clase muy reducida de trayectorias rectas con pendiente constante: tan solo 4 posibles casos. Y esto para cualquier serie de precios y cualquier espacio temporal de toma de datos. Detrás de la serie de precios aparecía, otra vez, una estructura: el comportamiento de Nadia quedaba explicado, pero seguíamos sin resolver la discrepancia con la conjetura de independencia.

 

            Curiosamente los gráficos de trayectorias no son secciones de Poincaré, sino transformaciones de las series de precios. Sin embargo, el tipo de problemas en cuanto a dimensión fractal, coeficiente de Hurst y máximo exponente de Lyapunov son idénticos. Esto limita, de momento, nuestra capacidad de establecer la predictibilidad de la función C0.

 

            En 1997 habíamos realizado pruebas de reconstrucción de la serie de precios a partir de la descomposición en series de Fourier de la función OSC. Pero fue sólo a partir de la utilización del OSC sintético cuando pudimos retomar esta línea de trabajo. El resultado de la descomposición de las funciones OSC de las series de 1, 2, 3 , etc. días mediante análisis de Fourier permite identificar una frecuencia explicativa para cada serie. A partir de esta frecuencia explicativa se puede reconstruir una serie OSC teórica y, a partir de ella, una serie OSC sintético teórica. De nuevo la construcción de las series teóricas apunta a la existencia de una estructura en los mercados; el hecho de que no exista predictibilidad no elimina la existencia de una estructura, lo que apunta a procesos caóticos. La única posibilidad de estudiar una relativa predictibilidad del mercado (supuestamente para plazos de tiempo muy cortos, debido a las elevadas tasas de divergencia de las trayectorias de acuerdo con la existencia de un máximo exponente de Lyapunov positivo), sería a través de los gráficos de trayectorias. A partir de los OSC sintéticos teóricos sólo podemos estudiar la dinámica del mercado; a efectos de localizar la existencia de una estructura esto debiera ser suficiente. Pero la estructura del mercado, de existir, no puede estudiarse para un instrumento de forma independiente de los demás. La estructura que reflejan los OSC sintéticos teóricos de un instrumento sólo sirve para determinar su dinámica, lo que sin duda es encomiable por razones prácticas, pero no plantea problemas conceptuales distintos de la propia caracterización de los procesos de formación de precios como caóticos.

 

            El problema que intentamos plantear, y, si bien no resolver, sí apuntar una posible vía de solución, es si existe una lógica general entre algunos instrumentos que responda, o pueda responder, a una teoría y una experiencia económica.

 

 

 

 

LA HIPÓTESIS DE COHERENCIA GLOBAL   

 

            La experiencia muestra que existe una coherencia en el funcionamiento del sistema económico. A partir de la caracterización de los procesos de formación de precios como caóticos, podemos pensar que esa coherencia no responde a un principio de racionalidad que haya que incluir en la explicación de los procesos económicos. Basta con que los procesos tengan estructura, aunque esto sólo sea en una particular sección de Poincaré. El carácter persistente de las series de precios apunta, otra vez, a esa caracterización caótica. A partir de ahí, el carácter antipersistente estable de las series C0 permite pensar en una cierta predictibilidad; y el carácter cíclico no periódico (de nuevo típico de los procesos caóticos) de las series OSC teórico permite pensar en la estructura del mercado.

 

            Si el mercado tiene alguna estructura deberíamos poder estudiarla a través de los gráficos conjuntos de los OSC sintéticos teóricos de los instrumentos que conforman la estructura. Se requiere la utilización de los OSC sintéticos porque resumen en una sólo serie el conjunto de OSC de todas las series de estudio; y se requiere la utilización de los teóricos, en lugar de los reales, para evitar que la componente no periódica de los ciclos predomine en el periodo de estudio, lo que daría lugar a emborronar la discusión.

 

            En términos generales existen tres instrumentos sobre los que se ha discutido ampliamente las posibles relaciones. La doctrina señala que existe una relación entre los tipos a corto plazo, los tipos a largo plazo y los precios de las acciones. Resulta innegable que existe una relación, aunque al final sólo sea porque parece inverosímil que los tipos a corto plazo puedan subir eternamente y la bolsa también. Y la relación entre rentabilidad de las acciones y la prima de riesgo sobre los tipos a largo plazo ha sido objeto de miles de estudios. Pero ¿existe una relación?.

 

            La hipótesis de coherencia global dice que, siendo localmente válida la conjetura de independencia, los procesos de formación de precios (y por extensión los procesos económicos) responden a una estructura global, de tal forma que aunque la trayectoria del proceso no es predecible (debido a la conjetura de independencia), nunca pasará por todos los puntos del espacio, es decir, que habrá combinaciones de precios, o mejor de dinámicas de precios, que no se podrán dar jamás. En otras palabras, y aplicado a nuestro ejemplo del párrafo anterior, la dinámica que conduce a una subida de acciones, una subida de tipos a corto plazo, y una subida de tipos a largo, debiera ser imposible; o, para ser precisos, se debe de poder probar que no existe ninguna trayectoria que conduzca a esa situación, por mucho que la conjetura de independencia permita suponer que cada uno de los procesos de formación de precios podría, por separado, llegar a esa situación.

 

            Pero la hipótesis de coherencia global parece, de momento, mucho más una necesidad conceptual que una posibilidad teórica. Hasta aquí resulta necesaria para explicar la experiencia y la teoría económica que procede de esa experiencia. Existe, sin embargo, una metodología que podría justificar la hipótesis de coherencia global sin recurrir a la experiencia. Veamos como.

 

            Si existe una estructura entre tipos a largo, tipos a corto y precio de las acciones, entonces esa estructura debe quedar reflejada en los gráficos conjuntos de los OSC teóricos sintéticos. Esto es porque estos gráficos no rompen la estructura de cada instrumento, sino que la representan de forma cíclica. Si no existe estructura la representación conjunto debe dar lugar a una nube de puntos, reflejo del carácter aleatorio de la relación entre instrumentos (o de la memoria a corto plazo, si se prefiere); si la estructura fuese determinista deberíamos tener un atractor regular; pero si la estructura es caótica deberíamos tener un atractor extraño. Y, mucho más importante, las trayectorias de ese atractor deberían ser coherentes con las observaciones procedentes de la experiencia.

 

 

 

CONCLUSIÓN

 

            Creemos que los mercados son caóticos en el sentido de impredecibles pero estructurados, lo que se refleja en la existencia de memoria de largo plazo. A partir de ello se pueden transformar las series de precios en series atipersistentes estables y estudiar su estructura cíclica no periódica. El carácter antipersistente de la transformación de la serie de precios refleja la impredictibilidad correspondiente a la conjetura de independencia. La estructura cíclica no periódica subyacente corresponde a la hipótesis de coherencia global. La utilización de las transformaciones C0 y OSC no es, sin embargo, ni requerida ni justificable, en el sentido de que pueden existir otras transformaciones mucho más eficaces y no existe una base teórica para su utilización, basada totalmente en la práctica.

 

 

 

APÉNDICE

 

            Incluimos a continuación los gráficos descriptivos del proceso. Insistimos en el carácter puramente empírico de las funciones utilizadas.

 

 

            Desde una serie de precios, como la del gráfico siguiente

 


 


podemos llegar a establecer un gráfico de trayectorias estables

 


 


que, aunque presenta ciertos invariantes (media, desviación típica y pendientes) y, por lo tanto, señala la existencia de una estructura subyacente, no permite ninguna predicción (salvo la trivial de mantenimiento de la trayectoria). La posible estructura se deriva del estudio del carácter cíclico no periódico de la función OSC, tal como muestra el gráfico siguiente:

 


 


que permites establecer los OSC teóricos

 

 

 

 


 


lo que conduce a estudiar los OSC teóricos conjuntos:

 

 

 

 

 

 

 

 

 

-del DJIA contra los tipos a 30 años

 

 

 


           

-         de los tipos a corto plazo (Fondos Federales; medidos en 100-tipo) contra los tipos a 30 años:

 


 

 

 

 

 

 

 

 

 


-         y de los tipos a corto plazo contra el DJIA:

 


 


En estos gráficos lecturas positivas de los OSC sintéticos teóricos corresponden a dinámicas alcistas del DJIA y de los tipos a largo, pero a dinámicas bajistas de los tipos a corto. Las lecturas negativas invierten la situación. La flecha negra indica el origen y el final del gráfico (18 de Julio de 1.994; 25 de Enero de 2.000). La flecha roja cerca de la negra señala la dirección prevista para las fechas posteriores al final del gráfico. Cada gráfico presenta peculiaridades que explicamos a continuación:

 

-         DJIA / tipos a 30 años: las trayectorias forman un atractor vagamente cuadrado, con giro primero a la derecha y luego a la izquierda. La estructura apunta a que la bolsa y los tipos a largo mantienen una relación alterna: primero uno de ellos lanza una dinámica, por ejemplo alcista, y a continuación el otro lanza la misma dinámica, lo que se refleja en los movimientos verticales y horizontales que dan lugar al atractor que recuerda a un cuadrado. El cambio de sentido de giro podría interpretarse como una alteración del instrumento que primero define el mercado, que, si es el Djia en los giros a la derecha, pasa a ser el tipo a 30 años en los giros a la izquierda.

-         Tipos a 30 años / tipos a corto plazo: las trayectorias forman un atractor alargado que barre todo tipo de dinámicas de los tipos a largo plazo para todo tipo de dinámicas de los tipos a corto plazo. Sin embargo, parecen existir dos sub-atractores elípticos verticales (en osc –2,5 y 3,0 de los tipos a 30 años), lo que supondría que los tipos a largo presentan dos zonas de estabilidad frente a movimientos de tipos a corto. Se producen, además, bastantes cambios de sentido de giro, difíciles de ver: su interpretación debería poderse hacer indicando cuál es el instrumento que genera la dinámica en cada dirección.

-         DJIA / tipos a corto plazo: las trayectorias tienen una estructura inclinada, que tiene pocos puntos en los cuadrantes correspondientes a OSC con dinámica inversa en cada instrumento. Esencialmente la estructura muestra que una subida de tipos a corto va acompañada por una bajada de la bolsa (recuérdese que en el gráfico aparece el OSC de 100-tipo a corto), y lo contrario en caso de bajada de tipos, lo que coincide con la teoría tradicional.  El sentido del giro se invierte en varias ocasiones, lo que supondría una interrelación entre ambas instrumentos distinta de la mera causa – efecto que normalmente se asigna (tipos=causa; bolsa=efecto). Además, se produce un extraño fenómeno, ya que el ciclo de tipos a corto dura la mitad que el de bolsa, lo que conduce a que la trayectoria pase por cada punto dos veces, una en cada dirección.

 

 

                                                                 Madrid, Mayo de 2.000

 

 

 

 

 

           

 

           

 

 

           

           

 

           

 

 

 

 

 

 

 

 

 

 

 

 

 

 

           

 

           

 

             



[1] Matemáticamente los procesos de formación de precios son autónomos, es decir, no dependen del tiempo como variable del sistema.

[2] Teoría