El objetivo de este trabajo es descomponer los factores de comportamiento del Índice de Precios y Cotizaciones (IPC) mexicano para ser pronosticado mediante modelos econométricos y redes neuronales artificiales evolutivas. La metodología empleada consiste en reducir la complejidad de análisis y eliminar el ruido en los datos del IPC mediante la descomposición empírica en modos (DEM), combinando las funciones de modo intrínseco (FMIs) resultantes con las variantes de los modelos autorregresivo integrado de promedio móvil (ARIMA) y autorregresivo con heterocedasticidad condicional (ARCH), y el algoritmo de selección de características de programación evolutiva de redes (FS-EPNet) para pronosticar su comportamiento. La configuración experimental y resultados se presentan y analizan mediante tres fases de predicción del IPC. Las limitaciones son que el IPC mexicano no es estacionario, implicando que algunas FMIs tampoco lo sean. La originalidad consiste en la combinación de la DEM con el algoritmo FS-EPNet para analizar la evolución del mercado bursátil mexicano a través de su IPC, con lo cual se demuestra y concluye que genera una mejor predicción que la obtenida a partir de los datos originales.
The purpose of this paper is to decompose the behavioral factors of the Mexican Price and Quotation Index (IPC for its acronym in Spanish) to be forecast using econometric models and evolutionary artificial neural networks. The methodology used consists on reducing the analysis complexity and eliminating the noise in the IPC data through empirical mode decomposition (EMD), combining the intrinsic mode functions (IMFs) resulting with the variants of the autoregressive integrated mobile average (ARIMA) and autoregressive conditional heteroskedasticity (ARCH) models, as well as the algorithm for selection of characteristics of evolutionary network programing (FS-EPNet) to forecast its behavior. The experimental configuration and results are shown and are analyzed using three prediction phases of the IPC. The limitations are that the Mexican IPC is not stationary, which implies that some IMFs are also not stationary. The originality of this consists on the combination of DEM with the FS-EPNet algorithm to analyze the evolution of the Mexican Stock Exchange through its IPC, which is used to show and conclude that it generates a better prediction than that obtained from the original data.
En el ámbito económico, el lograr una predicción certera del comportamiento futuro del mercado de valores resulta de especial interés, puesto que es una pieza fundamental para el desarrollo de la industria y del comercio, ya que incide en la economía de una nación. El mercado bursátil puede ser atractivo para los inversionistas puesto que existe una gran liquidez ya que se pueden obtener altas tasas de rendimiento a diferencia de otros instrumentos de inversión, por el hecho de que hay un gran potencial de ganancia. Por esas razones tanto el gobierno, la industria, el banco central y los inversionistas mantienen una estrecha vigilancia en el comportamiento del mercado de valores, y sobre los diferentes acontecimientos que pudieran repercutir sobre él.
Típicamente, el análisis y la posterior predicción del mercado de valores se realizan a través de los diferentes índices. La construcción de un índice es una mezcla de diversas organizaciones que se encuentran en sectores distintos de la economía y por ende dicho indicador es confeccionado de manera artificial. Aunado a ello, una gran cantidad de circunstancias inciden en el mercado de valores como pueden ser las tasas de interés, sucesos políticos, políticas monetarias, factores tecnológicos, situaciones económicas, y expectativas de los inversionistas. Es un hecho bien conocido que las series de tiempo (ST) financieras poseen características inherentes de no estacionalidad, no linealidad, volatilidad y ruido. Tradicionalmente, se considera que el ruido afecta la estimación óptima de los parámetros de los modelos de predicción. De esta forma, se puede considerar que la obtención de una predicción acertada del mercado bursátil es una tarea compleja e incluso, si se toma como válida la hipótesis del mercado eficiente (EMH, por sus siglas en inglés Efficient-Market Hypothesis) (
En las últimas décadas del siglo anterior, los métodos tradicionales estadísticos y econométricos como el modelo de valoración de activos (CAPM, por sus siglas en inglés Capital Asset Pricing Model) (
Las ST financieras se comportan de una manera muy similar a un proceso de caminata aleatoria, considerando la tasa de éxito generado, pero suelen ser muy ruidosas, debido a la aleatoriedad en las variaciones del día a día (
Como panorama de esta investigación, se presenta la descomposición empírica en modos (DEM) del índice de precios y cotizaciones (IPC) mexicano en sus factores de comportamiento representados por funciones de modo intrínseco (FMIs); con el propósito de generar y analizar su pronóstico al combinar variantes de los modelos ARIMA-ARCH, y el algoritmo de selección de características de programación evolutiva de redes (FS-EPNet, por sus siglas en inglés Feature Selection of Evolutionary Programming of Networks). Para este fin, la configuración experimental se realiza mediante tres fases de predicción del IPC. Analizando los resultados obtenidos, es posible concluir que la predicción del IPC en combinación con la DEM genera mejores resultados que aquella obtenida a partir de datos sin descomposición en FMIs.
El resto del documento tiene la siguiente estructura, el segundo apartado versa sobre la revisión literaria. En el tercer apartado se introduce el método de descomposición empírica en modos (DEM) apreciando como se obtienen funciones de modo intrínseco (FMIs). Posteriormente, el cuarto apartado esboza un panorama general del modelo ARIMA-ARCH. El quinto apartado describe al modelo no paramétrico, que abarca a las RNAs, así como también las particularidades del algoritmo de selección de características de programación evolutiva de redes (FS-EPNet, por sus siglas en inglés Feature Selection of Evolutionary Programming of Networks). La configuración experimental es expuesta en el quinto apartado, mientras que la fase experimental y los resultados son exhibidos en el sexto apartado. Finalmente, se presentan las conclusiones derivadas del estudio.
El empleo de las RNAs en el análisis de los mercados financieros no es un tema reciente. En la década de los 80’s,
A partir del trabajo mencionado, el uso de las RNAs en el análisis y predicción de los mercados financieros ha prosperado y se ha popularizado de manera notable, sobre todo en los últimos años. A continuación, se mencionan dos trabajos destacados.
Por medio del índice Riga Stock Exchange (RSE) hoy en día "Nasdaq Riga", el mercado de valores de Letonia es analizado por
A pesar de que los modelos de RNAs son herramientas útiles para el análisis de los mercados financieros, aún persisten varios factores por resolver al momento de crearlos, debido a que el diseño topológico de una RNA tiene una gran influencia en el desempeño mostrado y en su capacidad de generalización. En este trabajo de investigación, se propone utilizar un algoritmo evolutivo (AE) que facilite la configuración arquitectónica lo más cercana posible a un nivel óptimo, es decir el menor error posible. Para ello, se emplea el algoritmo de selección de características de programación evolutiva de redes (FS-EPNet, por sus siglas en inglés Feature Selection of Evolutionary Programming Networks). Este algoritmo es descrito en (
Los datos provenientes del mercado bursátil reflejan otro factor importante que hay que considerar, ya que juegan un papel preponderante en la búsqueda de una predicción precisa del comportamiento del mercado accionario. Dado que la información que se recaba del mercado bursátil es muy ruidosa y compleja, siendo esta la materia prima con la que trabajan los modelos de pronósticos, es muy factible que la tarea predictiva, se convierta en la mayoría de los casos en un esfuerzo infructuoso e imposible de realizar de manera conveniente.
En este trabajo, se aplica el principio de divide y vencerás, usando la técnica de descomposición empírica en modos (DEM) con el fin de aminorar la complejidad de una ST. De esta forma, la metodología del presente trabajo propone simplificar la tarea predictiva de los modelos ARIMA-ARCH y RNA mediante la división de una tarea predictiva compleja, en subtareas relativamente más sencillas. En primera instancia, mediante la aplicación de la técnica DEM a la serie original del promedio industrial Dow Jones (DJIA, por sus siglas en inglés Dow Jones Industrial Average), obteniendo así, un número finito y frecuentemente pequeño de las funciones de modo intrínseco (FMIs). Posteriormente, cada componente FMI y el residuo es modelado y predicho de manera individual, por un lado, con un modelo independiente de RNA el cual es diseñado y configurado mediante el algoritmo FS-EPNet. Por otro lado, con un modelo ARIMA-ARCH, que también se le denomina modelo paramétrico de manera indistinta en esta investigación, se pretende que los patrones subyacentes de cada descomposición puedan ser capturados con un grado mayor de exactitud.
La predicción final de cada modelo se obtiene mediante la adición de cada una de las descomposiciones pronosticadas. Finalmente, se toma en cuenta lo que indica la literatura, “que una combinación de pronósticos conlleva a una predicción más precisa” (
Existen diversas técnicas de procesamiento de señales que parten del principio de descomponer una señal original, con el objetivo de aminorar la complejidad del fenómeno, es decir, separarla en componentes más sencillos para trabajar de manera aislada cada componente. El método más popular es el análisis de Fourier. Sin embargo, la transformada de Fourier sufre de restricciones, ya que el sistema debe ser lineal y los datos deben ser estrictamente periódicos o estacionarios, de lo contrario, el espectro de Fourier resultante tendría poco sentido físico (
Una FMI es una función que debe cumplir dos condiciones: primera, en todo el conjunto de datos, el número de extremos y el número de cruces por cero debe ser igual o como máximo diferenciarse por uno; y segunda, el valor medio de la envolvente definida por los máximos y mínimos locales debe ser cero o un valor muy cercano a cero en todos los puntos. Una FMI, al cumplir estas condiciones asegura que se encuentra implicada en solamente un modo oscilatorio, esto da como resultado que no se admitan ondas complejas incrustadas en la señal. El proceso de cernido se le aplica a la señal con el fin de adquirir las FMIs de forma iterativa a través de los siguientes pasos:
1. Identificar el total de extremos máximos y mínimos locales de la señal de entrada discreta. 2. Formar la envolvente superior esup(t) y la envolvente inferior einf(t) definidos por los puntos máximos y mínimos locales respectivamente, mediante una interpolación polinomial de orden 4. 3. Calcular punto por punto el valor promedio m(t) a partir de los envolventes superior e inferior.
4. Realizar la resta entre la señal de entrada x(t) y el valor promedio m(t) para obtener el primer componente h1
5. El componente h1(t) es examinado para verificar si cumple con los requisitos para ser una FMI. Si dicho componente no logra ser una FMI, entonces el procedimiento de cernido se repite k-veces de los pasos del 1 al 4, y el componente toma el lugar de x(t) como la señal de entrada.
6. El proceso de cernido se itera k-veces hasta que h1k alcance los requisitos para ser una FMI.
El primer componente que alcanza la cualidad de ser una FMI es llamado c1(t). A partir de los datos, se logra obtener la primer componente FMI, la cual contiene la amplitud más fina, es decir, el componente con el periodo más corto de la señal, denotado como sigue:
Los criterios de paro en el proceso de cernido determinan el momento en el cual el proceso ha sido completado y se ha adquirido una nueva FMI, es decir, estos criterios marcan la cantidad de iteraciones necesarias para obtener una FMI. El criterio de paro se rige bajo las siguientes tres condiciones:
En cada punto: amplitud media <(umbral2 amplitud del envolvente). Media de la matriz booleana: ((amplitud media / amplitud de la envolvente) >umbral) <tolerancia). El número de cruces por cero y el número de extremos es menor o igual a uno.
Los parámetros umbral, umbral2 y tolerancia deben ser predeterminados antes de comenzar el proceso de cernido y los criterios más populares son los propuestos por
En esta investigación, se descompone una ST mediante el software matemático Matlab y la función propuesta por
Después de una exhaustiva búsqueda, se determinaron los nuevos parámetros de paro en: [0.0031, 0.013, 0.0031] y se obtuvieron un total de 11 FMIs y un residuo. Para determinar cuáles eran los criterios de paro idóneos, se partió como primer premisa que los parámetros tenían que ser menores a los establecidos por defecto. De esta forma, se adquiriría una cantidad mayor de FMIs. Los datos se organizaron en 2 subconjuntos. El primero contenía los 35 datos originales, en el segundo se insertaron 35 datos a pronosticar. Se comenzó con unos parámetros muy pequeños, que se aumentaron paulatinamente. La cantidad de FMIs idóneas se obtuvo hasta obtener la misma cantidad de FMIs, en ambos subconjuntos. De esta forma, al mantener la misma cantidad de FMIs en las dos submuestras, la expansión de los datos mediante la descomposición no crea una notable disrupción en la estructura de las FMIs adquiridas. Una vez que se ha obtenido el componente c1 se separa del resto de los datos:
Es muy posible que el componente r1 aun contenga información que se puede utilizar, por ello, el proceso de cernido debe de volver a realizarse, y el componente r1 pasa a ser el dato de entrada con el fin de adquirir un nuevo componente residual rn. El método es iterado n-veces, r2 = r1 - c2,. . . , rn = rn - 1 - cn, hasta que rn(t) sea más pequeño que un valor fijado previamente, o la señal se transforme en una señal monótona decreciente de la cual ya no sea posible extraer información para obtener una FMI. La suma que se obtiene al finalizar la experimentación con la DEM y mediante la cual se puede volver a recuperar la señal de entrada es como sigue:
Donde j es la suma total de FMIs y rn(t) es la función monótona que marca el fin del procedimiento. Diversas causas afectan el número de FMIs que se pueden obtener al concluir el proceso de cernido: la condición de interrupción para obtener una FMI, el tamaño de la muestra de datos que se descompone, el grado de complejidad de la señal, entre otros.
En la década de los 70’s del siglo pasado, Box Jenkins plantearon y desarrollaron una metodología que tenía como finalidad identificar, estimar y diagnosticar modelos dinámicos de ST, donde el factor tiempo asume el rol de una variable preponderante. Dicha metodología, tiene como premisa permitir que sean los propios datos de la variable los que indiquen las características del modelo probabilístico adecuado al fenómeno analizado. De esta forma, el modelador queda exento en muchos de los casos de la exhaustiva y compleja tarea de especificar el modelo de forma tradicional, y que en ocasiones, resultaba en una infructuosa especificación del modelo, ya que las variables explicativas elegidas en base a la teoría subyacente del fenómeno no resultaban ser las idóneas.
Los modelos ARIMA basan la explicación de una variable mediante su pasado. Esta manera de abordar la explicación de un fenómeno en cuestión ofrece la desventaja de sólo realizar el análisis del fenómeno en cuestión con una sola variable, cuando en algunos casos es posible realizar un análisis más enriquecedor con una colección de variables que pudieran explicar la evolución de manera más fehaciente de la variable analizada. Sin embargo, el análisis univariante ofrece algunas ventajas que son: evitar la forma tradicional de identificación y especificación del modelo, puesto que en muchas ocasiones la identificación de las variables explicativas es poco clara y las relaciones entre las variables no son constantes en el tiempo; y sólo son necesarios los datos sobre la variable en estudio. En esta investigación, se utilizaron cuatro variantes del modelo, las cuales son las siguientes.
La primera de ellas, es la más general y con un uso más amplio, el modelo ARIMA puro, que basa su predicción en una combinación lineal de sus valores pasados y una conjunción de errores o innovaciones ( La segunda, es el modelo SARIMA que se utiliza cuando el proceso analizado posee un comportamiento estacional (Makridakis, Wheelwright, Hyndman, 1988). A principios de la década de los ochenta surge una modelización que trata de resolver la volatilidad de los mercados financieros, de esta forma surgen los modelos de volatilidad condicional heterocedástica que conceptualmente son idóneos para tratar la inestabilidad de la varianza en el transcurso del tiempo. En el año de 1982 Robert Finalmente, la cuarta variante es una combinación con la versión generalizada del modelo ARCH (GARCH), para emplear el llamado ARIMA-GARCH.
La aplicación de las RNAs en diferentes ámbitos se ha incrementado de manera notable en las últimas décadas, y el ámbito financiero no es la excepción. Como se había mencionado, las RNAs han demostrado ampliamente su efectividad como técnicas en la resolución de problemas, no obstante, la edificación efectiva de una RNA no es una tarea trivial, por ejemplo en el MLP, es indispensable determinar a priori el número de capas y de neuronas por capa, la tasa de aprendizaje, la inicialización de los pesos y del umbral, entre otros parámetros como las funciones de activación.
En los últimos años, se ha incrementado significativamente la investigación en esta área, logrando destacados avances tanto teóricos como empíricos. El problema de diseñar la arquitectura de una RNA cercana al óptimo para una aplicación sigue sin resolverse (
Los AEs retoman las ideas de la teoría Darwiniana de la evolución natural, basando sus fundamentos en los principios que determinan la evolución biológica de las especies. Estos algoritmos se consideran métodos de resolución de problemas que son capaces de alcanzar cualquier zona del espacio de búsqueda, ya que su exploración es una mezcla entre una búsqueda dirigida y una aleatoria. La evolución de RNAs o también denominada como Neuroevolución (NE) es un método por el cual se adaptan las RNAs, donde el AE es el instrumento que tiene como función minimizar o maximizar la función objetivo, mediante la búsqueda de los parámetros óptimos de la red, esta metodología ha demostrado su efectividad en diversas investigaciones (
El algoritmo FS-EPNet (
Por otro lado, si se desestima la inclusión del proceso de selección de características al modelo neuronal, es factible que se tenga un exceso de entradas que dé como resultado una RNA de un tamaño mayor al necesario, esto se traduce en un mayor consumo de tiempo en la fase de aprendizaje, aunado a ello se inserta mayor ruido al sistema, que tiene como consecuencia una disminución en la exactitud de la predicción (
El algoritmo FS-EPNet podría parecer un procedimiento simple, sin embargo, cuenta con diversas características como se mencionan a continuación:
El algoritmo FS-EPNet se considera un procedimiento híbrido que es empleado para evolucionar RNAs de propagación hacia delante (feedforward), ya que mezcla la búsqueda estructural evolutiva con un método de descenso por gradiente del tipo BP. Se cimienta en el algoritmo para evolucionar arquitecturas de RNAs, donde solamente son empleados los operadores de selección y mutación, siendo este último el único operador por medio del cual se recorre el espacio de búsqueda de las topologías neuronales. Al descartar la utilización del operador de cruzamiento en el proceso evolutivo, se solventa el inconveniente conocido como el problema de las convenciones competitivas ( El algoritmo alterna entre los cambios que se producen en la confección estructural de la RNA y la transformación de los pesos mediante el entrenamiento, de esta manera, se pretende no romper los vínculos entre los padres y sus descendientes. Así mismo, se lograr una búsqueda eficiente dado que el algoritmo FS-EPNet se construyó bajo las mismas bases en las cuales fue diseñado e implementado EPNet, y con el fin de no agregarle mayor complejidad al modelo, la evolución de las entradas opera de igual forma a como se realiza en su algoritmo predecesor EPNet, es decir, el modelo trabaja de manera análoga sobre las entradas como sobre cualquier nodo de la RNA. El algoritmo FS-EPNet fomenta la edificación de una red neuronal evolutiva parsimoniosa, es decir, una RNA con la menor cantidad de parámetros, o bien, con el menor grado de complejidad de entre varias, pero a la vez con el mayor poder predictivo posible. Esto es realizado mediante el empleo de diversas mutaciones de forma sucesiva en cada una de las generaciones y solamente una de estas mutaciones será efectuada en cada generación.
El algoritmo FS-EPNet emplea 9 operadores de mutación distintos para transformar la conectividad y los pesos de la red, los cuales se dan a continuación:
El entrenamiento híbrido, donde se mezclan 2 métodos de entrenamiento; un algoritmo de retropropagación modificado (MBP, por sus siglas en inglés Modified Backpropagation) y el algoritmo de Recocido Simulado (SA, por sus siglas en inglés Simulated Annealing). Eliminación de nodo oculto Eliminación de conexión Eliminación de entrada Eliminación de retardo, se determina si las entradas de la red son consecutivas o espaciadas. Adición de nodo. Adición de conexión. Adición de retardo Por último, adición de entrada.
El orden secuencial de las mutaciones es fundamental ya que es uno de los objetivos al crear RNAs compactas. Consecuentemente, se pueden diseñar redes parsimonias y solamente se incrementan sus dimensiones si estas no son capaces de alcanzar un desempeño aceptable con la tarea asignada. Mediante esta forma progresiva de aplicar mutaciones, el algoritmo FS-EPNet introduce una novedosa y simple alternativa para manejar el compromiso existente entre la varianza y el sesgo (bias-variance trade-off), sin embargo, puesto que las RNAs son evolucionadas con una sección de los datos disponibles (incluyendo los de entrenamiento), es muy probable que la mayoría de los individuos (RNAs) de la población tengan un sesgo pequeño (
Generar una población inicial de redes aleatoriamente. El número de nodos y la densidad de las conexiones iniciales para cada red se generan al azar dentro de ciertos rangos. Entrenar parcialmente cada red de la población por un cierto número de épocas usando el algoritmo de MBP con tasas de aprendizaje adaptativo. Se clasifican las redes en la población de acuerdo a la evaluación del error cometido (valor de adaptabilidad), del mejor al peor. Si se ha alcanzado el número máximo de generaciones determinado previamente o si la mejor red encontrada es aceptable (valores establecidos por el usuario), detener el proceso evolutivo. En caso contrario, continuar y elegir a una red de la población (usada como padre para generar descendientes a partir de ella). Entrenar la red seleccionada mediante el entrenamiento híbrido para obtener un nuevo descendiente. Si el entrenamiento híbrido reduce notablemente el error, calificar al descendiente como exitoso y reemplazar al padre con su descendiente en la población actual. De lo contrario, descartar al descendiente y continuar. Determinar la cantidad de nodos a eliminar de manera aleatoria entre 1 y 3, posteriormente, se eliminan los nodos ocultos de la red seleccionada de manera aleatoria. A continuación, se entrena parcialmente la red podada con el algoritmo MBP para obtener el nuevo descendiente. Si el descendiente es mejor que la peor red en la población actual, se sustituye a la peor red con el descendiente y se va al paso 3. De lo contrario, se descarta al descendiente y se continúa. Calcular la importancia aproximada de cada conexión en la red padre utilizando un método no convergente ( En caso de que el descendiente sea mejor que el peor individuo de la población actual, se sustituye al peor individuo con el nuevo descendiente y se va al paso 3. De lo contrario, se descarta a este descendiente y se continúa. Determinar la cantidad de entradas a eliminar de manera aleatoria entre 1 y 2, posteriormente, se elige de forma aleatoria que entradas se eliminarán de la red padre. Se entrena parcialmente la red podada con el algoritmo de MBP para obtener el nuevo descendiente. Si el descendiente es mejor que la peor red en la población actual, se sustituye a la peor red con el descendiente y se va al paso 3. De lo contrario, se descarta al descendiente y se continúa. El número de retardos a eliminar se determina de forma aleatoria, posterior a la modificación se ajustan los patrones de entrenamiento y se entrena parcialmente la red podada. En caso de que el descendiente sea mejor que el peor individuo de la población actual, se sustituye al peor individuo con el nuevo descendiente y se va al paso 3. De lo contrario, se descarta al descendiente y se continúa. Determinar el número de conexiones, nodos ocultos, entradas y retardos, que se agregarán a la red y generar 4 descendientes a partir de ello. Posteriormente, entrenar parcialmente a los descendientes con el algoritmo MBP y someterlos a una selección por torneo, donde se elige al individuo mejor adaptado para pasar a la siguiente generación. Se reemplaza al peor individuo de la población actual con el nuevo descendiente elegido y se va al paso 3. Una vez concluido el proceso evolutivo, se realiza un entrenamiento complementario al mejor individuo.
La
En la mayoría de los modelos neuroevolutivos, cuando se aplica una operación de mutación topológica aditiva a una capa, se agrega un nodo que se encuentra completamente conectado, y los pesos relacionados a estas conexiones se inicializan aleatoriamente. Esta forma de agregar nodos tiende a eliminar el comportamiento adquirido por el padre, dando como resultado una ruptura entre el vínculo funcional entre el padre y su descendiente. Por el contrario, en el algoritmo FS-EPNet se emplea una serie de procedimientos como son: un entrenamiento parcial posterior a una mutación arquitectónica y la división de un nodo existente. De esta forma, no se quebranta dicho vínculo entre ancestro-descendiente, simulando así, una evolución Lamarckiana (
La parte experimental se encuentra dividida en 3 fases o etapas (A, B y C), donde es conveniente resaltar que en todas las etapas, los modelos predictivos emplearon la misma técnica de pronóstico, llamada predicción a múltiples pasos o iterada, es decir, en todos se utilizan valores predichos para extender el horizonte de predicción, esto a pesar de recibir diferentes nombres a lo largo de las publicaciones, como se puede notar a continuación: en (
Los modelos ARIMA-ARCH se construyeron por medio de la estrategia de Box-Jenkins, mediante el software econométrico Eviews. Se emplearon 3 variantes del modelo: ARIMA, SARIMA y la familia de los modelos ARCH. Para utilizar el modelo ARIMA-ARCH es necesario que los datos introducidos en el modelo sean estacionarios. La serie del IPC presenta un proceso no estacionario y como tal, algunas FMIs así como el residuo muestran signos de no estacionariedad. El orden de diferenciación de las STs para convertirlas en un proceso estacionario fue determinado por la prueba de raíz unitaria (
Conjunto de entrenamiento: se utiliza para llevar acabo la tarea de aprendizaje con el algoritmo MBP o la técnica de SA. Conjunto de validación: se emplea para evitar el sobre-ajuste en el proceso de aprendizaje; Conjunto interior de prueba: se utiliza para simular una predicción MSP real (predicción fuera de la muestra) con el fin de medir la aptitud de las RNAs. Conjunto final de prueba: utilizado una vez concluido el proceso evolutivo para evaluar el rendimiento de los diferentes individuos pertenecientes a la población final, para luego ser clasificados.
Para producir las predicciones del modelo DEM/FS-EPNet/RNA, se promedió a los cinco individuos mejor clasificados tomando como base el criterio de desempeño NRMSE en cada descomposición para ser parte de la reconstrucción. Es decir, de entre 12 ejecuciones independientes se eligieron los resultados provenientes de las cinco redes neuronales que obtuvieron el error menor en la predicción del conjunto final de prueba para cada FMI y el residuo. El resultado de la predicción de estas cinco RNAs elegidas a su vez se promedió para obtener una sola predicción por cada descomposición.
Para reconstruir una predicción final del modelo DEM/FS-EPNet/RNA, el promedio resultante de cada FMI y el residuo se sumó para adquirir una sola predicción. Por otro lado, los pronósticos generados mediante la fórmula FS-EPNet/RNA son el resultado de promediar los pronósticos generados mediante 12 ejecuciones independientes tomando como entrada la serie original del indicador analizado en cuestión. La configuración de los parámetros del algoritmo FS-EPNet se basó en la estrategia utilizada por
Los parámetros establecidos para esta investigación fueron los mismos para todos los modelos: tasa de aprendizaje 0.153, las mutaciones de los nodos ocultos y las conexiones entre 1 y 3, las mutaciones de entrada y de los retardos entre 1 y 2, el tamaño poblacional de 30 individuos, con 1,400 generaciones esperadas en el proceso evolutivo. No se emplearon criterios de interrupción temprana (early stopping) con el fin de evitar un sobre-entrenamiento de las RNAs, puesto que con base en experimentos previos, se infirió que no era necesario. Dada la complejidad de la tarea a resolver y también derivado de las pruebas preliminares, se estableció el número de épocas de entrenamiento parcial durante la evolución en 1,200 y de 3,600 al finalizar el proceso evolutivo.
La
Por último, se combinaron las predicciones de los modelos DEM/ARIMA-ARCH y DEM/FS-EPNet/RNA para crear un único pronóstico. El experimento se dividió en 3 etapas, la fase A es la parte que se puede considerar como el pronóstico dentro de la muestra, y las fases B y C representan al pronóstico fuera de la muestra. Esta etapa de investigación se encuentra implicada específicamente en la predicción de la bolsa mexicana de valores (BMV), en un periodo de crisis. La muestra de datos analizada es la correspondiente al precio de cierre del IPC para el período comprendido entre el 08/07/2002 y el 16/12/2008 tomada de ADVFN (2018); se contabilizó un total de 1624 datos del IPC.
Para efectos de análisis estadístico, los criterios de confiabilidad en la predicción que son considerados son los siguientes: el error cuadrático medio (MSE, por sus siglas en inglés Mean Squared Error), la raíz del error cuadrático medio (RMSE, por sus siglas en inglés Root Mean Square Error) y la raíz del error cuadrático medio normalizado (NRMSE, por sus siglas en inglés Normalized Root Mean Square Error). Con lo cual, al comparar los valores de errores obtenidos en los pronósticos, el valor menor indica el mejor resultado en la predicción.
La
Las tres fases de experimentación del IPC se describen a continuación:
El objetivo es analizar el desempeño de los diferentes modelos propuestos en este estudio, con el fin de obtener los pesos de los modelos en la etapa de combinación de pronósticos (fase C). En esta primera fase, el modelo no paramétrico fue entrenado con un total de 1,554 datos, del 08/07/2002 al 28/08/2008, este conjunto de datos se encuentra representado en la
Esta fase sirve para adquirir los pesos de los modelos de predicción para la fase C, donde se combinan los modelos paramétricos y no paramétricos. Puesto que el periodo de tiempo de mayor interés en esta investigación es cuando tiene ocurrencia la caída bursátil del indicador, esta fase vendría siendo una etapa donde se prueba el funcionamiento y se comprueban las diferentes técnicas de predicción, así como la técnica DEM. Es así que esta etapa se podría considerar como el periodo dentro de la muestra con la salvedad de que para realizar la predicción de esta etapa, a los modelos de predicción se les oculta el periodo de datos a pronosticar, ya que en esta investigación se estima que no resulta de utilidad la predicción dentro de la muestra.
En esta segunda fase de la experimentación, el periodo de predicción transcurrió del 20/10/2008 al 08/08/2008; estos datos se representan en color azul en la
En la fase final, las predicciones resultantes de los modelos paramétricos y no paramétricos se utilizaron para realizar una predicción final combinada, con el objetivo de obtener una mejor predicción en los resultados. En esta fase se analizó el mismo período de tiempo que en la experimentación hecha en la fase B.
La
Los resultados de las fases de experimentación son mostrados como sigue:
En esta fase se comparan los 4 modelos anteriormente descritos. En la
La
Fuente: elaboración propia
10 días de predicción
15 días de predicción
Criterio
FS-EPNet/ RNA
ARIMA- GARCH(1,1)
DEM/FS- EPNet/RNA
DEM/ARIMA- ARCH
Criterio
FS-EPNet/ RNA
ARIMA- GARCH(1,1)
DEM/FS- EPNet/RNA
DEM/ARIMA- ARCH
MSE
0.00189
0.00085
0.00081
0.0005
MSE
0.00291
0.00605
0.00381
0.00191
RMSE
0.04344
0.02912
0.02838
0.02245
RMSE
0.05393
0.07778
0.06171
0.04373
NRMSEE
0.28785
0.19294
0.18807
0.14877
NRMSEE
0.39323
0.58376
0.47457
0.3425
MSE
0.00483
0.00622
0.00338
0.00161
MSE
0.00817
0.05321
0.03482
0.06958
RMSE
0.06952
0.07884
0.05816
0.04007
RMSE
0.09037
0.23068
0.1866
0.26378
NRMSE
0.5661
0.64203
0.47359
0.32633
NRMSE
0.57783
1.475
1.19319
1.68665
En esta etapa se propuso una combinación igualitaria de pesos de los modelos (promedio simple). La
El segundo modelo combina al modelo paramétrico ARIMA-GARCH(1,1) y al modelo DEM/ARIMA-ARCH, el resultado de esta combinación produce una combinación paramétrica. La tercera y última combinación, llamada combinación de modelos predictivos, incluye la combinación no-paramétrica y la combinación paramétrica. La
Fuente: elaboración propia.
11 Periodos de Predicción
35 Periodos de Predicción
Criterio
Combinación no- paramétrica
Combinación paramétrica
Combinación de modelos predictivos
Criterio
Combinación no- paramétrica
Combinación paramétrica
Combinación de modelos predictivos
MSE
0.00029
0.00022
0.00016
MSE
0.01592
0.06029
0.03371
RMSE
0.01688
0.01475
0.0125
RMSE
0.12618
0.24554
0.18359
NRMSE
0.11489
0.1065
0.08083
NRMSE
0.80669
1.57005
1.17391
Aquí, la predicción comenzó del 20/10/2008, dos días antes de la caída bursátil acontecida el miércoles 22/10/2008, hasta el 08/12/2008, dando un total de 35 días de pronóstico. La
La
Fuente: elaboración propia.
5 Días de Predicción
10 Días de Predicción
Criterio
FS-EPNet/RNA
ARIMA-ARCH(5)
DEM/FS-EPNet/RNA
DEM/ARIMA-ARCH
Criterio
FS-EPNet/RNA
ARIMA-ARCH(5)
DEM/FS-EPNet/RNA
DEM/ARIMA-ARCH
MSE
0.02293
0.01812
0.01048
0.00952
MSE
0.01965
0.01569
RMSE
0.15141
0.1346
0.10239
0.0976
RMSE
0.14018
0.12525
0.0882
0.08668
NRMSE
1.32332
1.17636
0.89485
0.85296
NRMSE
1.30183
1.16325
0.81915
0.80497
MSE
0.01386
0.01125
0.00759
0.0064
MSE
0.00897
0.00888
RMSE
0.11775
0.10604
0.08714
0.07997
RMSE
0.09469
0.09423
0.12398
0.15076
NRMSE
1.18473
1.06696
0.87677
0.80465
NRMSE
1.23459
1.2286
1.61647
1.96566
Fuente: elaboración propia.
Modelo
Parámetros del modelo
Modelo paramétrico
Parámetros del modelo
FMI1
FS-EPNet/RNA
Entradas:6; Ocultas:5;
ARIMA-GARCH(1,1)
p=AR(1)AR(2),d=0,q=0
Conexiones:14; Retardos:6;
FMI2
FS-EPNet/RNA
Entradas:3; Ocultas:8;
ARIMA-ARCH(2)
p=AR(6), d=0,
Conexiones:24; Retardos:2;
q=MA(1)MA(2)MA(3) MA(4)MA(5)MA(6)
FMI3
FS-EPNet/RNA
Entradas:2; Ocultas:6;
ARIMA-GARCH(1,1)
p=AR(1)AR(2)AR(4)AR(5),
Conexiones:18; Retardos:1;
d=0,q=MA(1)MA(2)MA(3)
FMI4
FS-EPNet/RNA
Entradas:3; Ocultas:5;
ARIMA-GARCH(1,1)
p=AR(1)AR(3)AR(4)AR(5)AR(6),
Conexiones:16; Retardos:1;
d=0,q=MA(1)MA(3)MA(4)
FMI5
FS-EPNet/RNA
Entradas:4; Ocultas:16;
SARIMA
(p=AR(3)AR(6)AR(9),d=0,q=MA(1)MA(2)
Conexiones:70; Retardos:7;
MA(3))x(P=SAR(1)SAR(2),D=0,Q=SMA(2))
FMI6
FS-EPNet/RNA
Entradas:2; Ocultas:12;
ARIMA
p=AR(1)AR(2)AR(3)AR(5)AR(7),
Conexiones:48; Retardos:2;
d=0,q=MA(1)MA(2)MA(7)MA(8)
FMI7
FS-EPNet/RNA
Entradas:2; Ocultas:15;
ARIMA-ARCH(3)
p=AR(1)AR(7),
Conexiones:59; Retardos:4;
d=0,q=MA(1)MA(2)MA(3)
FMI8
FS-EPNet/RNA
Entradas:2; Ocultas:20;
SARIMA
(p=AR(1)AR(2)AR(4),d=0,q=MA(3)MA(4)
Conexiones:78; Retardos:2;
MA(19))x(P=SAR(1),D=1,Q=SMA(1))
FMI9
FS-EPNet/RNA
Entradas:2; Ocultas:9;
ARIMA
p=AR(1)AR(2)AR(3),d=1,
Conexiones:33; Retardos:4;
q=MA(1)MA(2)
FMI10
FS-EPNet/RNA
Entradas:3; Ocultas:8;
ARIMA
p=AR(1)AR(2) AR(3)AR(5)
Conexiones:24; Retardos:4;
AR(7)AR(8),d=1,q=MA(1)MA(4)
FMI11
FS-EPNet/RNA
Entradas:4; Ocultas:17;
SARIMA
(p=AR(1)AR(3)AR(7),d=1,q=MA(1) MA(2)
Conexiones:80; Retardos:5;
MA(3))x(P=SAR(1),D=0,Q=0)
Residuo
FS-EPNet/RNA
Entradas:6; Ocultas:14;
ARIMA
p=AR(1)AR(4),d=2,
Conexiones:60; Retardos:5;
q=MA(1)MA(2)MA(3)MA(4)
Por otra parte, la experimentación del modelo no paramétrico demuestra la alta flexibilidad que poseen las RNAs para manejar las cambiantes facetas y capturar los patrones subyacentes de las diferentes descomposiciones derivados de la ST del IPC. Además, el algoritmo FS-EPNet demuestra que puede producir redes muy compactas. El diseño para predecir la FMI3, con tan sólo 2 entradas, 6 neuronas en la capa oculta y 18 conexiones, como edificación topológica se muestra en la
Otras investigaciones, como la mencionada anteriormente en la sección de revisión literaria en el trabajo realizado por
Por último, la
Los métodos de combinación propuestos y utilizados en esta fase o etapa son: la combinación ponderada (CP) y el promedio simple (PS). La CP se basa en la estrategia propuesta por
Las predicciones que se incluyen en la CP son los derivados de los modelos paramétricos y no paramétricos que trabajaron en conjunto con la técnica de DEM. Para llevar a cabo la combinación, los pesos se determinaron con base en el rendimiento de los modelos de la etapa A. Para realizar la combinación ponderada, cada una de las predicciones de la fórmula DEM/ARIMA-ARCH se multiplicó por 0.56766 y para la fórmula DEM/FS-EPNet/RNA cada pronóstico se multiplicó por 0.43234. Posteriormente, ambas predicciones ponderadas son adicionadas y se obtiene como resultado la CP. Cabe recalcar que la suma de los coeficientes PMP + PMNP = 1 dan como resultado la unidad.
Adicionalmente, se propone una combinación de predicciones con pesos igualitarios (PS). Por un lado, se realizó la combinación no-paramétrica que incluye a los modelos FS-EPNet/RNA y DEM/FS-EPNet/RNA. Por otro lado, la combinación paramétrica es una mezcla de los modelos ARIMA-ARCH(5) y DEM/ARIMA-ARCH. La fórmula que se utilizó para determinar la ponderación de pesos se muestra en la
Fuente: elaboración propia.
EGNRMSE = error global NRMSE
MPNRMSE = modelo paramétrico-NRMSE
MNPNRMSE = modelo no-paramétrico-NRMSE
EGNRMSE = MPNRMSE + MNPNRMSE
MPNRMSE = DEM/ARIMA-ARCH = 0.14576
MNPNRMSE = DEM/FS-EPNet/RNA = 0.19139
Dando como resultado el error global:
EGNRMSE = 0.14576 + 0.19139 = 0.33716
El peso del modelo paramétrico se determinó:
PMP = 0.56766
El peso del modelo no-paramétrico se determinó:
PMNP = 0.43234
Yt = predicción del modelo paramétrico
Xt = predicción del modelo no paramétrico
CP = Combinación ponderada
CP = PMP(Yt ) + PMNP(Xt )
CP = PMP(Predicciones-DEM/ARIMA-ARCH)+PMNP(Predicciones-DEM/FS-EPNet/RNA)
La
Fuente: elaboración propia.
5 Periodos de Predicción
15 Periodos de Predicción
35 Periodos de Predicción
Criterio
Combinación no paramétrica
Combinación paramétrica
Combinación ponderada
Criterio
Combinación no paramétrica
Combinación paramétrica
Combinación ponderada
Criterio
Combinación no paramétrica
Combinación paramétrica
Combinación ponderada
MSE
0.01577
0.01272
0.00985
MSE
0.0097
0.0082
0.0066
MSE
0.01067
0.01338
0.01906
RMSE
0.12559
0.11276
0.09926
RMSE
0.09848
0.09057
0.08124
RMSE
0.10328
0.11568
0.13806
NRMSE
1.09764
0.98551
0.86751
NRMSE
0.99087
0.91132
0.81741
NRMSE
1.34661
1.5083
1.80013
En décadas recientes, se han propuesto una gran cantidad de herramientas y técnicas que tratan de predecir el comportamiento del mercado bursátil. Entre los modelos con mayor popularidad se encuentran los modelos ARIMA, sin embargo, estos sólo son capaces de captar relaciones y características lineales en los datos bursátiles. Dadas las carencias de los modelos lineales, es que surgió la necesidad de abordar el análisis del mercado bursátil con herramientas no paramétricas y no lineales. Los resultados de esta investigación así lo confirman. Sin embargo, si los modelos paramétricos combinan su predicción con otras técnicas, en el caso de esta investigación la DEM, los resultados pueden ser mejorados notablemente. De igual forma, el resultado en las predicciones de los modelos no paramétricos puede ser enriquecido con la colaboración de una herramienta que descompone y elimina el ruido en las series. Tomando en consideración lo anteriormente expuesto y los resultados obtenidos, es posible inferir que la aplicación de la técnica DEM al pronóstico de la ST del IPC puede resultar beneficiosa, ya que aquellos patrones que se encontraban ocultos debido al ruido intrínseco de la ST, DEM los hace emerger y le facilita la predicción tanto al modelo paramétrico como al no paramétrico.
En este estudio, se contrastaron 2 herramientas predictivas como modelos, el primero, el modelo paramétrico ARIMA-ARCH de carácter lineal. El segundo de estos fue diseñado mediante el AE FS-EPNet, el modelo no paramétrico de RNAs con cualidades no lineales. Ambos modelos se compararon en 2 intervalos de tiempo, en la primera etapa de predicción los modelos DEM/FS-EPNet/RNA, DEM/ARIMA-ARCH y la combinación de estos 2 últimos fueron los que mejor se ajustaron a la evolución del indicador en los primeros días de predicción.
Cabe señalar que todos los modelos de predicción pierden su poder predictivo en un periodo por más de 20 días aproximadamente en esta primera etapa de experimentación. En el segundo periodo de predicción, se intentó predecir una caída el bursátil acaecida el 22/10/2008, donde el IPC tuvo una baja del 7.01 %. En este periodo, los modelos que basaron su predicción en las FMIs y el residuo resultantes de la descomposición del IPC fueron las herramientas capaces de anticipar la caída bursátil. Estos resultados pueden llevar a concluir que los modelos que trabajaron con DEM son capaces de capturar de manera un poco más precisa el movimiento cíclico del mercado bursátil.
Para obtener una predicción más acertada de una crisis bursátil, parece no ser suficiente el empleo de sólo una variable endógena, en este caso el pasado de la variable. Por ello, se propone incluir otras variables, que pudieran enriquecer y fortalecer el estudio de los mercados financieros. Es factible concluir, que el estudio de la crisis financiera, así como la configuración de los modelos predictivos deben tomar en cuenta las repercusiones que ocasionan las malas noticias en los inversionistas, así como las órdenes informáticas que son empleadas por ellos mismos con el objetivo de aminorar las pérdidas.
Finalmente, los acontecimientos históricos han demostrado, que en un momento de crisis los inversionistas son propensos a entrar en pánico y reaccionar de manera visceral vendiendo todos sus activos. Por ello, el investigador al igual que el inversionista debe considerar abordar el estudio del mercado bursátil desde otra perspectiva. Empleando diferentes herramientas predictivas, así como afinar aquellas que han demostrado ser valiosas. De igual forma, debe tomar en cuenta el uso de técnicas de descomposición de señales, ya que estas han demostrado ser herramientas que apoyan de manera sobresaliente en el análisis y posterior predicción del mercado bursátil.


