Valoración de Opciones Financieras con la Distribución Lambda Generalizada Mario Martín Galián Alfonso Pallarés Iñíguez MÁSTER UNIVERSITARIO EN INSTITUCIONES Y MERCADOS FINANCIEROS INDICE 1.- Introducción 2 2.- Fundamentos matemáticos 3 2.1.- Sucesos deterministas y no deterministas 3 2.2.- Ecuaciones diferenciales estocásticas 4 2.3.- Técnicas de resolución numérica y simulación 5 2.4.- Simulación en entornos financieros 6 3.- Valoración clásica de opciones financieras 3.1.- Las opciones financieras 3.2.- Valoración de opciones con supuesto de normalidad 4.- Distribución lambda generalizada 8 8 10 16 4.1.- La lambda generalizada y bondad del ajuste 16 4.2.- Métodos de ajuste 19 4.3.- Comparación con la Normal 32 5.- Simulación con lambda generalizada 34 5.1.- Descripción del proceso 34 5.2.- Medición de la estabilidad de los parámetros 35 5.3.- Resultados de la simulación 38 6.- Valoración de opciones con Lambda generaliza 41 6.1.- Método de valoración 41 6.2.- Valoración de opción de compra o Call 42 6.3.- Valoración de opcion de venta o Put 44 6.4.- Comentarios sobre los resultados 46 7.- Conclusiones 47 8.- Bibliografía 49 Valoración de opciones financieras con la distribución lambda generalizada 1 1.- INTRODUCCIÓN El presente trabajo persigue exponer al lector un método alternativo de valoración de opciones financieras empleando la distribución lambda generaliza. Históricamente se ha empleado la distribución probabilística normal para el ajuste de los retornos financieros, a pesar de que estos no se ajustan a dicho supuesto. Es decir, los rendimientos financieros no se comportan como una distribución normal. Para suplir dicha carencia, se ha trabajado con la distribución lambda generalizada que por sus características permite un mejor ajuste de los datos históricos y, por lo tanto, una mejor valoración de las opciones financieras. La valoración de opciones se fundamenta en la caracterización de la distribución de probabilidad de los activos. La información disponible para ello son los precios pasados, y las rentabilidades diarias del activo. Con esta información, es posible simular los posibles precios futuros del activo y proceder a la valoración de opciones Call o Put. En el trabajo, se demuestra que la distribución normal no es capaz de ajustar adecuadamente la información que los rendimientos históricos del activo proporcionan. Sin embargo, la lambda generalizada es una distribución de probabilidad que es capaz de recoger mejor toda la información disponible a partir de los datos históricos. Lo anteriormente indicado tiene implicaciones directas en la valoración de opciones financieras. Como se demuestra en el trabajo, el valor que se obtiene para las primas, mediante la lambda generalizada, es diferente a la valoración tradicional obtenida con Black-Scholes o Montecarlo asumiendo normalidad. El trabajo persigue valorar opciones financieras debido a que estos contratos se encuentran muy presentes en el actual universo financiero. Las opciones financieras se emplean, tanto en la cobertura de riesgos empresariales o financieros como en la construcción de instrumentos de inversión. Es, por tanto, fundamental desarrollar mejores herramientas de valoración capaces de proporcionar información más fiable. El lector va a encontrar en este trabajo tres grandes bloques. El primer bloque demuestra que los rendimientos financieros no se ajustan adecuadamente mediante una distribución normal, por lo que todo planteamiento construido sobre tal base, es erróneo desde su primer punto de partida. El segundo bloque demuestra cómo la distribución lambda generalizada se ajusta adecuadamente a los rendimientos históricos de los activos, y por lo tanto, se demuestra que es una distribución probabilística adecuada para el tratamiento estadístico de estos. Por último, en el tercer bloque, se aplica los resultados de los bloques anteriores para simular el comportamiento de activos financieros y valorar contratos de opciones. Se presenta en definitiva, un método con un mayor rigor matemático, con el añadido adicional de no ser de amplio uso público, por lo que, el usuario de esta metodología de valoración dispone de información adicional, y no pública, para tomar decisiones de inversión y cobertura. Valoración de opciones financieras con la distribución lambda generalizada 2 2.- FUNDAMENTOS MATEMÁTICOS El objetivo que se persigue alcanzar en esta primera parte del trabajo es establecer un marco teórico a nivel conceptual de los fundamentos matemáticos que se van a utilizar con posterioridad. En primer lugar, se caracterizan el tipo de sucesos en los que se enmarcan los rendimientos financieros, a saber, sucesos no deterministas. En segundo lugar, el tipo de ecuaciones que se emplean para trabajar con dichos sucesos, ecuaciones diferenciales estocásticas. En tercer lugar, las técnicas que se utilizan para resolver este tipo de ecuaciones, la resolución numérica y la simulación. En cuarto y último lugar, cual es la aplicación directa de todo lo anterior al entorno financiero. 2.1.- SUCESOS DETERMINISTAS Y NO DETERMINISTAS La matemática diferencia entre dos grandes grupo de sucesos, los deterministas y los no deterministas. Es precisamente debido a esta segregación existente en los sucesos, que es necesario introducir herramientas matemáticas capaces de satisfacer la necesidad de caracterizar y estudiar ambos. Los procesos deterministas se definen como aquellos en los que el azar no influye en el resultado final. Un proceso determinista produce una misma salida siempre que las entradas no varíen, esta característica en su comportamiento les otorga la posibilidad de ser predecibles. Dicho de otra forma, los procesos deterministas están influenciados por los sucesos pasados ya que, el estado futuro en el que se encuentra un proceso determinista, viene definido por el presente o el pasado de dicho proceso. Son por tanto sistemas deterministas aquellos que permiten la conexión matemática inequívoca entre todos los estados temporales que este ha ido adoptando fruto del suceso. La matemática determinista es la base de ciencias como la física en las cuales, el estudio de los sistemas y su comportamiento permite generar leyes matemáticas que relacionan todos los estados del sistema mediante ecuaciones diferenciales. Es propio de la complejidad del proceso que se estudia, que exista un desarrollo matemático suficiente, tal que dichas ecuaciones diferenciales sean tratables desde el punto de vista analítico. Existen por tanto sistemas, como la atracción gravitatoria, cuyos modelos matemáticos son tratables analíticamente con el conocimiento matemático acumulado hasta la actualidad. Existen, sin embargo, otros sistemas, como es la aplicación de la Ley de Newton a medios fluidos definida a través de la ecuación de Navier-Stokes, cuya resolución a día de hoy sigue siendo imposible debido a la complejidad de las ecuaciones diferenciales que rigen dicho sistema. En este punto, es necesario diferenciar entre los procesos deterministas puros o no caóticos y los procesos deterministas caóticos. Un proceso determinista puro es aquel para el cual, aunque no exista conocimiento matemático disponible para obtener la expresión analítica de su comportamiento, es posible acotarlo. Para estos no es posible determinar las entradas del modelo que generan una salida determinada, ya que la ecuación diferencial que rige el comportamiento no es resoluble analíticamente. Sin embargo, sí es posible definir dos entradas distintas que acotan inferior y superiormente el rango de la salida. Un ejemplo de este tipo de sistemas es el modelo de Lotka-Volterra que estudia la relación entre dos poblaciones, una población de depredadores y otra población de presas. Este modelo no tiene una expresión analítica que permita su estudio, sin embargo, mediante resolución numérica o aproximada de dicha ecuación diferencial, es posible acotar la solución buscada. Exigiendo un grado de tolerancia previo, es posible acotar dicho intervalo hasta un nivel de error aceptable. Valoración de opciones financieras con la distribución lambda generalizada 3 Un proceso determinista caótico es aquel cuya condición matemática impide acotar las variables de entrada que producen una salida determinada del sistema. El ejemplo más claro de sistemas deterministas caóticos es el atractor de Lorenz o el péndulo doble. Ambos sistemas se caracterizan por no presentar resolución analítica de la ecuación diferencial y por no ser acotables, es decir, pequeñas variaciones en las variables de entrada producen cambios impredecibles en la respuesta del sistema. No obstante, esta imposibilidad de predecir no es fruto del azar sino de la inestabilidad matemática del sistema junto al alcance de la matemática desarrollada hasta la actualidad. Por otro lado, los procesos no deterministas son aquellos en los que el azar juega un papel fundamental en la relación entre la entrada y la salida del sistema. Los procesos no deterministas se caracterizan por perder la trazabilidad entre los diferentes estados por los que pasa el sistema. Esta imposibilidad es fruto de que, el estado futuro es el resultado del estado actual más una componente debida al azar. Por tanto, es imposible establecer modelos matemáticos que relacionen entre sí de forma unívoca dos estados diferentes de un mismo sistema estudiado. La necesidad de estudiar sistemas no deterministas llevan al desarrollo de una matemática centrada en caracterizar el proceso generador de azar que da lugar a una variable aleatoria. La variable aleatoria se define como una función real definida en el espacio muestral asociado a un experimento aleatorio, es decir, es el conjunto de valores en los que puede realizarse dicho experimento. Sea el caso un dado con inscripciones numéricas desde el uno hasta el seis en cada una de sus seis caras, el lanzamiento sin viciar del dado es un experimento aleatorio y, por tanto, tiene una variable aleatoria asociada. La variable aleatoria recoge los posibles resultados del experimento, es decir, los números del uno al seis que se pueden obtener en cada realización del experimento. El estudio matemático de esta variable aleatoria da lugar a la rama de la matemática conocida como la probabilidad y estadística, la cual se materializa en el estudio de la distribución de probabilidad de una variable aleatoria. 2.2.- ECUACIONES DIFERENCIALES ESTOCÁSTICAS El estudio matemático de sistemas no deterministas pasa, por tanto, por la inclusión de la teoría de la probabilidad y estadística en la construcción de los modelos que tratan de explicar el comportamiento, dando lugar a ecuaciones diferenciales estocásticas1, en las cuales, al menos uno de los elementos diferenciales de la ecuación es una variable aleatoria que puede realizarse siguiendo una distribución de probabilidad estadística conocida o no. Estos modelos surgen del estudio de fenómenos naturales como la turbulencia o el movimiento del electrón en un átomo, y se continúan desarrollando posteriormente en campos tan alejados de los primeros como el entorno financiero, modelos como el conocido Movimiento Browniano2. Cuando se estudia un sistema no determinista, es decir, un sistema estocástico o aleatorio, el estudio pretende definir una distribución de probabilidad para la salida del sistema, a partir de las variables de entrada, que como se ha indicado anteriormente pueden ser variables aleatorias. Por tanto, los resultados que se obtienen no son deterministas, pues este resultado es incompatible con la propia naturaleza del sistema 1 FLORESCU, I. (1973): “Probabilistic and Stochastic Processes”. Stevens Institute of Technology, Hoboken, NJ. New Jersey, John Wiley & Sons, Inc., 485-486. 2 Ibídem, 465-466 Valoración de opciones financieras con la distribución lambda generalizada 4 que se estudia, se obtienen resultados que deben ser interpretados en clave estadística. Esta interpretación estadística es generalmente de dos tipos, una probabilidad de realización o una distribución de las realizaciones. La complejidad de algunos sistemas deterministas conduce a la imposibilidad, con el conocimiento actual, de obtener expresiones analíticas para el estudio de dichos sistemas. Esta complejidad se agrava cuando se trabaja con sistemas estocásticos, generalmente es complejo obtener expresiones analíticas cerradas cuando alguna de las variables de la ecuación diferencial es variable aleatoria, por tanto, ecuación diferencial estocástica. Únicamente bajo supuestos que fuerzan la simplificación del sistema es posible obtener dichas expresiones, no obstante, para el estudio de una gran cantidad de sistemas, particularmente dentro del mundo financiero, las simplificaciones que exigen las resoluciones analíticas incapacitan la aplicación de los resultados obtenidos. Sea por ejemplo el caso de la ecuación de Black-Scholes para la valoración de la prima de opciones europeas, que se tratará posteriormente en este documento. Surge el problema entonces a la hora de entender el comportamiento de sistemas estocásticos cuyo modelo diferencial no puede ser resuelto de forma analítica. La solución del problema anterior, cuando surge en ecuaciones diferenciales deterministas, pasa por la resolución de dicha ecuación diferencial mediante el empleo de técnicas numéricas. Las técnicas numéricas no permiten llegar a la resolución exacta pero permiten acotar dicha solución hasta un grado de error calculable matemáticamente. En el caso de ecuaciones diferenciales estocásticas, las técnicas numéricas son igualmente válidas, tras la aplicación de matices en su formulación fruto de la diferente naturaleza matemática del suceso que se estudia, como es el caso del Lema de Ito3. No obstante, a dicha resolución numérica se le añade una segunda componente que es la simulación. Es la combinación de ambas componentes la que permite obtener la distribución probabilística de la realización de la variable aleatoria asociada al estado final del sistema que se estudia. La herramienta de estudio que surge por la combinación de ambas técnicas, ofrece una potente versatilidad que permite atacar un conjunto elevado de planteamientos de complejidad no limitada en primera instancia. 2.3.- TÉCNICAS DE RESOLUCIÓN NUMÉRICA Y SIMULACIÓN Se han tratado dos conceptos matemáticos diferentes, por un lado la resolución numérica y, por otro lado, la simulación. Estas dos herramientas se pueden emplear de forma independiente o mediante acoplamiento. La resolución numérica es una técnica matemática empleada en la resolución de ecuaciones diferenciales que, por su planteamiento, no son resolubles analíticamente. Generalmente se encuentra una ecuación diferencial definida sobre un medio continuo que no es posible resolver. Se toma la decisión de trasladar dicha ecuación desde el dominio continuo hasta el dominio discreto de forma que, las técnicas de resolución numéricas pasan a ser aplicables y, por tanto, la ecuación pasa a ser resoluble. Cabe destacar que no sólo el campo de las ecuaciones diferenciales es susceptible de ser acometido mediante técnicas numéricas. Las técnicas de resolución numérica logran, a través de una simplificación matemática, encontrar una solución aproximada del problema que se plantea cuando este no tiene solución analítica. Esta solución aproximada puede ser acotada en el caso 3 Ibídem, 490-492 Valoración de opciones financieras con la distribución lambda generalizada 5 de estudio de sistemas deterministas puros hasta un nivel de error calculable previamente. La simulación es una técnica matemática que permite calcular las diferentes realizaciones de una variable aleatoria definida mediante una distribución de probabilidad. La simulación se emplea consecuentemente para introducir, dentro de un modelo matemático, la distribución de probabilidad de las diferentes variables aleatorias que intervienen dentro del sistema estudiado. La técnica consiste en calcular un número elevado de veces la realización de una variable aleatoria entre dos estados de un sistema, es decir, la simulación se detiene entre dos estados de un sistema, y genera un número elevado de realizaciones de la variable aleatoria de forma que, se obtenga una distribución de la realización del sistema estudiado entre los dos estados que se estudian. El acoplamiento de la resolución numérica y la simulación devuelve la herramienta adecuada para resolver problemas caracterizados por ecuaciones diferenciales estocásticas, es decir, sistemas cuyas variables intrínsecas son de naturaleza aleatoria. Este acoplamiento se empela en el estudio de variables aleatorias como el tipo de interés o el precio de un subyacente en el tiempo. Nuevamente, la técnica no persigue devolver una predicción sobre el valor exacto sino una distribución de probabilidad de la realización de dicha variable aleatoria que se quiere estudiar. Es fundamental comprender esta característica para entender productos financieros como las opciones. Empleando técnicas de resolución de ecuaciones diferenciales estocásticas, es decir, técnicas numéricas de simulación, se calcula la distribución de las realizaciones del flujo del contrato y se calcula la prima de forma que dicho derecho comerciado tenga valor económico nulo consecuencia de la incertidumbre. La resolución numérica con simulación se emplea para estudiar variables aleatorias como es, por ejemplo, el precio de activo. El precio de un activo se modela como una ecuación diferencial estocástica, ejemplo de ello es el Movimiento Browniano Geométrico (GBM)4 que se presenta a continuación. dS = μ · S · dt + σ · S · dW dt Este modelo matemático relaciona el precio de las acciones en el tiempo introduciendo una variable estocástica o browniana mediante el diferencial dW. Su resolución pasa por una discretización y posterior resolución numérica junto con una simulación de las posibles realizaciones entre los estados inicial y final que se estudia. Es este modelo el fundamento matemático de los desarrollos que se presentan en el trabajo. 2.4.- SIMULACIÓN EN ENTORNOS FINANCIEROS La aplicación de la simulación en el ámbito financiero es común cuando se trabaja con subyacentes de naturaleza estocástica como, por ejemplo, el precio de materias primas o el precio acciones. Estas técnicas de simulación permiten construir una imagen suficientemente amplia de la realidad que se estudia como, por ejemplo, valorar todo 4 ROSS. S. H. (2014): “Introduction to Probability Models”, Oxford Academic Press, 612-613. Valoración de opciones financieras con la distribución lambda generalizada 6 tipo de opciones financieras con estructuras de ejercicio complejas, es decir, desde las europeas hasta las americanas pasando por estructuras intermedias exóticas. Además de opciones, también puede ser implementado en los cálculos de riesgos como el VaR así como estudiar estrategias de cobertura condicionadas a la ocurrencia de determinados acontecimientos, o el estudio de la distribución esperada de la TIR o el VAN en un descuento de flujos de caja, bien sea el subyacente una empresa que se modela o un título de renta fija. En toda la casuística que se ha indicado anteriormente, siempre se encuentra al menos una de las variables fundamentales del modelo que se caracteriza por ser una variable aleatoria, por ser de tal naturaleza, la variable aleatoria se distribuye siguiendo una distribución probabilística. Como consecuencia, el comportamiento del sistema va a seguir su propia distribución probabilística. En este punto, queda manifestada la necesidad de trabajar sobre técnicas matemáticas que permitan estudiar este tipo de modelos. El tradicional problema que surge con las variables aleatorias es la sensación que puede tener el usuario final de encontrarse frente a un resultado catalogable como incierto. Desde un punto de vista matemático este razonamiento no se encuentra muy alejado de la realidad. Es necesario entender que, en el mundo financiero, las variables con las que se trabaja son habitualmente variables aleatorias. Matemáticamente es poco riguroso tratar problemas de variable aleatoria como un simple agregado discreto de posibles realizaciones de las variables de entrada, además de ser poco riguroso, es suficientemente subjetivo como para ser desechado a tenor de aportar una información muy sesgada. En contraposición a la situación anterior, la simulación en el ámbito financiero permite calcular una combinación muy elevada de posibles realizaciones de las variables aleatorias de entrada y, por tanto, disponer de una distribución de probabilidad de la variable aleatoria resultado del sistema. Esta distribución de la variable aleatoria del resultado aporta gran información sobre el propio sistema, información tanto de la expectativa estadística del sistema que se estudia como de la influencia de las variables aleatorias de entrada. La versatilidad de la simulación da lugar a poder introducir mecanismos para la mitigación de los riesgos dentro de la propia simulación llevada a cabo, de forma que sea posible estudiar el impacto que tiene la política de gestión de los riesgos. Queda por tanto evidenciado que la capacidad de la simulación tiene el límite posicionado en la complejidad del modelo que se plantee. Se demuestra, por tanto, que no sólo la simulación es útil para calcular las primas de opciones, valorar productos estructurados u obtener el precio de un bono ligado a variables aleatorias como la inflación; es igualmente útil para otros muchas campos de las finanzas como puede ser estudiar corporaciones o evaluar decisiones sobre la gestión o la inversión. La simulación en el entorno financiero es, por tanto, una herramienta que no está pensada para predecir el futuro, pues la propia naturaleza matemática del problema impide tal planteamiento de forma lógica. Está pensada para disponer de la mayor cantidad de información posible enmarcada dentro de una solidez y lógica matemática, es esta solidez y lógica la que permite tomar decisiones objetivas y con fundamento. Cabe indicar que la simulación no se encuentra por encima de la experiencia o el conocimiento del usuario que se enfrenta a un determinado problema, sino que se encuentra a disposición de este para ayudarle en la toma de decisiones, es, como se ha indicado, una herramienta muy potente de análisis. Valoración de opciones financieras con la distribución lambda generalizada 7 3.- VALORACIÓN CLÁSICA DE OPCIONES FINANCIERAS El apartado anterior tenía como objetivo establecer un marco matemático sobre el que se sustentan las metodologías de valoración de opciones en el ámbito financiero. Una vez acotado dicho marco teórico, el fin de este apartado será explicar en que consisten las opciones financieras y cuáles son los métodos clásicos de valoración que se emplean para su valoración: el método Black-Sholes y la Simulación Montecarlo. Estos dos métodos emplean la distribución de probabilidad normal para caracterizar el proceso aleatorio de los rendimientos. Como se verá en este apartado también, los rendimientos financieros no se distribuyen con una normal y, por tanto, es preciso hacer hincapié en ello para comprender cuales son las ventajas que ofrece el método propuesto en el presente trabajo. 3.1.- LAS OPCIONES FINANCIERAS Para comprender las metodologías de valoración de opciones, primero es preciso saber en qué consisten las opciones financieras. Las opciones son productos derivados cuyo subyacente es, generalmente, un activo financiero. Aunque también es posible construir opciones con subyacentes no financieros como, por ejemplo, variables meteorológicas. Las opciones financieras son contratos donde se acuerda la compra-venta de un derecho de compra, en el caso de una opción Call, o derecho de venta, el caso de una Put. Las definiciones de ambas son las siguientes: Una opción de compra o Call otorga al comprador el derecho, pero no la obligación, de adquirir un determinado activo financiero a un precio de ejercicio o strike en el momento de tiempo acordado. En contraposición, el vendedor de la opción tiene la obligación de vender si el comprador decide ejercer su derecho de compra5. Gráfico 1 5 LAMOTHE P., PÉREZ M. (2006): “Opciones financieras y productos estructurados”. Madrid, McGraw-Hill, 3-4. Valoración de opciones financieras con la distribución lambda generalizada 8 Una opción de venta o Put otorga al comprador el derecho, pero no la obligación, de vender un determinado activo financiero a un precio de ejercicio o strike en el momento de tiempo acordado. En contraposición, el vendedor de la opción tiene la obligación de vender si el comprador decide ejercer su derecho de venta6. Gráfico 2 A cambio de este derecho a comprar o a vender, el comprador deberá entregar al vendedor una prima. El coste de la prima es el resultado de la valoración y de la propia negación de mercado, ya sea mediante cámaras de compensación o mercados OTC. A parte de la primera división entre Call o Put, los diferentes tipos de opciones se pueden clasificar de la siguiente manera: Según el activo subyacente, pueden ser: índices, acciones, divisas, tipos de interés, étc. Según el momento de ejecución, pueden ser: europeas, en las cuales, la opción solo puede ejecutarse a vencimiento; americanas, donde la opción puede ejecutarse en cualquier momento desde el inicio hasta el vencimiento del contrato; o intermedias, en el contrato se establecen distintas fechas donde la opción puede ejecutarse. Según el valor intrínseco7, pueden ser: en el caso de una Call, “in the money”, si el precio de ejercicio es inferior al valor presente del activo subyacente; “at the money”, si el precio de ejercicio es igual al valor presente del activo subyacente; o “out the money”, si el precio de ejercicio es superior al precio de ejercicio. Para el caso de una Put, es el caso totalmente contrario. 6 LAMOTHE P., PÉREZ M. (2006): “Opciones financieras y productos estructurados”. Madrid, McGraw-Hill, 3-4. 7 LAMOTHE P. (2006). 56: “El valor intrínseco de una opción se puede definir como el valor que tendría una opción en un momento determinado si se ejerciese inmediatamente”. Valoración de opciones financieras con la distribución lambda generalizada 9 En el presente trabajo se estudiarán opciones sobre el índice IBEX 35. Además, serán opciones europeas y “at the money”, en adelante, ATM. Cabe resaltar que, generalmente, las opciones se liquidan por diferencias y la transacción no suele implicar intercambio de títulos, es decir, se liquidan según la diferencia entre el precio actual y el precio ejercicio. Además, el derecho se ejerce siempre y cuando el contrato tiene valor positivo para el comprador, en el caso contrario, será más ventajoso acudir al mercado y comprar o vender el activo, según sea una Call o una Put. Durante las últimas décadas, gracias en parte al desarrollo de las herramientas informáticas, se han desarrollado todo tipo de opciones que incluyen o alteran un número mayor de restricciones y/o condiciones, tanto para su valoración como para su negociación. Son las llamadas opciones exóticas y surgen como consecuencia de tratar de cubrir las nuevas necesidades de los distintos agentes del mercado. 3.2.- VALORACIÓN DE OPCIONES CON SUPUESTO DE NORMALIDAD Una vez descrito en que son las opciones financieras y cuáles son las características y variables que entran en juego a la hora de valorar, se procederá a explicar los dos modelos clásicos de valoración de opciones: el modelo Black-Sholes y el modelo de simulación Montecarlo. Debido a que en la valoración de ambos métodos se emplea la distribución de probabilidad normal -en contraposición al método del presente trabajo que emplea la distribución lambda generalizada-, antes de explicar cada método, se debe dar una breve explicación de la distribución normal y su ajuste sobre los rendimientos. Puesto que el objetivo de este trabajo es plantear y desarrollar un método alternativo a estos dos, se necesita conocer cómo se valoran las opciones mediante estos métodos para ser capaz de analizar las ventajas y las desventajas y compararlo con el propuesto. 3.2.1.- La distribución normal y los rendimientos financieros La normal ha sido ampliamente empleada en prácticamente la totalidad de los campos en los que la teoría de la probabilidad y la estadística matemática han sido aplicadas. Su función de distribución es la siguiente8: 𝐺(𝑦) = 1 𝜎√2𝜋 ∞ ∫ 𝑒 − (𝑦−𝜇)2 2𝜎2 𝑑𝑦 −∞ Esta distribución se ha empleado a pesar de reconocerse sus limitaciones donde, en muchos casos, los datos no se ajustan a su función de densidad característica. Sin embargo, el gran desarrollo de sus propiedades, su versatilidad y, por tanto, su fácil manejo y aplicación, ha dado lugar a su utilización en multitud de modelos financieros pese a reconocer que variables como las rentabilidades de un activo no se distribuye de forma normal. Los ejemplos más notorios de aplicación se encuentran en teorías 8 MARTÍN-PLIEGO F. RUIZ-MAYA L. (2010): “Fundamentos de probabilidad”. Madrid, Paraninfo. 219. Valoración de opciones financieras con la distribución lambda generalizada 10 financieras como la cartera eficiente de Makowitz9, que continúa vigente o el modelo de Black-Scholes10 que seguidamente se trata con más detalle. Surge, por tanto, una cuestión básica que debe ser planteada y respondida antes de continuar: ¿por qué la distribución normal no es capaz de ajustar de forma adecuada los rendimientos financieros? La respuesta se encuentra en las colas de la distribución y en el apuntamiento. En la siguiente gráfica se muestra un ejemplo utilizando los rendimientos del IBEX 35 desde el 1 de enero del año 2005 hasta el 27 de febrero del año 2015. La utilización de una ventana temporal tan amplia se debe a que cuantos más datos se emplean, mejor se puede estudiar el ajuste de una distribución. Gráfico 3 El gráfico muestra claramente como los datos históricos acumulan un mayor número de sucesos entorno a la media, es decir, un mayor apuntamiento que la normal no recoge en su ajuste. Por otro lado, las colas que muestran los datos son más “pesadas”, es decir, existen un mayor número de sucesos que la distribución normal contempla. Con un mayor apuntamiento de los datos y con colas más “pesadas”, se afronta el reto de encontrar una distribución de probabilidad que sea capaz realizar un mejor ajuste. Como se mencionaba anteriormente, en el presente trabajo, se ha escogido la GLD como distribución alternativa a la normal. En epígrafes posteriores se comparará el ajuste que la GLD realiza de los rendimientos frente al que realiza la normal. Existen dos razones por las cuales se ha aceptado y perpetuado el uso de la normal en el campo financiero. Por un lado, la distribución normal ha sido tratada en multitud de textos científicos y el conocimiento y desarrollo matemático en torno a esta distribución son muy elevados, haciendo fácil su uso y adaptación a nuevos campos en los que, aun no ajustando correctamente, se acepta el error cometido con el objetivo de 9 MARKOWITZ, H. (1952): “Portfolio Selection; Journal of Finance”, 7, 77-91 10 BLACK, F., SCHOLES, M., (1973): “The Pricing of options and Corporate Liabilities”; The Journal of political Economy, 81, 3, 637-654 Valoración de opciones financieras con la distribución lambda generalizada 11 disponer de un aparato matemático suficientemente elaborado11. Esta razón se sustenta en el transvase de conocimiento acontecido entre las disciplinas de la física y la matemática al campo financiero. La segunda razón es la amplia aceptación que, transcurrido el tiempo, y gracias a un amplio conocimiento generado en base a la normal, la comunidad ha aceptado los errores que conllevan aceptar las distribuciones normales en el ámbito financiero, debido también a la ausencia de modelos matemáticos que mejoren sustancialmente la oferta matemática de la distribución normal. En cambio, el desarrollo computacional ha permito que trabajos como el presente, traten de cambiar dicha situación y comenzar a desarrollar modelos que sean capaces de realizar un mejor ajuste de los rendimientos y, por tanto, una mejor estimación y valoración del riesgo. 3.2.2.- Modelo Black-Sholes El modelo de Black-Scholes desarrollado en 1973 por Fisher Black y Myron Scholes12 para la valoración de opciones es un ejemplo de resolución analítica de ecuaciones diferenciales estocásticas. Este modelo permite determinar el precio de la opción a partir de las propiedades estadísticas del activo subyacente, sin embargo, presenta fuertes restricciones, debido a la hipótesis que se plantean, entre otras13: La principal es que su utilidad se restringe a las opciones europeas de tipo plain vanilla, es decir, opciones con una estructura simple de derecho de compra o venta directo que se ejercitan en una fecha determinada. Sin embargo, el modelo no es capaz de dar respuesta a planteamientos más complejos como las opciones americanas. Las opciones americanas otorgan el derecho de ejercitar la opción de compra o venta en cualquier momento entre dos fechas conocidas. Igualmente, estructuras más complejas de opciones tampoco pueden ser tratadas con este modelo. El mercado funciona sin fricciones, es decir, no existen costes de transacción, de información ni impuestos y los activos son perfectamente divisibles. Las transacciones tienen lugar de forma continua y existe plena capacidad para realizar compras y ventas en descubierto sin restricciones ni costes especiales. Las acciones tomadas como subyacente no pagan dividendos en el horizonte de valoración. En este caso, es un supuesto que puede modificarse con una simple modificación de la fórmula empleada. Los agentes pueden prestar y endeudarse a una misma tasa r, el tipo de interés a corto plazo expresado en forma de tasa instantánea y supuesto conocido y constante en el horizonte de valoración de las opciones. 11 COSTA M., CAVALIERE G., IEZZI S( 2003).; “The Role of the Normal Distribution in Financial Markets”; Chapter of book: New Developments in Classification and Data Analysis, University of Bologna - CLADAG 12 BLACK, F., SCHOLES, M., (1973): “The Pricing of options and Corporate Liabilities”; The Journal of political Economy, 81, 3, 637-654 13 LAMOTHE P., PÉREZ M. (2006): “Opciones Financieras y Productos Estructurados”. Madrid, McGrawHill. 111-112. Valoración de opciones financieras con la distribución lambda generalizada 12 El precio del subyacente sigue un proceso continuo estocástico de evolución de Gauss- Wiener14 definido por: 𝑑𝑆 = 𝜇 · 𝑑𝑡 + 𝜎𝑑𝑧 𝑆 El modelo propuesto por estos autores supone un avance fundamental en el mundo financiero, al permitir valorar las opciones con una función algebraica sencilla, basada en la distribución normal de probabilidad representada por σdz. A pesar de que se reconoce el no ajuste de las rentabilidades a la distribución normal, en el cálculo del modelo Black-Scholes, se introduce el supuesto de normalidad a través de la función de distribución de probabilidad normal. El desarrollo del modelo da lugar a la siguiente fórmula15: C = S · N(d1 ) − K · e−r·T · N(d2 ) d1 = S σ2 ln (K) + (r + 2 ) · T σ√T d2 = d1 − σ√T Siendo: C la prima de la opción de compra europea. S el precio actual del subyacente financiero K el precio de ejercicio T el tiempo hasta el ejercicio r el tipo de interés, σ la volatilidad implícita del activo subyacente. 3.2.3.- Simulación Montecarlo. Es evidente la fortaleza de la ecuación de Black-Scholes para la valoración de opciones, sin embargo, la complejidad de las estructuras financieras que hoy en día se demandan, siguen modelos matemáticos de complejidad tal que no es posible obtener expresiones cerradas analíticas como la obtenida por Black-Scholes. En su defecto, se plantea la simulación numérica de dichas ecuaciones diferenciales estocásticas pues, en la base del problema, la solución no deja de ser la evaluación de todas las posibles realizaciones de un sistema, evaluado transversalmente entre dos 14 LAMOTHE P., PÉREZ M. (2006): “Opciones Financieras y Productos Estructurados”. Madrid, McGrawHill. 111-112. 15 POBLACIÓN F. (2013): “La gestión del riesgo en empresas Industriales”. Madrid, Delta. 21. Valoración de opciones financieras con la distribución lambda generalizada 13 estados inicial y final. Este método se conoce como el método de simulación Montecarlo16. Además, las mejoras en el campo tecnológico permiten realizar cálculos de elevada complejidad en un tiempo muy razonable, en algunos casos, casi instantáneo. El método de simulación Montecarlo es un método de simulación numérica que se suele utilizar cuando, para la valoración de opciones, no existen fórmulas cerradas como, por ejemplo, las fórmulas de Black-Scholes. Esta metodología fue introducida por Boyle en 1977. Se puede utilizar para la valoración de la gran mayoría de las opciones de tipo europeo y para múltiples modalidades de “exóticas”. El método de Montecarlo se utiliza para simular un rango muy grande de procesos estocásticos. La valoración de las opciones se realiza en un mundo de riesgo neutral, esto es, se descuenta el valor de la opción a la tasa libre de riesgo. La hipótesis de partida del modelo es que el logaritmo natural del activo subyacente sigue un proceso geométrico browniano, de forma que se obtiene: S + dS = S · e [(μ− lσ2 )dt+σdz] 2 Donde S es el nivel del activo subyacente, es la tasa esperada del activo subyacente, es la volatilidad del activo subyacente y dz es un proceso de Wiener con desviación típica unitaria y media nula. Para simular el proceso se debe transformar la expresión anterior en tiempo discreto, es decir, se divide el tiempo en intervalos t, de forma que se obtiene la siguiente ecuación: S + ∆S = S · e [(μ− lσ2 )∆t+σεt √∆t] 2 Donde S es la variación en tiempo discreto para S en el intervalo de tiempo elegido t y t es un número aleatorio que se distribuye de forma normal estándar N (0,1). Realizando miles de simulaciones, se obtiene un conjunto e de valores para St. La expresión discreta anterior a la que se ha llegado, para un activo que no pague dividendos, tiene la siguiente forma: St+1 = St · e [(r− lσ2 )∆t+σεt √∆t] 2 Donde r es la tasa libre de riesgo y t es el vencimiento de la opción en años partido del número de periodos. 16 LAMOTHE, P. (2006): “Opciones Financieras y Productos Estructurados”. Madrid, McGrawHill, 125. Valoración de opciones financieras con la distribución lambda generalizada 14 Por ejemplo, si la opción tiene un vencimiento de T años y el número de periodos elegidos es n, t será igual a: ∆t = T n A medida que t es más pequeña, es decir, menor salto temporal entre un momento y otro, más precisa es la simulación. El número de simulaciones dependerá del nivel de exactitud que se pretenda obtener con el modelo. Normalmente, a partir de 10.000 simulaciones los resultados obtenidos son estables, no obstante puede ser necesario realizar un estudio particular sobre el tamaño de la simulación. El principal inconveniente de la simulación es el elevado coste computacional, es decir, el tiempo en el que el ordenador ejecuta la simulación. A veces se encuentran situaciones en las que se deben generar sendas correlacionadas, como, por ejemplo, con las opciones sobre una cesta de activos o frente a opciones sobre el mejor o peor de varios activos. En este caso, los números aleatorios generados deben estar correlacionados según el coeficiente de correlación que existe entre los activos subyacentes. La forma de generar dos sendas de números aleatorios correlacionados es la siguiente: ε1 = x1 ε2 = ρx1 + x2 √1 − ρ2 Donde x1 y x2 son vectores de números aleatorios que se distribuyen de forma normal estándar y es el coeficiente de correlación entre ambos activos subyacentes. De forma que 2 es un vector de números aleatorios que se distribuyen de forma normal estándar correlacionados un nivel con 1. De todo lo anterior se puede concluir que las fortalezas de la distribución normal son el conocimiento que hay en torno a ella y la versatilidad que presenta su formulación matemática. Son estas fortalezas las que hacen que, a día de hoy, con la amplia disposición de tecnología suficiente como para computar simulaciones con elevada carga computacional, se siga eligiendo la distribución normal para este tipo de modelos. Sin embargo, los algoritmos empleados para la simulación pueden ser aplicados a cualquier distribución de probabilidad y, partiendo de esta base, se desarrollará en los próximos epígrafes método alternativo de valoración que permita aplicar la lambda generaliza a la simulación de rendimientos financieros y, en última instancia, a la valoración de opciones financieras. Valoración de opciones financieras con la distribución lambda generalizada 15 4.- DISTRIBUCIÓN LAMBDA GENERALIZADA Durante todos los epígrafes previos, se ha tratado de proporcionar al lector una serie de cuestiones básicas que permitirán comprender el verdadero objetivo del estudio. En un principio, se ha desarrollado un marco teórico de los fundamentos matemáticos que subyacen en el empleo de herramientas matemáticas y estadísticas aplicadas al mundo financiero. Posteriormente, se ha explicado en que consiste una opción financiera y se ha especificado que tipo se va a valorar: opciones europeas, plain vanilla y “at the money”. Después, se han explicado los dos modelos clásicos empleados en la valoración de opciones: Black-Sholes y Montecarlo, ambos asumiendo normalidad en los rendimientos de las acciones. Como ya se ha adelantado, los rendimientos no se distribuyen mediante una normal. Por lo tanto, dicha asunción es la crítica principal a estos modelos, ya que el trabajo que se comprende en este documento, versa sobre la valoración de opciones financieras empleando la distribución lambda generalizada - en adelante, GLD (Generalized Lambda Distribution) –. Por lo tanto, en el presente capitulo, el análisis abarca el ajuste de los rendimientos a esta distribución alternativa, donde se elegirá el método que presente mejor bondad de ajuste. En los dos capítulos posteriores, en primer lugar, se utilizará el método seleccionado para simular los rendimientos mediante simulación Montecarlo y, después, se realizará la valoración empleando la GLD. Para todos los desarrollos computacionales, tanto en esta parte como en los que le suceden, se han realizado con “R”, empleando, principalmente, la librería “GLDEX”. 4.1.-LA LAMBDA GENERALIZADA Y BONDAD DEL AJUSTE La GLD es una extensión de la familia de las lambdas propuesta por Tukey. La última extensión de la familia es definida por la siguiente función cuantil que es la inversa de la función de distribución17: La distribución lambda de Tukey se considera una familia de distribuciones debido a que, a partir de la distribución cuantil anterior, se pueden aproximar otras distribuciones. Este es el caso de la GLD. Para este estudio se han empleado dos desarrollos: uno de ellos es Ramberg and Schmeiser (1974) y la otra es Freimer, Mudholkar, Kollia and Lin (1988). Aunque ambos dependen de cuatro parámetros lambda (λ1, λ2, λ3 y λ4), la diferencia entre ambos se encuentra en la modificación de la función de distribución en el método Freimer, Mudholkar, Kollia and Lin. Como se verá a continuación: 17 PFAFF B. (2013) “Financial Risk Modelling and Portfolio Optimization with R”. New Delhi, John Wiley & Sons, Ltd. 56. Valoración de opciones financieras con la distribución lambda generalizada 16 El método Ramberg and Schmeiser, en adelante RS, muestra la siguiente función cuantil o función de distribución inversa18: 𝑄(𝑢)𝑅𝑆 = 𝜆1 + 𝑢 𝜆3 − (1 − 𝑢)𝜆4 0 ≤𝑦 ≤1 𝜆2 El método Freimer Mudholkar Kollia and Lin, en adelante FMKL, como se puede apreciar, su función de distribución inversa es algo distinta19: 𝑄(𝑢)𝐹𝑀𝐾𝐿 𝑢 𝜆3 − 1 (1 − 𝑢)𝜆4 − 1 − 𝜆3 𝜆4 = 𝜆1 + 0 ≤𝑦 ≤1 𝜆2 Los cuatro parámetros recogen las características de la distribución y, mientras que λ1 y λ2, son medidas de localización y escala (dispersión), la asimetría y la curtosis vienen determinadas por λ3 y λ420, respectivamente. En cambio, la distribución normal solo contaba con (μ, σ2). Una de las ventajas que ofrece la GLD es, precisamente, la utilización de dos parámetros más respecto a la normal, ya que permite una mejor caracterización de los datos que es lo que se pretende demostrar, puesto que ya se ha demostrado que los rendimientos no se distribuyen por una normal. Para obtener los cuatro parámetros lambda, es necesario emplear un método de estimación. Se emplean tres métodos distintos para el cálculo de los estimadores que son: el método de los momentos, el método de la máxima verosimilitud y el método de los l-momentos. Dado que no existen expresiones cerradas para calcular los estimadores a partir de RS y FMKL, se necesitan emplear técnicas de optimización numérica para obtener los parámetros lambda. Una vez obtenidas las cuatro lambdas, se puede calcular la probabilidad asociada a un suceso concreto mediante su función de probabilidad inversa, que se empleará en la simulación, y se puede también obtener los estadísticos descriptivos de los datos. La decisión de emplear dicha distribución se debe a multitud de estudios que han postulado a la GLD como una distribución de probabilidad con capacidad para ajustarse a los rendimientos financieros21 22. Este trabajo tiene como objeto centrarse en la aplicación práctica de la GLD al ajuste de los rendimientos donde, a partir del análisis cada método, se elegirá aquél que mejor 18 Íbidem, 56. Ibídem, 56 20 Ibídem, 56 19 21 CORRADO C. (2001): “Option pricing based on the generalized lambda distribution”. Journal of Futures Markets, 21.213-236. 22 CHALABI, y. et al. (2010): “The Generalized Lambda Distribution as an Alternative to Model Financial Returns”. Institut für Theoretische Physik. Zürich, Switzerland. Valoración de opciones financieras con la distribución lambda generalizada 17 ajuste realice. Por este motivo, para conocer en mayor profundidad el desarrollo completo para obtener los parámetros lambda, se puede revisar la bibliografía 23. Tendrá sentido emplear una GLD para la distribución de los rendimientos siempre que demuestre un mejor ajuste que la normal. Por tanto, la ventaja de emplear esta distribución consiste en generar estimadores que son capaces de obtener un mejor ajuste probabilístico de la función de distribución. Aplicando esta lógica a la rentabilidad de los activos financieros, por ejemplo acciones o índices, lo que se persigue es obtener un mejor ajuste de las rentabilidades y, por tanto, una mejor estimación futura del precio. Por todo esto, es preciso establecer los criterios que evaluarán el ajuste. Son los siguientes criterios24: Histograma de frecuencias: se puede obtener una primera aproximación de la calidad del ajuste de forma visual y simple a partir del histograma de frecuencias. En el histograma se representan por un lado los datos históricos mediante un diagrama de barras y, por otro lado, la función de densidad obtenida a partir del método en concreto. Estimación teórica de los parámetros: de las lambdas obtenidas a partir de cada uno de los métodos se calculan los cuatro estadísticos descriptivos teóricos (moda, varianza, asimetría y curtosis) y se comparan con los estadísticos descriptivos de los datos. Cabe resaltar que esta estimación será uno de los puntos clave a la hora de determinar la lección del mejor método de ajuste y que se realizarán otra serie de pruebas o test para poder cerciorar que los datos se distribuyen mediante la distribución resultante del método. Gráfico cuantil-cuantil (QQplots): este tipo de gráfico es muy útil, ya que, al igual que el histograma, permiten valorar la calidad del ajuste de forma visual. Consiste en comparar la distribución teórica de los datos, representada por una línea, con los propios datos mediante una nube de puntos. En particular, este gráfico muestra si la distribución teórica recoge adecuadamente el comportamiento de las colas. Simulación de los parámetros: la simulación de las lambdas persigue conocer cuál de los métodos realiza una mejor recuperación de los estadísticos descriptivos de la muestra. Para ello, se simulan las lambdas 10.000 veces y, partiendo de la media de las mismas, se calculan los estadísticos descriptivos asociados a las lambdas obtenidas. Kolmogorov-Smirnoff Test25: este test tiene como objetivo contrastar si los datos estudiados se distribuyen como la función de densidad estimada. Para ello, establece las siguientes hipótesis: o H0 : Los datos siguen la distribución o H1 : Los datos no siguen la distribución 23 KARIAN Z., DUDEWICZ E. (2011): “Handbook of Fitting Statistical Distributions with R”. New York, CRC Press. 21-47. 24 SU, S. (2007): ”Fitting Single and Mixture of Generalized Lambda Distributions to Data via Discretized and Maximum Likelihood Methods: GLDEX in R”. Journal of Statistical Software, 21, 9. 6-7. 25 NOVALES A. (1993): “Econometría”. Madrid, McGrawHill. 438-455. Valoración de opciones financieras con la distribución lambda generalizada 18 Para realizar el contrate se calcula el siguiente estadístico de contraste: 𝐷𝑛 = sup | 𝐹𝑛 (𝑥𝑖 ) − 𝐹0 (𝑥𝑖 ) | Donde: o 𝑥𝑖 , es el i-ésimo valor observado en la muestra (cuyos valores se han ordenado previamente de menor a mayor). o 𝐹𝑛 (𝑥𝑖 ) , es un estimador de la probabilidad de observar valores menores o iguales que 𝑥𝑖 . o 𝐹0 (𝑥𝑖 ) , es la probabilidad de observar valores menores o iguales que 𝑥𝑖 cuando H0 es cierta. De esta forma, el estadístico 𝐷𝑛 se entiende como la mayor diferencia absoluta observada entre la frecuencia acumulada observada 𝐹𝑛 (𝑥) y la frecuencia acumulada teórica 𝐹0 (𝑥), obtenida a partir de la distribución de probabilidad que se es especifica como hipótesis nula. Cuanta mayor sea la discrepancia entre la distribución empírica y la distribución teórica, mayor será el valor D. La forma que tendremos de No Rechazar o Rechazar la hipótesis nula será a partir del pvalor que arroje el test: o Si el p-valor > α (10%, 5% y 1%) no se rechaza la hipótesis nula. o Si el p-valor < α (10%, 5% y 1%) se rechaza la hipótesis nula. Otra forma de comprobar el ajuste a partir de este test es comparar el número de veces que la hipótesis nula no fue rechazada. En este estudio el test se realizará sobre 1000 y cuantas más veces no haya sido rechazada la hipótesis nula, mejor ajuste tendrá la función de distribución sobre los datos. 4.2.- MÉTODOS DE AJUSTE En el presente trabajo se ha tomado como activo base el IBEX 35 por contener los treinta y cinco valores de mayor capitalización del mercado bursátil español. El IBEX 35 es un activo interesante para estudiar debido a la existencia de productos derivados que cuentan con gran liquidez y que son empleados en estrategias de cobertura y/o especulación. Al igual que se hizo en el apartado dedicado a la normal y los rendimientos, durante todo el análisis se emplearan las rentabilidades diarias como datos de estudio. En primer lugar, se debe seleccionar un intervalo temporal para el cual se realice el ajuste de las rentabilidades diarias del índice. Se ha tomado la decisión de emplear el periodo comprendido entre el 1 de enero del año 2005 y el 27 de febrero del año 2015. Tal y como se adelantaba en el epígrafe dedicado a la normal y a los rendimientos, el motivo de escoger una ventana temporal tan amplia se debe a la necesidad de un número significativo de datos para poder realizar el estudio. Valoración de opciones financieras con la distribución lambda generalizada 19 El siguiente gráfico se muestra la evolución del índice durante el periodo seleccionado: IBEX 35 Gráfico 4 Antes de analizar cada método, se presentan dos gráficas que muestra la evolución de las rentabilidades del IBEX 35. La primera se presenta mediante un gráfico de líneas: Gráfico 5 Valoración de opciones financieras con la distribución lambda generalizada 20 Este segundo gráfico es de puntos y permite visualizar mejor los valores atípicos así como las zonas donde se acumulan un mayor número de datos: IBEX 35 Gráfico 6 Observando ambos gráficos, se puede concluir que las rentabilidades, salvo en determinados periodos muy convulsos donde se incrementa considerablemente la volatilidad, se mueven dentro de un rango entre el 5% y el -5%. Como se vio en el gráfico de la normal, estas dos características, acumulación de datos entorno a la media y existencia de valores extremos, son comunes a todos los valores e índices cotizados, ya que en momentos de pánico bursátil, se producen fuertes movimientos y durante periodos de estabilidad la rentabilidad se mantiene estable. 4.2.1.- Método de los Momentos El método de los momentos es un método empleado para la estimación de los parámetros poblaciones de una variable aleatoria. Para ello, se establece una relación de igualdad entre los momentos procedentes de la muestra y los poblacionales mediante ecuaciones26. Este método fue introducido por Karl Pearson en 1894. Para la GLD, los momentos poblaciones vienen determinados por las siguientes ecuaciones27: A continuación se presentan las ventajas y desventajas28, comparándolo con el método de la máxima verosimilitud que se verá posteriormente. 26 NOVALES A. (1993): “Econometría”. Madrid, McGrawHill. 438-455. KARIAN Z., DUDEWICZ E. (2011): “Handbook of Fitting Statistical Distributions with R”. New York, CRC Press. 53-57. 28 BOWMAN K., SHENTON R. (1998): "Estimator: Method of Moments", Encyclopedia of statistical sciences. New Jersey, Wiley. 2092-2098 27 Valoración de opciones financieras con la distribución lambda generalizada 21 Es un método simple y produce estimadores muy consistentes. El problema radica en los supuestos que asume y que, a menudo, dichos estimadores pueden ser sesgados. Cuando la estimación se produce a partir de una familia de distribuciones concretas - como es el caso de estudio - el método de la máxima verosimilitud suele ser más apropiado ya que, a partir de este, los parámetros poblaciones tienen una mayor probabilidad de distribuirse como los muéstrales y, por tanto, no son sesgados. En ocasiones poco frecuentes, para muestras grandes, pero no tan infrecuentes para muestras pequeñas, las estimaciones dadas por el método de los momentos se encuentran fuera del espacio muestral de los parámetros y, por tanto, no tiene sentido emplear para la estimación. Sin embargo, ese problema nunca surge en el método de máxima verosimilitud. Las estimaciones por el método de los momentos da lugar a que los parámetros no sean suficientes, es decir, no tienen en cuenta toda la información relevante en la muestra. Una vez, definido el método, así como sus ventajas y desventajas frente al método de la máxima verosimilitud, se procede al análisis de los resultados obtenidos mediante el ajuste con la GLD. En primer lugar, con este método obtenemos las siguientes lambas: Lambda 1 Lambda 2 Lambda 3 Lambda 4 RS -9.777018e-05 -3.559211e+01 -1.392961e-01 -1.439157e-01 FMKL -2.657117e-05 1.560348e+02 -1.352175e-01 -1.472926e-01 Tabla 1 Posteriormente, tanto para RS como para FMKL, se gráfica el histograma de frecuencias de los datos y la función de densidad de ambos a partir del método de estimación de los momentos. El resultado es el siguiente: Valoración de opciones financieras con la distribución lambda generalizada 22 Gráfico 7 En este primer gráfico se observa que, para el método de los momentos, RS no es capaz de captar el apuntamiento real de los datos. En cambio, FMKL parece obtener un ajuste. Por otro lado, los estadísticos descriptivos obtenidos con el método de los momentos son los siguientes: RS Simulación Teóricos De los datos Media 7.854375e-05 7.837691e-05 7.836942e-05 Varianza 9.030518e-05 9.020933e-05 2.337277e-04 Asimetría 1.139727e-01 1.158866e-01 1.158865e-01 Curtosis 6.723984e+00 6.542300e+00 6.542300e+00 FMKL Simulación Teóricos De los datos Media 7.863935e-05 7.837363e-05 7.836942e-05 Varianza 2.339748e-04 2.337267e-04 2.337277e-04 Asimetría 1.145826e-01 1.158865e-01 1.158865e-01 Curtosis 6.708319e+00 6.542300e+00 6.542300e+00 Tabla 2 Se observa que, en el caso de ambos, los coeficientes teóricos de asimetría y curtosis son iguales, al igual que sucede con la media. Sin embargo, en el caso de la varianza, RS no es capaz de recuperarla mediante la simulación y tampoco acierta con el teórico, al contrario que FMKL, que consigue un gran nivel de acierto en los cuatro estadísticos, tanto en la simulación como en los teóricos. Valoración de opciones financieras con la distribución lambda generalizada 23 Por otro lado, si se observa el QQplot, RS, además de no captar correctamente el apuntamiento, como mostraba el histograma y las curvas de densidad, tampoco recoge bien el peso de las colas. Gráfico 8 Gráfico 9 Valoración de opciones financieras con la distribución lambda generalizada 24 Por último, con la intención de contrastar si los datos se distribuyen según ambos métodos, se realiza el KS-Test que arroja los siguientes datos: Estadístico de contraste: D P-valor Nº H0 No Rechazada RS 0.0892 < 2.2e-16 0 FMKL 0.0304 0.01675 558 Tabla 3 Para RS, la hipótesis nula se rechaza al 10%, 5% y 1% de nivel significación y, además, el número de veces que el test No Rechaza la Hipótesis nula es cero, por tanto, se concluye que el método de los momentos mediante RS no realiza un buen ajuste de los datos. En el caso de FMKL, la hipótesis nula se rechaza al 10% y 5% de significación pero no al 1%. Este dato es importante porque, antes del KS Test, los resultados parecían indicar que con el método de los momentos, a partir de FMKL, se estaba realizando un buen ajuste de la muestra y, en cambio, sobre 1000, tan solo el 55,8% de las veces el test concluye que los datos se ajustan por la distribución obtenida mediante FMKL. 4.2.2.- Método de la Máxima Verosimilitud El método de la máxima verosimilitud se fundamenta en obtener aquel valor maestral, en nuestro caso las rentabilidades históricas, que sea más probable según la distribución empleada. Es decir, para un conjunto fijo de datos y un modelo estadístico dado, el método de máxima verosimilitud selecciona el conjunto de valores de los parámetros del modelo que maximiza la función de verosimilitud29. Las ventajas y desventajas de este modelo se han adelantado comparándolo con el método de los momentos. Se resumiría en lo siguiente30: La estimación mediante el método de la máxima verosimilitud presenta propiedades asintóticas óptimas de entre todos los estimadores consistentes y normales asintóticamente. Por tanto, El método de la máxima verosimilitud produce buenos resultados, principalmente, para muestras grandes. Como se señalaba anteriormente, cuando se emplea este método para familias de distribuciones concretas, la estimación mediante máxima verosimilitud suele ser adecuada. Sin embargo, cuando surgen problemas más complejos, presenta mayores dificultades y, en este tipo de problemas, los estimadores de máxima verosimilitud son inadecuados o no existen. En otras palabras, el estimador de máxima verosimilitud depende de forma importante de los supuestos sobre la distribución. Una vez que ha descrito a grandes rasgos el método de la máxima verosimilitud, se facilitan las lambdas obtenidas con este método: 29 30 MARTÍN-PLIEGO, RUÍZ-MAYA L. (2002): “Fundamentos de inferencia estadística”. Madrid, Thomson. 109 Ibídem. 116 Valoración de opciones financieras con la distribución lambda generalizada 25 Lambda 1 Lambda 2 Lambda 3 Lambda 4 RS 9.888126e-04 -3.301218e+01 -2.018690e-01 -1.809699e-01 FMKL 5.523253e-04 1.728087e+02 -2.190335e-01 -1.666570e-01 Tabla 4 Los parámetros lambdas calculados dan lugar al siguiente ajuste que muestran el histograma de frecuencias con los datos y las funciones de densidad obtenidas a partir de RS y FMKL Gráfico 10 El método de la máxima verosimilitud, al contrario de lo que sucedía con el método de los momentos, obtiene un ajuste muy similar en RS y FMKL. En cambio, los resultados procedentes de los estadísticos descriptivos, tanto en la simulación como en los teóricos, se encuentran a alejados de los datos. Simulación Teóricos De los datos FMKL Simulación Teóricos De los datos Media 2.007593e-05 2.035783e-05 7.836942e-05 Media 8.627492e-05 8.661618e-05 7.836942e-05 Varianza 2.434457e-04 2.430074e-04 2.337277e-04 Varianza 2.452117e-04 2.447138e-04 2.337277e-04 Asimetría -6.759961e-01 -6.415683e-01 1.158865e-01 Asimetría -8.873384e-01 -8.308811e-01 1.158865e-01 Curtosis 1.913061e+01 1.800639e+01 6.542300e+00 Curtosis 2.575760e+01 2.575760e+01 6.542300e+00 Tabla 5 Valoración de opciones financieras con la distribución lambda generalizada 26 Si se observan los QQplots de ambos, queda claro de forma visual que el ajuste es prácticamente igual. Gráfico 11 Gráfico 12 Valoración de opciones financieras con la distribución lambda generalizada 27 Por último, los resultados del KS-Test son realmente buenos. Esto se debe a las propiedades que tienen los estimadores del método de la máxima verosimilitud que para muestras grandes. En este caso, según el KS-Test, RS obtiene un mayor acierto en el ajuste. Estadístico de contraste: D P-valor Nº H0 No Rechazada RS 0.0121 0.8427 897 FMKL 0.0122 0.8338 891 Tabla 6 4.2.3.- Método de los L-Momentos El método de los L-momentos se define como una combinación lineal de esperanzas de estadísticos de orden31. En definitiva, es una secuencia de estadísticos utilizada para resumir las características de una muestra mediante una distribución de probabilidad, en nuestro caso, la GLD. Es útil ajustando distribuciones porque especifica las medidas de posición, escala y forma (simetría y curtosis) al igual que hace el método de los momentos. Estos estadísticos descriptivos son análogos a los del método de los momentos, y pueden ser utilizados para calcular los cuantiles análogos a la varianza, la asimetría y la curtosis. En el caso de la media, se obtiene de la misma forma32. Las ventajas y desventajas de los L-momentos son las siguientes:33 Una ventaja de los L-momentos es que existen siempre que la variable aleatoria tenga una media finita, posibilitando el uso de los L-momentos cuando el método de los momentos no es posible. La dificultad del ajuste mediante el método de los momentos surge por la complejidad de las ecuaciones que son necesarias para obtener los parámetros lambda. En cambio, el método de los L-momentos ofrece una ventaja a partir de las ecuaciones asociadas a la determinación de los parámetros lambda que son más simples que las asociadas al ajuste mediante el método de los momentos. Sin embargo, la principal ventaja de L-momentos respecto al método de los momentos es que el L-momentos, siendo función lineal de los datos, sufre menos los efectos producidos por la variabilidad de la muestra. Además, los Lmomentos son más robustos respecto a los momentos convencionales con los valores atípicos de los datos y permiten realizar inferencia con mayor seguridad de muestras pequeñas a partir de una distribución de probabilidad. Además, los L-momentos a veces producen una estimación de los parámetros más eficiente que el método de la máxima verosimilitud. Las lambdas obtenidas mediante el método de los L-momentos se muestran a continuación: 31 KARIAN Z., DUDEWICZ E. (2011): “Handbook of Fitting Statistical Distributions with R”. New York, CRC Press. 227. 32 Ibídem. 227-230. 33 HOSKING, J. (1990). "L-moments: analysis and estimation of distributions using linear combinations of order statistics". Journal of the Royal Statistical Society, Series B 52: 105–124. Valoración de opciones financieras con la distribución lambda generalizada 28 Lambda 1 Lambda 2 Lambda 3 Lambda 4 RS 8.151827e-04 -3.191782e+01 -1.941885e-01 -1.786230e-01 FMKL 4.632319e-04 1.710834e+02 -2.074909e-01 -1.638603e-01 Tabla 7 Al igual que con los anteriores métodos se muestra un histograma de frecuencias y la función de densidad obtenida por RS y por FMKL. AL igual que sucedía con el método de la máxima verosimilitud, a priori, ambos realizan un buen ajuste prácticamente igual al que hacía la máxima verosimilitud. Ambos métodos parecen recoger de forma adecuada el apuntamiento de los datos. Gráfico 13 En el caso de los estadísticos descriptivos, al igual que sucedía con la máxima verosimilitud, media y varianza se asemejan bastante, tanto en la simulación como en los teóricos. En cambio, en la asimetría y la curtosis no consiguen recoger el valor de los datos. RS Simulación Teóricos De los datos FMKL Simulación Teóricos De los datos Media 7.819301e-05 7.837427e-05 7.836942e-05 Media 7.813078e-05 7.837416e-05 7.836942e-05 Varianza 2.401858e-04 2.397867e-04 2.337277e-04 Varianza 2.406134e-04 2.401840e-04 2.337277e-04 Asimetría -4.881504e-01 -4.629703e-01 1.158865e-01 Asimetría -6.729703e-01 -6.340545e-01 1.158865e-01 Curtosis 1.607724e+01 1.509724e+01 6.542300e+00 Curtosis 1.910711e+01 1.807627e+01 6.542300e+00 Tabla 8 Valoración de opciones financieras con la distribución lambda generalizada 29 En el caso de los QQplot, los datos negativos, no parecen recogerse por la distribución teórica, motivo por el cual en el cuadro anterior ninguno de los dos acertaba en la asimetría y, por tanto, obtenían símbolo contrario. Gráfico 14 Gráfico 15 Valoración de opciones financieras con la distribución lambda generalizada 30 Los resultados del KS-Test son los siguientes: Estadístico de contraste: D P-valor Nº H0 No Rechazada RS 0.0133 0.7458 888 FMKL 0.0122 0.8338 891 Tabla 9 Analizando el KS-Test, FMKL obtiene un mayor número de veces donde la hipótesis nula no se rechaza y al 10%, al 5% y al 1% de significación la H0 no se rechaza. Entre ambos métodos, FMKL, parece realizar un mejor ajuste. 4.2.4.- Elección del Método Para el caso del IBEX 35, el método de los momentos no supera el KS test en RS y FMKL y, por tanto, este método queda descartado. Aunque en los estadísticos descriptivos el modelo devolvía unos números prácticamente iguales, esto se debe a la forma de obtención, ya que, como se mencionaba anteriormente, consiste en despejar el estadístico descriptivo poblacional de la muestra a partir de la función del estimador. Es la fortaleza del método de los momentos y es que se obtienen estadísticos descriptivos muy robustos Pero esta robustez no aporta ningún tipo de valor, si tras realizar el KS-Test en 1000 ocasiones, tan solo se tiene la garantía de que el 55,8% se realizará un ajuste adecuado, y de cara a el objetivo del trabajo, no se realizará una adecuada valoración de la opción. En el caso del método de la máxima verosimilitud y los L-momentos, los resultados de los histogramas, los QQplots y el KS-Test son muy similares. Sin embargo, el método del máxima verosimilitud, en los estadísticos descriptivos mediante RS, no es capaz de aproximarse a la media y, en el caso de FMKL, el método de los L-momentos la media la iguala prácticamente hasta el tercer dígito. En el caso de la varianza, aproxima mejor L-moments en ambos métodos. Entre RS y FMKL mediante momentos, si nos guiamos por el KS-Test, vemos que FMKL obtiene mejores resultados en los tres. Como se puede observar, llegado a este punto, las diferencias son mínimas. Sin embargo, el método de los L-momentos mediante FMKL, es el que mejores resultados obtiene y, por tanto, se ha decidido que será el empleado en la valoración de opciones. Valoración de opciones financieras con la distribución lambda generalizada 31 4.3.- COMPARACIÓN CON LA NORMAL Una vez elegido, el método de ajuste, en este caso L-Momentos mediante FMKL, se debe realizar una comparación de dicho método con la normal, puesto que como se mencionaba al inicio del epígrafe, el objetivo era demostrar que la GLD es un a distribución que obtiene un mejor ajuste de las rentabilidades si se compara con la normal. Gráfico 16 En este gráfico se contempla simultáneamente la función de densidad que ofrece la normal y la que ofrece L-momentos mediante FMKL. Como se puede constatar de forma visual, tal y como se vaticinó al inicio de este apartado, la normal no es capaz de recoger ni el apuntamiento ni el peso de las colas. Centrando el análisis en el apuntamiento, la conclusión que se puede obtener es la siguiente. Si la probabilidad de suceso asociada a un valor mediante la función de distribución es X, a partir del número concreto de valores que acumulen toda la probabilidad, según la normal, no se van a producir y da lugar a una pérdida de información. Por otro lado, se encuentran los sucesos que se producen en las colas, es decir, aquellos valores más alejados de la media. Ser capaces de asignar una probabilidad de suceso adecuada es, sin duda alguna, lo más importante de todo el estudio por la sencilla razón de que estos valores extremos, son los que pueden llegar a generar mayores beneficios o, en el caso contrario, pérdidas. Para resaltar este hecho, se ha obtenido el QQplot de la normal. Se muestra en la siguiente página: Valoración de opciones financieras con la distribución lambda generalizada 32 Gráfico 17 Queda de manifiesto que la normal no recoge la probabilidad de suceso correcta y se debe a lo siguiente. Si se analiza el gráfico con detenimiento, en el eje de abscisas se encuentran los cuantiles teóricos de la normal y en el eje de ordenadas los cuantiles de la muestra. A partir del cuantil teórico 1,5 y -1,5, los datos se alejan cada vez más de la línea que representa la distribución teórica de la normal y, por tanto, valores que según la normal, deberían encontrarse, por ejemplo, entre el -2 y el -3, no lo hacen y en contraposición se encuentra valores con una rentabilidad negativa superior al que la normal asocia. Estadístico de contraste: D P-valor Nº H0 No Rechazada Normal 0.0713 7.31e-12 0 FMKL L-MM 0.0122 0.8338 891 Tabla 10 Por último, se comparan los datos resultantes del KS test para ambos modelos. El estadístico de contraste es siete veces superior y, por tanto, hay una mayor dispersión lo que conlleva a que se rechace a todos los niveles de significación, demostrando una vez más que los datos no se distribuyen como una normal. Valoración de opciones financieras con la distribución lambda generalizada 33 5.- SIMULACIÓN CON LAMBDA GENERALIZADA En el apartado anterior se ha determinado que el método de ajuste empleado va a ser L-momentos mediante FMKL. El siguiente paso, consiste en simular los rendimientos con dicho método. Por tanto, en este quinto apartado, se describe como es el proceso de simulación, se determinan el número de simulaciones necesarias para establecer el tamaño muestral adecuado, y por último, se exponen los resultados de la simulación. 5.1.- DESCRIPCIÓN DEL PROCESO Antes de continuar, es preciso detallar el proceso de simulación de forma concreta. Toda distribución de probabilidad se plantea matemáticamente de forma que sea posible obtener la probabilidad acumulada para cualquier suceso de la variable aleatoria definida mediante dicha distribución. Este es el fundamento de la simulación. En el momento de computar una simulación sobre una variable aleatoria caracterizada, el procedimiento habitual que se ejecuta es el siguiente: Generación de números aleatorios entre 0 y 1: En primer lugar, se parte de un generador de números aleatorios que sigan una distribución de probabilidad uniforme. Estos generadores de números aleatorios aseguran que el número aleatorio generado no se encuentra viciado por la distribución de probabilidad con la que se pretenden generar la muestra de datos procedentes de la simulación. Este aspecto del procedimiento es fundamental ya que, si no se respeta, los resultados finales carecen del rigor que pudiera ser esperado, debido a la contaminación de los datos generados. Sea por ejemplo una distribución de probabilidad uniforme, si los datos que se introducen proceden de una distribución normal, no se va a obtener la distribución uniforme esperada, pues la distribución normal que alimenta el algoritmo va a tender estadísticamente a acumular mayor probabilidad entorno a la media que en las colas, dando lugar a resultados contaminados o erráticos. Cálculo del valor realizado a partir de la probabilidad acumulada: Una vez se han generado números aleatorios entre 0 y 1 empleando el generador de números aleatorios para que los datos sigan una distribución de probabilidad uniforme, se acude a la función de distribución de probabilidad dada y se calcula la realización de la variable aleatoria, sujeta a la distribución de probabilidad escogida. De esta forma, se obtiene, por tanto, una realización de la variable aleatoria que se rige por la distribución final deseada permitiendo así obtener el conjunto de sucesos que se desean estudiar. El fundamento matemático tras la simulación consiste en lograr un algoritmo en cuyos pasos se encuentre la generación del necesario número de realizaciones de la variable aleatoria que se estudia. La elección del número de realizaciones de la variable que se deben calcular se puede determinar de forma iterativa. Una ley probabilística viene caracterizada, principalmente por la media, desviación típica, simetría y curtosis. El objetivo que persigue la simulación es precisamente la caracterización de la ley probabilística que rige el comportamiento de una variable aleatoria. La estrategia que se sigue para determinar el número de realizaciones de la variable aleatoria que se simula se estructura como se muestra seguidamente: Valoración de opciones financieras con la distribución lambda generalizada 34 Se define un nivel de tolerancia relativa de los valores característicos. Este nivel de tolerancia es equivalente a definir una tasa de variación de los valores característicos por debajo de la cual se considera que el valor estudiado ha convergido y los cambios no van a ser sustanciales. Se realiza un número N de simulaciones de la realización de la variable aleatoria estudiada. Se evalúan los valores característicos: media, desviación típica, simetría y curtosis. Se evalúa la tasa de variación de cada valor característico de la distribución probabilística de realizaciones obtenida tras la simulación. Una vez se ha obtenido dicha tasa de variación para cada valor característico, se toma la decisión de finalizar la simulación o de aumentar el tamaño muestral. Si la tasa de variación de todos los valores característicos de la distribución se encuentran por debajo del nivel de tolerancia, se puede asumir que los valores han convergido y que, por tanto, mayor esfuerzo computacional no va a aportar más información. En el caso de que estas tasas se encuentren por encima de sus respectivos niveles de tolerancia, la simulación debe seguir pues no se ha logrado la convergencia. Seguir con la simulación significa aumentar el tamaño de la muestra simulada, la ley por la cual se aumenta el tamaño muestra es habitualmente aritmética o geométrica. En el caso de ser una ley aritmética, se suma al tamaño muestral existente la misma cantidad de simulaciones, es decir, sea por caso una simulación con un tamaño muestral N, se sumaría la misma cantidad de simulaciones pasando a tener una muestra de tamaño 2N, en el caso de no converger, se continuaría aumentando el tamaño muestral llegando a un tamaño muestral simulado de k·N, tras k evaluaciones sin convergencia de los valores característicos. En el caso de ser una ley geométrica, es habitual aplicar la regida por 2k-1·N, de forma que el crecimiento del tamaño muestral mientras no se produce convergencia de los valores característicos de la distribución es: N, 2N, 4N,…, 2k-1N. La velocidad de convergencia empleando la ley geométrica de crecimiento de la muestra es muy superior a la velocidad de convergencia de la simulación que emplea la ley aritmética para definir el número de simulaciones. 5.2.- MEDICIÓN DE LA ESTABILIDAD DE LOS PARÁMETROS Dado que se trabaja con simulaciones probabilísticas, es complejo definir, a priori, el número determinado de realizaciones que van a lograr la convergencia de los valores característicos o, de forma equivalente, la estabilidad de la ley probabilística que rige el comportamiento de la variable aleatoria resultado. La estabilidad se ha definido como la variación de los estadísticos descriptos: media, varianza, simetría y curtosis, en un porcentaje inferior al 10% respecto a la última simulación. El procedimiento seguido es tal que, en el momento en que se detecta que la variación relativa de los cuatro momentos de la distribución es inferior al 10%, se toma el número de simulaciones anterior al último como punto de convergencia de los momentos y, por tanto, como punto de equilibrio. Valoración de opciones financieras con la distribución lambda generalizada 35 La simulación que se ha realizado consiste en la generación de valores de la variable aleatoria rentabilidad diaria para posteriormente agregarlos en grupos de treinta días. Los momentos se estudian sobre la distribución final resultado de la agregación de los treinta días. Se simula, por tanto, la variable r*, definida como se muestra, considerando que la variable aleatoria ri se comporta según la ley probabilística con los valores lambda característicos determinados en el apartado anterior. r∗ = ∑ 30 ri i=1 Se muestra a continuación la evolución de media, varianza, simetría y curtosis para la distribución de r*, obtenida tras las simulaciones con diferentes poblaciones. Se parte de una población de 100 simulaciones en la primera simulación y se evoluciona con una ley geométrica de base 2. Gráfico 18 Gráfico 19 Valoración de opciones financieras con la distribución lambda generalizada 36 Gráfico 20 Gráfico 21 En la siguiente ilustración se puede observar la evolución de la tasa de variación relativa unitaria para cada momento de la distribución estudiado. Se observa cómo, al aumentar el número de simulaciones realizadas, las variaciones relativas disminuyen, es decir, se produce la convergencia de los momentos. Gráfico 22 Valoración de opciones financieras con la distribución lambda generalizada 37 Es necesario realizar el estudio anterior para determinar el número de simulaciones mínimas a realizar en los estudios que se realizan. En este caso, se ha encontrado que a partir de 327.680 simulaciones, los momentos de la distribución pasan a estar en equilibrio. Esto conlleva a que, teniendo en cuenta el esfuerzo computacional que puede suponer, aumentar el número de simulaciones no aportará mayor información. Todo ello para un nivel de tolerancia o nivel máximo de tasa de variación relativa porcentual de un 10%. 5.3.- RESULTADOS DE LA SIMULACIÓN A partir del ajuste de la GLD a las rentabilidades diarias del IBEX 35, se estudia el tamaño muestral de la simulación con el objetivo de obtener una distribución de cotizaciones final. El estudio se realiza a treinta días vista del presente a partir de siguiente la ecuación: T ST = S0 · e∑i=1 ri La ecuación mostrada relaciona el precio actual cotizado S0 con el precio del activo cotizado en un periodo futuro T, ST, a través del conjunto de rentabilidades diarias que se realizan, ri, en dicho periodo T. Esta aseveración es cierta en todo caso y sólo determinista para el tiempo realizado, es decir, no es posible definir a futuro nada más que la relación matemática que lleva de forma disciplinada los precios cotizados en el tiempo. No es posible determinar ningún otro término de la ecuación presentada más lejos del precio inicial y las rentabilidades ciertamente realizadas, pues en el momento en el que la variable aleatoria se realiza, deja de ser una variable aleatoria para ser una realización determinada. En el momento presente, si es posible estudiar la distribución probabilística de la realización de las variables ST y ri. La relación existente entre el precio al inicio del contrato y a vencimiento es la rentabilidad continua acumulada durante el periodo. Debido a esta relación, se procede al estudio de la distribución de probabilidad de la rentabilidad continua acumulada durante el periodo T, asumiendo treinta días. Por tanto, el objetivo es estudiar la distribución de las realizaciones de la variable aleatoria que recoge las simulaciones de treinta días. El primer paso era, como se ha indicado anteriormente, determinar el número de simulaciones necesarias hasta obtener una distribución estable. Se procede a la simulación del IBEX 35 treinta días a partir de la última fecha estudiada, 27 de marzo de 2015. Para ello, se simula la distribución de realizaciones de la variable aleatoria rentabilidad continua del IBEX 35. A partir de esta distribución de realizaciones de la rentabilidad del índice, es posible construir las evoluciones de la cotización que surgen de la simulación. Es conveniente indicar que no es necesario ni probable que el camino que siga la cotización del IBEX 35 coincida con alguno de los caminos de cotización simulados. Además, se debe tener presente que, la probabilidad asociada a una determinada realización de la rentabilidad, cuando esta se rige por una ley de distribución de la probabilidad es matemáticamente nula por tratarse de leyes continuas. Lo importante desde el punto de vista de la valoración de opciones es disponer de la información sobre la distribución de realizaciones de la variable aleatoria simulada, Valoración de opciones financieras con la distribución lambda generalizada 38 pues esta es la información a la que es posible acceder como consecuencia de la incertidumbre asociada al futuro. Partiendo del resultado obtenido en el apartado anterior, se realiza el estudio de la distribución probabilística de la cotización del índice a partir de la simulación con un tamaño poblacional de 327.680, según se ha determinado anteriormente como población mínima para la estabilidad de la distribución simulada a partir de los valores lambdas estimadas. Además de la simulación de 327.680 días para periodos de 30 días, la transformación de rentabilidad a cotización se realiza empleando la siguiente relación entre las variables. Si = Si−1 · eri En la siguiente gráfica se muestra el resultado de la simulación según las hipótesis planteadas: Gráfico 23 Se observa como claramente los rendimientos simulados no se distribuyen como una normal y que se ha sido capaz de generar una distribución similar a la que el IBEX 35 presentaba en sus datos históricos. Debido al elevado número de simulaciones realizadas, partiendo del objetivo de conseguir una distribución de probabilidad estable en la distribución de las rentabilidades, se ha considerado como más representativo del resultado obtenido la Valoración de opciones financieras con la distribución lambda generalizada 39 gráfica de los intervalos al 99%, 95% y 90% de confianza. En la gráfica se combina, la representación de los intervalos de confianza y media de la distribución final de cotizaciones de los treinta días de mercado simulados, con la representación de los últimos treinta días de cotización del IBEX35. Gráfico 24 Queda por tanto explicado el proceso seguido para la simulación de activos financieros. Se ha querido mostrar en este punto la fortaleza de la herramienta de la simulación sobre la base de la simplicidad. La simulación emplea técnicas sencillas que permiten ser adaptadas al estudio de un número elevado de casuísticas distintass. En el particular se ha tomado el IBEX 35, no obstante esta metodología puede aplicarse sobre cualquier subyacente financiero, al mismo tiempo que los modelos matemáticos empleados pueden complicarse con el objetivo de estudiar casuísticas más complejas, como por ejemplo los productos estructurados autocancelables con uno o varios activos, o los bonos convertibles. Valoración de opciones financieras con la distribución lambda generalizada 40 6.- VALORACIÓN DE OPCIONES CON LAMBDA GENERALIZA Todo el aparato matemático definido hasta el momento en este trabajo, está orientado al cálculo del precio de opciones financieras. En primer lugar, es necesario recordar el tipo de opción que se valora, pues como se ha mencionado anteriormente, el método de valoración Montecarlo es aplicable a multitud de ellas. A continuación se valorará una opción plain vanilla, europea, es decir, una Call y una Put con fecha de ejercicio predeterminada. Además, es una opción “at the money”, por lo que precio de ejercicio y precio presente son iguales. 6.1.- MÉTODO DE VALORACIÓN De entre todos los métodos disponibles, se ha demostrado que aquel que mejor ajustaba los rendimientos era el método de los momentos mediante FMKL. El periodo que se ha empleado para obtener las lambdas es desde el 1 de enero de 2013 hasta el 20 de mayo de 2015. La ventana de tiempo es diferente al que se ha estudiado en el apartado de la GLD porque para simular, no pueden emplearse diez años. Es preciso utilizar las rentabilidades diarias históricas de un plazo que sea representativo de la situación de mercado en cuanto a la información que se contiene en los precios. Las lambdas obtenidas han sido las siguientes: Lambda 1 1.055·10-3 Lambda 2 155.034 Lambda 3 -3.990·10-2 Lambda 4 4.322·10-2 Tabla 11 Los estadísticos descriptivos teóricos calculados a partir de las lambdas anteriores se presentan a continuación. Estos serán los que se empleen a la hora de valorar la opción. Por tanto, que la media y la varianza estimadas sean materialmente iguales a las que proceden de los datos históricos adquiere una gran relevancia: FMKL Teóricos Media 5.196·10-4 Varianza 1.378·10-4 Asimetría -3.509·10-1 Curtosis 1.494 Tabla 12 Con los estadísticos anteriores se ha simulado el comportamiento del subyacente para treinta días empleando el algoritmo del método Montecarlo. A partir de la siguiente ecuación: GLD(λ1 ,λ2 ,λ3 ,λ4 ) Pi = Pi−1 · eri Cabe destacar, ya que en el universo de opciones es un parámetro de gran relevancia, que la volatilidad que se emplea en estas simulaciones es la desviación típica histórica del activo estudiado en el periodo histórico empelado. Tras esta simulación, se dispone de una población de precios Pi de tamaño n siendo n el número de simulaciones llevadas a cabo para el periodo estudiado. A continuación se valoran una Call y una Put. Primero de forma independiente con el método Valoración de opciones financieras con la distribución lambda generalizada 41 desarrollado empleando la GLD y después se realiza una comparativa de los resultados con Black-Sholes y la simulación Montecarlo asumiendo normalidad. 6.2.- VALORACIÓN DE OPCIÓN DE COMPRA O CALL Una vez simulados todos los sucesos, para el cálculo de la prima, p, de una opción Call con precio de ejercicio K, se aplica la siguiente formulación: pCall = n 1 n · (1 + rF · d ) 365 ∑ max(0, Pi − K) i=1 Siendo d, el número de días que tiene el contrato, en este caso 30, y rF, el tipo libre de riesgo, en este caso 2% anual, atendiendo a las actuales condiciones de mercado. El precio corresponde al 20 de mayo de 2015 que es igual al strike con un valor de 11.574 puntos. Se ha obtenido una prima de 438€ para un contrato Call sobre todo el IBEX 35. En el siguiente gráfico, se observa el diagrama de beneficio/pérdida del contrato en función del nivel de cotización del IBEX 35 en el momento de vencimiento de la opción: Gráfico 25 Valoración de opciones financieras con la distribución lambda generalizada 42 Seguidamente, se muestra el resultado del cálculo de la prima de la Call empleando la ecuación de Black-Scholes y la simulación mediante Montecarlo empleando las distribuciones normales y la distribución lambda generalizada. Gráfico 26 Se observa en el gráfico 26 la evolución de la prima de la Call, en este caso sobre el IBEX 35, respecto al precio de ejercicio cuando la opción es europea a 30 días. La información que se presenta en este gráfico se hace de la siguiente forma. El eje de ordenadas muestra la prima que se debe pagar para un nivel de strike dado, dicho nivel de strike queda recogido en el eje de abscisas. Para complementar la información que se muestra en la gráfica, se ha añadido como referencia el nivel al cual cotiza el activo en la fecha de estudio, 20 de mayo de 2015. En la gráfica se observa cómo, a medida que el nivel de strike se aleja del nivel de cotización, la prima varía su valor para mantener, en todo momento, el valor nulo actual del contrato. La opción estudiada es una Call europea con vencimiento en un mes, en este caso, cuanto menor es el strike respecto al nivel de cotización, mayor es la prima que se debe pagar. Esto es debido a que, a menor nivel de ejercicio del contrato, mayor probabilidad asociada a que el contrato se ejecute. Es esta mayor probabilidad la que se recoge en el aumento de la prima. El planteamiento es análogo para niveles de ejercicio superiores al nivel de cotización actual. Cuanto mayor es el precio de ejercicio, menor probabilidad de que el contrato llegue a ejecutarse en el momento de vencimiento y, por tanto, menor prima es necesario pagar por adquirir el derecho futuro de compra. Valoración de opciones financieras con la distribución lambda generalizada 43 6.3.- VALORACIÓN DE OPCION DE VENTA O PUT El cálculo de la prima en el caso de opciones tipo Put es igual pero, al ser un derecho de venta, la prima se obtiene al revés, es decir, se realiza la media de los valores positivos tras haber restado el precio final al strike, tal y como se muestra a continuación: pPut = n 1 n · (1 + rF · d ) 365 ∑ max(0, K − Pi ) i=1 Siendo d, el número de días que tiene el contrato, en este caso 30, y rF, el tipo libre de riesgo, en este caso 2% anual, atendiendo a las actuales condiciones de mercado. El precio corresponde al 20 de mayo de 2015 que es igual al strike con un valor de 11.574 puntos. Se ha obtenido una prima de 190€ para un contrato Put sobre todo el IBEX 35. En el siguiente gráfico, se observa el diagrama de beneficio/pérdida del contrato en función del nivel de cotización del IBEX 35 en el momento de vencimiento de la opción: Gráfico 27 Valoración de opciones financieras con la distribución lambda generalizada 44 Al igual que en el caso de la Call, a continuación, se muestra el resultado del cálculo de la prima de opciones europeas tipo Put empleando Black-Scholes, simulación mediante Montecarlo con supuesto de normalidad y el método mediante lambda generalizada. Gráfico 28 Se observa en la Ilustración 28 la evolución del precio de la opción Put, con el precio del ejercicio cuando la opción es europea y se ejerce en 30 días. La información que se presenta en este gráfico se hace de la siguiente forma. El eje de ordenadas muestra la prima que se debe pagar para un nivel de strike dado, dicho nivel de strike queda recogido en el eje de abscisas. Para complementar la información que se muestra en la gráfica, se ha añadido como referencia el nivel al cual cotiza el activo en la fecha de estudio, 20 de mayo de 2015. En la gráfica se observa cómo, a medida que el nivel de strike se aleja del nivel de cotización, la prima varía su valor para mantener en todo caso el valor nulo presente del contrato. A diferencia de la Call, cuanto más se incrementa el nivel de cotización más valor tiene la prima, ya que la probabilidad de que el comprador del derecho de venta lo ejerza aumenta cuanto más elevado sea dicho nivel de cotización. La opción estudiada es una Put europea con vencimiento a un mes, en este caso, cuanto mayor es el strike respecto al nivel de cotización, mayor es la prima que se debe pagar. Esto es debido a que, a mayor precio de ejercicio del contrato, mayor probabilidad asociada a que el contrato se ejecute. Es esta mayor probabilidad la que se recoge en el aumento de la prima. Cuanto menor es el precio de ejercicio, menor probabilidad de que el contrato llegue a ejecutarse en el momento de vencimiento y, por tanto, menor prima es necesario pagar por adquirir el derecho futuro de venta. Valoración de opciones financieras con la distribución lambda generalizada 45 6.4.- COMENTARIOS SOBRE LOS RESULTADOS En las gráficas se aprecia que, el precio de la opción calculado con Black Scholes y mediante la simulación Montecarlo con distribuciones normales, devuelven valores similares. Esto es debido a que ambos métodos siguen la misma idea de cálculo, Black Scholes lo emprende de forma analítica y Montecarlo lo emprende de forma numérica. La diferencia entre ambos radica en la población simulada, mientras que Black-Scholes comprende las infinitas realizaciones posibles de la distribución probabilística, Montecarlo es una simulación numérica con una población finita. Es importante notar la diferencia de valoración que se obtiene al emplear la distribución normal y la distribución lambda generalizada. La diferencia que se obtiene es suficiente como para poder aportar información que no está contenida en el precio, y por tanto, disponer de mayor información a la hora de tomar las decisiones de inversión. El hecho de que la diferencia entre ambos métodos sea reducida se debe a que aproximan el problema de forma similar, lo cual indica que la metodología planteada es capaz de valorar opciones pero, además, aporta más información. Es información no contenida en el precio de la opción mediante normales y, por tanto, es información fuera del mercado. Cabe destacar que este planteamiento es válido para el cálculo en opciones plain vanilla, que son el objeto de este trabajo por pretender comparar con los resultados de Black-Scholes. Es posible construir una gran variedad de opciones financieras y será, por tanto, necesario adaptar la formulación del cálculo de la prima a las particularidades del contrato que se construya. Valoración de opciones financieras con la distribución lambda generalizada 46 7.- CONCLUSIONES Durante el presente trabajo se ha desarrollado un método de valoración de opciones financiares alternativo a los modelos de valoración que asumen normalidad en las distribución de los rendimientos. Para ello, se ha escogido el IBEX 35 debido a la disponibilidad de opciones financieras que lo emplean como subyacente. De entre los distintos tipos de opciones que se pueden encontrar en el mercado, se han escogido la plain vanilla europeas, ya que permiten analizar y comparar los dos principales métodos de valoración, el método Black-Sholes y la Simulación Montecarlo, con el método alternativo empleando GLD. En el apartado 3.2.1, se ha demostrado que los rendimientos de los activos financieros no se distribuyen mediante normales. Por un lado, porque las rentabilidades acumulan un mayor número de sucesos entorno a la media que la normal recoge, es decir, tiene un mayor apuntamiento. Por otro lado, porque los rendimientos financieros, generalmente, tienen colas más pesadas de lo que la normal recoge y, por tanto, la probabilidad de suceso de valores extremos, es superior. Partiendo de esta premisa, se concluye que existe una pérdida de información que afecta a la valoración del riesgo y, por lo tanto, de la prima. El análisis se ha centrado, en gran parte, en demostrar que la GLD es una distribución alternativa capaz de albergar una bondad en el ajuste de los rendimientos superior. Tras ofrecer seis métodos distintos de ajuste, se ha determinado que el que mejores resultados obtenía, según los criterios escogidos, era L-momentos, a partir de las lambas obtenidas mediante FMK. Para ello, se ha empleado técnicas de resolución numérica mediante optimización que permiten obtener los parámetros lambdas. Por último, empleando la función de densidad inversa de este último se puede asociar una determinada probabilidad a cada suceso. Una de las ventajas de disponer de 6 métodos distintos es que se puede elegir entre el método que mejor recoja el ajuste de los rendimientos para el activo que se decida estudiar. En definitiva, a partir de unos criterios definidos y concretos, que mantienen el rigor del método se sigue disponiendo de varias alternativas, al contrario que sucede con la normal. Una vez elegido el método que cuenta con mayor bondad de ajuste, se ha desarrollado la metodología de valoración que se sustenta en el acoplamiento de las técnicas de resolución numéricas y la simulación, propias de modelos con ecuaciones diferenciales estocásticas descrito en los puntos 2.1, 2.2 y 2.3 Tal y como se ha explicado, se emplea la lambda generalizada que permite generar una distribución de probabilidad con todas las posibles realizaciones de la variable aleatoria, en este caso, los rendimientos del IBEX 35, donde se recoge el componente aleatorio de este tipo de ecuaciones. En este parte, se han dedicado tres apartados para describir el proceso de simulación: el 5.1 que ofrece los pasos a seguir durante la simulación, resaltando la importancia de no viciar a priori los resultados; el 5.2 que versa sobre la importancia de obtener una estabilidad en los cuatro estadísticos descriptivos a partir del incremento gradual del número de simulaciones según el nivel de tolerancia; y, por último, el punto 5.3.donde se realiza la simulación y se muestran gráficamente la amplitud de los intervalos de confianza. Después de plantear las cuestiones principales relacionadas con la valoración de opciones, escogido el método y explicada la simulación con lambda generalizada, se lleva a cabo la valoración de las opciones financieras sobre el IBEX 35, y se comparan con los dos métodos de valoración con supuesto de normalidad. Los resultados arrojan Valoración de opciones financieras con la distribución lambda generalizada 47 que para el caso de la Call, empleando GLD para valorar la prima es superior. En el caso de la Put, se produce el caso contrario, es decir, mediante la utilización de la GLD, se obtiene que el coste de la prima es inferior que con los otros dos métodos tradicionales. El hecho de que el valor de la Call sea superior con el modelo alternativo, da lugar al siguiente razonamiento. Por un lado, si el precio de la Call es superior, la ratio precio de la acción / precio de la prima disminuye, es decir, para cubrir una acción necesito más opciones. Esto implica que aquellas coberturas que se estén realizando mediante valoración Black-Sholes o Montecarlo, no están realizando una cobertura adecuada pues, para una misma cantidad de dinero disponible, se pueden adquirir menos opciones de las que realmente se necesitan para cubrirse. Si se juntan ambos efectos, el resultado será que las acciones se hacen de forma relativa más atractivas para el inversor porque el coste de oportunidad entre comprar opciones o acciones es inferior. Si en vez de centrar el análisis en el valor de la prima con el método desarrollado, se centra en la comparativa con el valor que ofrecen los otros dos métodos de mercado, se obtiene que, como comprador de opciones el precio de mercado de está esta barato. En el caso de la Put es el efecto contrario, ya que comprarla esta caro. Cabe resaltar que, como se ha repetido en numerosas ocasiones la valoración de opciones financieras se realiza mediante planteamientos estadísticos, en base a los cuales se trabaja con subyacentes de comportamiento complejo y cuyo estudio necesita una simplificación mediante la modelización y se deben tener presentes los límites. Teniendo en cuenta la naturaleza de los procesos analizados; el empleo de los mismos fundamentos estadísticos que respaldan los modelos, en especial en la idea que subyace tras la simulación; y los mismos medios computacionales; no sería acertado pretender que un método de valoración resalte en exceso sobre otro. Es precisamente en este punto, donde merece la pena incidir. Y es que, el hecho de que los resultados del método planteado y defendido en este trabajo no muestren una discrepancia insalvable respecto a los otros dos, incrementan la fortaleza de los argumentos expuestos porque disponer de un método alternativo es, en definitiva, disponer de mayor información. Información, que de cara a las decisiones de inversión, nos permitirá contrastar y atajar desde un punto de vista crítico los resultados por todos conocido. Tal y como se ha expuesto en el trabajo, la metodología presentada permite contrastar el precio de una opción con el precio aceptado por el mercado, y así, tratar de determinar si la opción es cara o barata en comparación. En los mercados financieros la información que ofrece el modelo Black-Sholes es pública, pues todos conocen la fórmula y, por tanto, en teoría está ya contenida en el precio. Por consiguiente, valorar una opción mediante Black-Scholes no debería proporcionar información adicional a la que el mercado nos transmite. Si se dispone de un método alternativo se dispone, en última instancia, de mayor información o de información no pública, es decir, información no contenida en el precio. Valoración de opciones financieras con la distribución lambda generalizada 48 8.- BIBLIOGRAFÍA ALDRICH J. (1997): “R. A. Fisher and the making of maximum likelihood 1912-1922”. Statistical Science, 12:162-176. BLACK, F., SCHOLES, M., (1973): “The Pricing of options and Corporate Liabilities”; The Journal of political Economy, 81, 3, 637-654. BOWMAN K., SHENTON R. (1998): "Estimator: Method of Moments", Encyclopedia of statistical sciences. New Jersey, Wiley. CHALABI, y. et al. (2010): “The Generalized Lambda Distribution as an Alternative to Model Financial Returns”. Institut für Theoretische Physik. Zürich, Switzerland. CORRADO C. (2001): “Option pricing based on the generalized lambda distribution”. Journal of Futures Markets, 21.213-236. COSTA M., CAVALIERE G., IEZZI S. (2003); “The Role of the Normal Distribution in Financial Markets”; Chapter of book: New Developments in Classification and Data Analysis, University of Bologna – CLADAG. FREIMER M, MUDHOLKAR G, KOLLIA G, LIN C (1988). “A Study of the Generalized Tukey Lambda Family." Communications in Statistics. Theory and Methods, 17, 3547-3567. FLORESCU, I. (1973): “Probabilistic and Stochastic Processes”. Stevens Institute of Technology, Hoboken, NJ. New Jersey, John Wiley & Sons, Inc. HOSKING, J. (1990). "L-moments: analysis and estimation of distributions using linear combinations of order statistics". Journal of the Royal Statistical Society, Series B 52: 105–124. KARIAN Z., DUDEWICZ E. (2011): “Handbook of Fitting Statistical Distributions with R”. New York, CRC Press. KARIAN Z, DUDEWICZ E, MCDONALD P (1996). “The Extended Generalized Lambda Distribution Systems for Fitting Distributions to Data: History, Completion of Theory, Tables, Applications, the "Final Word" on Moment Fits". Communications in Statistics Computation and Simulation, 25, 611-642. KARIAN Z., DUDEWICZ E. (2000): “Fitting statistical distributions to data: Generalized lambda distribution and generalized bootstrap methods”. New York, CRC Press. LAMOTHE P., PÉREZ M. (2006): “Opciones financieras y productos estructurados”. Madrid, McGraw-Hill. LAKHANY A., MASSUER H. (2000): “Estimating the Parameters of the Generalized Lambda Distribution" Algo Research Quarterly, pp. 47-58. MARKOWITZ, H. (1952): “Portfolio Selection; Journal of Finance”, 7, 77-91. Valoración de opciones financieras con la distribución lambda generalizada 49 MARTÍN-PLIEGO F. RUIZ-MAYA L. (2010): “Fundamentos de probabilidad”. Madrid, Paraninfo. MARTÍN-PLIEGO, RUÍZ-MAYA L. (2002): “Fundamentos de inferencia estadística”. Madrid, Thomson. NOVALES A. (1993): “Econometría”. Madrid, McGrawHill. PFAFF B. (2013) “Financial Risk Modelling and Portfolio Optimization with R”. New Jersey, John Wiley & Sons, Ltd. POBLACIÓN F. (2013): “La gestión del riesgo en empresas Industriales”. Madrid, Delta. RAMBERG J., SCHMEISER B. (1974): “An Approximate Method for Generating Asymmetric Random Variables". Communications of the Association for Computing Machinery, 17, 78-82. SU, S. (2007): ”Fitting Single and Mixture of Generalized Lambda Distributions to Data via Discretized and Maximum Likelihood Methods: GLDEX in R”. Journal of Statistical Software, 21, 9. SU, S. (2007a). “Numerical Maximum Log Likelihood Estimation for Generalized Lambda Distributions" Computational Statistics & Data Analysis, 51, 3983-3998. SU, S. (2006): “Maximum Log Likelihood Estimation Using EM Algorithm and Partition Maximum Log Likelihood Estimation for Mixtures of Generalized Lambda Distributions." Working paper. Valoración de opciones financieras con la distribución lambda generalizada 50