MEDIDAS DEL RIESGO Y SUS APLICACIONES ACTUARIALES Y FINANCIERAS

 

Antonio José Heras Martínez

Catedrático de Economía Financiera y Actuarial

 Universidad Complutense de Madrid

aheras@ccee.ucm.es

 

Presentación a cargo de Dª Begoña Gosálbez Raull

Actuaria de la Seguridad Social y Vicepresidente de la AAEESS

 

 

1. Introducción

 

            La familiaridad con el riesgo es posiblemente uno de los elementos que contribuyen a definir nuestras sociedades modernas. Estamos expuestos a un gran número de riesgos, muchos de ellos de nuevo cuño, y somos plenamente conscientes de ello. Los periódicos y televisiones nos bombardean con noticias acerca del (muy probable) proceso de cambio climático en el que estamos inmersos y de sus terribles (aunque inciertos) efectos. Sabemos que fumar puede matar, que la energía nuclear puede ser peligrosa y que conducir un coche puede poner en peligro nuestra vida y la de los demás. Estamos informados al instante de los atentados terroristas, derrames de petróleo, terremotos y catástrofes en general que ocurren en cualquier parte del mundo. Actualmente estamos inmersos en una crisis económica que pone en peligro nuestros ingresos y nuestro bienestar, y que parece haber tenido su origen en arriesgadas prácticas bancarias.

 

            Esta ubicuidad del riesgo y nuestra familiaridad con él han motivado la creación y desarrollo de un conjunto interdisciplinar de conocimientos o técnicas de Modelización y Gestión del Riesgo (Risk Modelling and Management) que se utilizan cada vez más en campos como la ingeniería y la economía. Estas técnicas proporcionan metodologías para la gestión de los problemas, de forma que los posibles riesgos queden adecuadamente identificados, clasificados, medidos y eliminados o, al menos, controlados. La definición, clasificación, medición y control del riesgo son los componentes fundamentales de toda metodología de gestión de riesgos.

 

            La literatura especializada contiene numerosos trabajos relativos a la identificación y clasificación de los distintos tipos de riesgos. Si nos restringimos a riesgos de naturaleza económico-financiera, que son los que trataremos en el presente artículo, una clasificación muy popular considera que los principales tipos son el Riesgo de Crédito (que resulta de la incapacidad de los prestatarios de cumplir sus obligaciones contractuales), Riesgo de Liquidez (que resulta de la incapacidad o dificultad de atender las obligaciones financieras a corto plazo), Riesgo de Mercado (que resulta de las fluctuaciones del valor de mercado de los activos) y Riesgo Operacional (que resulta de todo tipo de fallos administrativos). Por supuesto, esta clasificación no agota todos los tipos de riesgos a los que hacen frente las instituciones económicas. Por ejemplo, una institución como la Seguridad Social hace frente a riesgos muy específicos que tienen su origen en el dilatado plazo temporal de sus operaciones y previsiones. Entre ellos podríamos citar los riesgos económicos como la inflación o las crisis económicas, riesgos políticos asociados con nuevas leyes y reglamentos, riesgos demográficos asociados con una mayor longevidad de los pensionistas o una menor tasa de natalidad, riesgos de epidemias o catástrofes, etc.

 

            Sin embargo, un tema al que se le ha prestado relativamente poca atención es el de la definición del concepto de “riesgo” en general. Resulta curioso el gran esfuerzo dedicado a la clasificación de los distintos tipos de riesgos y el poco dedicado a su caracterización en general. Surgen así, de forma natural, una serie de preguntas: ¿Qué tienen en común estos distintos fenómenos para que se les considere ejemplos de riesgos? ¿Es posible definir el “riesgo” en general? ¿Se trata de un concepto objetivo o subjetivo? ¿Qué relación tiene el concepto de “riesgo” con otros conceptos relacionados, como por ejemplo los de “incertidumbre” y “pérdida”? ¿Presupone todo riesgo un problema de decisión entre alternativas inciertas? Encontramos pocas referencias explícitas a estas cuestiones en la literatura especializada.

 

            Estrechamente asociado con el problema de la definición del riesgo está el problema de su medición. La literatura financiera y actuarial ha propuesto, desde hace unos cincuenta años, un gran número de medidas del riesgo que podríamos denominar “tradicionales”, ya que han alcanzado un alto grado de difusión y han sido aplicadas a un gran número de problemas. En los últimos diez años, sin embargo, se han propuesto un gran número de nuevas medidas que a veces son calificadas como “modernas” y que generalizan a las “tradicionales”. La relativa novedad del tema hace que sean escasas las referencias que proporcionan un tratamiento conjunto de las nuevas y antiguas medidas del riesgo financiero-actuarial, haciendo hincapié en las relaciones entre ellas y en las ventajas de las segundas frente a las primeras.

 

            En el presente artículo pretendemos discutir algunas de las cuestiones que acabamos de plantear, relativas a la definición y a la medición del riesgo en los problemas financieros y actuariales. En la sección segunda discutiremos las cuestiones relativas a la caracterización del riesgo en general, mientras que en la sección tercera presentaremos una panorámica de las antiguas y las nuevas medidas del riesgo. La última sección discutirá brevemente algunas de las más importantes aplicaciones de estas modernas medidas a la resolución de algunos problemas clásicos financiero-actuariales.

 

 

2. La caracterización del riesgo

 

            Una de las discusiones más interesantes del concepto de riesgo que encontramos en la literatura es el artículo titulado “Risk” de la Stanford Encyclopedia of Philosophy. En este artículo se presentan cinco definiciones de “riesgo” que se pueden encontrar en la literatura técnica, y que resumimos a continuación. Un “riesgo” puede ser un suceso o un conjunto de sucesos desfavorables que pueden o no suceder (“el cáncer de pulmón es un riesgo que afecta a los fumadores”). También puede denominarse “riesgo” a la causa de dichos sucesos (“fumar es un riesgo para la salud humana”), a las probabilidades de dichos sucesos (“el riesgo de que un fumador desarrolle cáncer de pulmón es de aproximadamente 17%”) y a su esperanza matemática. Finalmente, existen decisiones que se toman en un “ambiente de riesgo”, lo cual significa que las probabilidades de los distintos resultados (favorables o desfavorables) son conocidas. A continuación comentaremos brevemente algunas de estas definiciones.

 

            La primera definición es probablemente la que mejor caracteriza tanto la idea intuitiva de riesgo en general como los riesgos de naturaleza económica y financiera en particular. Asimismo clarifica la relación entre “riesgo”, “pérdida” e “incertidumbre” a la que aludíamos en la sección anterior. Para que exista un riesgo es esencial tanto la incertidumbre sobre algún resultado como que ese resultado represente una pérdida potencial. Si quitamos cualquiera de esas dos condiciones no estaremos ante un riesgo. Una pérdida cierta no es un riesgo, como tampoco lo es un conjunto de posibles ganancias inciertas. Si participamos gratis en una lotería cuyos resultados son todos favorables, en rigor no puede decirse que estemos frente a un riesgo. Así, por ejemplo, nadie consideraría el cambio climático como un riesgo si las únicas posibles consecuencias fueran estar más calentitos durante los inviernos.

 

            La tercera definición plantea el reto de la representación matemática del riesgo. La representación más usual es mediante su identificación con una variable aleatoria y su consiguiente asignación de probabilidades a los distintos sucesos inciertos. No es la única forma de representar la incertidumbre (se puede recurrir a otras técnicas matemáticas, como por ejemplo los “conjuntos borrosos”, etc.), pero sí es la más común, ya que resulta intuitivamente razonable y permite aplicar los potentes resultados matemáticos del Cálculo de Probabilidades y la Estadística. En Finanzas, por ejemplo, es habitual representar los precios y las rentabilidades de las inversiones en momentos futuros del tiempo mediante variables aleatorias (que combinan pérdidas y ganancias). Asimismo, en la ciencia actuarial se considera que la cuantía de la siniestralidad durante un cierto periodo de tiempo es una variable aleatoria (que siempre representa pérdidas). Según esta definición, un riesgo es una variable aleatoria, siempre que algunos de sus resultados (o quizás todos ellos) representen pérdidas.

 

            Se puede plantear ahora de forma más precisa la cuestión de la objetividad o subjetividad del concepto de riesgo. Si un riesgo no es más que una variable aleatoria, esta cuestión puede reformularse como relativa a la interpretación de las probabilidades utilizadas: si adoptamos una interpretación frecuentista, las probabilidades serán entidades reales y por lo tanto los riesgos también lo serán; si adoptamos una interpretación subjetivista de la probabilidad, a la manera de De Finetti, según la cual las probabilidades son el resultado de la ignorancia y representan solo grados de creencia subjetivos, los riesgos también serán subjetivos. No es este el lugar para desarrollar las ideas de una polémica que ha hecho correr ríos de tinta. Pero debemos señalar que ambas interpretaciones son perfectamente legítimas y que la elección tiene cierta importancia en los problemas financiero-actuariales, en donde se presume, a menudo implícitamente, la objetividad de las probabilidades utilizadas y de los resultados obtenidos. Ahora bien, en algunos casos esta objetividad puede ser una utopía. Así sucede cuando se asignan probabilidades a sucesos catastróficos de los cuales hay muy pocos ejemplos en la historia. Así sucede asimismo en otros problemas en los cuales se involucra la incertidumbre a largo plazo que hemos mencionado al principio, como el análisis del cambio climático. Por otro lado, algunos artículos científicos clásicos, como por ejemplo el escrito por Harry Markowitz en 1952 que dio origen a la moderna disciplina de Gestión de Carteras, parecen haber sido escritos desde una perspectiva subjetivista (Holton, 2004).

 

            La quinta y muy famosa definición de riesgo se debe a Frank Knight (1921), y pone en relación los riesgos y los problemas de decisión. En opinión de muchos autores, existe una fuerte relación entre ambos conceptos. Así, por ejemplo, López Cerezo y Luján (2000) afirman que todo riesgo presupone un problema de decisión: “de una catástrofe natural no se deriva, en principio, riesgo alguno, quizás una amenaza. Ahora bien, cuando depende de una decisión prevenir tal catástrofe o atenuar sus efectos, entonces entra en juego el riesgo”. Partiendo de esta relación, Knight definió un problema de decisión “en ambiente de riesgo” como aquel en el que las probabilidades de las posibles consecuencias de las decisiones son conocidas. Si no lo son, entonces el problema de decisión se formula “en ambiente de incertidumbre”. Debemos observar el cambio de significado de la palabra “incertidumbre”: en los apartados anteriores hemos tomado la “incertidumbre” como sinónimo de “aleatoriedad”, mientras que en la definición de Knight representa ignorancia de las probabilidades.

 

            Pese a su fama, la definición de Knight no resulta muy operativa. Después de todo, la ignorancia de los verdaderos valores de las probabilidades (frase que parece aludir a una interpretación objetivista de las mismas) siempre puede remediarse recurriendo a las probabilidades subjetivas. Por otro lado, si lo que pretendemos es resaltar la tremenda complejidad de los problemas reales y nuestra dificultad para construir modelos matemáticos que capturen los aspectos esenciales de esa realidad, no tenemos que pararnos necesariamente en las probabilidades. Como ha resaltado Nassim Taleb (2004, 2007), en los problemas reales suelen aparecer “cisnes negros”, aspectos imprevistos con las que no habíamos contado en nuestros análisis previos y que tienen a menudo consecuencias desastrosas. De forma que podemos cuestionarnos todo el diseño del problema de decisión (de cualquier problema de decisión), y no solamente las probabilidades asignadas.

 

            Esta crítica es cierta pero injusta, ya que tiene un sabor nihilista o escéptico. Si la aceptamos, deberemos cuestionar los resultados de cualquier ciencia, ya que estos siempre se basan en la construcción de modelos simplificados de la realidad, la cual es siempre demasiado imprevisible y compleja para que la podamos conocer por completo. Si los modelos que utilizamos no funcionan, lo que debemos hacer es construir otros mejores, o al menos intentarlo. Así es como funciona la ciencia. Cualquier ciencia.

            Los modelos matemáticos usuales aplicados a la resolución de problemas financiero-actuariales suelen identificar los riesgos con variables aleatorias cuyas distribuciones son conocidas, al menos parcialmente, y cuyos resultados incluyen la posibilidad de pérdidas. Esta será la definición de riesgo que adoptaremos en los apartados siguientes.

 

 

3. Las medidas del riesgo

 

            La cuarta definición de riesgo comentada en el apartado anterior lo caracteriza como la esperanza matemática de la variable aleatoria con la cual se identifica. Esta definición se basa en la sustitución de toda la variable aleatoria por un número real que, en cierta forma, la resume y representa. Ahora bien, si queremos ser precisos, no deberíamos llamar a ese número un riesgo sino una medida del riesgo. De hecho, en general sucede que, cuando asociamos una entidad con un número, a menudo estamos definiendo una medida de esa entidad.

 

            Desgraciadamente, resulta evidente que la esperanza matemática no puede ser una buena medida del riesgo. Esto es cierto en general, tanto en ingeniería como en economía. En efecto, el mundo sería un caos si las carreteras estuvieran diseñadas para permitir solo la circulación del número medio de vehículos, si las líneas telefónicas solo pudieran dar servicio al número medio de usuarios, si los rascacielos solo pudieran resistir una tormenta o un terremoto de intensidad media, etc. La cuarta definición no resulta aceptable en absoluto, ni como definición de lo que es un riesgo ni como medida del mismo.

 

            La esperanza matemática puede ser, sin embargo, una herramienta útil cuando hacemos elecciones entre alternativas con consecuencias inciertas, es decir, entre riesgos. La llamada Teoría de la Utilidad Esperada (Von Neumann y Morgenstern, 1944) constituye uno de los pilares teóricos de la ciencia económica moderna, y establece que los decisores racionales siempre elegirán aquella alternativa con un valor más alto de la esperanza matemática de la utilidad de las consecuencias. Se asignan, pues, utilidades a las distintas consecuencias, y se procede después a elegir la alternativa con una utilidad esperada máxima. Lo que resulta importante no es  sino , en donde  es el riesgo y  la función de utilidad que representa las preferencias y la actitud frente al riesgo del decisor. En los análisis económicos se suele asumir la concavidad de esta función, lo que equivale a presuponer la aversión al riesgo del decisor (es decir, que prefiera obtener resultados ciertos en lugar de exponerse a resultados inciertos con la misma esperanza matemática que los resultados ciertos). Se supone habitualmente que los agentes económicos que llevan a cabo operaciones financieras o que compran seguros o reaseguros son aversos al riesgo y que por tanto llevan a cabo sus operaciones movidos por funciones de utilidad cóncavas. El grado de aversión al riesgo se puede medir mediante el grado de concavidad de sus funciones de utilidad.

 

            Pese a su innegable atractivo teórico (es una teoría que se encuentra perfectamente axiomatizada), la Teoría de la Utilidad Esperada no se puede aplicar fácilmente a la resolución de problemas reales, debido a la dificultad de construir en la práctica las funciones de utilidad. Se trata, además, de una teoría que establece recomendaciones con un marcado carácter subjetivo, ya que la función de utilidad no tiene por qué ser la misma para todos los agentes. La compatibilidad con esta teoría se mantiene, no obstante, como un requisito deseable que deberían cumplir las medidas del riesgo que efectivamente utilicemos para la resolución de los problemas reales. Es recomendable que una medida del riesgo se pueda obtener como resultado de un problema de maximización de la utilidad esperada para alguna elección particular de la función de utilidad. Y es todavía más deseable la compatibilidad de la medida del riesgo con la llamada Dominancia Estocástica de Segundo Orden. Esta compatibilidad exige que la medida de un riesgo  sea menor que la de un riesgo , siempre que todos los agentes aversos al riesgo prefieran el primero al segundo. Si llamamos  a la medida del riesgo, la propiedad anterior se puede expresar matemáticamente de la siguiente forma: si para toda función de utilidad cóncava  se verifica que , entonces se verifica también que . El hecho de que todos los decisores (aversos al riesgo) prefieran un riesgo a otro elimina la subjetividad de la elección de la función de utilidad y asegura la objetividad del resultado. La unanimidad en los resultados de la elección garantiza la objetividad de dichos resultados.

 

            Pero abandonemos la teoría económica y volvamos al mundo real. Los economistas han propuesto en los últimos cincuenta años un gran número de medidas de riesgos financieros y actuariales, y han estudiado sus propiedades. Comenzando por las segundas, es claro que los actuarios han estado definiendo medidas del riesgo cada vez que han propuesto una posible forma de definir una prima asociada a un riesgo. En efecto, definir un Principio de Cálculo de Primas es establecer una forma de asignar un número real  (la prima) a cada riesgo actuarial  (la cuantía aleatoria de los siniestros de una póliza o una cartera de pólizas), de forma que riesgos más peligrosos tengan asociadas primas más grandes. La identificación de la prima con una medida del riesgo resulta evidente.

 

            Los actuarios saben que la Prima Pura o esperanza matemática de la siniestralidad,, no es una buena elección, ya que únicamente protege contra la siniestralidad promedio y deja a la empresa indefensa frente a las desviaciones excesivas e imprevistas de dicha siniestralidad. De nuevo nos encontramos con que la esperanza matemática no es una buena medida del riesgo. Para protegerse frente a las oscilaciones de la siniestralidad, los actuarios han estado definiendo diversos tipos de Primas Recargadas, definidas como la prima pura más un determinado recargo de seguridad no negativo, y que constituyen legítimas medidas del riesgo. A veces el recargo se introduce de forma explícita, como en los siguientes ejemplos,

 

 

conocidos respectivamente como Principio del Valor Esperado, Principio de la Varianza y Principio de la Desviación Típica.

 

            Otras veces el recargo se introduce de forma implícita, como en el Principio Exponencial y el Principio Esscher definidos a continuación:

 

 

            Algunos de estos principios, pero no todos, pueden obtenerse como resultado de un problema de maximización de la utilidad esperada con alguna elección particular de función de utilidad (por ejemplo, el Principio Exponencial se puede obtener a partir de funciones de utilidad exponenciales). En la práctica, la elección de un determinado principio de cálculo de primas es a menudo una decisión ad hoc, ya que no hay ninguno cuyas propiedades resulten ser manifiestamente mejores que las de los demás (para una completa panorámica de los principios de cálculo de primas más importantes y sus propiedades, conviene consultar Young (2004). Resulta curioso que el principio más utilizado en la práctica (el del valor esperado) sea asimismo uno de los que peores propiedades tiene.

 

            Si nos centramos ahora en las medidas “clásicas” del riesgo en los problemas financieros, debemos comenzar por el trabajo anteriormente citado del premio Nobel Harry Markowitz (1952), quien propuso la varianza o la desviación típica de las rentabilidades de los activos como medidas del riesgo de invertir en ellos. Pese a la tremenda popularidad de los modelos en los que el riesgo se mide con varianzas o desviaciones típicas, estas medidas presentan graves problemas. En primer lugar, las medidas son compatibles con las funciones de utilidad cuando las rentabilidades son normales o logarítmico normales, pero no lo son cuando las distribuciones de probabilidad tienen fuertes asimetrías, valores extremos y “colas pesadas”, como sucede cuando trabajamos con problemas reales. No está claro, además, que estas medidas midan correctamente los riesgos tal y como los hemos definido anteriormente. La varianza y la desviación típica son medidas de las desviaciones respecto a la media en ambas direcciones, por exceso y por defecto, lo cual puede plantear contradicciones en algunos casos. Supongamos, por ejemplo, que añadimos a una cartera de valores una participación gratuita en una lotería que proporciona una ganancia de M euros con probabilidad 1/M (Artzner et al, 1997). Si M es suficientemente grande, estamos añadiendo una enorme volatilidad a nuestra cartera a cambio de una pequeña ganancia esperada igual a la unidad. Si medimos el riesgo con estas medidas de desviación, el resultado será un gran aumento del riesgo. Sin embargo, está claro que el propietario de la cartera no lo percibirá así, ya que siempre estará en mejor situación con el billete de lotería que sin él.

 

            El problema reside en que la varianza y la desviación típica miden las desviaciones en los dos sentidos, por exceso y por defecto, en la dirección favorable y en la dirección desfavorable. Este problema no es grave cuando nos basamos en distribuciones gaussianas, que son simétricas respecto a la media. Pero puede ser muy grave cuando nos enfrentamos a las distribuciones del mundo real, como hemos comentado anteriormente. Para resolverlo podemos acudir a otras medidas como semidesviaciones típicas o semivarianzas, que solo miden la variabilidad desfavorable. Aunque siguen midiendo una variabilidad, que no es exactamente lo mismo que el riesgo de una pérdida. También podemos olvidarnos de las medidas de desviación y recurrir a otras más sofisticadas, como veremos posteriormente.

 

            El trabajo de Markowitz fue generalizado posteriormente por el también premio Nobel William Sharpe (1964) y su Capital Asset Pricing Model (CAPM, Modelo de Valoración de Activos Financieros). En este modelo se definen las conocidas nociones de Riesgo Sistemático y Riesgo Específico (también medidos mediante varianzas) y las Betas de los activos (esencialmente covarianzas entre sus rentabilidades y la rentabilidad del mercado). De nuevo nos encontramos con varianzas y covarianzas que solo adquieren pleno sentido en un mundo gaussiano.

 

            La desviación típica y la varianza también han sido utilizadas como medidas del riesgo en problemas actuariales (como, por ejemplo, el problema del reaseguro óptimo: véanse Balbás et al (1990), Gil et al (1996)), en donde están sujetas a las mismas críticas. Aunque probablemente la medida del riesgo más utilizada en este contexto sea la Probabilidad de Ruina, o probabilidad de que las reservas lleguen a estar por debajo de un cierto nivel establecido previamente y que se identifica con la ruina de la empresa aseguradora. En su versión estática (relativa a un horizonte temporal fijo), la probabilidad de ruina proporciona exactamente la misma información que el Valor en Riesgo VaR, del que hablaremos posteriormente.

 

            Un segundo tipo de medidas “clásicas” del riesgo en problemas financieros son las denominadas medidas de sensibilidad, que miden la sensibilidad de la variable que nos interesa frente a pequeñas variaciones en los valores de otras variables de las que depende aquella. Quizás la más conocida sea la Duración de una cartera de bonos (Macaulay, 1938), una medida del riesgo de tipos de interés que está estrechamente relacionada con la derivada del precio de la cartera de bonos respecto del tipo de interés. Otro ejemplo famoso son las Griegas de una cartera de derivados, que se definen como la sensibilidad (la derivada parcial) del precio de la cartera respecto de  los valores de otras variables como el precio del subyacente (, Delta), el paso del tiempo (, Theta), el tipo de interés (, Ro) y la volatilidad del subyacente (, Vega). También hay medidas de sensibilidad que son derivadas segundas, como la Convexidad, en el caso del riesgo de tipos de interés, o la derivada de Delta respecto al precio del subyacente (, Gamma).

 

            Las medidas de sensibilidad proporcionan abundante información sobre los riesgos a que está expuesta una institución financiera. Quizás demasiada información, teniendo en cuenta el gran número de inversiones y de variables que influyen potencialmente en su precio. Claramente estas medidas dan una idea del riesgo que corren ciertos departamentos y ciertas inversiones, pero no proporcionan una medida del riesgo global al que está expuesta la institución financiera. Por otra parte, a mitad de los años noventa el Comité de Basilea estableció recomendaciones para el cálculo de reservas de capital en las instituciones financieras, que estaban estrechamente relacionadas con la medición del riesgo global. La búsqueda de medidas globales del riesgo adecuadas pasó a estar motivada por la cuantificación correcta de las reservas de capital, un tema que ha pasado a estar en el centro de las discusiones sobre regulación financiera, sobre todo a partir de la crisis económica actual.

 

            La medida global del riesgo recomendada por el Comité de Basilea fue el denominado Valor en Riesgo VaR (Value at Risk), definido simplemente como un percentil de la variable aleatoria que identificamos con el riesgo. Dado un horizonte temporal y un nivel de confianza, VaR es el nivel de la máxima pérdida que puede ocurrir durante ese periodo, cuyo valor estamos seguros que no se sobrepasará con el nivel de confianza dado. Resulta fácil en términos intuitivos identificar las reservas necesarias de capital con esa pérdida máxima a la que se está expuesto con una pequeña probabilidad.

 

            VaR es además fácil de calcular en el supuesto de normalidad de la distribución de probabilidad, si bien en este caso se reduce a una expresión que depende de la media y la varianza de la distribución, y por tanto su uso suele llevar a las mismas conclusiones que el análisis media-varianza de Markowitz. Desgraciadamente, si la distribución de probabilidad no es normal, el uso de VaR puede conducir a graves problemas, como pusieron de manifiesto Artzner et al (1997, 1999). En efecto, VaR no tiene en cuenta lo que sucede en la cola de la distribución, en donde la probabilidad puede estar distribuida de muchas formas, algunas más arriesgadas que otras en términos intuitivos. VaR puede, además, desalentar la diversificación de las inversiones, lo cual va en contra de uno de los principales dogmas de la disciplina de Gestión de Carteras desde los tiempos de Markowitz (véase, entre otros, Hull (2007, pg. 200)).

 

            Una medida alternativa con mejores propiedades que el VaR ha resultado ser el denominado Valor en Riesgo Condicional (CVaR, Conditional Value at Risk), definido como la esperanza matemática de la pérdida, condicionada a que dicha pérdida sea mayor que el VaR. Mientras que el VaR proporciona una medida de lo mal que pueden ir las cosas, el CVaR mide la pérdida esperada en caso de que las cosas vayan mal. El CVaR también se conoce como ES (Expected Shortfall), AVaR (Average Value at Risk), CTE (Conditional Tail Expectation), WCE (Worst Conditional Expectation), etc.

 

            Las propiedades del CVaR son mucho mejores que las del VaR. En efecto, a diferencia del VaR, CVaR siempre reconoce que la diversificación reduce el riesgo de las inversiones. En el cálculo del CVaR interviene, además, toda la cola de la distribución. O, equivalentemente, en el cálculo del CVaR intervienen todos los VaR asociados con niveles de significación superiores al inicial: de hecho, el CVaR también se puede definir como la esperanza matemática de todos estos VaR (aunque en este caso es más común denominarle AVaR). Finalmente, CVaR es compatible con la Dominancia Estocástica de Segundo Orden, mientras que VaR no lo es. Recordemos lo que esto significa: si todos los agentes aversos al riesgo prefieren un determinado riesgo a otro, el CVaR del primero debe ser menor que el del segundo. En este sentido, pues, las decisiones que buscan conseguir un CVaR mínimo son compatibles con la Teoría de la Utilidad Esperada.

 

            El precio a pagar por las buenas propiedades teóricas es la mayor dificultad de cálculo. En general, el CVaR es más difícil de calcular que el VaR. Aunque en algunos casos no es difícil calcularlo. Por ejemplo, cuando la variable aleatoria es discreta, el CVaR se puede calcular mediante un programa lineal, lo que constituye una gran ventaja frente a medidas alternativas como el VaR, la varianza, etc.

 

            Quizás la diferencia más importante entre las modernas medidas del riesgo y las medidas tradicionales es que las primeras se encuentran axiomatizadas. Es decir, se parte de conjuntos de axiomas que razonablemente se deben cumplir en el problema que se estudia, para posteriormente encontrar los tipos de medidas que verifican los axiomas, así como el resto de sus propiedades. Problemas diferentes pueden asociarse con axiomas diferentes, y requerir por lo tanto distintas medidas. Esta nueva metodología fue inaugurada en el campo de las Finanzas por un famoso artículo de Artzner, Delbaen, Eber y Heath (1999), en el que proponían cuatro axiomas que, en su opinión, deberían caracterizar las medidas del riesgo cuando estas se usan para el cálculo de los requerimientos de capital, es decir, el capital que debe ser añadido a una posición financiera para que su riesgo resulte aceptable. En el campo actuarial estos cuatro axiomas fueron introducidos independientemente por Wang, Panjer y Young en 1997. Los cuatro axiomas son los siguientes:

 

Monotonicidad: si una cartera siempre tiene mayor beneficio que otra en cualquier escenario posible, el riesgo de la primera debe ser menor.  Es decir: . La versión actuarial de este axioma cambia ligeramente: si una cartera siempre tiene una siniestralidad mayor que otra, el riesgo de la primera debe ser mayor.

 

Invariancia por Translaciones: si se añade un cierto capital a una posición financiera, el riesgo disminuye en la cuantía de ese capital. Es decir: , siendo  el capital. De nuevo la versión actuarial cambia ligeramente, pues si añadimos una cuantía constante  a la siniestralidad, el riesgo aumenta en lugar de disminuir: .

 

Homogeneidad Positiva: si se modifica el tamaño de una cartera multiplicándola por un determinado factor , el riesgo también se multiplica por dicho factor. Es decir: .

 

Subaditividad: la diversificación reduce el riesgo. Es decir: .

 

            Las medidas del riesgo que verifican estos cuatro axiomas se denominan Medidas Coherentes. VaR no es una medida coherente, pues no es subaditiva. En cambio, CVaR sí lo es. Y no es la única. Hay un gran número de medidas coherentes además del CVaR.

 

            Recordemos que el CVaR con un nivel de significación dado se puede obtener como una media aritmética de los VaR asociados con niveles de significación mayores o iguales que el inicial. Si consideramos medias ponderadas en lugar de la media aritmética, obtendremos las llamadas Medidas Espectrales del Riesgo (Acerbi (2002)). Si los pesos son una función no decreciente del nivel de significación, la medida espectral resultante es una medida coherente.

 

            Otra manera de generar medidas coherentes está basada en las llamadas Funciones de Distorsión (Wang (1996)), que se usan para modificar las probabilidades en un problema de decisión. Recordemos que la Teoría de la Utilidad Esperada representa a los decisores aversos al riesgo mediante una función de utilidad cóncava. Una forma alternativa de representar la aversión al riesgo consiste en modificar las probabilidades, de forma que los eventos más desfavorables parezcan más probables que lo que realmente son. La función que modifica las probabilidades se denomina una Función de Distorsión. Si cumple ciertas propiedades (como ser no decreciente y cóncava), la esperanza matemática de la variable aleatoria bajo las probabilidades distorsionadas resulta ser una medida coherente.

 

            Las cuatro propiedades que definen las medidas coherentes suelen ser aceptadas con bastante unanimidad en el campo financiero, pero en el campo actuarial ha habido cierta polémica con respecto a algunas de ellas. Consideremos, en primer lugar, el axioma de homogeneidad positiva. Algunas de sus interpretaciones son aceptadas por unanimidad, como, por ejemplo, que al cambiar de unidad monetaria, la medida del riesgo no debe cambiar. La medida del riesgo debe ser la misma tanto si la unidad monetaria es el euro como si es el dólar. Sin embargo, otras interpretaciones pueden ser polémicas. Algunos argumentan que el aumento del tamaño de la cartera puede incrementar el riesgo de liquidez de forma más que proporcional. Las pérdidas de las carteras muy grandes pueden ser también enormes, y puede ser difícil a corto plazo encontrar la liquidez suficiente para hacer frente a las obligaciones de pago. En consecuencia, el riesgo de liquidez puede aumentar de forma más que proporcional al tamaño de la cartera. En tal caso, tendríamos que .

 

            La subaditividad es, sin duda alguna, el axioma que más polémica levanta entre los actuarios. Algunos la defienden con vigor (Wang et al, 1997). Para ellos no tiene sentido que se pueda disminuir el riesgo (y los requerimientos de capital) simplemente dividiendo la cartera en subcarteras. Pero otros atacan la subaditividad en el caso de que los riesgos dependan positivamente unos de otros (por ejemplo, dos edificios próximos en una zona sísmica son riesgos dependientes positivamente). Dhaene, Goovaerts y Kaas (2003) defienden que al mezclar en una cartera riesgos dependientes positivamente, el riesgo resultante es mayor que la suma de los riesgos si los consideramos independientemente unos de otros. La relación de dependencia positiva más fuerte se denomina comonotonía. Dos riesgos son comonótonos cuando se pueden obtener a partir de un tercero mediante funciones no decrecientes. Un caso claro de comonotonía es el reaseguro: la siniestralidad retenida y la siniestralidad cedida son claramente riesgos comonótonos, pues ambos dependen de la siniestralidad total antes de reaseguro. En opinión de Dhaene et al, el reaseguro es un caso claro de reducción del riesgo por división de la cartera.

 

            En suma, Dhaene et al defienden la subaditividad para riesgos negativamente dependientes, la aditividad para riesgos independientes y la superaditividad para riesgos positivamente dependientes en general, y comonótonos en particular. Una medida del riesgo que verifica estas propiedades (y que no verifica la propiedad de homogeneidad positiva) es el principio exponencial de cálculo de primas que mencionábamos al principio de esta sección, que queda así justificado axiomáticamente.

 

            Otra posible forma de enfrentarse a estos problemas consiste en sustituir los controvertidos axiomas de homogeneidad positiva y subaditividad por un axioma más débil que levante menos polémica y que los englobe como casos particulares. Föllmer y Schied (2002) proponen que este sea el axioma de convexidad:

 

 

Las medidas que verifican los axiomas de monotonicidad, invariancia por translaciones y convexidad se denominan Medidas del Riesgo Convexas.

 

            Además de las medidas coherentes y las convexas, la literatura contiene conjuntos alternativos de axiomas que pueden resultar útiles para la modelización del riesgo en otros tipos de problemas. Por ejemplo, las llamadas Medidas del Riesgo Acotadas por la Media verifican los axiomas de invariancia por translaciones, homogeneidad positiva y subaditividad, junto con el axioma adicional de acotación por la media:  (para el caso financiero), o bien  (para el caso actuarial). Asimismo, las Medidas de Desviación verifican los axiomas de homogeneidad positiva y subaditividad, junto con los dos adicionales siguientes:

, siendo  una constante.

 si  no es constante.

 

            Las desviaciones y semidesviaciones típicas y absolutas son ejemplos de medidas de desviación, no así la varianza, que no verifica la propiedad de subaditividad. Se puede demostrar (Rockafellar et al (2006)) que existe una correspondencia biunívoca entre las medidas acotadas por la media y las medidas de desviación. La correspondencia viene dada por las siguientes expresiones:

 

Si se quiere obtener una medida de desviación a partir de una acotada por la media,

Si se quiere obtener una medida acotada por la media a partir de una de desviación,

 

 (en el caso financiero)

 (en el caso actuarial)

 

            Las Medidas de Desviación y las Medidas del Riesgo Acotadas por la Media no son obviamente lo mismo, pero están estrechamente relacionadas, como nos indica el resultado anterior. A partir de la última fórmula se comprueba cómo ambos tipos de medidas pueden ser útiles para calcular primas recargadas en problemas actuariales de tarificación como los que comentamos al principio de esta sección. Se pueden obtener primas recargadas a partir de medidas del riesgo acotadas por la media, en cuyo caso los recargos coinciden con medidas de desviación.

 

            La literatura sobre medidas del riesgo está creciendo mucho en la actualidad. Las revistas especializadas suelen publicar en cada nuevo número uno o varios artículos relacionados con este campo, algunos teóricos y otros muchos aplicados a la resolución de problemas concretos. En la siguiente sección comentaremos brevemente algunas de estas aplicaciones.

 

 

4. Aplicaciones de las medidas del riesgo a la resolución de problemas financiero-actuariales

 

            Como ya hemos comentado, la justificación inicial para el estudio de las medidas del riesgo coherentes fue encontrar una forma racional de cuantificar las necesidades de capital que deben ser exigidas a las entidades financieras por los organismos reguladores. Una vez elegido el tipo de medida adecuado , dichas necesidades se cuantifican como . La justificación es sencilla. Si la medida elegida satisface el axioma de invariancia por translaciones (que no es polémico en absoluto), entonces la disponibilidad de dicho capital reduce a cero el riesgo de la entidad, como se comprueba a continuación:

 

 

            El mismo tipo de argumento se puede utilizar en el caso de las entidades aseguradoras para calcular la prima adecuada como aquella que reduce a cero el riesgo de la cartera. En este caso la prima se resta porque la variable aleatoria representa pérdidas:

 

 

            Como hemos comentado anteriormente, la medida elegida para calcular las primas debería ser acotada por la media, ya que es necesario obtener primas recargadas. El CVaR es una de tales medidas (aunque el conjunto de las medidas coherentes no coincide con el de las acotadas por la media, la mayoría de las medidas del riesgo más conocidas pertenecen a ambas clases).

 

            Debemos observar que estos argumentos no funcionarían si utilizamos una medida de desviación en lugar de una medida del riesgo. En realidad, las medidas de desviación no miden el riesgo de pérdidas sino la variabilidad o volatilidad de la variable, y ambos son conceptos diferentes, que no se deben confundir. Sin embargo, las medidas de desviación se han utilizado a menudo en problemas actuariales y financieros como medidas de riesgo (y también se han utilizado medidas como la varianza, que pese a medir la volatilidad no es una medida de desviación en el sentido técnico del término). Parece una buena idea reformular estos problemas clásicos sustituyendo las medidas de desviación por verdaderas medidas del riesgo. En el campo financiero, el ejemplo más evidente es el modelo de Markowitz, al que nos hemos referido anteriormente y que exponemos más detalladamente a continuación.

            El llamado Modelo Media-Varianza de Markowitz pretende encontrar las combinaciones de activos financieros (carteras) que resultan ser óptimos de Pareto cuando tomamos en consideración el beneficio esperado y el riesgo. Es decir, que tienen la propiedad de que no es posible reducir el riesgo sin reducir a su vez el beneficio esperado. Markowitz identifica este último con la rentabilidad media, y el riesgo con la varianza de la rentabilidad (o con su desviación típica, ya que se obtienen los mismos resultados). Las carteras óptimas o eficientes se obtienen como solución del siguiente programa matemático:

 

en donde n es el número total de activos financieros,  son sus rentabilidades (aleatorias),  son las covarianzas entre estas rentabilidades y  son las ponderaciones o porcentajes de inversión en cada activo, y asimismo las variables de decisión del programa. Al ir variando el parámetro R que controla la rentabilidad esperada, obtendremos el conjunto de carteras eficientes. La variabilidad de la rentabilidad de estas carteras es mínima, para una rentabilidad esperada dada.

 

            Pero debemos insistir una vez más en que no se deben identificar variabilidad y riesgo de pérdida. Puesto que disponemos de caracterizaciones axiomáticas de las verdaderas medidas del riesgo de pérdida, parece razonable elegir alguna de ellas y plantear el programa alternativo siguiente, cuyas soluciones serán realmente las carteras menos arriesgadas para una rentabilidad esperada dada:

 

 

            Las carteras eficientes que son solución del último problema son más satisfactorias desde un punto de vista teórico, como ya hemos comentado, pero también desde un punto de vista práctico. En efecto, en ciertos casos, el nuevo programa es más fácil de resolver que el programa original de Markowitz, que es un programa cuadrático. Por ejemplo, si elegimos el CVaR como medida del riesgo y suponemos que la rentabilidad es una variable discreta, el programa resultante es lineal (Mansini et al, 2007). Se puede demostrar que la nueva frontera eficiente tiene buenas propiedades si medimos el riesgo con cualesquiera medidas coherentes o incluso convexas (Rachev et al (2008), capítulo 8).

 

            El llamado Problema del Reaseguro Óptimo nos proporciona un ejemplo equivalente en el campo actuarial. Este problema consiste en encontrar el tipo de reaseguro y su cuantía de forma que sean óptimos en algún sentido. Teniendo en cuenta que el objetivo del reaseguro es reducir el riesgo de la empresa aseguradora, la formulación más razonable de este problema trata de encontrar el contrato de reaseguro que reduzca al máximo el riesgo, sujeto a una serie de restricciones como, por ejemplo, las relativas al precio a pagar. La versión clásica de este problema considera, al igual que en el modelo de Markowitz, que el riesgo se mide por la varianza (en este caso, la varianza de la siniestralidad después de reaseguro):

 

 

donde  es la siniestralidad antes de reaseguro,  es la parte retenida,  representa el principio de cálculo de primas de la reaseguradora y  es la prima a pagar por la cedente (Balbás et al (1990), Gil et al (1996)).

 

            De nuevo nos encontramos con un problema que puede formularse más adecuadamente con una verdadera medida del riesgo que con la varianza. El nuevo problema

 

 

puede resolverse fácilmente si asumimos una distribución discreta de la siniestralidad, e incluso será un programa lineal si elegimos el CVaR como medida del riesgo (y un principio de cálculo de primas lineal). Existen asimismo técnicas matemáticas que permiten resolver el programa en su formulación más general, sin suponer una distribución discreta de la siniestralidad. Balbás et al (2009) han demostrado recientemente que el reaseguro Stop-Loss es óptimo bajo condiciones muy generales y para un gran número de medidas del riesgo (todas las acotadas por la media y todas las de desviación). En cambio, el reaseguro cuota-parte nunca resulta óptimo en los casos anteriores.

 

            Los resultados que acabamos de mencionar han sido obtenidos tomando como principio de cálculo de primas el principio del valor esperado. Si cambiamos la forma de calcular las primas, los resultados pueden cambiar. Pero obviamente ilustran la potencia de los nuevos métodos. Los resultados son aplicables en algunos casos cuando se considera no una sola, sino un gran número de medidas del riesgo a la vez. En lo que se refiere a la medición del riesgo, estamos ya muy lejos de la varianza.

 

 

5. Conclusiones

 

            En los últimos años, un gran número de nuevos resultados matemáticos acerca de la correcta medición del riesgo se han incorporado al conjunto multidisciplinar de conocimientos teóricos sobre el riesgo y de técnicas dedicadas a su gestión. En este artículo hemos discutido las definiciones y principales propiedades de las nuevas medidas del riesgo, comparando sus características con las de las medidas tradicionales. Hemos mostrado, asimismo, algunas aplicaciones de los nuevos resultados a problemas clásicos de la matemática financiera y actuarial, que muestran claramente la potencia de los nuevos métodos y sus ventajas sobre los tradicionales.

 

 

6. Bibliografía

 

Acerbi, C. (2002) Spectral Measures of Risk: a Coherent Representation of Subjective Risk Aversion, Journal of Banking and Finance 26, 1505-1518.

 

Artzner, P., Delbaen, F., Eber, J.M. & Heath, D. (1997) Thinking Coherently, Risk 10 (11), 33-49.

 

Artzner, P., Delbaen, F., Eber, J.M. & Heath, D. (1999) Coherent Measures of Risk, Mathematical Finance 9 (3), 203-228.

 

Balbás, A., Gil, J.A. & Heras, A.J. (1990) La Desviación Típica y la Varianza como medidas del riesgo en un problema de reaseguro óptimo, Previsión y Seguro  6, 63-80.

 

Balbás, A., Balbás, B. & Heras, A.J. (2009) Optimal Reinsurance with General Risk Measures, Insurance: Mathematics and Economics 44, 374-384.

 

Dhaene, J., Goovaerts, M. & Kaas, R. (2003) Economic Capital Allocation Derived from Risk Measures, North American Actuarial Journal 7 (2), 1-16.

 

Gil, J.A., Heras, A.J. & Vilar, J.L. (1996) Decisiones Racionales en Reaseguro, Cuadernos de la Fundación MAPFRE, nº 32, Madrid.

 

Hansson, S.O. (2007) Risk, Stanford Encyclopedia of Philosophy http://plato.stanford.edu/entries/risk/

 

Föllmer, H. & Schied, A. (2002) Convex Measures of Risk and Trading Constraints, Finance and Stochastics 6 (4), 429-447.

 

Holton, G. (2004) Defining Risk, Financial Analysts Journal 60 (6), 19-25.

 

Hull, J. (2007) Risk Management and Financial Institutions, Pearson Prentice Hall, New Jersey.

 

Knight, F. (1921) Risk, Uncertainty and Profit, Houghton Mifflin, Boston.

 

López Cerezo, J.A. & Luján, J.L. (2000) Ciencia y Política del Riesgo, Alianza Editorial, Madrid.

 

Mansini, R., Ogryczak, W. & Speranza, M.G. (2007) Conditional Value at Risk and Related Linear Programming Models for Portfolio Optimization, Annals of Operations Research 152, 227-256.

 

Markowitz, H. (1952) Portfolio Selection, Journal of Finance 7, 77-91.

 

Rachev, S., Stoyanov, S. & Fabozzi, F. (2008) Advanced Stochastic Models, Risk Assessment and Portfolio Optimization, John Wiley & Sons, New Jersey.

 

Rockafellar, R., Uryasev, S. & Zabarankin, M. (2006) Generalized Deviations in Risk Analysis, Finance and Stochastics 10, 51-74.

 

Sharpe, W. (1964) Capital Asset Prices: A Theory of Market Equilibrium under Conditions of Risk, Journal of Finance 19 (3), 425-442.

 

Taleb, N. N. (2004) Fooled by Randomness, Random House, New York.

 

Taleb, N. N., (2007) The Black Swan. The Impact of the Highly Improbable, Random House, New York.

           

Wang, S. (1996) Premium Calculation by Transforming the Premium Layer Density, ASTIN Bulletin 26 (1), 71-92.

 

Wang, S., Young, V. & Panjer, H. (1997) Axiomatic Characterization of Insurance Prices, Insurance: Mathematics and Economics 21 (2), 173-183.

 

Young, V. (2004) Premium Principles, en Teugels & Sundt (editors), Encyclopedia of Actuarial Science, John Wiley and Sons, Vol. 3, 1322-1331.

Social. Nº 17.