La Ciencia Económica y la Gran Recesión II

La semana pasada hablaba sobre las críticas a la macro que se ven mucho en los medios de comunicación estos días. La mayoría de ellas, argumentaba, no tienen mucha base. Pero esto no quiere decir que no tengamos problemas, simplemente que estos son distintos de los que los observadores de fuera se quejan.

¿QUÉ NO FUNCIONÓ?

No todo está bien en la macroeconomía. Ni mucho menos. Hay muchas cosas que no entendemos. La más importante, como ha quedado claro en esta crisis, es la interacción entre los mercados financieros y el resto de la economía.

Por mucho tiempo los modelos básicos en macro han descansado en la existencia de resultados reminiscentes del teorema de Modigliani-Miller que convertían las decisiones de financiación de las familias y empresas en problemas triviales y los mercados financieros en meros velos que enlazaban, sin mayores atributos, ahorradores e inversores. Incluso los modelos que más se habían centrado en las fricciones financieras, como la amplia literatura sobre el acelerador financiero iniciada por Ben Bernanke y Mark Gertler, se preocupaban más por los problemas causados a financiación de las empresas por asimetrías informativas que por las posibles consecuencias de la ruptura de la intermediación financiera.

Aunque nadie (o casi nadie) se tomaba en serio las consecuencias finales de Modigliani-Miller, durante bastante tiempo sí que había la sensación de que las desviaciones en la realidad con respecto al caso básico eran de segunda orden, especialmente en el mundo moderno con mercados líquidos y que tenía más sentido centrarse en problemas como la determinación de precios por las empresas o en el funcionamiento del mercado de trabajo.

Esta valoración ha resultado errónea. En un mundo extraordinariamente complejo como el actual, las asimetrías de información y los costes de reducirlas son tan grandes que cambian fundamentalmente cómo queremos construir nuestros modelos y cómo debemos diseñar las instituciones que controlan las asignaciones de recursos. Los viejos pánicos bancarios que Diamond y Dybvig habían analizado tan agudamente han reaparecido como pánicos en grandes instituciones de inversión con la única diferencia que los antiguos pequeños depositantes que corrían a la sucursal local de su banco a sacar sus ahorros han sido substituidos por otras grandes instituciones financieras que no renuevan sus líneas de crédito o que exigen un incremento del colateral.

En parte también por esta valoración excesivamente optimistas de las posibles consecuencias de las fricciones financieras (que la levedad de la crisis del 2001-2002 después de la ruptura de la burbuja de internet no había sino reforzado), los macroeconomistas que seguían los mercados en el 2005-2006, mientras que en general veían la existencia de unos precios de los activos inmobiliarios con poca justificación (eso que se ve en los medios de comunicación que nadie excepto dos excéntricos vieron la crisis es una de esas leyendas urbanas de difícil erradicación), argumentaban que los costes de romper estos precios eran probablemente mayores que los beneficios obtenidos y que, en todo caso, los gobiernos tenían poco instrumentos para lograr esta caída de precios.

De igual manera, hubo una sobrevaloración de la capacidad de las instituciones financieras de auto-regularse y por tanto de la importancia de los problemas de información asimétrica en el funcionamiento de los mercados de activos, especialmente todos aquellos mercados menos líquidos y estandarizados, como los de MBS o CDOs. Aquí la clave del error vino por no percatarnos que, en un mundo con fuerte competencia en el mercado financiero, el valor de franquicia de las empresas (el pago futuro que induce el buen comportamiento hoy) había bajado a mínimos históricos y que por tanto la estrategia óptima se había convertido en intentar extraer tantas rentas como fuera posible con la mayor velocidad.

Relacionado con este punto, pero no exactamente igual, es el problema de escribir y solucionar modelos donde los agentes tienen distintas distribuciones a priori de lo que puede ocurrir en el futuro, es decir, de modelos donde rompemos con las expectativas racionales a las que nos referíamos anteriormente. Que esto es una característica básica de la realidad no hace falta argumentarlo en detalle, pues una rápida conversación sobre el futuro de la recuperación en el 2011 o 2012 nos dará un amplio abanico de opiniones, desde optimistas a negativas, todas ellas con un razonable grado de plausibilidad. Desafortunadamente, los modelos económicos normales sufren de lo que Tom Sargent ha llamado el “comunismo de expectativas”. Todos los agentes tienen las mismas expectativas y estas coinciden la probabilidad objetiva derivada de la estructura del modelo. Pero sabemos, al menos desde el trabajo de Harrison y Kreps sobre distribuciones a priori múltiples de finales de los 70 del siglo pasado, que la heterogeneidad de distribuciones puede causar que los precios de los activos se desvíen de las valoraciones fundamentales.

Más recientemente, este tipo de modelos se han utilizado para explicar los efectos de la política monetaria sin necesidad de recurrir a rigideces nominales, para generar burbujas en los precios de activos o para transformar el efecto de pequeños shocks en cambios de importancia en precios y asignaciones. Aunque en los últimos años se ha avanzado mucho en modelos con heterogeneidad de distribuciones (y un caso relacionado, que son los modelos con falta de conocimiento común, es decir, modelos donde yo no sé, al menos con certeza que tu sabes que yo se etc.…), este es un campo que la literatura aún no domina y donde existe un amplio camino que recorrer.

Ligada a esta rama está también el tomarse más en serio la distinción entre riesgo (situaciones donde los agentes pueden determinar distribuciones de probabilidad de eventos futuros) e incertidumbre (donde no pueden). Esta es una vieja idea que aparece, al menos desde Frank Knight y que preocupaba nada menos que a Savage, el gran estadístico que formalizó la teoría moderna de la elección bajo riesgo en su clásico Foundations of Statistics en 1954.

Savage defendía a menudo que su modelo solo podía realmente aplicarse a lo que él llamaba “pequeños mundos,” es decir, aquellas situaciones donde era fácil describir los distintas posibilidades que podían ocurrir y asignar probabilidades a cada una de ellas (o más formalmente, que dadas nuestras elecciones reveladas, se podían asignar probabilidades que justificaban estas elecciones, ya que es una teoría de la probabilidad subjetiva). Por ejemplo, cuando vamos a un casino, sabemos que las posibilidades de la ruleta son limitas (37 números, del 0 al 36) y si creemos que la ruleta funciona correctamente, también tenemos una creencia acerca de las probabilidades de cada número (1/37). Cuando vamos al casino, el modelo de elección de Savage tiene sentido y es natural utilizarlo para pensar acerca de este problema. Sin embargo, cuando invertimos en bolsa, es extraordinariamente difícil poner números a los distintos eventos (¿con qué probabilidad Grecia reestructurará su deuda en los próximos meses? (¿con qué probabilidad se recuperará la inversión en Europa?).

De nuevo, y a pesar de una gran explosión en las dos últimas décadas de modelos que distinguen riesgo e incertidumbre, especialmente con las contribuciones de Larry Epstein y Martin Schneider, aún nos quedan muchas habitaciones que explorar en la mansión de la teoría probabilidad. Aquí la dificultad básica es crear estructuras consistentes que nos permitan hablar de los distintos casos (riesgo, incertidumbre, falta de conocimiento, probabilidad cero) de una forma consistente y que permitan a los agentes aprender sobre el mundo aunque solo sea de una manera limitada.

Finalmente, los macroeconomistas deben de pensar con más detalle en que significan los shocks que se introducen en los modelos. Se ha progresado mucho analizando las consecuencias de un shock dado, por ejemplo a la tecnología o las preferencias, en la dinámica agregada de la economía pero seguimos sabiendo muy poco acerca de dónde vienen estos shocks y de su interpretación, lo que limita tanto nuestro entendimiento de la situación como las posibles recomendaciones de política económica que emanan de los modelos.

A la vez, es demasiado pronto para hablar sobre otros posibles errores. Por ejemplo, se ha dicho mucho sobre la falsa sensación de tranquilidad que trajo la idea de la “gran moderación” (la observación que la volatilidad de las economías occidentales se había reducido a la mitad desde 1984). Pero la idea de la gran moderación (que por otra parte un conjunto importante de la profesión atribuía a la suerte de haber tenido pequeños shocks y que por tanto podía desaparecer en cualquier momento) no implicaba que no hubiese recesiones, solo que estas serían de menor cuantía. Por muy dura que haya sido la actual recesión, dada la combinación de la ruptura de una burbuja inmobiliaria, la fuerte subida (a principio de la crisis) de los precios de las materias primas y el petróleo, las turbulencias financieras y el alto grado de incertidumbre causado por todos estos eventos, se podría argumentar que la recesión no ha sido tan profunda como habríamos podido sufrir.

Para terminar, la innovación financiera se quedará con nosotros por muchas limitaciones regulatorias que se le pongan: es un producto del avance tecnológico en los ordenadores y no se le puede dar marcha atrás. Que muchos de los nuevos productos hayan tenido problemas era de esperar. Los errores, por mucho que nos cueste reconocerlo, son el precio a pagar por los adelantos. Solo aquellos que no innovan, no causan complicaciones de vez en cuando. El reto es conseguir que la relación de intercambio entre los beneficios de la innovación y los errores causados sea la suficientemente satisfactoria, no el eliminar la creación de nuevas maneras de realizar transacciones entre agentes interesados en ellas.

CONCLUSIONES

La ciencia económica cambiará como consecuencia de la gran recesión. Como toda ciencia social no es independiente de los
desarrollos en el mundo que la crea. Cambió con la gran depresión, cambió con las crisis del petróleo y cambiará ahora. Pero estos cambios no irán, con casi total probabilidad, por dónde los críticos creen que irán. Ni se va a renunciar a las matemáticas ni al agente racional ni al concepto de equilibrio. Estos instrumentos son consecuencia de los dos descubrimientos básicos sobre los que se sustenta todo el análisis económico: 1) que los agentes responden a los incentivos y 2) que las acciones de los agentes tienen que ser consistentes entre sí. Una vez que uno acepta estos dos puntos de partida, las matemáticas, el agente racional y el equilibrio o la eficiencia de mercados están a la vuelta de la esquina. Al contrario, lo más probable es el cambio de la ciencia económica venga del surgimiento de nuevos modelos que, manteniendo un claro vínculo con los modelos más tradicionales, enfaticen las fricciones financieras, la posibilidad de heterogeneidad en las expectativas de los agentes o las restricciones en la capacidad de procesamiento de la información. Pero esto poco tendrá que ver con lo que los críticos esperan. Afortunadamente, serán decepcionados.

Hay 51 comentarios
  • Hola Fede:

    La nueva version de Dynare computa las derivadas de manera analitica pero el usuario no lo ve (es una dll) con lo cual no hace falta llamar a ninguna toolbox simbolica. El dunare antiguo computaba derivadas numericas y daba problemas.

    J

Los comentarios están cerrados.