Después de mi última entrada me quedé algo triste. Un par de amigas me dijeron que se habían reído mucho con el principio de la entrada. Y, claro, llevo casi treinta años cultivando la reputación de ser una seta y esto es una derrota en toda línea. Dense cuenta que cuando explico lo que es la ventaja comparativa a mis estudiantes de primero, les digo: “Ya sabéis que no soy muy buen profesor (risitas, y miradas incómodas). Vale, ahora, imaginad que estoy en el club de la comedia.” Y veo la luz hacerse en sus caras. Pues tengo que recuperar esa reputación. Así que esta entrada es lo mas “nerd” (vaya, empollón) que se puedan imaginar. Voy a hablar de entropía.
La idea me viene de un libro estupendo que estoy leyendo, “Molecular storms.” El autor, Liam Graham, fue colega en UCL y ha escrito muchas cosas interesantes en economía. Pero antes de ser economista se formó como físico, y en un momento de su vida ha decidido volver a los orígenes y explicar las implicaciones de la física para todo. En una frase, lo que el libro propone es que la entropía, expresada en la segunda ley de la termodinámica, es capaz de explicar todo lo que nos rodea, incluyendo la vida y nosotros mismos.
El libro es un viaje maravilloso, y no voy a estropearlo intentando diseccionarlo. Pero simpatizo mucho con el argumento como economista (ahora les explico por qué). Y, luego, aprovecho que he mencionado la entropía para hablar de algunos usos en economía, en particular de cosas que he investigado (recuerden, yo he venido aquí a hablar de mi libro).
La razón por la que simpatizo con el libro es una cosa que distingue a los economistas de muchos otros científicos sociales (para bien y para mal). Nosotros tenemos una visión del mundo muy concreta (ellos dirían reduccionista, fair enough). Queremos explicar todo como consecuencia de un conjunto de “entes” que tienen unos objetivos y quieren maximizarlos frente a un conjunto de restricciones, entre las que se encuentran las acciones de otros “entes” que también están decidiendo.
El argumento del libro de Liam Graham es que todo lo que observamos se puede explicar por la “tormenta” molecular, que se expresa de manera estadística en la entropía y tiene un reflejo importante en la segunda ley de la termodinámica.
Para entender qué es la entropía de un sistema, piensen en un montón de partículas, o, si quieren, agentes económicos, que pueden estar cada uno de ellos en un par de estados. Digamos que pueden estar tristes o alegres con una probabilidad “p”. Pues la “entropía” de este sistema es la esperanza del logaritmo de la probabilidad del estado agregado de sistema. Estados donde la inmensa mayoría están “alegres” son muy improbables. Y estados donde la mayoría están “tristes” también. Lo que dice la segunda ley de la termodinámica es que un sistema como este, si está aislado, evoluciona en la dirección de mayor entropía. Estadísticamente, esto solamente quiere decir que el universo en general tiene que ir en una dirección de mayor “uniformidad”. Si los estados evolucionan al azar de manera más o menos independiente, los “tristes” y “alegres” estarán distribuidos más o menos uniformemente en el espacio. Pero esto no quiere decir que en partes aisladas del universo no aparezcan cosas “raras”, tales como entes que tienen conciencia y se autorregulan. Pero esto son fases transitorias, y más “orden” en unos lugares, quiere decir más desorden en otros. Las implicaciones para entender lo que es la vida, cómo se origina y cómo evoluciona, son fascinantes, pero esto se lo dejo a Liam.
La cuestión es que la entropía aparece en todas partes, en cuanto uno hurga un poco. Por ejemplo, Shannon describió la entropía como la capacidad de un sistema para transmitir información. El coeficiente de Theil para la desigualdad económica se basa en la entropía de los valores de renta observados en los datos. Bourguignon axiomatiza esta medida mostrando que es la única consistente con una propiedad de descomponibilidad ponderada por ingresos. En el modelo de “falta de atención racional” de Sims, la entropía se utiliza para medir la adquisición de información por parte de agentes con capacidades limitadas de procesamiento de información.
La entropía también es la base para la medida de entropía relativa de la proximidad de las distribuciones de probabilidad. Blume y Easley muestran que en economías de intercambio dinámicas, los mercados favorecen a los agentes que toman decisiones más precisas, cuando la precisión se mide según la entropía relativa.
Yo creo que ya he mostrado suficiente “empollonez” para hablar de mi trabajo, ¿no? Pues lo que encontramos en su día, con Olivier Gossner y Roberto Serrano, es que si queremos ordenar estructuras de información, la entropía es nuestra amiga. El caso es que ordenar estructuras de información no es tarea fácil. En uno de los artículos más importantes en teoría de la información, David Blackwell demuestra que una estructura de información A domina a otra B si todos los decisores prefieren la A a la B. Lógicamente, esto quiere decir que si uno quiere ordenar estructuras de información, va a tener que restringir los problemas de información a los que se enfrenta.
En nuestro artículo con Olivier y Roberto decidimos restringir nuestra atención a una clase de problemas de inversión en mercados completos à la Arrow-Debreu sin arbitraje (es decir, en ausencia de información privada, la gente no invierte) y a una clase específica de funciones de utilidad que quiere “evitar la quiebra” (la utilidad cuando uno no tiene renta es muy negativa). En ese mundo postulamos el siguiente orden de informatividad: una estructura de información es más informativa que otra si, dentro de la clase permitida de problemas y preferencias, siempre que la primera es rechazada a algún precio, también lo es la segunda.
Nuestro principal resultado es que este orden de la informatividad está representado por la disminución de la entropía de las creencias del agente. Para ser concreto, la cantidad de información de una estructura de información está representada por la diferencia entre la entropía de la distribución de probabilidad antes de recibir la información y la entropía esperada de las distribuciones después de recibir la información.
Destripar el resultado sería complicado, y como quiero que vean la película, no haré “spoilers.” Pero como “trailer” les diré que juega un papel muy importante en la trama el hecho de que los agentes que quieren “evitar la quiebra” son todos ellos más aversos al riesgo que un agente que tiene utilidad logarítmica. Y el agente con este tipo de utilidad cuando invierte en mercados completos, invierte en cada activo contingente a un estado en proporción a la probabilidad que cree que tiene ese estado.
Vale, lo dejo aquí. El objetivo de esta entrada es simplemente volver a fundamentar mi reputación de empollón, y que sepan que la entropía es una cosa maravillosa que básicamente explica que estén vivos y puedan leer esta entrada. Si de paso se leen el libro de Liam y mi paper, seguro que tienen una Navidad más productiva y entienden el mundo mejor. ¡Feliz Navidad!