La entropía, esa gran desconocida, de José A. Cuesta

Para este nuevo post de ciencia de NeG, he pedido la ayuda de mi colega y sin embargo amigo Jose Cuesta, que de esto sabe mucho más que yo: 

La entropía, esa gran desconocida o Todo lo que usted quería saber sobre la entropía y nunca se atrevió a preguntar

Por José A. Cuesta

Me atrevería a afirmar que la entropía es el concepto más extraño de toda la física clásica. Sí, ya sé que las leyes de la física cuántica lo dejan a uno perplejo y que la teoría de la relatividad marea, pero lo que tiene de peculiar la entropía es que se inventó en el siglo XIX, en una época y un contexto en el que la física intentaba entender los motores térmicos. ¿Cómo pudo un concepto tan esotérico surgir de unas aplicaciones de índole tan práctica? No voy a responder a esta pregunta porque me llevaría muy lejos y me tendría que poner pedante y escribir ecuaciones. Lo que importa es que Rudolf Clausius, en 1850, inventa una cantidad a la que llama "entropía" (palabra tomada del griego cuyo significado está relacionado con transformación) para satisfacer ciertos requerimientos matemáticos de la termodinámica, con unas propiedades bastante atípicas para ser una cantidad física. Entre ellas, la más llamativa es que se trata de una cantidad que no decrece en ningún proceso físico, y que por lo general crece, dando lugar a procesos que reciben el nombre de irreversibles, porque no se pueden deshacer (no es posible volver al estado de entropía anterior, dado que ésta no puede decrecer).

Si tenemos un gas en la mitad izquierda de un recipiente dividido en dos por una pared y de pronto quitamos la pared, observaremos cómo el gas se expande hasta ocupar todo el volumen. El proceso contrario jamás se observa. Si echamos una gota de tinta en agua observamos cómo ésta se difunde hasta que toda el agua se vuelve de color uniforme. Lo que jamás veremos es que las partículas de tinta se reúnan de nuevo en una gota separada del agua. Si se nos cae un jarrón lo veremos romperse. Si metemos los trozos en una bolsa y la sacudimos con la esperanza de que se reconstituya el jarrón, lo llevamos crudo. Todo esto son procesos irreversibles, y de ellos hay miles en nuestra vida cotidiana. Son tan habituales como respirar (por cierto, otro proceso irreversible). Y en todos ellos la entropía aumenta. Para añadir más misterio al asunto, la flecha del tiempo parece estar ligada a la existencia de estos procesos, al punto de que podemos ser capaces de saber si una película está proyectándose al revés sin más que observar alguno de estos sucesos imposibles (porque conllevarían una disminución de entropía).

Aunque la física convivió con ella durante medio siglo, la entropía colisionó con la teoría atómica y sumió a la ciencia en una profunda paradoja: si el última instancia todo está compuesto de átomos, y si los átomos siguen las leyes reversibles de la mecánica de Newton, ¿cómo es posible que puedan existir procesos irreversibles? ¿Y dónde está esa entropía de la que los átomos parecen carecer? La resolución de este problema se debe a Ludwig Boltzmann, que hizo dos cosas: produjo uno de los mayores avances de la física, permitiendo explicar la conexión entre el micromundo (el mundo de los átomos y las moléculas) y el macromundo (el mundo que percibimos), y acabó con el misterio de la entropía.

Para intentar explicar el concepto recurriré a un modelo de juguete. Imaginemos un sistema formado por unas partículas (no importa qué son las partículas) que solo pueden adoptar dos estados: amarillo y azul. El sistema tiene una dinámica (sin dinámica no tiene sentido hablar de entropía) extremadamente sencilla. En cada paso de tiempo, una partícula al azar cambia de color: si era amarilla ahora es azul y viceversa. Pero vamos a añadir dos ingredientes clave a nuestro modelo: vamos a suponer que las partículas son microscópicas y que nuestro sistema macroscópico está formado por una cantidad enorme de ellas, y vamos a suponer que no podemos observar el estado de las partículas individuales, sino solo el color global del sistema. Como la mezcla de azul y amarillo da verde, observaremos un color que irá del azul a amarillo pasando por toda la gama de verdes.

Para ilustrar el asunto he hecho una animación del sistema. En un cuadrado 40x40 he puesto 1600 de tales partículas y he procedido a cambiarles el color de acuerdo a la dinámica que acabo de describir. Partiendo de una configuración en que todas las partículas son amarillas, la animación muestra cómo su color va cambiando al azar, de manera que algunas van volviéndose azules. Encima del cuadro un contador indica el paso temporal, y debajo aparece la fracción de cuadros que son amarillos. En realidad 1600 partículas son muy pocas; tenemos que imaginar muchísimas más. En sistemas físicos hay del orden de un billón de billones de partículas, un número astronómico (de hecho, del orden del número de estrellas que habría en... ¡cien universos como el nuestro!). Con ese número de partículas sólo veríamos un cuadrado de color uniforme, y el tono de verde nos indicaría la proporción de los dos tipos de partículas. Para ilustrarlo, he puesto a la derecha de la animación un cuadrado cuyo color se va ajustando a la proporción de partículas amarillas y azules del sistema. [Ver animación.]

Lo que se ve es bastante esperable: como al principio casi todas las partículas son amarillas, lo que vemos son cambios de amarillo a azul; a medida que el número de partículas azules aumenta, aumenta también la probabilidad de que una azul se convierta en amarilla. La situación se equilibra, lógicamente, cuando la proporción de ambas es aproximadamente la misma. Y en efecto, el cuadro de la derecha muestra un color amarillo uniforme que gradualmente se va poniendo verde hasta estabilizarse en el tono de verde puro (la mezcla perfecta de amarillo y azul). ¿Es concebible esperar que el cuadrado verde se vuelva gradualmente amarillo o azul? No, podría fluctuar en torno al tono de verde perfecto (en la imagen ni siquiera se aprecia la fluctuación), pero ni en un millón de años veríamos reaparecer el amarillo. Tenemos ante nuestras narices un proceso irreversible.

Y ahora analicemos: ¿la dinámica que hemos impuesto es irreversible? No. La probabilidad de que en un paso de tiempo elijamos la partícula x para cambiarla de color es de 1 en 1600, que es exactamente la misma probabilidad de que en el siguiente paso volvamos a elegir esa misma partícula para volverla a su color inicial. Así que la probabilidad de producir un cambio determinado en el sistema es exactamente la misma que la de revertirlo en el paso siguiente. Entonces, si la dinámica es reversible, ¿por qué observamos un proceso irreversible? Antes de contestar a esta pregunta hagámonos la siguiente reflexión: si la configuración inicial, en lugar de todas las partículas amarillas, tuviera más o menos la mitad amarillas y la mitad azules al azar, ¿creéis que en la evolución siguiente volveríamos a ver alguna vez exactamente esa misma configuración inicial, con exactamente las mismas partículas amarillas y azules en exactamente las mismas posiciones?

Si habéis respondido un categórico NO, entonces ya estamos en el buen camino. Porque esa es la clave de todo. Lo único que hace distinta la condición inicial de todas las partículas amarillas de esta otra es que su aspecto "macroscópico" (su color, para que nos entendamos) es distinto. Por eso nos parecen dos condiciones iniciales muy diferentes, cuando en términos de probabilidad son exactamente equiprobables (cualquier configuración concreta de partículas tiene la misma probabilidad de aparecer en la dinámica; muy pequeña, por cierto). Pero en la variable macroscópica esa probabilidad uniforme deja de serlo. Porque tan sólo hay una configuración en que todas las partículas sean amarillas, pero ya hay 1600 configuraciones en las que una partícula es azul y todas las demás amarillas. Y hay 1.279.200 configuraciones que tienen dos partículas azules y el resto amarillas... El número se dispara hasta llegar más o menos a la mitad de cada tipo, y luego vuelve a disminuir cuando las azules superan las amarillas, hasta volver a llegar a una sola configuración con todas las partículas azules. En la siguiente figura represento el número de configuraciones distintas con un número dado de partículas azules, para tres tamaños de sistema: 100, 400 y 1000 partículas. Obsérvese las gigantescas cifras que aparecen en la escala vertical, y eso que estos sistemas son diminutos comparados con los sistemas físicos.

Esta figura encierra la clave de todo el "misterio" de la entropía. Se unen tres cosas:

  1. Lo que observamos son estados macroscópicos (el color global del sistema), no estados microscópicos (la configuración concreta de colores de las partículas).
  2. Aunque la dinámica es reversible y todo estado estado microscópico tiene la misma probabilidad de ser visitado, los estados macroscópicos, como muestra la gráfica, están formados por números muy distintos de configuraciones diferentes y tienen, por tanto, distinta probabilidad de ser observados. Como puede apreciarse, el que llamaríamos estado de "equilibrio" o "estacionario" o "típico" es el más probable de todos.
  3. La diferencia entre la probabilidad de observar los estados más probables y los menos probables es más desproporcionada cuanto mayor es el sistema. La desproporción es brutal si hablamos de sistemas físicos (con billones de billones de partículas). Eso hace que observar estados improbables sea, en la práctica, imposible.

Ahí está todo: el origen de la entropía y de la irreversibilidad. No se trata de que hay una ley oscura y esotérica que empuja al universo en una dirección concreta, se trata, simple y llanamente, de que vemos aquello que es probable ver, y no vemos lo que es improbable ver. Porque además, lo que vemos son estados agregados, colectivos, macroscópicos que, a diferencia de los microscópicos, tienen muy distinta probabilidad de aparecer. Y en el mundo real, la diferencia entre probable e improbable se traduce en posible frente a imposible. En esta visión, un proceso irreversible no es más que el viaje desde un estado macroscópico improbable (que hemos construido ad hoc) al estado más probable.

Fue Boltzmann el que primero se dio cuenta de esto, y su gran hallazgo se resume en una de esas sencillas pero profundas ecuaciones: S = k log W. S es la letra que en física se usa para denotar la entropía. Dejando de lado la constante k (denominada "constante de Boltzmann" en honor a su descubridor), que sólo tiene como misión asignar las unidades correctas a la entropía termodinámica, e ignorando el logaritmo (un tecnicismo en el que no voy a entrar), la letra clave es W, una letra con la que Boltzmann denotó el número de estados microscópicos, inobservables, que corresponden a un mismo estado macroscópico, observable. Ahí está la conexión entre el microcosmos y el macrocosmos, entre el mundo atómico y nuestro mundo, el origen de fuerzas extrañas como la presión de los gases o la elasticidad de las gomas, de fenómenos sorprendentes como la cristalización de los minerales, la ebullición del agua, la inmiscibilidad del agua y el aceite... Porque de facto la entropía es una fuerza: es la fuerza de los sistemas por comportarse de la forma más probable. Es una fuerza porque para disminuir la entropía tenemos que consumir energía, porque no queda otro remedio para ello que confinar al sistema en regiones de baja probabilidad, algo que el sistema, lógicamente, se resiste a hacer de forma espontánea. Por eso es tan difícil enfriar (enfriar no es más que disminuir entropía). En fin, podría citar miles de ejemplos, a cual más llamativo, del efecto que la entropía tiene en nuestras vidas, pero ya me ha salido demasiado largo el artículo. Quédese, pues, para una futura contribución.

Nota: alguna idea de este post está tomada de este libro, donde se puede leer en profundidad sobre este tema.

 

Hay 55 comentarios
  • Gracias por el artículo.

    En primer lugar me ha servido para liberarme por un rato de la maldita crisis, una especie de sudoku divulgativo. En segundo lugar, para entender, de forma racional, un concepto que siempre me pareció una construcción científica para justificar procesos inexplicables de otra manera.

    Una reflexión: podemos entender que la economía es el resultado visible del comportamiento de multitud de individuos. Es decir, tenemos nuestro sistema macro visible y nuestra población de individuos decidiendo independientemente. Entiendo que el comportamiento de los individuos no es equiprobable, pero intuyo que asumir solo dos estados con la misma probabilidad únicamente es una simplificación.

    La pregunta es: ¿se puede aplicar el mismo concepto a la economía y pensar que en realidad vamos a alcanzar un estado de equilibrio del que no nos moveremos? si es así, en realidad el crecimiento económico tiene un límite y el progreso, más haya de un punto, no es posible, o es muy poco probable.

    En fin, esto es hasta donde llego tomando un segundo café de desayuno. Vuelvo a la vida real y a pegarme con la crisis.

    Saludos.---

    • Gracias por el comentario y la reflexión. La economía es, desde luego, un sistema mucho más complejo que los sistemas de partículas, pero el concepto de entropía es extensible siempre que hay muchos agentes (partículas, hormigas, personas o lo que sea) en interacción. La clave está en que se pueda hacer una descripción en términos de variables macroscópicas y que haya una relación no trivial entre macroestados y microestados. Pero que haya una entropía involucrada no necesariamente implica que haya equilibrio. El equilibrio emerge como consecuencia de que hay un macroestado con un número abrumadoramente grande de microestados en comparación con los demás. En otras palabras: se debe a que las gráficas de la figura tienen un único máximo. Esto no tiene por qué cumplirse en todos los sistemas, y en aquéllos en los que no lo haga, al margen de que pueda definirse una entropía que nos describa la evolución macroscópica hacia macroestados probables, no habrá un equilibrio porque el sistema puede estar saltando de un macroestado probable a otro. Hay, además, otra cuestión: la economía en un sistema “abierto”, acoplado a multitud de influencias externas. Cuando esto ocurre la relación microestados-macroestados cambia con el tiempo y eso cambia la entropía. Así que la respuesta es no: no se vislumbra un equilibrio económico.

      • Sin embargo, Georgescu-Roegen ya escribió en 1971 The Entropy Law and the Economic Proces, Harvard University Press.
        Saludos.

        • En realidad, sí que se vislumbra un estado económico de equilibrio, pero no el más agradable: http://crashoil.blogspot.com.es/2010/06/digamos-alto-y-claro-esta-crisis.html . La explicación, al final, acaba siendo simple: ¿qué sentido tiene idear un sistema económico basado en el crecimiento infinito (y, encima, exponencial) en un planeta finito? Nuestro problema es que la teoría económica considera que la Tierra es plana, un plano infinito (esto se explica de forma divulgativa y más extensa en http://crashoil.blogspot.com/2011/08/mensaje-en-una-botella.html)

          Muy buen blog, Anxo, no lo conocía. Saludos desde Barcelona (y también a José, of course)

          Antonio

          • Hola Antonio. Encantado de saludarte. Déjame que te dé mi opinión sobre el estado de equilibrio del que hablas. Comparto el escenario pesimista que se describe en el blog del que hablas, pero no que eso vaya a ser un estado permanente o de equilibrio. Las comparaciones con los sistemas físicos son peligrosas, porque estos últimos son demasiado simples. Un sistema termodinámico tiene un espacio de fases (conjunto de microestados) muy pequeño en comparación con el descomunal espacio de fases de los sistemas complejos, como la economía. Eso hace que mientras en aquéllos el equilibrio es alcanzable, en éstos muy probablemente no. Mi guía para entender los procesos económicos no es la física, sino la evolución. La biosfera es un sistema de complejidad comparable a la economía y comparte con ella muchos procesos dinámicos. Si miramos la biosfera evolutivamente veremos que ha pasado por crisis mucho más graves que las que se vislumbran en la economía: envenenamientos del planeta por residuos no reciclables, cambios climáticos, crashes apocalípticos (como el meteorito del cretácico que acabó con los dinosaurios), agotamiento de recursos... Y lo que vemos es que el sistema ha superado todas esas crisis sin llegar a un estado de equilibrio. Más bien lo que ha ocurrido es que de las crisis el sistema ha salido transformado. Así que, tal como yo lo veo, de la presente crisis (en todas sus vertientes, económica, de recursos, medioambiental...) emergerá un sistema transformado, pero tan fuera del equilibrio como el actual. Eso sí, quiero aclarar algo: que nadie lea en estas líneas un mensaje positivo, de esperanza: ningún dinosaurio sobrevivió al meteorito del cretácico.

  • Fantastica explicación, se intuyen nuevos e interesantes posts.

  • La interpretación de los "multiversos", o universos paralelos de la Mecánica Cuántica , explica de manera muy intuitiva el porqué de la entropía...

    • No conozco demasiado la interpretación de los multiversos, pero tiendo a no prestar demasiada atención a las hipótesis que no hacen predicciones medibles que permitan falsarlas. Me parecen materia más propia de la metafísica que de la física. Pero sí que puedo afirmar que la entropía es un concepto clásico que no tiene nada que ver con la mecánica cuántica, así que dudo que la mecánica cuántica pueda arrojar ninguna luz sobre ese concepto. Si me apuras, la entropía ni siquiera es un copcepto propio de la física: no es más que la cuenta de la vieja, y eso es lo que he tratado de explicar en el post. La razón de que se asocie con la física es que surgió en el seno de la termodinámica, pero, accidentes históricos al margen, la entropía, como afirma Ben-Naim, no es más que puro sentido común.

      • Pues entonces aquí vale aquello de que "el sentido común es el menos común de los sentidos"

  • Me parece que Jose nos da aquí una explicación clarísima de lo que es la entropía, pero creo que por no alargar más el post se queda algo en el tintero: la supuesta relación entre entropía y desorden, que a veces se oye mencionar de manera coloquial y que en realidad esconde una cierta confusión de concepto. Estaría muy bien si pudieras añadir algo al respecto.

  • La idea que yo tenia es que la entropia es el proceso que hace que todo tienda al caos. Que del orden se pueda pasar al desorden , pero no al revés. Voy a releer el post.

  • Muy interesante, y muy bien explicado.
    Por supuesto, el autor sabe que el cuadrado de la derecha no nos parecería verde, sino blanco...

  • Bueno, es que el orden es UNA de las posibilidades MUY improbables (como tener todas las partículas de un color) y el caos, el conjunto de muchas posibilidades (como tener la mitad de partículas de cada color)...
    Yo siempre digo que empecé a entender lo que es la entropía cuando tuve hijos...

  • En efecto, no he mencionado la manida relación entre entropía y desorden para no meterme en un jardín. Pero voy a aprovechar a decir algo al respecto. Para empezar, orden y desorden son conceptos sin una definición precisa. Como bien apunta zuppi, la asociación entre desorden y entropía procede de la constatación de que, en general, parece haber más microestados "desordenados" que "ordenados". Pero esto no siempre es así, y cuando no lo es, la entropía, desde nuestro subjetivo punto de vista, genera orden. Un ejemplo muy visual es la cristalización de la materia, el paso de un líquido a un sólido cristalino. Nadie dudaría en afirmar que un cristal, con todos sus átomos ordenados en un retículo con una estructura espacial muy regular (pensemos, por ejemplo, en los cristales de pirita, tan cúbicos ellos), es una estructura "ordenada", desde luego mucho más que un líquido. Y sin embargo la entropía favorece la formación de un cristal porque, como todo frutero sabe, caben más naranjas en una caja si están ordenadas que si se echan "a bulto". En otras palabras: hay más espacio por partícula en el cristal que en el líquido, y eso hace que el cristal tenga más microestados asociados que el líquido. Así que tiene más entropía. La razón de que este ejemplo no sea más conocido es que siempre se asocia la cristalización con una disminución de la temperatura, así que parece un efecto energético, de atrapamiento de moléculas. Sin embargo, no debemos olvidar que otra forma de cristalizar es aumentar la presión (lo que ocurre, de hecho, en las profundidades de la Tierra), y eso obliga a la materia a empaquetarse de forma más eficiente. Hace tiempo escribí un artículo al respecto para la Revista Española de Física. Por si alguien está interesado, dejo aquí el enlace: http://gisc.uc3m.es/~cuesta/PDFs/REF.pdf.

  • Muchísimas gracias por el post. Seguro que no soy el único que leyendo sobre cuestiones tan interesantes fantasea con la posibilidad de reconvertirse en físico, lástima que determinadas decisiones sean irreversibles...

  • Interesantísimo y muy bien explicado. Muchas gracias, José. Ser, los economistas de los s XVIII -XIX admiraban la física, y querían para la economía un método tan elegante como el de la física newtoniana , quizá por eso los economistas que hemos venido después tenemos una cierta querencia (y también admiración) por la física.

  • Tengo una duda acerca de la irreversabilidad.

    Siempre había entendido que el flujo es en la dirección de mayor a menor energía de acuerdo con la 2ª ley. En términos simples ( Georgescu, 6. 1971) se viene a decir que la entropía del universo --o de una estructura aislada-- aumenta constante e irrevocablemente.

    En un ejemplo, la energía consumida en un trozo de hulla que se quema llega a hacerla inútil para calentar nada. La probabilidad de que las cenizas vuelvan a calentar es cero.
    En el ejemplo usado me da la impresión de que quedaría una probabilidad residual y sospecho que algo no he debido de entender correctamente

    Le agradecría un comentario al respecto.

    • No sé si te acabo de entender bien. Lo que dice la segunda ley de la termodinámica es que en ningún proceso termodinámico decrece la entropía. Como mucho se mantiene constante, y lo normal es que aumente. La entropía se relaciona con la parte de la energía que queda "atrapada" en el sistema, en el sentido de que no se puede extraer en forma de trabajo. Es una energía "degradada". Lo que eso significa, en el ejemplo de las partículas, es que no tenemos ningún proceso macroscópico capaz de revertir del verde al amarillo. Para conseguirlo necesitaríamos lo que se denomina un "diablo de Maxwell", es decir, un sistema capaz de alterar las configuraciones microscópicas. Pero no hay diablos de Maxwell en la termodinámica.

      Respecto a la probabilidad residual de la que hablas, entiendo que te refieres a que la probabilidad de volver al estado inicial, aunque pequeña, no es nula, lo que implica que el azar podría hacer decrecer la entropía. Y así es, esa conclusión es correcta. Y ocurre igual en la termodinámica: en un sistema aislado hay una probabilidad no nula de que la entropía decrezca. Pero debido al enorme número de grados de libertad de los sistemas físicos, la probabilidad de que eso ocurra es tan descomunalmente pequeña, que incluso esperando un tiempo igual a millones de veces la edad del universo no llegaríamos a observarlo jamás. En ese sentido es en el que la segunda ley es categórica.

      • creo que Roegen se refiere a la posibilidad del crecimiento contínuo de energía disponible (quemar cada año un x% más que el año anterior)... la entropía nos dice que las concentraciones de calor y frío tienden a igualearse... ¿No? A mi lo que me lo complica (creo) es que no sé hasta que punto la tierra es un sistema abierto o cerrado, o de si podemos disponer de más y más energía o no...
        Y si bien he de confesar que no he acabado de entender nunca la entroía, por más ejemplos que me pongan... (¿es posible sacar energía ilimitada a base hidrógeno? ¿energía nuclear?) también he proclamar mi escepticismo sobre su aplicabilidad a sistemas sociales, en donde interpretando interpretando podemos llegar al absurdo. Un ejemplo: discusión entre un físico estadounidense (John Murphy) y un economista top research: "Exponential Economist Meets Finite Physicist": http://physics.ucsd.edu/do-the-math/2012/04/economist-meets-physicist/
        Y más interesante la discusión del foro que sigue.
        Tb aquí: http://www.overcomingbias.com/2012/04/murphy-on-growth.html

        • La disponibilidad de energía de los sistemas físicos siempre es finita, y más limitada aún la que se puede extraer. Pero la Tierra es un sistema abierto: le llega energía exterior, al menos, del Sol y la Luna; de aquél en forma de radiación sobre todo, y de ambos en forma de mareas. ¿Cuánta? Yo diría que muchísima: prácticamente toda la biosfera se sostiene de la energía solar. Y en cuanto al hidrógeno o la energía nuclear, no es posible sacar energía indefinidamente porque son recursos limitados, como el petróleo (Incidentalmente, el hidrógeno no es una fuente de energía, sino una forma de almacenarla. Puede servir, por ejemplo, para almacenar energía solar. Generar hidrógeno cuesta energía, que luego se libera al quemarlo). Por último, respecto a los enlaces que pones, no me parecen absurdos de ningún modo. El punto más interesante de esos enlaces es la idea de que una parte de la energía que consumimos se degrada en forma de calor aumentando la temperatura del planeta. Como no hay manera de deshacerse del calor, la temperatura del planeta se puede elevar dramáticamente en unos pocos siglos. Un más que desagradable efecto de la entropía, desde luego.

          • Gracias por la respuesta. Sigo sin entender demasiado qué tienen en común un rayo solar y un jarrón que se rompe (la irreversibilidad de los procesos, supongo) pero la información que aportas la asumo totalmente.
            Siento no ser capaz de expresarme mejor. Lo del absurdo lo decía por el diálogo entre el físico y el economista. Creo que los economistas hemos asumido que nuestra misión en la tierra es "crear riqueza", o cuando menos poner las bases, aunque ésta no sea "física". Pero si la "riqueza" no es "física" qué es? Y creo que el diálogo físico - economista del refleja muy bien el absurdo de intentar llevar cierta lógic económicaa (crecimiento perpetuo) a un imposible material.
            A mi la parte que más me gusta es el argumento del economista de que cada vez la energía supone un menor porcentaje del GDP, la posibilidad de que esa cantidad cada vez sea menor debido a continuas mejoras en la eficiencia y la respuesta del físico: "But if energy became arbitrarily cheap, someone could buy all of it, and suddenly the activities that comprise the economy would grind to a halt. Food would stop arriving at the plate without energy for purchase, so people would pay attention to this."
            🙂

      • Realmente este asunto, tal como lo explica, es más para un seminario que para intercambio breve con aficionados.
        Se adentra en profundidades que están ahí pero que a los legos nos exigen algo más de tiempo que la simple lectura.
        En el caso de mi pregunta, en la que me parece imposible que de una ceniza pueda en hipótesis alguna volver a salir la energía original del leño, el tener que asignarle una probabilidad infinitesimal a ese evento le lleva a uno a entornos desconcertantes.

        Desde esa física no hay milagro religioso ni hipótesis que sean imposibles que es la sensación con la que uno se queda al leer a físicos de cuerdas y a cuánticos.

        Muchas gracias y venga con más frecuencia. Tras su artículo he decidido volver a abrir el libro de Georgescu-Roegen que también ha citado KeyNes y que creía haber entendido.

        • Aunque la termodinámica enuncie que existe una posibilidad no nula de que el leño se vuelva a reformar, es químicamente imposible. Existen barreras energéticas de un estado a otro que impiden que ello ocurra sin aportar energía, lo cual supondría hacer decrecer la entropía.

          La cuestión del artículo no es entender el artículo, ya que se explica mejor que la mayoría de los profesores del asunto (cosa no difícil, sino no le habrían dejado publicar aquí) sino entender cual es el símil que nos quieren plantear para el próximo asalto.

          Para mí la época de la burbuja fue la de crecimiento de entropía ("desorden") de nuestra economía, y ahora hay que aplicar energía para reducir dicho desorden.

          • El argumento es circular: no puedes aducir el segundo principio para demostrar que no se puede violar. La cuestión es que lo que la interpretación mecano-estadística de la entropía nos enseña es que el segundo principio, tomado literalmente, es falso, pero que la probabilida de observar una violación de ese principio es ridículamente pequeña, tan absurdamente pequeña que lo que sería tonto es tenerla en cuenta. Por lo tanto, estoy de acuerdo, a todos los efectos, es imposible que se regenere el leño.

            Respecto de la burbuja, creo que no tiene nada que ver con la entropía, sino que es un simple bucle de realimentación. Lo que ocurría en las últimas etapas de la burbuja (como en todas las burbujas) es que la mayor parte del mercado lo formaban especuladores, o sea, gente que compraba para vender con plusvalía. Entonces había, y ahora sigue habiendo, gente que necesita vivienda. La burbuja se pinchó cuando esa masa de especuladores se salió de golpe del mercado.

            • A esa imposibilidad práctica de que el suceso se produzca por ser su probabilidad infinitesimal es a lo que Jorge Wagensberg llama "trivialidad estadística" en su libro "Las raíces triviales de lo fundamental". Que, por cierto, contiene una explicación bastante recomendable (y con muy pocas ecuaciones 🙂 del concepto y repercusiones de la entropía. Similar a la expuesta aquí.

              ¡Muchas gracias por el post!

  • Aquí tienes un paper que revisa la hipótesis de multiversos.
    http://arxiv.org/pdf/1001.0726v1.pdf
    Sí que hay test empíricos posibles. Aparte de que Popper no el único expedidor de carnets sobre lo que es ciencia y lo que no. Hay ciencias exactas que son observacionales, como la Astronomía y la Arqueología (y en cierta manera la Economía), no experimentales. Lo que hay es lo que se observa, no siempre es posible hacer predicciones directas verificables. ¿Son correctos los modelos sobre nuestro el Sol? Tendremos que esperar 5000M de años para ver si se vuelve una gigante roja.
    Dicho esto, soy bastante escéptico de muchas formulaciones de Multiversos basadas en teorías de cuerdas, pero creo que la interpretación de la Teoría Cuántica a través de los universos paralelos es la única que, a mi parecer, tiene sentido intuitivo (además de matemático). Explica porqué, en el experimento de la rejilla de Young, los electrones parecen "saber" si la rejilla está abierta o cerrada.
    Y una de las bellezas de esa teoría es que en ella, la entropía aparece de forma natural: se incrementa cada vez que el universo se divide en dos...

  • Ok, de acuerdo, la entropía es un concepto interesante. Sería interesante también hablar de las relaciones entre entropía, probabilidad, información, aleatoriedad, inferencia, etc. Pero, por qué este post en NeG?

    • T_Memeli, gracias por tu comentario. ¿Por qué este post? Pues porque desde hace unos meses en NeG hay una "sección" de ciencia con un post mensual del cual me vengo encargando yo (o pidiendo a gente que escriba como el caso de hoy). La economía es muy importante y muy interesante, pero no va a ser todo economía! (Digo yo.) Espero que algo de ciencia una vez al mes no te haga sufrir mucho...

    • T_Memeli:

      El concepto de entropía se utiliza en modelos económicos con agentes racionales que no prestan atención a toda la información disponible (rational inattention). La idea es que no es gratis procesar la información, aunque sea gratis obtenerla. Hay que decidir cómo asignar esa capacidad de procesamiento

      Quizá te valga esto
      http://faculty.wcas.northwestern.edu/~mwi774/RationalInattention.pdf

      Lo mismo alguno de los editores/colaboradores de NeG puede escribir un post al respecto

      Saludos

  • Muchas gracias Sr. Cuesta por esa explicación tan detallada, a lo mejor abrimos la caja de los truenos comparando física y economía, o quizás sea mejor psicología, sociología, historia y probabilidad como hizo Don Isaac Asimov en sus amenos e instructivos relatos sobre "La Fundación". Cuya lectura me atrevo a recomendar para mejor olvidarse de la realidad, aunque sea por un rato antes de dormir.

    • A la pregunta 1: no lo sé. No siempre es así, pero es cierto que hay algunas ecuaciones muy sencillas de profundas implicaciones. A la pregunta 2, tengo varias cosas que decir: (a) soy un fan absoluto de los documentales de la BBC, (b) no me gusta el peinado de Brian Cox, y (c) creo que la explicación que da es correcta, aunque no sé si es suficiente para que cualquier espectador de un documental como este pille la idea. Pero no está nada mal. Ojalá produjésemos documentales como estos en España.

    • Elucubrando un poco, o quizás solo por hacer propaganda de la Teoría Algorítmica de la Información, que recomiendo encarecidamente conocer, entiendo que para que una ecuación sea profunda ha de ser sencilla. Si definimos una ecuación como profunda si de ella se pueden extraer muchas predicciones, quiere decir que esa ecuación ha recogido, ha encontrado muchos patrones, muchas regularidades: comprime una gran cantidad de datos. Por tanto, una ecuación será tanto más profunda cuanto más datos comprima en una forma más sencilla.

  • José A.,

    Sensacional post en la linea de calidad y capacidad de divulgacion de los de Anxo. Continuar asi, por favor.

    Solo señalar que el famoso econometra holandes Henri Theil utilizo una aplicacion de dicho concepto, derivado de de la termodinamica, para asignar la representacion parlamentaria de los diversos partidos en un famoso articulo titulado " The Desired Political Entropy" publicado en The American Political Science Review Vol. 63, No. 2 (Jun., 1969), pp. 521-525.

    Recientemente, nuestro admirado Antonio Cabrales, en colaboracion con Olivier Gossner and Roberto Serrano acaban de aplicarlo en economía financiera en su articulo " Entropy and the value of information for investors", a aparecer en American Economic Review.

    Con tanto desorden en en el orden economico intrenacional, no es extraño que la idea de entropia se vaya abriendo paso a marchas forzadas en las ciencias sociales, como fue el caso de otro concepto tomado de la Fisica: la Histeresis, de gran vigencia en nuestro denostado mercado laboral.

  • Por si a alguien le interesa la relación entre la entropía (y los modelos de Ising) y las finanzas (especialmente, el análisis de riesgo de carteras crediticias):

    http://arxiv.org/pdf/cond-mat/0401378.pdf

    En particular, se puede observar que un análisis probabilista muy general (con muy pocas hipótesis) sugiere que el modelo de Ising es el adecuado para definir la distribución de probabilidad de las pérdidas de una cartera crediticia.

    El modelo de Ising tiene "colas anchas", y en particular, puede tener dos "picos" en su distribución de probabilidad, uno siendo el habitual, alrededor de la pérdida esperada, y otro siendo no habitual, alrededor de una pérdida mucho mayor, que sugiere la posibilidad de "cascadas crediticias".

    Que yo sepa, este modelo es el único que es capaz de predecir cascadas crediticias y pérdidas mucho mayores que las existentes alrededor de la pérdida esperada.

  • Siento discrepar con la mayoría de las opiniones.
    En este artículo hay numerosos errores conceptuales; casi en cada párrafo. Y no pocos son errores graves. Con lo cual, en vez de conocimiento, se difunde confusión.
    Me cuesta creer que haya sido escrito por un físico.
    La única excusa que se me ocurre para explicar este despropósito es que el autor, llevado por un afán divulgativo, se haya olvidado de la física.
    Ciertamente no es fácil escribir sobre física, y mucho menos en tono divulgativo.

    • Cuando he visto tu comentario, Clausius, se me ha pasado por la cabeza inmediatamente borrarlo, pero luego he pensado que no. Prefiero ponerlo como ejemplo de lo que NO es un comentario en NeG. En este blog se habla de realidades objetivas y no de opiniones. Si has detectado algún error conceptual, por favor, arguméntalo apropiadamente; di cual es y como crees tú que se debe explicar el concepto correspondiente. Entonces podremos debatir. Entretanto, tu comentario no pasa de ser, siendo generoso, pura charla de café.

      Ah, y estamos de acuerdo en que es muy difícil escribir de física, y más todavía para que se entienda. Por eso tiene mérito intentarlo, y por eso tiene mérito contribuir constructivamente a las discusiones que se susciten.

  • Gracias por el post, hace tiempo que dejé la física como ejercicio epistemológico, pero siempre es saludable volverse a entrenar. Por cierto, si alguien prepara un seminario sobre Sokal y el preocupante estado de algunas ciencias sociales, que lo publicite, que intentaré ir como sea.
    Supongo que quienes estén hacieno una tesis conocerán el cómic Ph.D., pero como allí hay una de las mejores y simples explicaciones sobre qué es un acelerador de partículas, pego el link para los amantes de la divulgación de aquellos conocimientos que nos limitaremos a entender y no descubrir:
    http://www.phdcomics.com/comics/archive.php?comicid=1489

  • Gracias por el artículo. Quisiera recomendar el de Asimov en 100 preguntas básicas sobre la ciencia; es claro y preciso, como todos los de ese libro.

  • Delicioso!
    Una vez más gracias José, Juanjo.

    Profundo y relevante. Lo refiere José en uno de los comentarios, cuando habla del diablillo de Maxwell. Porque este diablillo que en el gedankenexperiment hace cosas impensables, sabemos que lo hace a costa de emplear 'información' para saber quién pasa y quién no de un lado al otro.
    La relación de la entropía física con la información, establecida por Claude Shannon (ese artículo es un 'must' para cualquiera interesado en el tema, del tipo de los interesantísmos papers que nos pone Jesús cuando nos habla sobre la imposibilidad de mercados informacionalmente eficientes, los teoremas de Modigliani-Miller), es de una profundidad maravillosa. Y las mates son triviales ;).
    http://www.alcatel-lucent.com/bstj/vol27-1948/articles/bstj27-3-379.pdf

    El otro día en el trabajo nos 'espetaban' que nuestros modelos econométricos "tenían errores" (tipo y I y tipo II), y aún algún director nos ofrecía dinero para mejorarlos comprando nuevos conjuntos de información. Después de darle las gracias por el funding, a la salida, mi compañero me señalaba irónicamente que independientemente de la mejora; los modelos siempre cumplirían el segundo principio de la termodinámica.

    ¿Os animáis a escribir profundizando sobre el tema, entre información y entropía?
    Muchas Gracias!

  • Para una futura contribución quedaría pendiente tal vez hablar de entropía para los de "ciencias sociales". Teoría de la Información , Shannon y los mensajes (dentro de una botella).

    En todo caso, aunque no sea fan de los conceptos "aritmetomorfos" de la economía, puedo aceptar que un blog como este contribuye en cierto modo a inyectar neguentropía en el sistema.

  • Extraordinariamente interesante post, gracias

    Recuerdo en la carrera al profundizar en las ciencias, el desasosiego de empezar a percibir las bases de su edificio, la sensación de "debilidad" de los conceptos, por ejemplo: "la temperatura es "lo" que mide un termómetro (de gas a volumen constante)". Eso, a los ojos del neófito era como una degradación del "saber" que se esperaba alcanzar. Al final los conceptos físicos son herederos de los aparatos que los mides que están cogidos con "alfileres" por la teoría que explica los aparatos de medida, y no son más que "etiquetas" funcionales

    No creo que haya otra variable de estado como la Entropía que se preste más a las disquisiciones "esotéricas", y eso produce, inevitablemente, una degradación del contenido científico de su uso, que invade hasta la misma Física

    Por ejemplo el caso citado de los Multiversos. Resulta que al obervar el universo y su física, se observa que el mínimo cambio en la relación de las fuerzas electromagnéticas y la gravitatoria y las supernovas no podrían generar la cascada de elementos complejos que vemos, o si las fuerzas nucleares fueran siquiera mínimamente mayores, al principio todo el H se habría fusionado en He y no tendríamos ese vector energético libre para fomar nada menos que el H2O y toda la química orgánica; o se puede constatar la "planeidad" de la evolución del cosmos, su "lentitud" que permite formar estrellas, galaxias, vida...la distrubución de la materia oscura, etc...Cualquier mínimo cambio en las magnitudes, en cualquier sentido, es una "catástrofe", pero como "entrópicamente" eso es un estado "hiper-ordenado" debe haber un número increíblemente grande de Universos donde se dan otros valores de los parámetros físicos, y así, de pronto, los físicos se han convertido en meta-físicos en la pura tradición aristotélica, todo por el temor (infundado) a la "otra" explicación trascendente

  • La entropía en economía está muy vinculada a la distribución de la renta. Un estado de entropía muy baja o de mucho orden es el equivalente a una situación de distribución de la renta perfecta con un coeficiente de GINI de 0. Este parece ser un estado de baja probabilidad así, cuando simulas un modelo de agentes heterogéneos intercambiando con reglas de reparto de una uniforme tipo lo que pones en este post, es muy curioso observar como la desigualdad emerge de forma natural y se estabiliza en un nivel de 0.55. Lógicamente cuando la concentración de la riqueza es muy elevada, la redistribución a estados macroscópicos equitativos lleva mucho más tiempo. Esto es el equivalente al: "pasar de una sociedad justa a una injusta es mucho más probable que pasar de una injusta a una justa". Se necesita pues mucha energía o ''Estado'' para ''enfriar'' o lograr este estado distributivo más equitativo. Si como parece, nos dirigimos hacia un anarco-capitalismo con estado mínimo, finalmente, esta tendencia a la desigualdad emergente de los equivalentes sociales a modelos de gases de Dragulescu y Yakovenko, se corroborará como efectivamente irreversible 🙁

  • Sobre orden y desorden.

    Al hablar de entropía en inglés no se utiliza la misma terminología que usamos en nuestro idioma.
    En vez de recurrir al concepto de "orden" y su contrario, usan el "bound" and "unbound" energy que quizás sea menos ético pero más estético y nos facilite la comprensión.

    Una energía "unbound" deviene algo ya consumido, gastado, suelto, degradado. La energía "bound" es la que preserva su potencialidad para trabajos futuros.
    En general recurro a esta interpretación, más que al "orden", para entenderlo (o para ceerme que lo entiendo)
    La física es la ciencia que gracias a la semántica permite que los legos sigamos soñando.

  • Óscar Carpintero escribió una biografia muy interesante sobre Georgescu-Roegen, alumno de Schumpeter y colega admirado de Samuelson. Muchos se preguntan todavía el por que no se le concedió el Nobel de Economia. Los interesados en profundizar en como la entropia obliga a replantearse los postulados académicos de la teoria economica convencional, podrán sacar provecho de la lectura de los articulos siguientes:
    http://www.econ.uba.ar/www/institutos/epistemologia/marco_archivos/ponencias/Actas%20XIII/Trabajos%20Episte/Mansilla_trabajo.pdf
    http://www.elviejotopo.com/web/archivo_revista.php?arch=570.pdf

    Y para los que de verdad quieran mas, el libro clásico sobre el tema escrito por Jeremy Rifkin: "Entropia. Hacia el mundo invernadero"
    Saludos. Alex

  • Unas observaciones, más sobre los comentarios que sobre el artículo, que me parece muy interesante:
    a) Sí que existe entropía en Mecánica Cuántica, lo que se llama la "Entropía de Von Neumann", que para los interesados tiene que ver con la traza del operador densidad. http://en.wikipedia.org/wiki/Von_Neumann_entropy
    b) La entropía de la información, o entropía de Shannon, es probablemente la más interesante para los economistas, pues probablemente pueda usarse para evaluar la transferencia de información en mercados y sistemas similares macro o micro.
    c) En puridad, y por simplificar, el profesor está saltando rápidamente por conceptos. La entropía no tiene siempre que aumentar, sólo no descender, y exclusivamente para procesos termodinámicos. De hecho, las ideas de Clausius (que alguien ya comentó más arriba) era cuantificar cómo de irreversible, cuánto se había degradado la energía en un motor.

    • Gracias por tus comentarios Lucas. Solo quisiera hacer algunas puntualizaciones:
      a) En efecto, se puede definir una entropía en Mecánica Cuántica, y encierra el mismo concepto que la de la mecánica clásica, esto es, cuantificar cuántos microestados hay en un macroestado. Mi única referencia en un comentario a la MC venía al hilo de la interpretación de los multiversos de la MC, y se refería a que no es en absoluto necesaria para justificar la entropía, puesto que esta ya se justifica sobradamente en un contexto puramente clásico. Pero en efecto, la entropía se puede definir en multitud de sistemas dinámicos, clásicos, cuánticos o de cualquier otro tipo.
      b) No hay diferencia entre entropía de información y entropía termodinámica. La entropía termodinámica mide el nivel de información que contiene un estado termodinámico. Hay toda una derivación (debida a Jaynes) de la mecánica estadística basada en esta idea. La única diferencia entre ambas entropías es la constante de Boltzmann, que éste introdujo simplemente para darle a la entropía las unidades que le había asignado Clausius. Para profundizar más en este hecho remito al libro de Ben-Naim que menciono al final del post.
      c) En efecto, estoy dejando el rigor a un lado en aras de la claridad en el post, pero he intentado dejar claro que la segunda ley dice que la entropía no decrece, y que solo aumenta en procesos irreversibles. Gracias de todos modos por abundar en este punto porque es muy pertinente.

  • Entropia, sostenibilidad y resiliencia. Tres conceptos que desde hace años viene siendo trabajado por autores como Bernard Lietaer, cuyo nuevo libro "Money and Sustainability. The Missing Link" está a punto de aparecer publicado. Se trata de un informe al Club de Roma, capítulo europeo. Finance Watch and the World Business Academy, preparado y escrito por: Bernard Lietaer, Christian Arnsperger, Sally Goerner y Stefan Brunnhuber.
    Saludos
    Alex

Los comentarios están cerrados.