Milagro en el filo (II)


Observarán que esta entrada parece repetida. En realidad, es una demostración del asunto en cuestión. Alguien ha aumentado la entropía de su entorno revisándola y puliéndola. Sus acabados son muy interesantes; en particular, uno, que introduce, de partida, el punto de vista escéptico sobre la materia que se discute.

1

Sigue desde …

Las tres conferencias de Schrödinger en el Trinity College son uno de los lugares comunes de cualquier libro sobre el ADN. Lo son y lo merecen. No lo digo yo, lo dicen Watson y Crick, por ejemplo, en varios de sus libros. En ellos siempre aparecen esas conferencias y el libro publicado unos años después como hitos en su propia biografía. Ahí estaba uno de los grandes genios de la física abriendo un camino fascinante (jeje). Y casi siempre se hace hincapié en la predicción de la existencia de un “cristal aperiódico” al que ahora llamamos ADN. Es lógico: el tipo casi inventó una disciplina científica y, además, el avance en las décadas transcurridas desde entonces es espectacular. En particular, en lo relativo al conocimiento de las “leyes” de la replicación y expresión de los genes.

Sin embargo, Schrödinger, en su última conferencia, se planteó una pregunta que, considerando su profesión, era bastante pertinente: ¿cómo logra la vida sortear el problema de la segunda ley de la termodinámica? La vida parece precisamente lo contrario de la dirección que señala la segunda ley, que se dirige hacia un estado de máxima entropía con su entorno. Como estas entradas van a hablar precisamente de la segunda ley en relación con la vida, bastará para el propósito de enunciar el problema, recuerden que la entropía mide qué parte de la energía de un sistema es de baja calidad, es decir, es incapaz de producir trabajo. La ley nos dice que la entropía de un sistema aislado crece hasta que se alcanza un estado de equilibrio en el que la temperatura es uniforme. Los seres vivos parecen contradecir la segunda ley, pero, ya lo sabemos, la contradicción es aparente.

Schrödinger dio la respuesta: los seres vivos producen un aumento de la entropía de su entorno por definición. Si no es capaz de revertir localmente (y cuando digo localmente me refiero al propio ser vivo) ese proceso le llevará a la muerte y a la disgregación. Schrödinger afirmó que sólo extrayendo “entropía negativa” del ambiente puede seguir vivo. El metabolismo del ser vivo nos permite definirlo como tal siempre que sea capaz de “liberarse de toda la entropía que no puede dejar de producir mientras está vivo”.

Ese concepto, el de entropía negativa o neguentropía, desaparecerá de sus formulaciones posteriores (y se sustituirá por energía libre, capaz de producir trabajo), aunque tendrá éxito en la teoría de la información.

Lo verdaderamente interesante es que este proceso no es simplemente una manera de evitar esa paradoja aparente entre la vida y la segunda ley. Va más lejos; en realidad, es posible que el camino hacia la vida y hacia el desarrollo de su complejidad se explique precisamente por el impulso de la segunda ley. Esta posibilidad no aparece en Schrödinger, sino que es resultado del análisis de qué sucede en algunos sistemas alejados del equilibrio termodinámico en los que el proceso de reducción de gradientes genera una organización que favorece la disipación, y, por tanto, esa misma reducción. De ser así, la aleatoriedad de la vida (de su origen y de su creciente complejidad) podría ser discutida: la existencia de energía de calidad disponible y su inexorable degradación serían un motor para la aparición de estructuras relativamente estables, capaces de acelerar ese proceso de degradación.

Uno de los aspectos más interesantes de un planteamiento así es que se aleja de cuestiones que aparecen a menudo en polémicas relacionadas con el origen de la vida. Existe una entropía en la teoría de la información; pero la relación con la entropía termodinámica es producto de la decisión de los fundadores de la teoría, Claude Shannon y Warren Weaver, que partían de la similitud de las matemáticas utilizadas. La entropía informacional mide un tipo de incertidumbre, y su uso parecía justificado por el hecho de que la entropía termodinámica es, se supone, una medida del desorden. Sin embargo, esto se relaciona con una vulgarización de la segunda ley. A menudo se relaciona con el aumento del desorden y alguien nos dice que una habitación tiende, por ejemplo, a desordenarse y no al contrario. Sin embargo, la entropía termodinámica no se produce en niveles macroscópicos: desordenar la habitación aumenta la entropía igual que ordenarla, porque tenemos que trabajar y parte de la energía utilizada no puede posteriormente reutilizarse para producir trabajo. Sin embargo, ambas situaciones no son equivalentes en teoría de la información: hace falta más información para explicar la situación de la habitación desordenada que de la ordenada. La conexión que existe tiene más que ver con el hecho de que la complejidad creciente de los sistemas (no necesariamente vivos) sí aumenta la cantidad de información y el intercambio de datos, pero como consecuencia del propio proceso. Digamos que esa relación puede introducir una quiebra en los planteamientos estáticos que parten de la improbabilidad estadística del producto final, considerando la información precisa para la aparición y replicación del sistema. Algunos ejemplos de sistemas organizados no vivos derivados de situaciones de no equilibrio termodinámico son tan espectaculares que servirán muy bien a este propósito.

Continuará.


2


Sigue desde …

Las tres conferencias de Schrödinger en el Trinity College son uno de los lugares comunes de cualquier libro sobre el ADN. Lo son y lo merecen. No lo digo yo, lo dicen Watson y Crick, por ejemplo, en varios de sus libros. En ellos siempre aparecen esas conferencias y el libro publicado unos años después como hitos en su propia biografía. Ahí estaba uno de los grandes genios de la física abriendo un camino fascinante (jeje). Y casi siempre se hace hincapié en la predicción de la existencia de un “cristal aperiódico” al que ahora llamamos ADN. Es lógico: el tipo casi inventó una disciplina científica y, además, el avance en las décadas transcurridas desde entonces es espectacular. En particular, en lo relativo al conocimiento de las “leyes” de la replicación y expresión de los genes.

Sin embargo, Schrödinger, en su última conferencia, se planteó una pregunta que, considerando su profesión, era bastante pertinente: ¿cómo logra la vida sortear el problema de la segunda ley de la termodinámica? La vida parece precisamente lo contrario de la dirección que señala la segunda ley, que describe la evolución de los sistemas físicos por el incremento de entropía de los sistemas y su entorno. Como estas entradas van a hablar precisamente de la segunda ley en relación con la vida, bastará para el propósito de enunciar el problema, recuerden que la entropía se relaciona con qué parte de la energía de un sistema es de baja calidad, es decir, es incapaz de producir trabajo. Lo de “baja calidad” es un peyorativo antrópico: el hombre es un animal vago por naturaleza. La ley nos dice que un sistema aislado (y me perdonaran que no defina lo que es un sistema aislado) evoluciona mientras que su entropía pueda crecer. Cuando la entropía del sistema ha dicho basta, la evolución cesa y el sistema alcanza un estado de equilibrio. No por casualidad ese estado de equilibrio está caracterizado por unas propiedades homogéneas: la temperatura, por ejemplo, sería uniforme. Los seres vivos parecen contradecir la segunda ley, pero, ya lo sabemos, la contradicción es aparente.

Schrödinger dio la respuesta: los seres vivos producen un aumento de la entropía de su entorno por definición. Si no es capaz de revertir localmente (y cuando digo localmente me refiero al propio ser vivo) ese proceso le llevará a la muerte y a la disgregación. Schrödinger afirmó que sólo extrayendo “entropía negativa” del ambiente puede seguir vivo. El metabolismo del ser vivo nos permite definirlo como tal siempre que sea capaz de “liberarse de toda la entropía que no puede dejar de producir mientras está vivo”.

Ese concepto, el de entropía negativa o neguentropía, desaparecerá de sus formulaciones posteriores (y se sustituirá por energía libre o exergía, energía capaz de producir trabajo en un ambiente definido), aunque tendrá éxito en la teoría de la información.

Lo verdaderamente interesante es que este proceso no es simplemente una manera de evitar esa paradoja aparente entre la vida y la segunda ley. Va más lejos; en realidad, es posible que el camino hacia la vida y hacia el desarrollo de su complejidad se explique precisamente por el impulso de la segunda ley. Aunque, en principio, esto también puede ser una falacia post hoc ergo propter hoc si admitimos que la entropía de un sistema aislado siempre crece; lo cual no es mucho admitir porque nunca se ha observado lo contrario. Esta posibilidad no aparece en los trabajos de Schrödinger, sino que es resultado del análisis de qué sucede en algunos sistemas alejados del equilibrio termodinámico en los que el proceso de reducción de gradientes genera una organización que favorece la disipación, y, por tanto, esa misma reducción. De ser así, la aleatoriedad de la vida (de su origen y de su creciente complejidad) podría ser discutida: la existencia de energía de calidad disponible y su inexorable degradación serían un motor para la aparición de estructuras relativamente estables, capaces de acelerar ese proceso de degradación.

Uno de los aspectos más interesantes de un planteamiento así es que se aleja de cuestiones que aparecen a menudo en polémicas relacionadas con el origen de la vida. Existe una entropía en la teoría de la información; pero la relación con la entropía termodinámica es producto de la decisión de los fundadores de la teoría, Claude Shannon y Warren Weaver, que partían de la similitud de las matemáticas utilizadas. La entropía informacional mide un tipo de incertidumbre, y su uso parecía justificado por el hecho de que la entropía termodinámica es, se supone, una medida del desorden. Sin embargo, esto se relaciona con una vulgarización de la segunda ley. A menudo se relaciona con el aumento del desorden y alguien nos dice que una habitación tiende, por ejemplo, a desordenarse y no al contrario. Sin embargo, la entropía termodinámica no se produce en niveles macroscópicos: desordenar la habitación aumenta la entropía igual que ordenarla, porque tenemos que trabajar y parte de la energía utilizada no puede posteriormente reutilizarse para producir trabajo (Nota). Sin embargo, ambas situaciones no son equivalentes en teoría de la información: hace falta más información para explicar la situación de la habitación desordenada que de la ordenada. La conexión que existe tiene más que ver con el hecho de que la complejidad creciente de los sistemas (no necesariamente vivos) sí aumenta la cantidad de información y el intercambio de datos, pero como consecuencia del propio proceso. Digamos que esa relación puede introducir una quiebra en los planteamientos estáticos que parten de la improbabilidad estadística del producto final, considerando la información precisa para la aparición y replicación del sistema. Algunos ejemplos de sistemas organizados no vivos derivados de situaciones de no equilibrio termodinámico son tan espectaculares que servirán muy bien a este propósito.

Continuará.


Nota: por ser de interés general, añado esto (a pesar de ser una comunicación privada)

EMPERO, la relación entre entropía y desorden microscópico es bastante evidente y conocida. Aunque trasciende de la termodinámica porque ésta no se ocupa de lo microscópico. Las fases más desordenadas (microscópicamente) de una sustancia son más entrópicas que las fases más ordenadas. Ejemplo típico el gas: sistema muy desordenado localmente, muy simétrico y muy entrópico. Frente al sólido, ordenado localmente, con menos simetría y menos entropía. Y dentro de una fase sólida, una fase sólida más simétrica y desordenada (por ejemplo una cúbica) es más entrópica que una menos simétrica y más ordenada (por ejemplo una tetragonal, un cubo estirado en una dirección).

EMPERO DOS, el ejemplo del orden y el desorden de una habitación está resuelto torpemente. Claro si admitimos, y todos lo hacemos, que todos los procesos naturales aumentan la entropia, hagas lo que hagas aumentará la entropía: ordenes o desordenes la habitación. Es tan trivial que no hace falta escribirlo. Lo que pasa es que esa explicación toma por tonto al que pone el ejemplo. Que no es más que una analogía y que no quiere describir estrictamente un proceso termodinámica.

La idea es la siguiente. Una habitación se desordena porque, normalmente, uno deja las cosas (calzoncillos, calcetines, libros perdidos de Fernando Báez, restos orgánicos etc. etc.) en el primer lugar que caen. Eso es lo que en termodinámica se identificaría como un proceso espontáneo. Dejamos el calcentín y punto. No nos preocupamos de colocarlo en su sitio. Y ese proceso, espontáneo (dejar caer y punto), es siempre entrópico. Así es la naturaleza.

Otra cosa es que uno se preocupe de soltar los calzoncillos, los calcetines, los libros etc etc en su sitio. Eso no es espontáneo y requiere algún tipo de mecanismo ‘inteligente’ [aquí un análisis en términos de información requeriría analizar cómo se sabe dónde dejar el calcetín, etc. etc.]. Bah, da igual. Lo que importa es que no es espontáneo, requiere una cierta acción, ingenio o máquina inteligente [que en el ejemplo que nos ocupa suele llamarse ‘madre’]. Eso se relaciona en termodinámica con los procesos reversibles (aquellos que no hacen aumentar la entropía): nunca podrían ser espontáneos y necesitarían de un cierto ‘diseño’ para que pudieran ocurrir; para que pudieran ocurrir sin aumentar la entropía del sistema y su entorno. Estos procesos reversibles nunca ocurren en la naturaleza pero uno puede idealizarlos como un paso al límite de la misma forma que las leyes de Newton pueden idealizar el movimiento de una partícula sin acción de fuerzas exteriores.


Anuncios

21 comentarios en “Milagro en el filo (II)

  1. Está bien el escrito/los ecritos. Yo solo tengo un problema: no veo la paradoja aparente. O la tengo resuelta.

    El escrito dos está claramente más pulido, felicite al negro de mi parte. Haría una salvedad. El problema de tratar el caso como una falacia post hoc ergo propter hoc tiene una cierta dificultad epistemológica. Creo entender, más o menos, lo que quiere decir. Es verdad que, en todo caso, se trata de comprobar que la vida, los sistemas/organismos vivos, no contradicen el segundo principio. Faltaría más. Como diría Eddington, si crees que la vida contradice al segundo principio es tu problema, porque seguro que no lo hace.

    Por otra parte el tema es muy interesante. Efectivamente los organismos vivos son sistemas en desequilibrio y generadores de entropía. No sé si sube la temperatura de la Tierra pero su entropía, sin duda. El problema es que la complejidad de los sistemas fuera del equilibrio tiene su consecuencia: no los entendemos tan bien.

  2. No, si ya sabía eso de que la vida es engordar como cerditos a la espera del San Martín…pero el Orden no puede concebirse sin Desorden porque no si movimiento existiria ni plan e y joder… un calcetín…

  3. Desengáñese, Doña Engracia, que el truco del señor Tse es decir que como aumenta lantropía pues no se rasca el bolsillo…que ya lo tengo calao como muchos inteletuales que no dan palo al agua con eso del desorden…

  4. Pues yo me alegro de ser un organismo vivo y de llevar la contraria a la uniformidad de la temperatura…y de reirme del mundo entero…ea…(aunque sea por poco tiempo)…

  5. Eso va a ser lo que los economistas llaman “una decisión en el margen”.
    O igual no.
    En cuanto a la traducción san google me dice que si no prefiero score, que a lo mejor puede valer.

  6. Me ha sorprendido más lo de la generación de complejidad como mecanismo propulsor del segundo principio. Seguiremos atentos a nuestras pantallas.

    Por otro lado, se ve que el corresponsal sabe de lo que habla. Ahora bien: me preocupa su acertada descripción de mi habitación.

  7. [2] No se lo he dicho al negro, porque luego pide más dinero; en cualquier caso, no hay duda de que nada contradice el segundo principio (el negro insiste en que use ese término). La cuestión es si el segundo principio favorece la aparición de sistemas complejos que disipan energía.

  8. [15] Um, creo que estamos diciendo lo mismo, pero bueno…lo importante es estar fascinados por algo :-).

    (La amenaza del comentario quécoñazo planea sobre la entrada…).

  9. La falacia post hoc aparece en el momento que se dota al segundo principio de una cierta dote votiva. Es una composicíon antropomórfica que podemos disculpar. El principio no puede favorecer, impulsar, explicar o causar nada. El principio, en cierta forma, son las reglas del juego. Y ninguna reglas de juego favorece la consecución de un objetivo. Delimitan sólo las condiciones que permiten alcanzar esos objetivos. Y la condición es clara, haz lo que quieras siempre que aumentes la entropía (=disipar energía).

    Esto vale hasta para las reglas del fútbol: no favorecen marcar goles, ni siquiera al Barça; delimitan cómo hacerlo.

    La analogía no es ni medio perfecta porque en el análisis de los procesos naturales no encontramos ni un árbitro que tenga que velar por la regla, ni un tramposo dispuesto a quebrarlas. Esto es el segundo principio y si no te gusta… a mamarla.

    Otra cosa es investigar o concluir si ciertos procesos, todos ellos compatibles con el principio, son más favorables que otros. Ahí sí se entra en el resbaladizo y complejo problema del análisis del desequilibrio: por qué ciertas estructuras disipativas dan la impresión de estar organizadas y ordenadas, a pesar de ser situaciones alejadas del equilibrio. Y ahí sí puede entrar la vida y su estudio. La respuesta no tendrá que ver con el principio; pudiera ser, no obstante, algo relacionado con la entropía y variacional. Ocurre, por ejemplo en ciertos diseños, que las estructuras de no equilibrio adquieren una característica peculiar: permanecen en el tiempo aumentando la entropía sí, pero aumentándola la menor cantidad posible dadas las circunstancias.

    (Estoy dispuesto a negociar un justiprecio)

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s