Milagro en el filo (II)


Observarán que esta entrada parece repetida. En realidad, es una demostración del asunto en cuestión. Alguien ha aumentado la entropía de su entorno revisándola y puliéndola. Sus acabados son muy interesantes; en particular, uno, que introduce, de partida, el punto de vista escéptico sobre la materia que se discute.

1

Sigue desde …

Las tres conferencias de Schrödinger en el Trinity College son uno de los lugares comunes de cualquier libro sobre el ADN. Lo son y lo merecen. No lo digo yo, lo dicen Watson y Crick, por ejemplo, en varios de sus libros. En ellos siempre aparecen esas conferencias y el libro publicado unos años después como hitos en su propia biografía. Ahí estaba uno de los grandes genios de la física abriendo un camino fascinante (jeje). Y casi siempre se hace hincapié en la predicción de la existencia de un “cristal aperiódico” al que ahora llamamos ADN. Es lógico: el tipo casi inventó una disciplina científica y, además, el avance en las décadas transcurridas desde entonces es espectacular. En particular, en lo relativo al conocimiento de las “leyes” de la replicación y expresión de los genes.

Sin embargo, Schrödinger, en su última conferencia, se planteó una pregunta que, considerando su profesión, era bastante pertinente: ¿cómo logra la vida sortear el problema de la segunda ley de la termodinámica? La vida parece precisamente lo contrario de la dirección que señala la segunda ley, que se dirige hacia un estado de máxima entropía con su entorno. Como estas entradas van a hablar precisamente de la segunda ley en relación con la vida, bastará para el propósito de enunciar el problema, recuerden que la entropía mide qué parte de la energía de un sistema es de baja calidad, es decir, es incapaz de producir trabajo. La ley nos dice que la entropía de un sistema aislado crece hasta que se alcanza un estado de equilibrio en el que la temperatura es uniforme. Los seres vivos parecen contradecir la segunda ley, pero, ya lo sabemos, la contradicción es aparente.

Schrödinger dio la respuesta: los seres vivos producen un aumento de la entropía de su entorno por definición. Si no es capaz de revertir localmente (y cuando digo localmente me refiero al propio ser vivo) ese proceso le llevará a la muerte y a la disgregación. Schrödinger afirmó que sólo extrayendo “entropía negativa” del ambiente puede seguir vivo. El metabolismo del ser vivo nos permite definirlo como tal siempre que sea capaz de “liberarse de toda la entropía que no puede dejar de producir mientras está vivo”.

Ese concepto, el de entropía negativa o neguentropía, desaparecerá de sus formulaciones posteriores (y se sustituirá por energía libre, capaz de producir trabajo), aunque tendrá éxito en la teoría de la información.

Lo verdaderamente interesante es que este proceso no es simplemente una manera de evitar esa paradoja aparente entre la vida y la segunda ley. Va más lejos; en realidad, es posible que el camino hacia la vida y hacia el desarrollo de su complejidad se explique precisamente por el impulso de la segunda ley. Esta posibilidad no aparece en Schrödinger, sino que es resultado del análisis de qué sucede en algunos sistemas alejados del equilibrio termodinámico en los que el proceso de reducción de gradientes genera una organización que favorece la disipación, y, por tanto, esa misma reducción. De ser así, la aleatoriedad de la vida (de su origen y de su creciente complejidad) podría ser discutida: la existencia de energía de calidad disponible y su inexorable degradación serían un motor para la aparición de estructuras relativamente estables, capaces de acelerar ese proceso de degradación.

Uno de los aspectos más interesantes de un planteamiento así es que se aleja de cuestiones que aparecen a menudo en polémicas relacionadas con el origen de la vida. Existe una entropía en la teoría de la información; pero la relación con la entropía termodinámica es producto de la decisión de los fundadores de la teoría, Claude Shannon y Warren Weaver, que partían de la similitud de las matemáticas utilizadas. La entropía informacional mide un tipo de incertidumbre, y su uso parecía justificado por el hecho de que la entropía termodinámica es, se supone, una medida del desorden. Sin embargo, esto se relaciona con una vulgarización de la segunda ley. A menudo se relaciona con el aumento del desorden y alguien nos dice que una habitación tiende, por ejemplo, a desordenarse y no al contrario. Sin embargo, la entropía termodinámica no se produce en niveles macroscópicos: desordenar la habitación aumenta la entropía igual que ordenarla, porque tenemos que trabajar y parte de la energía utilizada no puede posteriormente reutilizarse para producir trabajo. Sin embargo, ambas situaciones no son equivalentes en teoría de la información: hace falta más información para explicar la situación de la habitación desordenada que de la ordenada. La conexión que existe tiene más que ver con el hecho de que la complejidad creciente de los sistemas (no necesariamente vivos) sí aumenta la cantidad de información y el intercambio de datos, pero como consecuencia del propio proceso. Digamos que esa relación puede introducir una quiebra en los planteamientos estáticos que parten de la improbabilidad estadística del producto final, considerando la información precisa para la aparición y replicación del sistema. Algunos ejemplos de sistemas organizados no vivos derivados de situaciones de no equilibrio termodinámico son tan espectaculares que servirán muy bien a este propósito.

Continuará.


2


Sigue desde …

Las tres conferencias de Schrödinger en el Trinity College son uno de los lugares comunes de cualquier libro sobre el ADN. Lo son y lo merecen. No lo digo yo, lo dicen Watson y Crick, por ejemplo, en varios de sus libros. En ellos siempre aparecen esas conferencias y el libro publicado unos años después como hitos en su propia biografía. Ahí estaba uno de los grandes genios de la física abriendo un camino fascinante (jeje). Y casi siempre se hace hincapié en la predicción de la existencia de un “cristal aperiódico” al que ahora llamamos ADN. Es lógico: el tipo casi inventó una disciplina científica y, además, el avance en las décadas transcurridas desde entonces es espectacular. En particular, en lo relativo al conocimiento de las “leyes” de la replicación y expresión de los genes.

Sin embargo, Schrödinger, en su última conferencia, se planteó una pregunta que, considerando su profesión, era bastante pertinente: ¿cómo logra la vida sortear el problema de la segunda ley de la termodinámica? La vida parece precisamente lo contrario de la dirección que señala la segunda ley, que describe la evolución de los sistemas físicos por el incremento de entropía de los sistemas y su entorno. Como estas entradas van a hablar precisamente de la segunda ley en relación con la vida, bastará para el propósito de enunciar el problema, recuerden que la entropía se relaciona con qué parte de la energía de un sistema es de baja calidad, es decir, es incapaz de producir trabajo. Lo de “baja calidad” es un peyorativo antrópico: el hombre es un animal vago por naturaleza. La ley nos dice que un sistema aislado (y me perdonaran que no defina lo que es un sistema aislado) evoluciona mientras que su entropía pueda crecer. Cuando la entropía del sistema ha dicho basta, la evolución cesa y el sistema alcanza un estado de equilibrio. No por casualidad ese estado de equilibrio está caracterizado por unas propiedades homogéneas: la temperatura, por ejemplo, sería uniforme. Los seres vivos parecen contradecir la segunda ley, pero, ya lo sabemos, la contradicción es aparente.

Schrödinger dio la respuesta: los seres vivos producen un aumento de la entropía de su entorno por definición. Si no es capaz de revertir localmente (y cuando digo localmente me refiero al propio ser vivo) ese proceso le llevará a la muerte y a la disgregación. Schrödinger afirmó que sólo extrayendo “entropía negativa” del ambiente puede seguir vivo. El metabolismo del ser vivo nos permite definirlo como tal siempre que sea capaz de “liberarse de toda la entropía que no puede dejar de producir mientras está vivo”.

Ese concepto, el de entropía negativa o neguentropía, desaparecerá de sus formulaciones posteriores (y se sustituirá por energía libre o exergía, energía capaz de producir trabajo en un ambiente definido), aunque tendrá éxito en la teoría de la información.

Lo verdaderamente interesante es que este proceso no es simplemente una manera de evitar esa paradoja aparente entre la vida y la segunda ley. Va más lejos; en realidad, es posible que el camino hacia la vida y hacia el desarrollo de su complejidad se explique precisamente por el impulso de la segunda ley. Aunque, en principio, esto también puede ser una falacia post hoc ergo propter hoc si admitimos que la entropía de un sistema aislado siempre crece; lo cual no es mucho admitir porque nunca se ha observado lo contrario. Esta posibilidad no aparece en los trabajos de Schrödinger, sino que es resultado del análisis de qué sucede en algunos sistemas alejados del equilibrio termodinámico en los que el proceso de reducción de gradientes genera una organización que favorece la disipación, y, por tanto, esa misma reducción. De ser así, la aleatoriedad de la vida (de su origen y de su creciente complejidad) podría ser discutida: la existencia de energía de calidad disponible y su inexorable degradación serían un motor para la aparición de estructuras relativamente estables, capaces de acelerar ese proceso de degradación.

Uno de los aspectos más interesantes de un planteamiento así es que se aleja de cuestiones que aparecen a menudo en polémicas relacionadas con el origen de la vida. Existe una entropía en la teoría de la información; pero la relación con la entropía termodinámica es producto de la decisión de los fundadores de la teoría, Claude Shannon y Warren Weaver, que partían de la similitud de las matemáticas utilizadas. La entropía informacional mide un tipo de incertidumbre, y su uso parecía justificado por el hecho de que la entropía termodinámica es, se supone, una medida del desorden. Sin embargo, esto se relaciona con una vulgarización de la segunda ley. A menudo se relaciona con el aumento del desorden y alguien nos dice que una habitación tiende, por ejemplo, a desordenarse y no al contrario. Sin embargo, la entropía termodinámica no se produce en niveles macroscópicos: desordenar la habitación aumenta la entropía igual que ordenarla, porque tenemos que trabajar y parte de la energía utilizada no puede posteriormente reutilizarse para producir trabajo (Nota). Sin embargo, ambas situaciones no son equivalentes en teoría de la información: hace falta más información para explicar la situación de la habitación desordenada que de la ordenada. La conexión que existe tiene más que ver con el hecho de que la complejidad creciente de los sistemas (no necesariamente vivos) sí aumenta la cantidad de información y el intercambio de datos, pero como consecuencia del propio proceso. Digamos que esa relación puede introducir una quiebra en los planteamientos estáticos que parten de la improbabilidad estadística del producto final, considerando la información precisa para la aparición y replicación del sistema. Algunos ejemplos de sistemas organizados no vivos derivados de situaciones de no equilibrio termodinámico son tan espectaculares que servirán muy bien a este propósito.

Continuará.


Nota: por ser de interés general, añado esto (a pesar de ser una comunicación privada)

EMPERO, la relación entre entropía y desorden microscópico es bastante evidente y conocida. Aunque trasciende de la termodinámica porque ésta no se ocupa de lo microscópico. Las fases más desordenadas (microscópicamente) de una sustancia son más entrópicas que las fases más ordenadas. Ejemplo típico el gas: sistema muy desordenado localmente, muy simétrico y muy entrópico. Frente al sólido, ordenado localmente, con menos simetría y menos entropía. Y dentro de una fase sólida, una fase sólida más simétrica y desordenada (por ejemplo una cúbica) es más entrópica que una menos simétrica y más ordenada (por ejemplo una tetragonal, un cubo estirado en una dirección).

EMPERO DOS, el ejemplo del orden y el desorden de una habitación está resuelto torpemente. Claro si admitimos, y todos lo hacemos, que todos los procesos naturales aumentan la entropia, hagas lo que hagas aumentará la entropía: ordenes o desordenes la habitación. Es tan trivial que no hace falta escribirlo. Lo que pasa es que esa explicación toma por tonto al que pone el ejemplo. Que no es más que una analogía y que no quiere describir estrictamente un proceso termodinámica.

La idea es la siguiente. Una habitación se desordena porque, normalmente, uno deja las cosas (calzoncillos, calcetines, libros perdidos de Fernando Báez, restos orgánicos etc. etc.) en el primer lugar que caen. Eso es lo que en termodinámica se identificaría como un proceso espontáneo. Dejamos el calcentín y punto. No nos preocupamos de colocarlo en su sitio. Y ese proceso, espontáneo (dejar caer y punto), es siempre entrópico. Así es la naturaleza.

Otra cosa es que uno se preocupe de soltar los calzoncillos, los calcetines, los libros etc etc en su sitio. Eso no es espontáneo y requiere algún tipo de mecanismo ‘inteligente’ [aquí un análisis en términos de información requeriría analizar cómo se sabe dónde dejar el calcetín, etc. etc.]. Bah, da igual. Lo que importa es que no es espontáneo, requiere una cierta acción, ingenio o máquina inteligente [que en el ejemplo que nos ocupa suele llamarse ‘madre’]. Eso se relaciona en termodinámica con los procesos reversibles (aquellos que no hacen aumentar la entropía): nunca podrían ser espontáneos y necesitarían de un cierto ‘diseño’ para que pudieran ocurrir; para que pudieran ocurrir sin aumentar la entropía del sistema y su entorno. Estos procesos reversibles nunca ocurren en la naturaleza pero uno puede idealizarlos como un paso al límite de la misma forma que las leyes de Newton pueden idealizar el movimiento de una partícula sin acción de fuerzas exteriores.