Agua

victoria-falls-zambia-griffiths_26019_990x742

Si recuerdan una caminata por la montaña, bajo el sol, parar, tomar resuello y luego beber agua, se encontrarán en la disposición psicológica adecuada, porque quiero hablar del agua.

H2O. El átomo de oxígeno tiene en su capa externa seis electrones y necesita dos más para completarla. El átomo de hidrógeno tiene un electrón en su capa más externa y no le importa nada completarla con uno más. En esas circunstancias no es de extrañar que el oxígeno comparta dos de sus electrones con dos átomo de hidrógeno, formando enlaces covalentes. La molécula en su conjunto es neutra, ya que hay tantos protones como electrones. Sin embargo es polar. Debido a que el núcleo de oxígeno atrae con más fuerza a los electrones que los núcleos de hidrógeno, uno de los extremos de la molécula tiene carga ligeramente positiva y otro carga ligeramente negativa.

Hasta aquí aparentemente nada especial y, sin embargo, esa estructura tan concreta atribuye a la molécula de agua unas propiedades tan sorprendentes que me extraña que los creacionistas o lo partidarios del diseño inteligente no lo utilicen como argumento.

En primer lugar, el agua cuando se encuentra en estado líquido es un solvente extraordinario. Para entender esto hay que hacer referencia a la manera que tienen las moléculas de agua de unirse entre sí. La unión se fundamenta en los llamados enlaces de hidrógeno. Precisamente el que las moléculas estén cargadas positiva y negativamente explica que se atraigan y actúen cohesionadamente.

Si introducimos una sustancia en el agua y es también polar (tiene polos negativos y positivos), las moléculas de agua rompen los enlaces de esas sutancias rodeando sus componentes. El ejemplo más famoso es el de la sal común, que se forma por la unión de iones de cloro y sodio. Pero esos efectos se producen con muchas otras sustancias, como los azúcares y los aminoácidos, y con gases como el oxígeno o el dióxido de carbono. No hay líquido que disuelva tantas sustancias y, por eso, los medios acuosos se convierten en el medio adecuado para las reacciones bioquímicas. Curiosamente, si introducimos una sustancia no polar (como las grasas) la particular estructura del agua permite otra reacción vital. Una sustancia así es hidrofóbica y rompe los enlaces de hidrógeno al separar las moléculas de agua cercanas, que no pueden formar un enlace de hidrógeno con esas moléculas tan poco amistosas. Llega un momento en que las moléculas de grasa se encuentran y juntan y, entonces, tienen una superficie menor (juntas que separadas), interfiriendo menos entre las moléculas de agua unidas por enlaces de hidrógeno. El resultado es más estable y por eso las grasas terminarán reunidas, como puede comprobar cualquiera que echa unas gotas de aceite en agua. Esa particularidad permite, por ejemplo, aislar el espacio interior de una célula (es decir, que una célula sea una célula), ya que la membrana celular se forma con moléculas hidrofóbicas en uno de sus extremos.

En segundo lugar, sin el agua resultaría muy difícil mantener una temperatura relativamente constante dentro de los organismos. Temperaturas elevadas o bajas impiden las acciones enzimáticas, básicas para la vida. Resulta que el agua tiene propiedades curiosas, por ejemplo, su calor específico. Es muy elevado, lo que significa que hace falta mucha energía para aumentar su temperatura. La razón se encuentra precisamente en los enlaces de hidrógeno. Cuando entra energía en un sistema (porque lo calentamos), las moléculas se aceleran. Sin embargo, al entrar calor en un sistema acuoso, gran parte de esa energía rompe los enlaces de hidrógeno, en vez de acelerar las moléculas de agua. Por eso una caloría calentará un gramo de agua 1º C, mientras que bastan 0,02 calorías para calentar el mármol. Además, se produce la circunstancia de que, hasta que no se rompan todos los enlaces de hidrógeno, no se vaporiza una molécula de agua, convirtiéndose en gas. Tarda pues bastante y exige gran cantidad de calorías. Y, en el momento en que se produce la vaporización de una molécula que ha acumulado tanta energía, el resto de moléculas que siguen en estado líquido se enfrían. La evaporización de un gramo de agua enfría 539 gramos del cuerpo en un 1º C. El sudor, esa película de agua que se produce por la vaporización, enfría el cuerpo, permitiendo que no nos achicharremos. Y claro, igualmente, el agua tiene un calor de fusión elevado, por lo que es preciso eliminar mucha energía del sistema para que se transforme al estado sólido. Todas esas particularidades permiten que el agua sea el estabilizador fundamental de la temperatura de los organismos.

Ya van unas cuantas propiedades esenciales y que se dan en una sola molécula; además el agua es una de las pocas sustancias que cuando se congela resulta menos densa que en estado líquido. El agua flota por esa razón, porque ocupa un volumen superior en estado sólido que líquido. Eso sucede por … lo han adivinado, por los enlaces de hidrógeno, que se ordenan en forma de panal de abejas. Si no fuera por esta circunstancia el agua se congelaría desde las profundidades hacia arriba, y acabaría con la vida de los ríos, lagos o mares congelados. Además, al congelarse la capa superficial, el resto conserva calor y se retrasan y aminoran los efectos de la congelación.

Por cierto, nuestros amigos, los enlaces de hidrógeno, explican otra característica del agua. Ya hemos visto que las moléculas se atraen y cohesionan, pero lo hacen de manera más fuerte en la superficie, porque las fuerzas de atracción en la superficie son más importantes hacia el interior que hacia el exterior (donde hay gases). Esa cohesión (que observamos en una gota de agua) permite que el agua suba por las plantas sin romperse. No podría producirse la fotosíntesis sin agua. Deduzcan ustedes las consecuencias.

Hay más características del agua útiles para la vida. Y además está rica. Sobre todo en mi pueblo. En los años cincuenta mi padre conducía un camión de Madrid a Bilbao y de Bilbao a Barcelona. Y en Barcelona le esperaba siempre un amigo para recoger unos litros de agua del Lozoya. Los usaba para cocinar. Es cierto que hablo de caviar, pero uno comprende el esfuerzo que se ha hecho siempre para conseguirla. Es agua, claro.

 

NOTA: Introduzco, por su interés, este comentario de qtyop, escrito hace 8 años, fecha en la que se publicó originalmente esta entrada.

No está de más recordar las singulares propiedades del agua. El helio y el agua luchan por apropiarse del término sustancia más singular sobre la faz de la tierra.

Puntualizaciones.

1. El sudor es la solución salina que segregan las glándulas a tal efecto llamadas sudoríparas. Es decir, no se produce por la vaporización. Se segrega y su posterior vaporización enfría el cuerpo. Much like como cuando nos echamos alcohol en la mano: su vaporización nos hace sentir frío.

La vaporización del sudor sólo se produce en condiciones ambientales favorables. Igual que el mecanismo del botijo. Se requiere un ambiente seco. El ambiente seco en contacto con una película húmeda no se lleva muy bien: el ambiente seco exige de inmediato participar en el festín acuoso, evapora agua y la disuelve en su interior.

Si el ambiente es húmedo, na de na. El sudor no se evapora, el cuerpo no se enfría. De ahí la sensación bochornosa de los días húmedos.

Si el ambiente está calmo, la evaporación del sudor lo humedece y, pronto, deja de evaporar y el cuerpo deja de enfriarse.

Si el ambiente no está calmo, el sudor se evapora, el aire se enriquece en agua pero se traslada de lugar. La piel entra en contacto, de nuevo, con aire seco que evapora sudor y sigue enfriando el cuerpo. Por eso, en algunos lugares, el ventilador es esencial.

2. Hay otra extraña e importante propiedad del agua: el hecho de que se dilate al enfriarse por debajo de cuatro grados centígrados. O, dicho de otra forma, el hecho de que la máxima densidad sea a cuatro grados centígrados y no a la mínima temperatura posible (cero grados). Además, la densidad de la fase sólida es menor que la densidad de la fase líquida: el hielo flota en el agua. Esto tiene se inconveniente, pero es, globalmente, provechoso.

El inconveniente mayor es que si metemos una botella de agua en el congelador corremos el riesgo de que se rompa. Pero podemos vivir con ese riesgo.

Las ventajas son varias. Por ejemplo, los icebergs son visibles y la navegación está a salvo. Salvo que seas el Titanic.

Más importante. Los mares, lagos y ríos no llegan a congelarse por completo. Si el hielo se hundiera en el agua los inviernos habrían sido catastróficos. El hielo se depositaría en el fondo del lago, río o mar, y el agua de la superficie se congelaría en contacto con un ambiente de, digamos, veinte grados bajo cero. El agua congelada volvería a caer… y vuelta a empezar hasta congelar todo el lago, mar o río.

En la realidad, cuando se congela la capa superior de agua, el hielo resultante flota y, as a result, crea una capa protectora que dificulta el congelamiento de las capas inferiores. Al fondo, muy al fondo de casi cualquier mar, río o lago frío hay una capa de agua con máxima densidad, a la temperatura de cuatro grados, un balneario suficiente para la pervivencia de la vida.

3. Que la capacidad calorífica y el incremento de entalpía de vaporización del agua sean grandes —de los más grandes de la naturaleza— produce otro tipo de ventajas en el prosaico homo hodiernis: la posibilidad de usar el agua —el vapor de agua— para transportar cosas. El agua tanto como fuente de calor (vapor de agua) como de refrigeración (los circuitos refrigeradores inevitables en toda máquian). Calienta e impide calentar. La revolución industrial, en suma.

El malo, el bueno y el tonto

EL MALO

El malo se llama plasmodium: es un protista que vive en el mosquito anopheles, pero que, de cuando en cuando, se da un tour por los seres humanos provocando la malaria. Les encantan los fetos humanos, debido a la ausencia de un sistema inmunitario desarrollado.

Aquí tenemos una estupenda fotografía del resultado de un viaje de nuestro maligno protagonista por el torrente sanguíneo. Se come literalmente las proteínas de la hemoglobina hasta que los glóbulos rojos explotan. El enfermo de malaria padece en ese momento episodios de fiebre terribles. Si se trata de un niño, lo normal es que muera.

Este asesino de niños está extendido prácticamente por todos los continentes. Sin embargo, un mapa nos aclara más cosas.

 

EL BUENO

El bueno es el diclorodifenil-tricloroetano, también conocido por su nick DDT. Se lo debemos a un estudiante, Othmar Zeidler, que en 1874 mezcló un somnífero, “Las gotas fulminantes” o “Mickey Finns”, con clorobenceno en ácido sulfúrico. Tuvieron que pasar cincuenta años hasta que los suizos de la Geigy, en 1939, se dieran cuenta de que mataba a los insectos. Churchill lo llamó polvo excelente cuando se empezó a utilizar en las selvas birmanas por el ejército. Esta molécula abre un canal en las membranas celulares que permite a los átomos de sodio circular libremente. Las células nerviosas se disparan continuamente y el insecto muere exhausto.

Entre sus víctimas las pulgas de la peste, los piojos del tifus y el mosquito anopheles.

Durante treinta años se fabricaron más de tres millones de toneladas.

EL TONTO

El tonto es el ser humano.

En 1948 se empezó a usar DDT en Ceilán. Había 2.500.000 casos de malaria en la isla en aquel momento. En 1962 sólo hubo 31 casos.

Sin embargo, 1962 es también la fecha de publicación de La primavera silenciosa. Su autora, Rachel Carson, en esta obra, biblia del ecologismo, llamaba al DDT elixir de la muerte.

Tamaña acusación se basaba en que la afirmación de que el DDT mataba la vida salvaje, causaba cáncer en los seres humanos y se acumulaba, al no ser biodegradable. Los químicos analíticos comprobaron que el DDT estaba por todas partes, en el suelo, en el agua, en la comida, en los tejidos humanos.

Empezó una batalla que ganó el miedo. Se dejó de usar en Ceilán en 1964. En 1969 se produjeron 2.500.000 casos de malaria, de nuevo.

Pero ¿es cierto que el DDT era tan malo? Para empezar, la afirmación de que causaba cáncer nunca fue probada. Más aún, la OMS considera como nivel seguro máximo el de 225 mg/año. En el momento de mayor uso del DDT, la exposición máxima era de unos 25 mg/año. Está probado, además, que se pueden beber de golpe 4.000 mg. sin consecuencias nocivas.

Además, el estudio en que se basaba la afirmación de la persistencia del DDT en el suelo estaba mal diseñado. Se aplicaba a una parcela una cantidad diez veces superior a la normal de DDT. Luego se dejaba seca y a oscuras. En esas condiciones el DDT no se degradaba. Sin embargo, en un suelo normal, los microorganismos digieren el DDT y sus efectos duran apenas dos semanas (lo desactivan eliminando un átomo de cloro). En el agua salada ocurre igual. En un mes desaparece el 90 % del DDT.

La única razón para dejar de utilizarlo era la aparición de insectos que habían desarrollado la capacidad de producir una enzima que lo hacía inocuo (hoy hay alrededor de 500 especies resistentes). Sin embargo, debería haberse seguido utilizando hasta que se hubiese probado su ineficacia. Quizás antes hubiera terminado con el malo de nuestra película.

Somos extraños los seres humanos. Llamamos elixir de la muerte a la sustancia química que más vidas ha salvado en la historia de la humanidad. Es verdad que los que disfrutaron de una década bendita viendo crecer a sus hijos sin fiebres eran negros, negros de África y de Asia . Y que la causa de la guerra contra el DDT era ecológicamente justa. ¿Qué pesa más en la balanza, la posible muerte de los pájaros de nuestros bosques y el posible cáncer de los longevos hombres blancos y las longevas mujeres blancas de nuestras opulentas sociedades, o la muerte cierta de millones de hombres, mujeres y niños de piel oscura?

Si tiene duda, consulte el dinero gastado para encontrar una cura para el alzheimer y el que se ha gastado para encontrar una vacuna contra la malaria.

La realidad es un deporte en el que juegan once contra once y siempre gana la segunda ley

Tumba
La fórmula de Boltzmann S=klogW está esculpida en la lápida de su tumba. Ocupa, probablemente, el tercer puesto del ránking de fórmulas físicas más conocidas después de una debido a Einstein y de otra debida a Newton. La importancia de la fórmula de Boltzmann es enorme ya que es la base de la termoestadística tanto clásica como cuántica al ligar la descripción microscópica del sistema (propiedades atómicas) con la descripción macroscópica del sistema (la entropía, el segundo principio de la termodinámica al que es tan aficionado este foro).

La noticia desde un punto de vista funtamental es impactante: la fórmula de Boltzmann es incorrecta. Esa es la tesis, bien argumentada, de un artículo aparecido recientemente en la revista Nature cuyos autores son Jörn Dunkel y Stefan Hilbert.

Einstein decía que la única teoría física de la que estaba razonablemente seguro de su robustez y permanencia en el tiempo era la termodinámica. Quizá porque no hay ninguna fórmula en su formalismo fundamental. De ella solo importa que la energía es constante y que la entropía crece, que es lo mismo que decir que hay algo que permanece y algo que cambia siempre en el mismo sentido. Y Eddington decía que si tu pequeña teoría del Universo contradice al segundo principio de la termodinámica no habrá batalla y tu teoría será humillantemente descartada. Todo eso es hoy aplicable a la entropía de Boltzmann

Sb(E)=k log Ω(E’=E)

donde S es la entropía (mundo macroscópico) y Ω(E’=E) es el número de estados accesibles o probabilidad para una configuración en la que la energía E’ vale E (un valor dado). Esta Ω está ligada al mundo microscópico (la descripción de un gas como un conjunto de muchísimas partículas, átomos o moléculas). El factor k es la constante de Boltzmann.

La corrección que introducen Dunkel y Hilbert es extraordinaria. Primero, porque la fórmula correcta se debe al primer gran físico norteamericano, Gibbs, quien es contemporáneo de Boltzmann. Segundo, porque la diferencia es extraordinariamente sutil. La propuesta de Gibbs es:

Sg(E)=k log Ω(E’≤E)

donde ahora Ω es la probabilidad o número de estados accesibles para una configuración en la que la energía del sistema E’ es menor o igual (y no simplemente igual) que E. La idea recuerda al viejo dicho legal «quien puede lo más, puede lo menos».

Y si la formulación relativista se ve, en algún caso particular (velocidades de objetos muy inferiores a la de la luz), simplificada en el formalismo clásico de la mecánica, aquí también la más compleja formulación de Gibbs coincide con la tradicional formulación de Boltzmann en la mayoría de los casos y, singularmente, cuando los sistemas son suficientemente grandes; lo que explica el éxito de Boltzmann. Esta es, al menos, la tesis de Dunkel y Hilbert.

Deben entender la importancia que tiene la fórmula que relaciona S con Ω. Es el principio ya que a partir de ella se obtienen el resto de observables macroscópicos como, por ejemplo, la temperatura.

Precisamente la motivación del estudio tiene que ver con las temperaturas absolutas negativas. En la termodinámica clásica la temperatura (llamada absoluta para diferenciarla de las definidas por escalas termométricas) está definida como un observable de valor positivo (más estrictamente con un único carácter: positivo o negativo; eligiéndose el primero por comodidad). Es la temperatura que usualmente medimos en kelvin y cuyo valor más bajo (el cero absoluto) es inalcanzable.

Un experimento de mediados de siglo pasado llevado a cabo por Purcell y Pound (descubridores, por otra parte, de la resonancia magnética nuclear) explicado por Ramsey, argumentaba que, bajo ciertas condiciones específicas, se habían obtenido temperaturas absolutas negativas durante un breve tiempo. Paradójicamente estas temperaturas eran más cálidas que las positivas. Más recientemente otros experimentos han confinado gases cuánticos en trampas ópticas y sus autores sostenían que lo hacían a temperaturas negativas. Esto abría las puertas a una posible explotación maravillosa: usar esos gases como intercambiadores de calor y, quizá, obtener máquinas térmicas con rendimiento mejor que el de Carnot. Lo que viene a llamarse un móvil perpetuo de segunda especie o, más sencillamente, violar el segundo principio de la termodinámica.

Realmente ninguna de estas temperaturas se había medido con un «termómetro» sino que, demuestran Dunkel y Hilbert, simplemente se derivaban de la fórmula de Boltzmann. Y, como decía Eddington, al contradecir el segundo principio la fórmula deviene en inválida.

Vamos a tratar de explicar cómo se obtienen esas temperaturas negativas y por qué solo aparecen en la formulación de Boltzmann pero no en la de Gibbs al menos con un ejemplo (la técnica de inversión de campo usada por Pound y Purcell) y explicada con una analogía a la que, me han comentando, son Ustedes muy aficionados: el fútbol.

Imaginemos un partido de fútbol en el que se marcan once goles. Este número once sería el análogo al número de partículas (electrones, átomos, espines, moléculas…) en un análisis más riguroso.

Pensemos ahora que esos once goles pueden repartirse de forma diferente entre los dos equipos del encuentro. Es importante diferenciar los dos equipos porque si no tendríamos un único equipo. No nos interesa el nombre ni el color de las camisetas, diferenciémoslo solo como equipo local y equipo visitante. Intuitivamente decidimos que es más fácil que marque el equipo local. Si se han marcado once goles, el resultado más fácil sería 11-0; mientras que el más difícil sería el complementario 0-11. De forma intuitiva podemos entonces definir la energía del sistema E como el número de goles que marca el equipo visitante.

El único criterio para determinar el resultado de un partido es el número total de goles que mete cada equipo y así solo podemos tener doce resultados diferentes para un total de once goles: el 11-0, el 10-1, el 9-2 etcétera. Sin embargo, podemos preguntarnos por algo más: el desarrollo del partido, en qué orden se marcaron los goles, quién empezó marcando, quién remontó… y ahí encontraremos diferencias. El resultado 11-0 (o el 0-11) solo puede darse en un orden. Si nos fijamos en el 10-1, pudo marcar primero el equipo visitante para después remontar el local, o que el visitante marcara el postrero gol del honor. Así, hasta once posibilidades diferentes. Lógicamente habrá más combinaciones si el resultado es un 6-5.

El número de formas diferentes en que dos equipos pueden totalizar un resultado es la Ω(E’=E) que aparece en la fórmula de Boltzmann. Coincide con el número de formas diferentes en que podemos coger E objetos (los goles del equipo visitantes) de entre un total de N (goles marcados).

El Ω(E’≤E) que aparece en la fórmula de Gibbs es más complejo, ya que habría que ver las combinaciones del resultado E’=E (como en Boltzmann) y sumarle todas las combinaciones de los resultados con menor número de goles visitantes. Si hablamos de un 8-3, habría que considerar también las del 9-2, el 10-1 y el 11-0.

La tabla para los doce resultados posibles es la siguiente:

Boltzmann Gibbs
Resultado E Ω(E’=E) Tendencia Ω(E’≤E) Tendencia
11- 0 0 1 crece    1 crece
10- 1 1 11 crece   12=11+1 crece
 9- 2 2 55 crece   67=55+12 crece
 8- 3 3 165 crece  232=165+67 crece
 7- 4 4 330 crece  562=330+232 crece
 6- 5 5 462 crece 1024=462+562 crece
 5- 6 6 462 decrece 1486=462+1024 crece
 4- 7 7 330 decrece 1816=330+1486 crece
 3- 8 8 165 decrece 1981=165+1816 crece
 2- 9 9 55 decrece 2036=55+1981 crece
 1-10 10 11 decrece 2047=11+2036 crece
 0-11 11 1 decrece 2048=1+2047 crece

Donde hay que observar particularmente una diferencia importante. La Ω(E=E’) de Boltzmann es trivialmente simétrica (lo mismo cuenta un 9-2 que un 2-9) en torno al resultado de empate (al haber elegido un número impar de goles no puede haber empate: 10.5-10.5) y hace que Ω(E’=E) crezca hasta ese «empate» para luego decrecer. El resultado de empate es, técnicamente, el más desordenado porque es el que tiene más formas diferentes de alcanzarse. En contraste, las palizas 11-0 y 0-11 son las más ordenadas.

Sin embargo, Ω(E’≤E) de Gibbs no es simétrica y es monótona (siempre crece) ya que va acumulando las combinaciones del resultado inmediatamente anterior.

La temperatura precisamente está relacionada con la tendencia de la entropía cuando cambia la energía. No es necesario dar una explicación detallada porque solo vamos a hablar del signo: si la entropía (o lo que es lo mismo Ω) tiene tendencia creciente la temperatura es positiva; si tiene tendencia decreciente, la temperatura es negativa.

Hay que tener en cuenta que esta tendencia no se puede objetivar en un encuentro de fútbol, ya que un resultado de 9-2 no se puede convertir en un 8-3 (sería cambiar un gol del equipo local por uno del equipo visitante). Pero en sistemas reales sí: átomos, moléculas o más comúnmente espines pueden transitar entre dos niveles y ser unas veces «gol del equipo visitante» o «gol del equipo local». Pueden hacerlo muchas veces en un intervalo corto de tiempo. O, también, podemos añadir energía al sistema y hacer que, en promedio, algunos goles locales se conviertan en goles visitantes.

Mirando la tabla se observa que con la formulación de Boltzamnn podemos tener temperaturas negativas mientras que con la de Gibbs no. En la experiencia de Pound y Purcell se usó lo que se conoce como técnica de inversión de campo. La analogía con el fútbol es sencilla: es como si trasladáramos un partido del campo del equipo local al campo el equipo visitante, intercambiando roles. En fútbol parece complejo, pero si hablamos de espines y del campo magnético (que determina quién es local y quién visitante) se trata solo de apretar un botón y hacer que el campo magnético tenga sentido contrario.

Así Pound y Purcell convirtieron un 9-2 en un 2-9 y aparecieron en la zona decreciente de Ω(E’=E) y dijeron que observaron una temperatura negativa que, paradójicamente, era aún más caliente que las temperaturas positivas (hotter than hot). Ahora, con la formulación de Gibbs, las piezas encajan; la temperatura sigue siendo positiva y, puede calcularse, que la del 2-9 es mayor que la de un 6-5, un 5-6 o un 4-7.

Desde un punto de vista histórico hay un matiz de interés. Primero, la fórmula de Boltzmann es anterior a la de Gibbs y su aplicación más fácil: es más sencillo contar los estados (la probabilidad) para una energía fija E’=E; que contar todos los estados con una energía menor que algo E’≤E. Pero, debemos tener en cuenta que Boltzmann (1844-1906) escribía en alemán y era europeo en una época en la que la ciencia se hacía, sobre todo, en alemán y, abrumadoramente, en Europa.

Gibbs (1839-1903) es solo el primer gran científico de los Estados Unidos de América y su legado en el campo de la termodinámica y de la termoestadística es inmenso. Pero sus ideas, en comparación con las de Boltzmann, tenían el hándicap de la distancia: siendo coetáneos, vivían en universos diferentes. El propio Einstein (1879-1955) decía que si hubiera conocido las obras de Gibbs a tiempo mucha de su investigación en termoestadística no habría sido necesaria. Se ve que en el tiempo se perdieron algunos pequeños detalles.

A la twit

La duda que plantea el experimento de Opera (si el neutrino realmente viaja a más velocidad que la luz) no se plantearía si un experimento dijera que el incremento de entropía del universo desciende.

Aún hay clases en esta casa.

Salvemos al IPK


Esto es un metro:

Un metro es la distancia que recorre la luz en el vacío durante un intervalo de 1/299.792.458 de segundo.

Y esto un segundo:

Un segundo es la duración de 9 192 631 770 oscilaciones de la radiación emitida en la transición entre los dos niveles hiperfinos del estado fundamental del isótopo 133 del átomo de cesio (133Cs), a una temperatura de 0 K.1

Frente a tamaños conjuros, vean lo que es un kilogramo:



El kilogramo es la masa de un cilindro hecho de una aleación de platino e iridio que está en Sèvres. Se hicieron otros, pero no son el kilogramo, jeje. Como el kilogramo (llamémosle IPK) tiene exactamente una masa de un kilogramo por definición, no hay forma de saber hasta qué punto es estable o no esa masa. Comparándola con la masa de otros prototipos (ah, probes imitaciones) hay quien sostiene que el kilogramo ha perdido peso. Es una infamia, claro, ya que el kilogramo sigue pesando hoy, como en 1883, exactamente un kilogramo. Por cierto, he leído que cuando viajó la copia americana a París, en 1984, la llevaban en una caja “especial” (a saber qué entienden por especial) y que la transportaban dos personas, para evitar el riesgo de caída. Pena de foto.

En fin, a mí me gusta el IPK porque es un tipo estable y es fácil de comprender, no como lo de la transición hiperfina de su puta calavera.

Sin embargo, los cuatrojos no hacen más que darle vueltas al asunto para convertirlo en un jodío cachivache. Primero se les ocurrió contar átomos. Alguien dijo, por ejemplo: es la duodécima parte de la masa de 6,022x 10 elevado a la vigesimosexta potencia átomos de carbono 12. Lo malo es que por cosas del Avogadro los errores al contar átomos se disparan cuando se trata de contar tantos. Y te podía salir una vez un kilogramo y otra un piazo de algo. Otro se planteó hacer una esfera de silicio (que es un elemento muy ordenado y limpio), medir su volumen, luego medir el volumen de cada átomo y dividir. Al parecer la cosa es algo más complicada, porque a pesar de su germánico comportamiento, algunos de esos átomos de silicio (¡apestosa sangre sucia!) no se ponen donde deben, y además, hay tres isótopos de silicio en esos cristales y no se puede saber con exactitud (¡estamos midiendo!) sus porcentajes respectivos en cada caso. Parece que el último camino de los tipejos (los ingleses comenzaron) es usar la enigmática electricidad. Pensaron definirlo sobre la base de la fuerza electromagnética (ya saben una corriente y un campo magnético) que levantase determinada masa. Al parecer la cosa parecía difícil por no sé qué rollo de la geometría de las bobinas (ah, la geometría de las bovinas), pero están cerca de lograrlo usando un cachivache llamado balanza de Watt, inventada por un tío que no se apellida Watt. Como se trata de decir qué es un kilogramo a partir de las unidades de corriente eléctrica y voltaje, y éstas se definen por referencia a constantes absolutas, la velocidad de la luz y la constante de Planck, ya podríamos tirar el IPK a la basura.

Hace unos meses ya se dieron los primeros pasos.

Personalmente les creo unos cabronazos.

Milagro en el filo (V)


Parece que el “negro” se ha animado. Ya verán que su abuela no tiene ninguna influencia gravitacional. Bien está. No me deja hablarles, todavía, de cosas de ingenieros, de las máquinas y de la eficiencia. Por mi parte, sigo tomando notas. Puede parecer que nos estamos liando en la introducción, en vez de meterle el diente al asunto fascinante. No lo crean. En este blog presidido por el único ser que fue capaz de plantarle cara a la plaga entrópica, creemos en los buenos principios. El negro me dice que lea y que entienda, que no encontraré nada igual. Aplíquense el cuento.


Sigue desde …

Lo prometido es deuda que pago. Contaba que tenía que explicar cómo dar ese salto que permite hacer lo reversible irreversible. La respuesta es sorpredentemente simple: dándolo.

Permítame que recapitule. Tenemos a ese señor que ha estudiado un montón y le han explicado miles de fenómenos reales. Sabe cómo se mueve el sistema solar, cómo se mueve una partícula y dos y tres. Ha llegado hasta el femtosegundo anterior al inicio del todo y, si ha tenido la suerte de no liarse en una supercuerda, aún respira.

Todo cumplirá la simetría de inversión temporal: es incapaz de saber si el tiempo avanza o retrocede. Si graba uno de sus experimentos y reproduce el vídeo es incapaz de saber si lo están reproduciendo marcha adelante o marcha atrás …



Sin embargo sabe distinguir cuando, por ejemplo, se trata de un asunto de vida o muerte …



La simetría de inversión temporal está relacionada con la conservación de la energía y con el adagio universal de que la energía ni se crea ni se destruye, únicamente se transforma. Pero implica algo más. Si la única restricción fuera que la energía inicial y la energía final coincidan, las etiquetas ‘inicial’ y ‘final’ serían intercambiables. La pareja principio-fin funciona tan bien (obedece a la conservación de la energía tan bien) como la pareja fin-principio. Que es tanto como decir que ni hay principio ni fin.

Si desciendo a los accidentes de un ejemplo, la idea expresa que lo mismo me da hacer caer un objeto y aprovechar su energía gravitatoria para mover un dispositivo (energía cinética) adecuado que cargue una pila (energía eléctrica); que descargar la pila eléctrica para poder elevar un objeto hasta la misma altura. Así, todas las formas de trabajo (todas las formas de intercambiar energía) son equivalentes y, salvo aspectos accidentales, indistinguibles. Y las reconocemos como trabajo. Y un último punto: el problema del trabajo resulta ser meramente cuantitativo; de cuánto.

La única forma de romper esta simetría es rompiéndola. Qué pasaría si existiera una forma de intercambiar energía que no tuviese esa propiedad: que yo pudiera, por ejemplo, transformar el trabajo que quisiera en esa forma de energía, pero no al revés. Planteado como un gedankenexperiment, su importancia radica en las consecuencias de la hipótesis.

Lo primero es una cuestión de terminología. Esa forma de transmitir energía no podría llamarse trabajo, ya que no obedece a esa propiedad característica. Llamémosla calor. La hipótesis significa que si soy capaz de hacer descender un cuerpo y transformar su energía potencial gravitatoria en lo que hemos llamado calor (y que se almacenará en alguna parte), soy incapaz de hacer lo contrario. Es decir, si extraigo el calor de ese almacén no podré elevar el cuerpo hasta su altura original. Y, evidentemente, tampoco hasta un altura más alta (quien puede lo más, puede lo menos). Se quedará algo más bajo.

La pregunta es natural. ¿Qué pasa con ese defecto de energía? Dónde fue. La respuesta es que sólo pudo almacenarse en otro almacén en forma de calor. La razón es sencilla: si hubiera quedado como un trabajo, ese trabajo se podría haber utilizado en seguir subiendo el cuerpo y dejarlo en su altura original.

Necesitamos pues dos almacenes… y todo para no conseguir lo que queremos. Lo importante del asunto es que los almacenes se relacionan de nuevo por una condición ‘puedo esto pero no lo contrario’. Se trata de lo siguiente: hemos sacado calor (llamemos a esto enfriar) de un primer almacén para meter calor (llamemos a esto calentar) en un segundo almacén y elevar un cuerpo. Siempre que ocurriera eso, no podría ocurrir nunca lo siguiente: enfriar el segundo almacén para calentar el primero y elevar un cuerpo. Nunca. Ambas acciones descritas, ocurriendo simultáneamente, destruirían la hipótesis de partida.

Esta imposibilidad (insisto de nuevo: yo puedo hacer algo pero no puedo hacer lo contrario) permite ordenar los almacenes ya que obdecen a las mismas reglas de la relación “mayor que”: si A es mayor que B entonces B no es mayor que A. Y al observable físico que determina el orden lo llamamos temperatura.

Aquí se ha introducido ya otro aspecto nuevo que ha pasado inadvertido. El problema del calor no puede ser meramente cuantitativo; es cuantitativo y cualitativo. De cuánto calor estamos hablando y de con qué almacén lo estamos intercambiando (a qué temperatura).

Relea el texto y entiéndalo, ya que no encontrará algo igual. Y comprendan también por qué dicen que el segundo principio ocupa una posición preminente en la filosofía natural. Si se violara, sus consecuencias se desvanecerían como los fotogramas de Regreso al Futuro. Así, por de pronto, no habría nada parecido a calor o temperatura. Por eso estamos muy seguros de que funciona. Así en la muerte como en la vida.

¿Es suficiente por hoy? Hay otra ordenación subyacente. Se refiere a los sistemas aislados pero se pospone para otro día.

Milagro en el filo (IV)


En esta ocasión, y antes de continuar con las máquinas y las fricciones, el interlocutor anónimo y fantasmal me remite una serie de reflexiones y puntualizaciones. Son útiles y son interesantes; y como toda reflexión buena, nos hace plantearnos más preguntas. Aunque intentaremos no desviarnos del “tema” que nos ocupa y que quedó establecido, es evidente que sin un glosario algo decente podemos terminar fatal: no tanto porque no sepamos de qué hablamos (algo perfectamente posible), sino por qué no sepamos de qué hablamos. No les explico la diferencia, porque ustedes son personas inteligentes.


Sigue desde …

Acabo de recibir su regalo y entiendo mejor sus preocupaciones. No me ocuparé de todas ellas ahora. Sólo prescribiré dos anotaciones. Aunque sé que gusta de escribir largo y profundo espero no extenderme más allá de lo estrictamente necesario.

La primera anotación será sobre la termodinámica, qué es y cómo fue. El cómo es la doma del fuego: el entender y racionalizar la sensación de calor y temperatura, el ser capaz de construir ingenios mecánicos capaces de producir provecho a costa del fuego. La mismísima revolución industrial del diecinueve. Eso fue el contexto histórico en el que se desarrolló, pero sería miópico reducirla hoy a eso.

La termodinámica es, sí, el estudio de los sistemas físicos reales sujetos a (casi) ninguna hipótesis de partida. Me explicaré: lo que se estudia es una porción del mundo en la que centramos nuestra atención y sobre la no presuponemos nada. Si nada presuponemos, mucho abarcaremos, pero siempre que el estudio mantega esa generalidad. Sí podemos decir que la termodinámica estudia las relaciones energéticas entre sistemas. Porque admitida con la naturalidad con la que hoy se admite que la energía existe, no especificamos nada diciendo que estudiaremos las relaciones energéticas entre sistemas. La termodinámica, así, es filosofía natural en su más amplia y natural expresión. Siéntese y observe.

Lo que he escrito trata de poner peros a una afirmación: que la termodinámica estudie los sistemas no como son en la realidad sino sujetos a restricciones. Por ejemplo, que estén aislados o que la evolución termine en un estado de equilibrio. Nada más lejos de la realidad.

Respecto de la restricción de que los sistemas estén aislados daré un argumento: el ideal de energía sólo puede funcionar en tanto que podamos aislar lo que estudiamos. Aislar significa tener capacidad de controlar la energía. Hacer que la energía de lo que estamos estudiando tenga energía constante. Esto es así, aquí, y en la China. En la mecánica y en la termodinámica.

En la mecánica reconocemos el “aislamiento” cuando estudiamos una partícula puntual (inexistente) solita en el universo que se mueve a velocidad constante y sobre la que no actúa ninguna fuerza, y sobre la que deducimos que su energía (cinética en este caso) es constante. O cuando esa partícula se mueve en un campo de fuerzas conservativo y deducimos que su energía (potencial más cinética) se conserva. En ambos casos, que hay algo que podemos controlar y conservar en la evolución.

El aislamiento en termodinámica corresponde a la misma necesidad. No a la necesidad de estudiar “sólo” sistemas aislados; a la necesidad de conocer las operaciones necesarias para poder controlar y medir la energía. Y, en caso último, garantizar su conservación. No olvide nunca que la energía sólo se conserva si somos capaces de controlar y tener en cuenta todas sus contribuciones. Y en este sentido la termodinámica sólo va describir una forma particular de transmitir energía y, por tanto, de las condiciones para poder controlarla.

Respecto de que la evolución siempre termine en un estado de equilibrio se trata de un problema. Un problema muy serio. Es una percepción bastante natural y tozuda ante la que una descripción científica tiene que vacilar: ¿es esto una premisa o será una conclusión?. El problema será, quizá, un problema de la literatura, de cómo contar la historia. Ninguna restricción.

Sí podemos achacar a la termodinámica una pequeña limitación inicial: los sistemas que estudia son homogéneos y discretos. Discretos como los números naturales en comparación con los reales. Discretos quiere decir identificable; una porción del universo: esta. Es una limitación práctica y lógica: se empieza entendiendo lo fácil y general, después habrá tiempo para complejidades. La mecánica también empieza así: estudia la partícula puntual; puntual y discreta. Después sistemas de partículas (puntuales y discretas) y sólo después el continuo: el sólido rígido (la peonza que gira) o el sólido deformable (la goma elástica que estiramos). Tanto lo mismo en termodinámica: primero la termodinámica de sistemas discretos, y después la termodinámica de sistemas continuos, también llamada irreversible o del no equilibrio; y basada en la primera.

Permítame que enlace y termine esta pequeña disertación con dos apuntes sobre el calor y la temperatura. Primero, lo mismo que ocurre con los estados de equilibrio (son algo que tomamos por natural) ocurre con estos conceptos. Son sensaciones evidentes que el hombre dominó de forma dispar. Desde el fuego como elemento primario griego, hasta los termómetros florentinos, la calorimetría dieciochesca, su calórico y la teoría mecánica del calor. Siempre observadas estas magnitudes como dadas; porque si puedo construir un termómetro es que tengo garantiza una temperatura.

Una aproximación diferente es no presuponer nada más que la mecánica con sus leyes de Newton, sus ecuaciones de Maxwell, de Schrödinger, sus supercuerdas galantes, los infinitos universos, los agujeros negros y su simetría de inversión temporal. Y ver cómo podemos destruir esa la ilusión de un soplo. Lo dejo para otro día.

El segundo apunte es una pequeña pirueta. Hay algo que tienen en común todos los trabajos. Lo reconocemos en la mismísima primigenia idea de trabajo: el producto de la fuerza que actúa sobre una partícula por el desplazmiento producido. Fuerza y desplazamiento son siempre los sostentos del trabajo y, en definitiva, de la energía. Esta idea está tan desarrollada que no mezclamos los conceptos. Por ejemplo los gases que explotan en el interior del cilindro de su coche se expanden (se desplazan) y proporcionan un trabajo. Pero usted distingue perfectamente entre la carrera del pistón y su trabajo. La termodinámica enseña a diferenciar entre el calor, como forma de energía; su fuerza, que le cuento que es la temperatura; y su desplazamiento, que sería la entropía. Pero para el común es difícil manejar estos tres conceptos como un malabarista maneja sus bolas. Y distinguir lo que es fuerza (temperatura) de energía (calor), o lo que es desplazamiento (entropía) de energía (calor).

Milagro en el filo (III)


Nuevamente y, a continuación de la entrada, dejaré constancia de los comentarios de cierto interlocutor que prefiere mantener su anonimato.

1.

Sigue desde …

Para seguir adelante, el torpe estudiante (es decir, yo) debe ordenar sus ideas, que es la manera fina de decir que debe poner por escrito algunos conceptos, a ver si me voy enterando.

Además, si acierto (“a nivel básico”: ¿está claro?), podremos evitar discusiones futuras que sólo sirven para enrarecer el ambiente y demostrar que el alumno no ha asimilado los fundamentos de la asignatura.

El primero de esos conceptos es el de calor. La relación de la vida con el calor y de la muerte con el frío son notorias. La muerte se ve, desde la antigüedad, como una pérdida del calor interno, de la llama que algunos fueron localizando en diferentes órganos. No es extraño que se haya considerado, al Sol, dios máximo en tantas religiones hoy desaparecidas. Cuando los primeros “medidores”, Fahrenheit y Celsius, establecieron sus reglas no cayeron en la cuenta de que dos sustancias diferentes no modificaban su temperatura en el mismo grado a pesar de “absorber” la misma cantidad de calor. Esa consecuencia, que implicaba un problema a la hora de utilizar diferentes materiales como termómetro, fue explicada por Joseph Black mezclando la idea de que el calor era un fluido con la de que sólo provocaba un aumento de temperatura cuando saturaba la capacidad del material al que se le aplicaba. Y ese fluido se almacenaba y podía extraerse. A ese fluido se le dio el nombre de calórico e incluso fue medido: a la medida se le llamó caloría.

Esa teoría, sin embargo, no explicaba por qué dos materiales que se calentaban por rozamiento seguían pesando lo mismo, a pesar de haber perdido “calórico”. A lo largo del siglo XIX se fue confirmando que el calor no era un fluido, sino movimiento. Nosotros sentimos que un cuerpo está caliente porque se suman los movimientos atómicos y moleculares de las partículas que los forman, y los cuerpos aumentan o disminuyen de temperatura según aumenta o disminuye la velocidad media de sus partículas. En gran medida, esa conclusión fue resultado del análisis del comportamiento de los gases: en el comportamiento de los gases es imposible medir partícula a partícula. El globo lleno de aire parece tener una forma constante, aunque es resultado del golpeo en las paredes del plástico de los innumerables átomos y moléculas del gas. Cuando se relacionó el volumen de un gas con su presión y su temperatura (si usted disminuye el volumen, la presión y la temperatura del gas aumentarán), y se descubrió que todos los gases se expandían en una misma proporción cuando se aumentaba la temperatura en una misma escala, la idea de que el calor era resultado del movimiento y de que al cesar el movimiento no habría calor, se impuso. Cuando se calculó la disminución de la presión al disminuir la temperatura, en un recipiente que se mantenía igual, y se vio que era de 1/273 por cada grado Celsius, se pudo fijar el mínimo, el cero absoluto: aquél en el que las partículas del gas ya no se mueven. Ya veremos en la próxima entrada que una de las leyes de la termodinámica impide llegar ahí.

Pero, si se transfería el calor y el calor es una medida del movimiento, la pregunta sobre qué se transfiere permanece. La respuesta requiere la presentación del segundo concepto: energía. Nuestros amigos los físicos, tremendamente prácticos como son, nos explican descriptivamente qué es energía: la capacidad para realizar un trabajo. Y nos aseguran que hay diferentes tipos de energía: cinética, potencial gravitatoria, magnética, eléctrica, química y de los enlaces nucleares.

Alguien me dijo, en cierta ocasión, cuando preguntaba por la transformación de la energía y su conservación (eso de que no se crea ni se destruye, sólo se transforma), que una cosa es energía y otra calor. Esto tiene que ver con ese proceso que denominamos trabajo. Cuando se transfiere energía de un cuerpo a otro de forma coherente, a ese proceso le denominamos trabajo. Cuando parte de la energía simplemente aumenta, de forma caótica, el movimiento de los átomos y moléculas del cuerpo que lo recibe, ese segundo proceso es el calor, o flujo calórico. El flujo calórico se dirige a todas partes, en todas direcciones, de forma que el movimiento global se va igualando. Es una forma de reparto de la energía que se caracteriza porque esa energía termina por no ser utilizable para realizar ningún trabajo. Es energía de “mala calidad”. Una de las “versiones” del segundo principio de la termodinámica, la de Clausius, dice: no es posible ningún proceso cuyo único resultado sea la transferencia de energía de un cuerpo más frío a otro más caliente. La conversión de energía en calor señala un camino irreversible.

Esto nos permite introducir nuestro tercer concepto: exergía. La exergía mide la “calidad” de la energía, pero es una medida que se produce entre un sistema y su entorno. Nos dice, teóricamente, qué cantidad de trabajo se puede realizar en el sistema por la existencia de energía utilizable en el entorno. Mide, en consecuencia, también, cómo de alejados están del equilibrio, el sistema y el entorno. Esto es así, porque la existencia de un gradiente, de una diferencia, entre el sistema y su entorno, es lo que permite que se produzca esa transferencia de energía en forma de trabajo.

Finalmente, podemos entrar en el cuarto concepto: el de equilibrio. La termodinámica clásica partía de una idealización que le permitía trabajar (¡ajá!). Los sistemas estudiados están aislados, encerrados entre paredes rígidas, y no deben permitir que el calor se escape. Por desgracia, esa idealización, como su nombre indica, no se da en la naturaleza. Así que, para trabajar, se llega a compromisos. En cualquier caso, el resultado ideal final de todo sistema cerrado es el de equilibrio; partículas que terminan repartiéndose uniformemente. Sin embargo, en algunos, la presencia de un gradiente, de una fuente de energía del entorno, impide que el sistema llegue a ese estado de equilibrio. En estos caso, los físicos distinguen entre sistemas cercanos y alejados del equilibrio. La distinción tiene que ver con la predecibilidad de los cambios que se producen en el sistema dependiendo de los cambios que se producen en su fuente de alimentación energética. Algunos de esos sistemas alejados del equilibrio, sin embargo, terminan organizados de manera que resultan estables: usted, lector, es uno de esos sistemas.

2.

Muchas gracias por haberme dejado revisar su valioso manuscrito y por permitirme hacer algunas anotaciones.

Realmente es curiosa la mezcla entre temperatura y calor que se observa en su primer párrafo expositivo. Lo único que se puede decir de estas cosas es que se trata de un caso, extraño, en el que una sensación acaba midiéndose. No habrá conocido un medidor de alegría o de dolor; pero, al fin, sí tuvimos termoscopios, termómetros y calorímetros. Es un trabajo interesante entender por qué podemos construir termómetros y no, aún, dolorómetros.

Cierto es que al principio fue el calórico. Es quizá uno de los casos más idiotas de teoría existosa pero idiota. El sistema ptolemaico aún hoy se respeta como un error natural: a fin de cuentas todos vemos cómo nace y muere el Sol. ¿Pero el calórico? Cómo pudo sobrevivir dos meses si el mero hecho de frotarse las manos ya sirve para cuestionarla. Bueno sí, hay un motivo: explica muy bien cómo se enfría una taza de té bien caliente. Y en general explica todos los fenónemos en los que el calor se conserva. Lo que ocurre cuando no hay trabajo.

Esto me lleva a la energía. La energía es lo que permanece. Vuelto en pasiva, observamos que algo permanece y eso es importante y lo prestigiamos dándole nombre. Sobre la energía, el calor y el trabajo sólo daré un ejemplo canónico. Imagine un embalse que se llena por el aporte pluvial y el aporte fluvial de aguas arriba. Y se vacía por evaporación o por la apertura de compuertas aguas abajo. Llover o evaporar es todo uno. Entrar o salir por el curso del río también. La energía es el agua del embalse; calor y trabajo son formas diferentes de llenar o vaciar el embalse: uno por lluvia/evaporación otro por entrada/salida. Lo significativo, sin embargo, es que el agua que reside en el embalse, agua es. Es decir, no puede etiquetarse o distinguirse si llegó del cielo o del cauce.

No obstante, a la hora de hablar de trabajo, calor o energía conviene adoptar la sabia decisión de empezar la casa por el suelo. Y dejar el tejado para después. El suelo es el formalismo mecánico, que permite conocer el trabajo y la energía. El techo es observar que no todo lo que reluce es mecánica. Y ahí topamos con el frío.

Mire, un mecánico (y no me refiero a los del mono azul) habrá aprendido del trabajo, de la energía y de su conservación. Pero no sabrá nada de calor ni de temperatura. Un mecánico observa una grabación de, digamos, un péndulo, ideal por supuesto, batiendo, y no sabrá si la grabación va marcha adelante o marcha atrás.

Un mecánico necesita algo más para comprender por qué sí sabemos distinguir entre un vídeo marcha adelante y uno marcha atrás. Y la respuesta, que es sorprendemente fácil y diríase hoy evidente, debe de ser una respuesta ontológicamente direccional: que marque y deje claro una preferencia, y rompa una equivalencia. Otro día se la cuento: que, además, tiene que ver con la muerte, destrucción y transfiguración del calórico.

Lo importante es que de esa respuesta se deduzcan consecuencias. Y se hace; vaya que si se hace. Por ejemplo, oh lá lá, la temperatura o el equilibrio (el cuarto concepto, qué bien dejarlo para el final). Es mejor reconocer dónde se soportan estos dos conceptos, antes que admitirlos como verdades evidentes; pues es trabajo de la ciencia explicar las verdades que tomamos como evidentes. Esta, más o menos, es una erudita cita de un tal Proclo (donde ciencia es geometría y verdad evidente es la desigualdad triangular, tan euclediana y discutida), pero no me extenderé en la filosofía tardoneoplatónica porque, realmente, no me apetece.

De la exergía no hablaré. Se necesita mucho valor para hablar ahora de ella. Yo comprendo que quiera. Pero se necesita valor. Es como empezar por el techo. Se corre el riesgo de precipitarse.

Y permítame ahora un apunte sobre el sistema aislado. Hay un error conceptual en esa parte. Diríase que la hubiera escrito un ingeniero. Es legendaria la capacidad del hombre para estudiar las cosas más extrañas: desde el melón esférico al planeta puntual. Pero… no, no es eso. Que no existan los sistemas aislados no quiere decir que no se puedan inferir sus propiedades. Se infieren, se estudian y, si quiere, se hipotizan. Lo bueno es que conocidas las propiedades del sistema aislado se pueden conocer las propiedades de un sistema que no esté aislado. ¿Cómo? Usando el viejo truco de las matrioskas rusas. Rodeándolo de su entorno tal que el sistema y el entorno constituyan un sistema aislado. ¿Que no? Pues se rodea el entorno del entorno y santas pascuas. ¿Hay trampa? Exactamente la misma que permite decir que la energía se conserva: la energía sólo se conserva si las contamos todos. Si no se conserva es que se nos ha ‘olvidado’ contar una. Una matrioska.

Y, para finalizar, hablemos de los gradientes. Los jodidos gradientes. En eso, como de la exergía, se corre el riesgo de despeñar pronto. Gradiente es diferencia; gradiente es desequilibrio; gradiente es la perdición. Hay gradiente cuando dejamos enfriar la taza de té caliente. Otro día le explicaría qué significa eso. Pero el gradiente muere porque el equilibrio triunfa siempre. Sí, es otra de las consecuencias poderosas de esa idea que no he querido terminar de explicarle. Pero no, los sistemas alejados del equilibrio nunca son estables. Se refiere usted a estacionarios. Ambos (equilibrio y estacionario) dan idea de permanencia en el tiempo. Y así es. Pero con una diferencia: el equilibrio es un estado muerto, que perdura eternamente. El estacionario es un estado vivo que sólo permanece mientras haya algo que lo alimente. ¿Que alimente qué? Que alimente el gradiente. No voy a decirle que usted pueda ser un ejemplo de estacionario, tal vez. Me voy a referir a su coche funcionando estacionariamente, y con todos sus gradientes, a la velocidad constante de cien kilómetros a la hora. Mientras tenga combustible.

Milagro en el filo (II)


Observarán que esta entrada parece repetida. En realidad, es una demostración del asunto en cuestión. Alguien ha aumentado la entropía de su entorno revisándola y puliéndola. Sus acabados son muy interesantes; en particular, uno, que introduce, de partida, el punto de vista escéptico sobre la materia que se discute.

1

Sigue desde …

Las tres conferencias de Schrödinger en el Trinity College son uno de los lugares comunes de cualquier libro sobre el ADN. Lo son y lo merecen. No lo digo yo, lo dicen Watson y Crick, por ejemplo, en varios de sus libros. En ellos siempre aparecen esas conferencias y el libro publicado unos años después como hitos en su propia biografía. Ahí estaba uno de los grandes genios de la física abriendo un camino fascinante (jeje). Y casi siempre se hace hincapié en la predicción de la existencia de un “cristal aperiódico” al que ahora llamamos ADN. Es lógico: el tipo casi inventó una disciplina científica y, además, el avance en las décadas transcurridas desde entonces es espectacular. En particular, en lo relativo al conocimiento de las “leyes” de la replicación y expresión de los genes.

Sin embargo, Schrödinger, en su última conferencia, se planteó una pregunta que, considerando su profesión, era bastante pertinente: ¿cómo logra la vida sortear el problema de la segunda ley de la termodinámica? La vida parece precisamente lo contrario de la dirección que señala la segunda ley, que se dirige hacia un estado de máxima entropía con su entorno. Como estas entradas van a hablar precisamente de la segunda ley en relación con la vida, bastará para el propósito de enunciar el problema, recuerden que la entropía mide qué parte de la energía de un sistema es de baja calidad, es decir, es incapaz de producir trabajo. La ley nos dice que la entropía de un sistema aislado crece hasta que se alcanza un estado de equilibrio en el que la temperatura es uniforme. Los seres vivos parecen contradecir la segunda ley, pero, ya lo sabemos, la contradicción es aparente.

Schrödinger dio la respuesta: los seres vivos producen un aumento de la entropía de su entorno por definición. Si no es capaz de revertir localmente (y cuando digo localmente me refiero al propio ser vivo) ese proceso le llevará a la muerte y a la disgregación. Schrödinger afirmó que sólo extrayendo “entropía negativa” del ambiente puede seguir vivo. El metabolismo del ser vivo nos permite definirlo como tal siempre que sea capaz de “liberarse de toda la entropía que no puede dejar de producir mientras está vivo”.

Ese concepto, el de entropía negativa o neguentropía, desaparecerá de sus formulaciones posteriores (y se sustituirá por energía libre, capaz de producir trabajo), aunque tendrá éxito en la teoría de la información.

Lo verdaderamente interesante es que este proceso no es simplemente una manera de evitar esa paradoja aparente entre la vida y la segunda ley. Va más lejos; en realidad, es posible que el camino hacia la vida y hacia el desarrollo de su complejidad se explique precisamente por el impulso de la segunda ley. Esta posibilidad no aparece en Schrödinger, sino que es resultado del análisis de qué sucede en algunos sistemas alejados del equilibrio termodinámico en los que el proceso de reducción de gradientes genera una organización que favorece la disipación, y, por tanto, esa misma reducción. De ser así, la aleatoriedad de la vida (de su origen y de su creciente complejidad) podría ser discutida: la existencia de energía de calidad disponible y su inexorable degradación serían un motor para la aparición de estructuras relativamente estables, capaces de acelerar ese proceso de degradación.

Uno de los aspectos más interesantes de un planteamiento así es que se aleja de cuestiones que aparecen a menudo en polémicas relacionadas con el origen de la vida. Existe una entropía en la teoría de la información; pero la relación con la entropía termodinámica es producto de la decisión de los fundadores de la teoría, Claude Shannon y Warren Weaver, que partían de la similitud de las matemáticas utilizadas. La entropía informacional mide un tipo de incertidumbre, y su uso parecía justificado por el hecho de que la entropía termodinámica es, se supone, una medida del desorden. Sin embargo, esto se relaciona con una vulgarización de la segunda ley. A menudo se relaciona con el aumento del desorden y alguien nos dice que una habitación tiende, por ejemplo, a desordenarse y no al contrario. Sin embargo, la entropía termodinámica no se produce en niveles macroscópicos: desordenar la habitación aumenta la entropía igual que ordenarla, porque tenemos que trabajar y parte de la energía utilizada no puede posteriormente reutilizarse para producir trabajo. Sin embargo, ambas situaciones no son equivalentes en teoría de la información: hace falta más información para explicar la situación de la habitación desordenada que de la ordenada. La conexión que existe tiene más que ver con el hecho de que la complejidad creciente de los sistemas (no necesariamente vivos) sí aumenta la cantidad de información y el intercambio de datos, pero como consecuencia del propio proceso. Digamos que esa relación puede introducir una quiebra en los planteamientos estáticos que parten de la improbabilidad estadística del producto final, considerando la información precisa para la aparición y replicación del sistema. Algunos ejemplos de sistemas organizados no vivos derivados de situaciones de no equilibrio termodinámico son tan espectaculares que servirán muy bien a este propósito.

Continuará.


2


Sigue desde …

Las tres conferencias de Schrödinger en el Trinity College son uno de los lugares comunes de cualquier libro sobre el ADN. Lo son y lo merecen. No lo digo yo, lo dicen Watson y Crick, por ejemplo, en varios de sus libros. En ellos siempre aparecen esas conferencias y el libro publicado unos años después como hitos en su propia biografía. Ahí estaba uno de los grandes genios de la física abriendo un camino fascinante (jeje). Y casi siempre se hace hincapié en la predicción de la existencia de un “cristal aperiódico” al que ahora llamamos ADN. Es lógico: el tipo casi inventó una disciplina científica y, además, el avance en las décadas transcurridas desde entonces es espectacular. En particular, en lo relativo al conocimiento de las “leyes” de la replicación y expresión de los genes.

Sin embargo, Schrödinger, en su última conferencia, se planteó una pregunta que, considerando su profesión, era bastante pertinente: ¿cómo logra la vida sortear el problema de la segunda ley de la termodinámica? La vida parece precisamente lo contrario de la dirección que señala la segunda ley, que describe la evolución de los sistemas físicos por el incremento de entropía de los sistemas y su entorno. Como estas entradas van a hablar precisamente de la segunda ley en relación con la vida, bastará para el propósito de enunciar el problema, recuerden que la entropía se relaciona con qué parte de la energía de un sistema es de baja calidad, es decir, es incapaz de producir trabajo. Lo de “baja calidad” es un peyorativo antrópico: el hombre es un animal vago por naturaleza. La ley nos dice que un sistema aislado (y me perdonaran que no defina lo que es un sistema aislado) evoluciona mientras que su entropía pueda crecer. Cuando la entropía del sistema ha dicho basta, la evolución cesa y el sistema alcanza un estado de equilibrio. No por casualidad ese estado de equilibrio está caracterizado por unas propiedades homogéneas: la temperatura, por ejemplo, sería uniforme. Los seres vivos parecen contradecir la segunda ley, pero, ya lo sabemos, la contradicción es aparente.

Schrödinger dio la respuesta: los seres vivos producen un aumento de la entropía de su entorno por definición. Si no es capaz de revertir localmente (y cuando digo localmente me refiero al propio ser vivo) ese proceso le llevará a la muerte y a la disgregación. Schrödinger afirmó que sólo extrayendo “entropía negativa” del ambiente puede seguir vivo. El metabolismo del ser vivo nos permite definirlo como tal siempre que sea capaz de “liberarse de toda la entropía que no puede dejar de producir mientras está vivo”.

Ese concepto, el de entropía negativa o neguentropía, desaparecerá de sus formulaciones posteriores (y se sustituirá por energía libre o exergía, energía capaz de producir trabajo en un ambiente definido), aunque tendrá éxito en la teoría de la información.

Lo verdaderamente interesante es que este proceso no es simplemente una manera de evitar esa paradoja aparente entre la vida y la segunda ley. Va más lejos; en realidad, es posible que el camino hacia la vida y hacia el desarrollo de su complejidad se explique precisamente por el impulso de la segunda ley. Aunque, en principio, esto también puede ser una falacia post hoc ergo propter hoc si admitimos que la entropía de un sistema aislado siempre crece; lo cual no es mucho admitir porque nunca se ha observado lo contrario. Esta posibilidad no aparece en los trabajos de Schrödinger, sino que es resultado del análisis de qué sucede en algunos sistemas alejados del equilibrio termodinámico en los que el proceso de reducción de gradientes genera una organización que favorece la disipación, y, por tanto, esa misma reducción. De ser así, la aleatoriedad de la vida (de su origen y de su creciente complejidad) podría ser discutida: la existencia de energía de calidad disponible y su inexorable degradación serían un motor para la aparición de estructuras relativamente estables, capaces de acelerar ese proceso de degradación.

Uno de los aspectos más interesantes de un planteamiento así es que se aleja de cuestiones que aparecen a menudo en polémicas relacionadas con el origen de la vida. Existe una entropía en la teoría de la información; pero la relación con la entropía termodinámica es producto de la decisión de los fundadores de la teoría, Claude Shannon y Warren Weaver, que partían de la similitud de las matemáticas utilizadas. La entropía informacional mide un tipo de incertidumbre, y su uso parecía justificado por el hecho de que la entropía termodinámica es, se supone, una medida del desorden. Sin embargo, esto se relaciona con una vulgarización de la segunda ley. A menudo se relaciona con el aumento del desorden y alguien nos dice que una habitación tiende, por ejemplo, a desordenarse y no al contrario. Sin embargo, la entropía termodinámica no se produce en niveles macroscópicos: desordenar la habitación aumenta la entropía igual que ordenarla, porque tenemos que trabajar y parte de la energía utilizada no puede posteriormente reutilizarse para producir trabajo (Nota). Sin embargo, ambas situaciones no son equivalentes en teoría de la información: hace falta más información para explicar la situación de la habitación desordenada que de la ordenada. La conexión que existe tiene más que ver con el hecho de que la complejidad creciente de los sistemas (no necesariamente vivos) sí aumenta la cantidad de información y el intercambio de datos, pero como consecuencia del propio proceso. Digamos que esa relación puede introducir una quiebra en los planteamientos estáticos que parten de la improbabilidad estadística del producto final, considerando la información precisa para la aparición y replicación del sistema. Algunos ejemplos de sistemas organizados no vivos derivados de situaciones de no equilibrio termodinámico son tan espectaculares que servirán muy bien a este propósito.

Continuará.


Nota: por ser de interés general, añado esto (a pesar de ser una comunicación privada)

EMPERO, la relación entre entropía y desorden microscópico es bastante evidente y conocida. Aunque trasciende de la termodinámica porque ésta no se ocupa de lo microscópico. Las fases más desordenadas (microscópicamente) de una sustancia son más entrópicas que las fases más ordenadas. Ejemplo típico el gas: sistema muy desordenado localmente, muy simétrico y muy entrópico. Frente al sólido, ordenado localmente, con menos simetría y menos entropía. Y dentro de una fase sólida, una fase sólida más simétrica y desordenada (por ejemplo una cúbica) es más entrópica que una menos simétrica y más ordenada (por ejemplo una tetragonal, un cubo estirado en una dirección).

EMPERO DOS, el ejemplo del orden y el desorden de una habitación está resuelto torpemente. Claro si admitimos, y todos lo hacemos, que todos los procesos naturales aumentan la entropia, hagas lo que hagas aumentará la entropía: ordenes o desordenes la habitación. Es tan trivial que no hace falta escribirlo. Lo que pasa es que esa explicación toma por tonto al que pone el ejemplo. Que no es más que una analogía y que no quiere describir estrictamente un proceso termodinámica.

La idea es la siguiente. Una habitación se desordena porque, normalmente, uno deja las cosas (calzoncillos, calcetines, libros perdidos de Fernando Báez, restos orgánicos etc. etc.) en el primer lugar que caen. Eso es lo que en termodinámica se identificaría como un proceso espontáneo. Dejamos el calcentín y punto. No nos preocupamos de colocarlo en su sitio. Y ese proceso, espontáneo (dejar caer y punto), es siempre entrópico. Así es la naturaleza.

Otra cosa es que uno se preocupe de soltar los calzoncillos, los calcetines, los libros etc etc en su sitio. Eso no es espontáneo y requiere algún tipo de mecanismo ‘inteligente’ [aquí un análisis en términos de información requeriría analizar cómo se sabe dónde dejar el calcetín, etc. etc.]. Bah, da igual. Lo que importa es que no es espontáneo, requiere una cierta acción, ingenio o máquina inteligente [que en el ejemplo que nos ocupa suele llamarse ‘madre’]. Eso se relaciona en termodinámica con los procesos reversibles (aquellos que no hacen aumentar la entropía): nunca podrían ser espontáneos y necesitarían de un cierto ‘diseño’ para que pudieran ocurrir; para que pudieran ocurrir sin aumentar la entropía del sistema y su entorno. Estos procesos reversibles nunca ocurren en la naturaleza pero uno puede idealizarlos como un paso al límite de la misma forma que las leyes de Newton pueden idealizar el movimiento de una partícula sin acción de fuerzas exteriores.


Ande hay patrón no manda marinero

Visualicen ustedes un mapa del mundo. Éste nos puede servir:

Puede parecerles evidente que ese mapa es una plasmación en dos dimensiones de la superficie de la Tierra: ya saben, una esfera sin lo de dentro. Bueno, la superficie de la esfera también lo es en dos dimensiones, sólo que para verla tal y cómo es, necesitamos una tercera. El caso es que tenemos claro que lo que pasa es que los límites de la izquierda hay que “pegarlos” con los de la derecha y los de arriba con los de abajo, aunque para convertirlo en esfera hay que “deshacer” el estiramiento que hemos necesitado para poner el mapa en el plano. Sin embargo, supongan que el que ve el mapa no sabe que la Tierra es esférica. Podría reconstruir el mapa juntando lo de arriba con lo de abajo, y luego doblando el cilindro resultante, hasta pegar sus extremos. Ya ven, nuestro mundo sería una rosquilla, o como dicen los cursis, un toro. También la superficie de ese toro tendría dos dimensiones.

Para no liarnos, llamaremos a esas superficies “variedades bidimensionales”. No tienen por qué ser planas, como ven. Para llamarlas así, nos basta con saber que necesitamos dos coordenadas para situar un punto sobre la variedad. En una variedad bidimensional, todos los puntos vecinos a un punto cualquiera se pueden reflejar en un mapa bidimensional. Una variedad así tiene dos dimensiones, y esto es importante, aunque pueda requerir, como ya he dicho, para “verlo” como es, tres dimensiones, como en el caso de la superficie de la esfera o de la superficie de un toro.

Una variedad bidimensional puede ser finita o infinita. Y puede tener frontera o no. Es importante tener claro que no es lo mismo. Un plano que se extiende hacia el infinito no tiene frontera. Sin embargo, la superficie de una esfera es finita, ya que si viajamos por ella, terminamos en el mismo punto del que partimos, pero no tiene frontera, ya que nunca llegamos a un límite de la propia superficie. Para saber si una variedad es finita, basta con preguntarnos si podemos hacer un mapa o mapas en el que se representen todos sus puntos. Si la respuesta es afirmativa, como en el caso de nuestro mapa, la variedad es finita. Hay, por otra parte, infinitas variedades bidimensionales que podrían resultar de nuestros mapas; basta ir pegando toros y haciendo dónuts con dos, con tres, con cuatro, … agujeros.

Si un tipo curioso le pregunta al estudioso de los mapas si puede, basándose exclusivamente en ellos, decirnos la forma de la variedad, podríamos encontrarnos con el problema de que existen infinitas variedades que podrían resultar de ese mapa o mapas. Sin embargo, el pobre estudioso del mapa tiene un esperanza. Resulta que sólo la superficie de la esfera, como variedad bidimensional finita, tiene la divertida virtud de que si usted sale de un punto con un cordel y viaja y viaja, y llega al mismo punto, haga el viaje que haga, puede sujetar los dos extremos del cordel y recogerlo y recogerlo totalmente. Si hace usted lo mismo en el mundo-rosquilla y el viaje que usted ha hecho es éste

…, ya puede tirar lo que quiera, que no recogerá el cordel. Así que, puede examinar y examinar los mapas hasta comprobar si se puede o no recoger el cordel. Si se puede, está de suerte: el mapa representa la superficie de una esfera.

Ahora damos un salto y nos vamos a las variedades tridimensionales. Necesitamos para colocar un punto en ellas tres coordenadas. Un mapa (o un conjunto de mapas) de una variedad así, también sería tridimensional, claro (por ejemplo un cubo). Imaginen que nos dan unos cuantos cubos que, aun solapándose (como ocurre a menudo con los mapas bidimensionales, en los que nos aparece Albacete en el 43A y en el 24B, una vez arriba y otra a la derecha), representan esa variedad tridimensional de forma completa. Si es así, ya sabemos que es finita, claro (no hacen falta infinitos mapas para representarla). Ahora bien, aun siendo finita, puede no tener bordes o fronteras.

Hay una cosa curiosa, fíjense en esta representación de la superficie esférica de la Tierra.

Como ven se trata de dos mapas con forma de disco. Se trata de una superficie finita y con frontera. La frontera es la circunferencia de cada uno. Ahora peguen los puntos de esas fronteras, es decir, las dos circunferencias y estiren y estiren tirando del centro de cada disco. Las dos unidas se convierten en una esfera bidimensional sin frontera (no se preocupe si se pasa estirando y le sale algo parecido a un plátano, porque topológicamente también es una esfera bidimensional, ya que cumple los requisitos que vimos). Las fronteras han desaparecido porque el viajero que parte de un punto de un disco y llega a la frontera, lo que hace es entrar en el otro disco, y así sucesivamente.

¡Hagamos lo mismo con dos esferas! Imaginen dos esferas que sean mapas de una parte de una variedad tridimensional (como es evidente ya no sólo consideramos la superficie de la esfera, sino también su interior). Ese mapa también tiene, como tenía el disco, una frontera. Por ejemplo, soy un topo viajero y parto desde el centro de la Tierra; un día llego a su superficie, pero ya no puedo ir más allá. La superficie, en este caso es la frontera. Bien, ya termino: ahora cojan dos esferas tridimensionales y unan cada punto de su límite, de su frontera, con un punto de la superficie de la otra esfera. Estamos haciendo lo mismo que hicimos con los discos. Nuestro topo llega a lo que antes era una frontera y se encuentra con que puede horadar por la otra esfera, llegar al centro y seguir y seguir, hasta llegar a lo que era la superficie y pasar de nuevo a la primera esfera. El resultado de esa suma es una esfera tridimensional, una variedad tridimensional finita y sin fronteras.

Hay infinitas variedades tridimensionales finitas y sin fronteras. En todas ellas se da la circunstancia de que usted regresará al punto de partida si tira por la calle de “enmedio” durante el tiempo suficiente. Nos dicen que el universo puede ser así: usted coge su nave espacial, se pira de la Tierra a toda leche y no cambia el rumbo. Unos eones después llega otra vez a casa. Acojona porque no hay manera de visualizarlo: nosotros para ver la superficie de una esfera bidimensional, necesitamos una tercera dimensión. Fíjese en la bola del mundo que le regaló a su hijo. La putada es que no podemos salirnos fuera de la esfera tridimensional: nos falta una dimensión.

Ahora, imagine que nuestro estudioso tiene una colección de mapas tridimensionales que contienen todos los puntos de una variedad tridimensional. Alguien le pregunta, ¿qué forma tiene esa variedad? El estudioso le dice: “que tu amigo coja la nave espacial con el cordel y tire todo recto: cuando vuelva que sujete ambos extremos e intente enrollarlos. Si lo consigue es que es una esfera tridimensional”.

Hasta hace poco no sabíamos si la prueba era válida. Un tal Perelman ha demostrado que sí.