lunes, 15 de febrero de 2010

Termodinamica y Entropia

Las estructuras complejas –una bacteria, un ser humano, una empresa comercial, el conjunto de una sociedad– no sólo se reproducen, sino que, en general, tienden a mantener estables sus sistemas y sus características más relevantes. Tal vez sea éste el rasgo más definitorio de la vida. Pero la vida es también un flujo de energía y, por lo tanto, está sometida a la segunda ley de la termodinámica, que postula que la energía de los sistemas tiende a la homogeneización y al equilibrio de todas las temperaturas y presiones. ¿Cómo se compagina esta tendencia del universo a la muerte térmica con la proliferación y extensión de la vida?
Para Schneider y Sagan, precisamente ese impulso hacia el equilibrio absoluto del que habla la termodinámica se encuentra detrás de todos los fenómenos asociados con la vida, sus orígenes y su complejidad: la evolución de las especies, el sexo, la ecología e incluso la economía. La termodinámica de la vida tiene uno de sus puntos de arranque en las intuiciones que el físico Erwin Schrödinger expusiera en 1940 en su genial obra ¿Qué es la vida? (publicada por Tusquets Editores), y como ésta, marcará un punto de inflexión en la comprensión de nuestro origen y nuestro destino.
Las Leyes de la Termodinámica, las leyes más fundamentales de las ciencias físicas nos dicen:
  • 1ra Ley: La cantidad total de masa-energía en el Universo es constante.
  • 2da Ley: La cantidad de energía en el Universo disponible para ser usada se está agotando, o que la Entropía está aumentando hasta un máximo. Entropía significa la función termodinámica que es medida de la parte no utilizable de la energía contenida en un sistema. En otras palabras, la energía, la cual ni se crea ni se destruye, está solamente pasando de un estado útil a un estado inútil.
Si la cantidad total de masa-energía es limitada, y la cantidad de energía usable o útil está decreciendo, entonces el Universo no pudo haber existido por una eternidad, de otra forma ya se hubiera agotado toda su energía útil y el Universo habría alcanzado lo que conocemos en el lenguaje inglés como el punto de "dead heat" o de "calor muerto" = Ausencia de energía.
A lo que me refiero es a lo siguiente... De hecho, permítanme ilustrar un poco:
En tal escenario, todos los átomos radiactivos se hubieran descompuesto, todas las partes que componen el Universo se encontrarían a la misma temperatura, y no fuera posible trabajar nada ni con nada en lo absoluto.
La conclusión más plausible a la que todo aquel que tiene la capacidad de razonar, libre de inhibiciones prejuiciosas, es que el Universo debió haber sido creado con una cantidad inicial de energía útil o usable, la que ahora estamos perdiendo.
Si la entropía es una medida del desorden, podemos escribir:
SS + Sma = Su (variación entrópica del universo)
Por lo tanto el universo tendrá una variación entrópica.
Aprovechando este concepto, enunciemos otra forma de la segunda ley:

La entropía del universo siempre aumenta

Esto es cierto para todos los procesos naturales y como tales espontáneos e irreversibles
Su > 0
y nunca puede ser menor que cero

Cálculos sencillos
Conocidos todos estos conceptos hagamos un cálculo sencillo para verificar que lo expresado cumple con nuestra intuición: Imaginemos dos cuerpos lo suficientemente grandes como para que al ponerse en contacto y transferir calor de uno a otro, ambos no sufran cambios en su temperatura.
Si el cuerpo A está calentado a 600 K y el B a 300 K es obvio que la transferencia de calor según nuestra experiencia debe realizarse de A hacia B. Propongamos una transferencia de 300 kJ y hagamos cálculos de las variaciones entrópicas correspondientes:
http://www.textoscientificos.com/imagenes/quimica/termoquimica-25.gif
Gráfico número 22
SA = -300 kJ/600 K = - 0,5 kJ/K
SB= +300 kJ/300 K = + 1,0 kJ/K
∆Su = -0,5 kJ/K + 1,0 kJ/K = 0,5 kJ/K
Como se observa el S u > 0 y por lo tanto lo postulado coincide con nuestra experiencia.
Pero ahora vamos a plantear lo contrario o sea que un cuerpo más frío B entrega 300 kJ al A, cosa que sabemos nunca ocurre por si mismo es decir espontáneamente.
Gráfico número 23
Gráfico número 23
SA =+300 kJ/600K =+0,5 kJ/K
SB =-300 kJ/300 K =-1,0 kJ/K
∆Su= + 0,5 kJ/K + (-1,0 kJ/K)= -0,5 kJ/K
Como se ve conduce a un resultado totalmente incorrecto e inconsistente con nuestra experiencia.

Entropías absolutas:

Hemos mencionado que la entropía es una medida del "desorden". Ese desorden se manifiesta en las moléculas que forman una sustancia y en particular está relacionado con la energía térmica que U d. ya conoce. La distribución de las energías moleculares estudiada en loa gases se hace cada vez menos notable a medida que desciende la temperatura.
¿Qué queremos decir cuando hablamos de "cada vez menos notables"? :
Significa que todas las moléculas tenderán a tener un valor mínimo de energía que es igual en todas ellas. Recuerde que la distribución era de forma acampanada y ello indicaba que en un mol de gas podía haber moléculas con diferentes energías (particularmente de traslación) y que la energía cinética media es 3/2 R.T
¿Dónde se encontrará el límite?: En el cero absoluto donde todas las moléculas están "congeladas" y la entropía de todos los sólidos cristalinos perfectos (puros) es nula. Esto es una forma de expresar la tercera ley de la termodinámica sobre el cual no entraremos en mayores consideraciones.
Debemos aclarar que se dice sólidos cristalinos perfectos porque se debe cubrir la posibilidad de tener sólidos parcialmente desordenados en el cero absoluto.
Por lo tanto si tenemos sustancias (como por ej. pueden ser el Cu°, el Na°, etc.) que tengan entropías iguales a cero, es posible calcular así entropías absolutas (es decir valores reales). Esto como U d. sabe, no es posible para cálculos referidos por ejemplo a la entalpía, donde se estableció una convención arbitraria para efectuar los cálculos referidos a ella (entalpías estándar).
Como es evidente la temperatura y la presión son fundamentales determinarlas para saber qué valor de S será posible, y de ese modo se estableció un criterio similar al visto para la entalpía o sea establecer estados normales que en este caso como en el anterior será 25ºC y 1 atm de presión.
Se encuentran tabulados valores de S° (y no de ∆S°, como a lo mejor esperamos de acuerdo al comportamiento de la entalpía y energía interna de las sustancias).
Este hecho deriva, de la tercera ley de la termodinámica ya que se pueden calcular entropías absolutas.

La entropía, el desorden y el grado de organizacion.


Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban separadas y ordenadas en colores: en la primera división las azules, en la segunda las amarillas y en la tercera las rojas, estaban restringidas a un cierto orden.
Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringían han sido quitadas.
La entropía de este sistema ha aumentado al ir quitando las restricciones pues inicialmente había un orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden alguno dentro de la caja.
La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna restricción, y volverla a medir al final del proceso que sufrió el sistema.
Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un cambio en las condiciones de un sistema.


Entropía, procesos reversibles y procesos irreversibles.
Volviendo al ejemplo anterior de la caja con separaciones y canicas, vamos a explicar qué es un proceso reversible y qué un proceso no reversible.
Llamamos proceso reversible al que se puede invertir y dejar a nuestro sistema en las mismas condiciones iniciales. Teniendo en cuenta nuestra caja ya sin las separaciones, tenemos a las canicas revueltas unas con otras, es decir, sin un orden. Si el proceso que efectuamos de quitar las divisiones fuera reversible, las canicas tendrían que ordenarse espontáneamente en azules, amarillas y rojas, según el orden de las divisiones. Esto no ocurrirá.
El proceso que efectuamos con nuestra caja de canicas fue un proceso no reversible, en donde una vez terminado, el orden que había en las condiciones iniciales del sistema ya nunca volverá a establecerse. El estudio de este tipo de procesos es importante porque en la naturaleza todos los procesos son irreversibles.


La entropía y la energía "gastada".
En el principio enunciado por Clausius que anteriormente citamos, podemos encontrar la relación con la entropía y la energía liberada en un proceso. Pensemos en un motor. El motor necesita de una fuente de energía para poder convertirla en trabajo. Si pensamos en un coche, la gasolina, junto con el sistema de chispa del motor, proporciona la energía (química) de combustión, capaz de hacer que el auto se mueva. ¿qué tiene que ver la entropía aquí?
La energía que el coche "utilizó" para realizar trabajo y moverse, se "gastó", es decir, es energía liberada mediante un proceso químico que ya no es utilizable para que un motor produzca trabajo.
Este es uno de los conceptos más difíciles de entender de la entropía, pues requiere un conocimiento un poco menos trivial del funcionamiento de motores, frigoríficos y el ciclo de Carnot. Pero para nuestros fines con esta explicación es suficiente.


¿Para qué sirve la entropía?
La entropía, como medida del grado de restricción o como medida del desorden de un sistema, o bien en ingeniería, como concepto auxiliar en los problemas del rendimiento energético de las máquinas, es una de las variables termodinámicas más importantes. Su relación con la teoría del caos le abre un nuevo campo de estudio e investigación a este tan "manoseado" concepto.


Karelis Morales
CI: 18089995
CAF

No hay comentarios:

Publicar un comentario