Para Schneider y Sagan, precisamente ese impulso hacia el equilibrio absoluto del que habla la termodinámica se encuentra detrás de todos los fenómenos asociados con la vida, sus orígenes y su complejidad: la evolución de las especies, el sexo, la ecología e incluso la economía. La termodinámica de la vida tiene uno de sus puntos de arranque en las intuiciones que el físico Erwin Schrödinger expusiera en 1940 en su genial obra ¿Qué es la vida? (publicada por Tusquets Editores), y como ésta, marcará un punto de inflexión en la comprensión de nuestro origen y nuestro destino.
Las Leyes de la Termodinámica, las  leyes más fundamentales de las ciencias físicas nos dicen: 
- 1ra Ley: La cantidad total de masa-energía en el       Universo es constante. 
 - 2da Ley: La cantidad de energía en el Universo       disponible para ser usada se está agotando, o que la Entropía está       aumentando hasta un máximo. Entropía significa la función termodinámica       que es medida de la parte no utilizable de la energía contenida en un       sistema. En otras palabras, la energía, la cual ni se crea ni se destruye,       está solamente pasando de un estado útil a un estado inútil. 
 
Si la cantidad total de masa-energía  es limitada, y la cantidad de energía usable o útil está decreciendo, entonces  el Universo no pudo haber existido por una eternidad, de otra forma ya se  hubiera agotado toda su energía útil y el Universo habría alcanzado lo que  conocemos en el lenguaje inglés como el punto de "dead heat" o de  "calor muerto" = Ausencia de energía. 
A lo que me refiero es a lo  siguiente... De hecho, permítanme ilustrar un poco: 
En tal escenario, todos los átomos  radiactivos se hubieran descompuesto, todas las partes que componen el Universo  se encontrarían a la misma temperatura, y no fuera posible trabajar nada ni con  nada en lo absoluto. 
La conclusión más plausible a la que  todo aquel que tiene la capacidad de razonar, libre de inhibiciones  prejuiciosas, es que el Universo debió haber sido creado con una cantidad  inicial de energía útil o usable, la que ahora estamos perdiendo. 
Si la entropía es una medida del desorden,  podemos escribir:
∆SS + ∆Sma  = ∆Su (variación entrópica del universo)
Por lo tanto el universo tendrá una  variación entrópica.
Aprovechando este concepto,  enunciemos otra forma de la segunda ley:
La entropía del universo siempre  aumenta
Esto es cierto para todos los  procesos naturales y como tales espontáneos e irreversibles
∆Su > 0
y nunca puede ser menor que cero
Cálculos sencillos
Conocidos todos estos conceptos  hagamos un cálculo sencillo para verificar que lo expresado cumple con  nuestra intuición: Imaginemos dos cuerpos lo suficientemente grandes como para  que al ponerse en contacto y transferir calor de uno a otro, ambos no sufran  cambios en su temperatura. 
Si el cuerpo A está calentado a 600  K y el B a 300 K es obvio que la transferencia de calor según nuestra  experiencia debe realizarse de A hacia B. Propongamos una transferencia de 300  kJ y hagamos cálculos de las variaciones entrópicas correspondientes:

Gráfico número 22
SA = -300 kJ/600 K = -  0,5 kJ/K
SB= +300 kJ/300 K = + 1,0  kJ/K
∆Su = -0,5 kJ/K + 1,0  kJ/K = 0,5 kJ/K
Como se observa el S u > 0 y por  lo tanto lo postulado coincide con nuestra experiencia.
Pero ahora vamos a plantear lo  contrario o sea que un cuerpo más frío B entrega 300 kJ al A, cosa que sabemos  nunca ocurre por si mismo es decir espontáneamente.

Gráfico número 23
SA =+300 kJ/600K =+0,5 kJ/K
SB =-300 kJ/300 K =-1,0 kJ/K
∆Su= + 0,5 kJ/K + (-1,0 kJ/K)= -0,5  kJ/K
Como se ve conduce a un resultado  totalmente incorrecto e inconsistente con nuestra experiencia.
Entropías absolutas:
Hemos mencionado que la entropía es  una medida del "desorden". Ese desorden se manifiesta en las moléculas que  forman una sustancia y en particular está relacionado con la energía térmica  que U d. ya conoce. La distribución de las energías moleculares estudiada en  loa gases se hace cada vez menos notable a medida que desciende la temperatura.
¿Qué queremos decir cuando hablamos  de "cada vez menos notables"? :
Significa que todas las moléculas  tenderán a tener un valor mínimo de energía que es igual en todas ellas.  Recuerde que la distribución era de forma acampanada y ello indicaba que en un  mol de gas podía haber moléculas con diferentes energías (particularmente de  traslación) y que la energía cinética media es 3/2 R.T 
¿Dónde se encontrará el límite?: En  el cero absoluto donde todas las moléculas están "congeladas" y la  entropía de todos los sólidos cristalinos perfectos (puros) es nula. Esto  es una forma de expresar la tercera ley de la termodinámica sobre el  cual no entraremos en mayores consideraciones.
Debemos aclarar que se dice sólidos  cristalinos perfectos porque se debe cubrir la posibilidad de tener sólidos  parcialmente desordenados en el cero absoluto.
Por lo tanto si tenemos sustancias  (como por ej. pueden ser el Cu°, el Na°, etc.) que tengan entropías iguales a  cero, es posible calcular así entropías absolutas (es decir valores  reales). Esto como U d. sabe, no es posible para cálculos referidos por ejemplo  a la entalpía, donde se estableció una convención arbitraria para efectuar los  cálculos referidos a ella (entalpías estándar).
Como es evidente la temperatura  y la presión son fundamentales determinarlas para saber qué valor de S  será posible, y de ese modo se estableció un criterio similar al visto para la  entalpía o sea establecer estados normales que en este caso como en el anterior  será 25ºC y 1 atm de presión. 
Se encuentran tabulados valores de  S° (y no de ∆S°, como a lo mejor esperamos de acuerdo al comportamiento de la  entalpía y energía interna de las sustancias).
Este hecho deriva, de la tercera ley  de la termodinámica ya que se pueden calcular entropías absolutas.
La entropía, el desorden y el grado de organizacion.
Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban separadas y ordenadas en colores: en la primera división las azules, en la segunda las amarillas y en la tercera las rojas, estaban restringidas a un cierto orden.
Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringían han sido quitadas.
La entropía de este sistema ha aumentado al ir quitando las restricciones pues inicialmente había un orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden alguno dentro de la caja.
La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna restricción, y volverla a medir al final del proceso que sufrió el sistema.
Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un cambio en las condiciones de un sistema.
Entropía, procesos reversibles y procesos irreversibles.
Volviendo al ejemplo anterior de la caja con separaciones y canicas, vamos  a explicar qué es un proceso reversible y qué un proceso no reversible.Llamamos proceso reversible al que se puede invertir y dejar a nuestro sistema en las mismas condiciones iniciales. Teniendo en cuenta nuestra caja ya sin las separaciones, tenemos a las canicas revueltas unas con otras, es decir, sin un orden. Si el proceso que efectuamos de quitar las divisiones fuera reversible, las canicas tendrían que ordenarse espontáneamente en azules, amarillas y rojas, según el orden de las divisiones. Esto no ocurrirá.
El proceso que efectuamos con nuestra caja de canicas fue un proceso no reversible, en donde una vez terminado, el orden que había en las condiciones iniciales del sistema ya nunca volverá a establecerse. El estudio de este tipo de procesos es importante porque en la naturaleza todos los procesos son irreversibles.
La entropía y la energía "gastada".
En el principio enunciado por Clausius que anteriormente citamos, podemos  encontrar la relación con la entropía y la energía liberada en un proceso. Pensemos  en un motor.  El motor necesita de una fuente de energía para poder convertirla en trabajo.  Si pensamos en un coche, la gasolina, junto con el sistema de chispa del motor,  proporciona la energía (química)  de combustión,  capaz de hacer que el auto se mueva. ¿qué tiene que ver la entropía aquí?La energía que el coche "utilizó" para realizar trabajo y moverse, se "gastó", es decir, es energía liberada mediante un proceso químico que ya no es utilizable para que un motor produzca trabajo.
Este es uno de los conceptos más difíciles de entender de la entropía, pues requiere un conocimiento un poco menos trivial del funcionamiento de motores, frigoríficos y el ciclo de Carnot. Pero para nuestros fines con esta explicación es suficiente.
¿Para qué sirve la entropía?
La entropía, como medida del grado de restricción o como medida del  desorden de un sistema, o bien en ingeniería,  como concepto auxiliar en los problemas  del rendimiento energético de las máquinas, es una de las variables  termodinámicas más importantes. Su relación con la teoría  del caos le abre un nuevo campo de estudio e investigación  a este tan "manoseado" concepto.Karelis Morales
CI: 18089995
CAF
No hay comentarios:
Publicar un comentario