You are on page 1of 11

ENTROPIA

ENTROPIA
 la magnitud física que mide la parte de la
energía que no puede utilizarse para
realizar trabajo y que, en consecuencia,
se pierde. Así, en un sistema aislado,
siempre una pequeña cantidad de
energía se disipará fuera del sistema. Este
valor, como tal, siempre tiende a crecer
en el transcurso de un proceso que se
produzca de forma natural.
ENTROPIA NEGATIVA
 Como entropía negativa, o neguentropía,
se denomina la entropía que un sistema
exporta para mantener su entropía baja.
Así, para compensar el proceso de
degradación al que, a lo largo del
tiempo, todo sistema está sujeto, algunos
sistemas abiertos logran conservar su
entropía natural gracias a las
aportaciones de los otros subsistemas con
los que se relacionan.
RELACION ENTRE
PROPIEDADES
A diferencia de la energía, la entropía no
se conserva, a pesar de ser también una
función de estado. En Mecánica se suele
designar sistema conservativo aquél en el
cual la cantidad de trabajo necesaria
para desplazar un cuerpo de una
posición a otra es independiente del
camino.
 La analogía con la Mecánica puede
llevar a pensar que todas las funciones de
estado se conservan, cosa que no es
cierta. Que la energía interna sea una
función de estado que se conserva,
mientras que la entropía no se conserva,
nos enseña que la analogía entre
sistemas mecánicos y sistemas
termodinámicos no es completa. Para
apreciar mejor los alcances de dicha
analogía hace falta recurrir a los métodos
de la Mecánica Estadística.
 El fluido A que está siendo agitado en el
recipiente se puede mantener a una
temperatura constante T al estar en
contacto con una fuente térmica a
través de una pared diatérmica. A
medida que giran las paletas la
temperatura del fluido se mantiene
constante debido a que fluye calor
desde el fluido a la fuente térmica. Este
flujo es reversible pues en todo instante
hay sólo una diferencia infinitesimal de
temperatura entre el fluido y la fuente. La
variación de entropía de la fuente
La entropía de la teoría de la información
está estrechamente relacionada con
la entropía termodinámica. En la
termodinámica se estudia un sistema de
partículas cuyos estados X (usualmente
posición y velocidad) tienen una
cierta distribución de probabilidad.
La entropía termodinámica es igual a la
entropía de la teoría de la información de
esa distribución.
 En un sistema aislado, la interacción entre las
partículas tiende a aumentar su dispersión,
afectando sus posiciones y sus velocidades, lo
que causa que la entropía de la distribución
aumente con el tiempo hasta llegar a un cierto
máximo (cuando el mismo sistema es lo más
homogéneo y desorganizado posible); lo que es
denominado segunda ley de la termodinámica.
La diferencia entre la cantidad de entropía que
tiene un sistema y el máximo que puede llegar a
tener se denomina neguentropía, y representa la
cantidad de organización interna que tiene el
sistema. A partir de esta última se puede definir
la energía libre de Gibbs, que indica la energía
que puede liberar el sistema al aumentar la
entropía hasta su máximo y puede ser
transformada en trabajo (energía mecánica útil)
usando una máquina ideal de Carnot.
Diagramas T-S
 La simetría entre el par (T,S) y el par (p,V)
en la primera ecuación de Gibbs sugiere
que, del mismo modo que los procesos,
en particular los ciclos, se representan en
un diagrama pV, también pueden
trazarse en un diagrama TS, en el cual el
eje de abscisas lo da la entropía del
sistema y el eje de ordenadas la
temperatura.
 En este diagrama es especialmente
sencilla la representación del ciclo de
Carnot.

You might also like