You are on page 1of 5

UNIVERSIDAD CENTRAL DEL ECUADOR

FACULTAD DE INGENIERIA QUIMICA


INVESTIGACIÓN OPERATIVA
NOMBRE: Fernanda Mishell Cabezas Tapia
SEMESTRE: Sexto Semestre/ Paralelo 1
DOCENTE: PhD. Edward Jiménez
FECHA: 07 de Junio del 2019

INVESTIGACIÓN OPERATIVA
1. Definición de entropía de Clausius

El concepto de entropía nace de la necesidad de cuantificar el segundo principio. El segundo


principio en su enunciado de Kelvin - Planck pone una limitación a cómo pueden funcionar las
máquinas térmicas pero, como veremos, la entropía nos permitirá cuantificar la irreversibilidad de
diferentes procesos termodinámicos.

Las expresiones del rendimiento de una máquina y del rendimiento de la máquina de Carnot son
respectivamente:

Como el rendimiento de cualquier máquina trabajando entre dos focos térmicos es siempre menor o
igual que el de la máquina de Carnot trabajando entre los mismos focos (teorema de Carnot), entre
las dos ecuaciones anteriores puede establecerse:

Operando con la expresión anterior se llega a:


Siendo válido el signo igual para un ciclo reversible y el menor para un ciclo irreversible.

Vamos a utilizar la expresión anterior para definir la función entropía que, como se verá a
continuación, es una función de estado. Para ello, supongamos que tenemos un ciclo (ABA)
cualquiera recorrido reversiblemente como el representado en la siguiente figura:

Se puede demostrar que este ciclo puede ser recubierto por N ciclos de Carnot (representados en
rosa), de tal manera que para ellos se cumple (el ciclo ABA es reversible):

Como puede apreciarse en la figura, si el número N de ciclos es muy pequeño, el recubrimiento del
ciclo original será malo. Cuanto mayor sea N mejor será dicho recubrimiento. En el límite en que N
tiende a infinito, debemos sustituir el sumatorio de la expresión anterior por una integral:

Donde el subíndice R denota que el calor que aparece en la ecuación anterior ha de ser intercambiado
reversiblemente. La función entropía (S) se define:
Y es una función de estado, ya que su integral evaluada en una trayectoria cerrada es nula.

En el Sistema Internacional, la unidad de entropía es el J/K. Si el ciclo de la figura hubiera sido


recorrido irreversiblemente, habría que utilizar el signo menor en la discusión anterior, por lo que la
forma final de la integral en un circuito cerrado es:

(Fernández A., 2016).

2. Definición de entropía de Shanon

La entropía definida por Shannon, referida a la teoría de la información, hace referencia a la cantidad
media de información que contiene una variable aleatoria (psicológica) o, en particular, una fuente
transmisión binaria. La información que aporta un determinado valor, xi, de una variable aleatoria
discreta X, se define como:

I(xi) = log2(1/p(xi))

cuya unidad es el bit si se utiliza el logaritmo en base 2 (por ejemplo, cuando se emplea el logaritmo
neperiano o natural se habla de nats). La entropía o información media de la variable aleatoria
discreta, X, se determina como la información media del conjunto de valores discretos que puede
adoptar (también medida en bits):

H(x) = Σip(xi) •log2(1/p(xi))

Además de su definición y estudio, Shannon demostró analíticamente que la entropía es el límite


máximo al que se puede comprimir una fuente sin ninguna pérdida de información.

(Sabugo J., 2015).


3. Definición de entropía por Kelvin

Una máquina que violara el enunciado de Kelvin-Planck claramente produciría una disminución de
entropía del universo:

 La entropía del sistema (la máquina) no cambia en un ciclo, por ser la entropía una función
de estado.
 La entropía del ambiente disminuye, ya que cede calor Qc a una temperatura Tc.

La variación total de entropía sería

lo que define a este proceso como imposible.

Podemos dar una relación más precisa entre trabajo, calor absorbido y aumento de entropía. En una
máquina que trabaja entre dos focos se verifica

lo que nos dice que el trabajo que puede obtenerse de una máquina es como máximo

Que es de nuevo el enunciado de Kelvin-Planck.

(Blas T., 2010).

BIBLIOGRAFÍA

Blas T., (2010). Termodinámica – Segundo Principio. Recuperado de: http://www2.montes.upm.es.

Sabungo J., (2015). Entropía – Libertad digital. Recuperado de: https://www.libertaddigital.com/

Fernández A., (2016). Segundo Principio de la Termodinámica. Recuperado de: http://laplace.us.es.

You might also like