You are on page 1of 2

UNIVERSIDAD CENTRAL DEL ECUADOR

FACULTAD DE INGENIERIA QUIMICA


INVESTIGACIÓN OPERATIVA
Nombre: Dayana Lucía Borja Plazarte
Paralelo: 1
Fecha: 10/ABR/2019
ENTROPÍA
Enunciado de Clausius
No es posible un proceso cuyo único resultado sea la transferencia de calor de un cuerpo
de menor temperatura a otro de mayor temperatura.

Enunciado de Kelvin-Planck
No es posible un proceso cuyo único resultado sea la absorción de calor procedente de un
foco y la conversión de este calor en trabajo.

Equivalencia entre los enunciados de Clausius y de Kelvin-Planck


Las dos figuras que vienen a continuación nos muestran de forma gráfica la equivalencia
de los enunciados de Clausius y de Kelvin-Planck.
El conjunto de una máquina que transfiera calor del foco frío al caliente (Clausius)
combinado con un motor nos dan como resultado una máquina que absorbe calor de una
sola fuente y lo transforma íntegramente en trabajo (Kelvin-Planck).
Enunciado de Shannon:

El concepto básico de entropía en teoría de la información tiene mucho que ver con la
incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la
cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma,
podremos hablar de la cantidad de información que lleva una señal.

Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones:

- La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño


en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar
poco la entropía.

- Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces la


entropía será máxima.

Ejemplos de máxima entropía: Suponiendo que estamos a la espera de un texto, por


ejemplo, un cable con un mensaje. En dicho cable sólo se reciben las letras en minúscula
de la a hasta la z, entonces si el mensaje que nos llega es "qalmnbphijcdgketrsfuvxyzwño"
el cual posee una longitud de 27 caracteres, se puede decir que este mensaje llega a
nosotros con la máxima entropía (o desorden posible); ya que es poco probable que se
pueda pronosticar la entrada de caracteres, pues estos no se repiten ni están ordenados en
una forma predecible.

http://spockwarehouse.blogspot.com/2013/05/shannon-y-la-entropia-el-concepto.html

You might also like