You are on page 1of 2

ENTALPIA

La entalpa es la cantidad de energa calorfica de una sustancia. En una reaccin qumica, si la entalpa de los productos es menor que la de los reactantes se libera calor y decimos que es una reaccin exotrmica. Si la entalpa de los productos es mayor que la de los reactantes se toma calor del medio y decimos que es una reaccin endotrmica. El cambio de entalpa se denomina H y se define como: H = Hproductos hreactantes

La entalpa de formacin ( Hf0) es la variacin de energa calorfica en la reaccin de formacin de un mol de un compuesto a partir de sus elementos en sus fases estndar en condiciones de presin y temperatura estndar ambientales (TPEA), que son temperatura de 298 K (25 C) y presin de 100 kPa ( 1 atm.). La entalpa de formacin de un elemento es cero por definicin. Ejemplo 1: En las tablas encontramos que Hf0(CO2) = -394 kJ/mol, esto indica que H para la reaccin: C(s) + O2(g) CO2(g) en condiciones TPEA es -394 kJ/mol

Ejemplo 2: En las tablas encontramos que Hf0(CO) = -111 kJ/mol, esto indica que H para la reaccin: C(s) + 1/2 O2(g) CO(g) en condiciones TPEA es -111 kJ/mol

Por combinacin de las Hf0 podemos determinar entalpas de reaccin de otras reacciones distintas, puesto que la entalpa es una funcin de estado (slo depende de los estados inicial y final, no del camino recorrido) La H de la reaccin CO(g) + 1/2 O2(g) CO2(g) ser:

H0 = Hproductos - Hreactantes = Hf0(CO2) - Hf0(CO) = -283 kJ/mol

ENTROPIA
(concepto base) El concepto bsico de entropa en teora de la informacin tiene mucho que ver con la incertidumbre que existe en cualquier experimento o seal aleatoria. Es tambin la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de informacin que lleva una seal. Como ejemplo, consideremos algn texto escrito en espaol, codificado como una cadena de letras, espacios y signos de puntuacin (nuestra seal ser una cadena de caracteres). Ya que, estadsticamente, algunos caracteres no son muy comunes (por ejemplo, 'w'), mientras otros s lo

son (como la 'a'), la cadena de caracteres no ser tan "aleatoria" como podra llegar a ser. Obviamente, no podemos predecir con exactitud cul ser el siguiente carcter en la cadena, y eso la hara aparentemente aleatoria. Pero es la entropa la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artculo de 1948, A Mathematical Theory of Communication ("Una teora matemtica de la comunicacin", en ingls). Shannon ofrece una definicin de entropa que satisface las siguientes afirmaciones: La medida de informacin debe ser proporcional (continua). Es decir, el cambio pequeo en una de las probabilidades de aparicin de uno de los elementos de la seal debe cambiar poco la entropa. Si todos los elementos de la seal son equiprobables a la hora de aparecer, entonces la entropa ser mxima. Ejemplos de mxima entropa: Suponiendo que estamos a la espera de un texto, por ejemplo un cable con un mensaje. En dicho cable solo se reciben las letras en minscula de la a hasta la z, entonces si el mensaje que nos llega es "qalmnbphijcdgketrsfuvxyzwo" el cual posee una longitud de 27 caracteres , se puede decir que este mensaje llega a nosotros con la mxima entropa (o desorden posible); ya que es poco probable que se pueda pronosticar la entrada de caracteres, pues estos no se repiten ni estn ordenados en una forma predecible.

You might also like