You are on page 1of 9

Se refiere al hecho que un sistema vivo a partir de distintas condiciones iniciales y por distintos caminos llega a un mismo estado

final. El fin se refiere a lamantencin de un estado deequilibrio fluyente. "Puedealcanzarse el mismo estado final,la misma meta, partiendo dediferentes condiciones iniciales ysiguiendo distintos itinerarios enlos procesos organsmicos". Elproceso inverso se denominamultifinalidad, es decir,"condiciones iniciales similarespueden llevar a estados finalesdiferentes". Oscar Johansen Bertoglio

Equifinalidad
Los sistemas abiertos se caracterizan por el principio de equifinalidad: un sistemapuede alcanzar por una variedad de caminos, el mismo resultadofinal, partiendode diferentes condiciones iniciales. En la medida en que los sistemas abiertos

desarrollan mecanismos reguladores (homeostasis) de sus operaciones, lacantidad de equifinalidad se reduce.Sin embargo la equifinalidad permanece: existe ms de una forma de que elsistema produzca un determinado resultado, o sea, existe ms de un camino paraalcanzar un objetivo. El estado estable del sistema puede ser alcanzado a partir decondiciones iniciales diferentes y por medios diferentes. Equifinalidad: En un sistema, los "resultados" (en el sentido de alteracin del estado al cabo deun perodo de tiempo) no estn determinados tanto por las condiciones inicialescomo por la naturaleza del proceso o los parmetros del sistema.La conducta final de los sistemas abiertos est basada en su independencia conrespecto a las condiciones iniciales. Este principio de equifinalidad significa queidnticos resultados pueden tener orgenes distintos, porque lo decisivo es lanaturaleza de la organizacin. As mismo, diferentes resultados pueden ser producidos por las mismas "causas".Por tanto, cuando observamos un sistema no se puede hacer necesariamente una

inferencia con respecto a su estado pasado o futuro a partir de su estado actual,porque las mismas condiciones iniciales no producen los mismos efectos.Por ejemplo, si tenemos:Sistema A: 4 x 3 + 6 = 18Sistema B: 2 x 5 + 8 = 18 Aqu observamos que el sistema "A" y el sistema "B" tienen inicios diferentes (4) y (2), yque, cada uno, tiene elementos diferentes al otro. Sin embargo, el resultado final es elmismo (18).Veamos, ahora, otro ejemplo.Sistema X: 9 x 1 + 7 = 16Sistema Y: 9 + 1 x 7 = 70 ,Aqu observamos que el sistema "X" y el sistema "Y" tienen igual origen y, adems, estncompuestos por iguales elementos y en el mismo orden. Sin embargo, el resultado final esdiferente: (16) y (70).De qu depende el resultado en cada uno de los casos anteriores? No

depende ni del origenni de los componentes del sistema (nmeros) sino de lo que "hacemos con los nmeros"; esdecir, de las operaciones o reglas (sumar o multiplicar).Pues bien, este ejemplo nos sirve como analoga para entender el concepto de equifinalidad.El funcionamiento de una familia como un todo, no depende tanto de saber qu ocurritiempo atrs, ni de la personalidad individual de los miembros de la familia, sino de lasreglas internas del sistema familiar, en el momento en que lo estamos observando. EJEMPLOS DE EQUIFINALIDADUna empresa se plantea como objetivo aumentar las utilidades y para lograrlo puedetomar varias decisiones como: a) Reducir los costos de produccin. b) Aumentar el margen de ganancia.c) Aumentar las ventas, entre otros Una empresa se plantea como objetivo disminuir su ciclo de conversin de efectivo ypara lograrlo puede tomar varias decisiones como: a) Reducir el periodo de conversin de inventarios, b) Reducir el periodo de conversin de las cuentas por cobrar

Entropa Pueden darme ejemplos de entropa en la naturaleza? necesito 3 minimo, y si podran explicar por qu son ejemplos y como se relaciona con la entropa. Gracias de antemano

hace 4 aos Reportar abusos

lonely star lonely star

Mejor respuesta - elegida por los votantes La entropa en fsica y fuera de la fsica es un concepto muy extrao, difcil de entender a la primera, tiene que ver con el orden de los sistemas termodinmicos, se dice que es la flecha del tiempo, que predice la muerte trmica del universo, que es la base de la teora del caos, de la informtica y de la sociologa.

1) Hay entropa al fundir un cubo de hielo.

El orden que guardaba la estructura cristalina del hielo se pierde o desordena al pasar a la fase lquida. La entropa es un grado de desorden.

2.- Hay entropa en la cada de agua de una cascada.

La entropa esta presente en todo evento natural, la cascada no puede caer espontneamente hacia arriba.

3.- Si consideras que la humanidad es un sistema, hay entropa en ella, por ejemplo, en poca de elecciones para presidente de la repblica, hay un gran desorden provocado por el anuncio y el propio proceso de eleccin. Este tambin es un fenmeno natural y por tanto existe entropa en l. La entropa tiende siempre a aumentar en todo proceso espontneo.

Suerte!

Mejor respuesta - elegida por los votantes ENTALPIA: ( y no " entolpia " )

Magnitud termodinmica de un cuerpo, igual a la suma de su energa interna ms el producto de su volumen por la presin exterior.

Ejemplos: En una reaccin qumica a presin constante, el cambio de entalpa del sistema "es el calor absorbido o desprendido en la reaccin." En un cambio de fase, por ejemplo de lquido a gas, "el cambio de entalpa del sistema es el calor latente, en este caso el de vaporizacin." En un simple cambio de temperatura, "el cambio de entalpa por cada grado de variacin corresponde a la capacidad calorfica del sistema a presin constante."

ENTROPIA:

Magnitud termodinmica que mide la parte no utilizable de la energa contenida en un sistema.

Medida del desorden de un sistema. Una masa de una sustancia con sus molculas regularmente ordenadas, formando un cristal, tiene entropa mucho menor que la misma sustancia en forma de gas con sus molculas libres y en pleno desorden.

Ejemplos: el vapor generado por el agua hirviendo, puede ser utilizado como trabajo, por ejemplo el chiflido de una tetera se genera nicamente cuando el agua est hirviendo. Supongamos que se apaga la hornilla que calienta a la tetera que est chiflando y contiene agua a 100 C (lo que en termodinmica se conocera como el sistema), todo esto est en la cocina (los alrededores) y dejamos que se enfri la

tetera. A medida que se enfra, no se hace ms trabajo, y por tanto, deja de chiflar; an as el calor se transfiere a los alrededores, aumentando la temperatura de la cocina en una cantidad infinitesimal hasta que se alcanza un equilibrio. En ese instante, todas las partes de la tetera, el agua y la cocina, estn precisamente a la misma temperatura. La energa libre que una vez estuvo concentrada en la tetera chiflando con agua a a100 C, ya no existe mas. Pero su equivalente en energa calorfica est completamente esparcido al azar en la suma de tetera + agua + cocina (el universo). Esta energa ya no est disponible para hacer trabajo debido a que no hay diferencia de energa en la cocina, de hecho, el incremento en entropa en la cocina (los alrededores), es irreversible. Sabemos por la experiencia diaria que el calor nunca regresar a la tetera desde la cocina y la har chiflar al calentar el agua a 100 C, esto es termodinmicamente imposible.

Los organismos aerobios (hetertrofos), extraen energa libre de la glucosa que obtienen de sus alrededores al oxidarla con O2, que tambin obtienen de los alrededores. Los productos finales de este metabolismo oxidativo el CO2 y H2O se regresan a los alrededores. En este proceso los alrededores sufren de un incremento en la entropa mientras que el organismo permanece en un estado estacionario t no presenta un cambio en su orden interno. A pesar de que existe un cambio en la entropa debido a la desaparicin de calor, la entropa tambin est relacionada con otro tipo de orden Cuando una reaccin qumica resulta en un incremento en el nmero de molculas o bien existe una transformacin de un estado de la materia a otro, por ejemplo de un compuesto slido a uno lquido o de este ltimo a un gas, el desorden molecular (el aumento en los grados de libertad de las molculas), y por tanto la entropa del sistema se incrementa.

Y finalmente este ejemplo esta rebueno: Seguramente todos hemos comido alguna vez sopa de letras, existen ah todas las letras del alfabeto, que sirven para formar miles de palabras, el no. se incrementa si pensamos que esas mismas palabras pueden ser escritas en diferentes idiomas, pero las letras se encuentran completamente al azar, con un patrn catico, es muy raro encontrar ah un arreglo que posea una palabra formada. Pero, cuando empezamos a aprender a leer y escribir, la sopa de letras es una herramienta fabulosa. A partir de un no. muy grande de letras que contienen ninguna o muy poca informacin, el sistema posee mucha entropa, es posible aumentar el orden y arreglarlo incluso para formar oraciones. De lo anterior se debe concluir que la informacin es una fuente de energa, de hecho se le ha denominado entropa negativa. Existe una

rama de las matemticas denominada teora de la informacin, que es necesaria para la programacin lgica de las computadoras, que est muy relacionada con la termodinmica.

Los organismos vivos, estn altamente ordenados, naturalmente, no poseen estructuras al azar y son inmensamente ricos en informacin, que es necesaria para llevar a cabo los miles de procesos que les permite mantenerse en homestasis, fenmeno necesario para vivir. Generalmente como asociamos la entropa al orden y relacionamos a las enfermedades con un desorden del metabolismo, a priori suponemos que somos muy ordenados. Para explicar la verdad, recurdese la tercera ley de la termodinmica: en el cero absoluto (-273.15 C), al entropa es cero, y la inmensa mayora de los seres vivos viven a temperaturas mucho mayores. Debido a lo anteri

Entropa
Saltar a: navegacin, bsqueda Para otros usos de este trmino, vase Entropa (desambiguacin).

Escultura dedicada a la Entropa en los jardines centrales de la Universidad de Monterrey, Mxico En termodinmica, la entropa (simbolizada como S) es una magnitud fsica que permite, mediante clculo, determinar la parte de la energa que no puede utilizarse para producir trabajo. Es una funcin de estado de carcter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se d de forma natural. La entropa describe lo irreversible de los sistemas termodinmicos. La palabra entropa procede del griego () y significa evolucin o transformacin. Fue Rudolf Clausius quien le dio nombre y la desarroll durante la dcada de 1850;1 2 y Ludwig Boltzmann, quien encontr la manera de expresar matemticamente este concepto, desde el punto de vista de la probabilidad.3

Contenido
[ocultar]

1 Evidencias 2 Ecuaciones o 2.1 Significado 3 Cero absoluto 4 Entropa y reversibilidad 5 Interpretacin estadstica de la entropa 6 Relacin de la entropa con la teora de la informacin 7 Entropa y su relacin con las termociencias 8 Historia de la entropa 9 Vase tambin

10 Referencias 11 Enlaces externos

[editar] Evidencias
Cuando se plantea la pregunta: "Por qu ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?", se busca una respuesta que indique cul es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriar, y el trozo fro se calentar, finalizando en equilibrio trmico. El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo fro es muy improbable que se presente, a pesar de conservar la energa. El universo tiende a distribuir la energa uniformemente; es decir, a maximizar la entropa. La funcin termodinmica entropa es central para la segunda Ley de la Termodinmica. La entropa puede interpretarse como una medida de la distribucin aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropa. Un sistema en una condicin improbable tendr una tendencia natural a reorganizarse a una condicin ms probable (similar a una distribucin al azar), reorganizacin que dar como resultado un aumento de la entropa. La entropa alcanzar un mximo cuando el sistema se acerque al equilibrio, y entonces se alcanzar la configuracin de mayor probabilidad. Coloquialmente, puede considerarse que la entropa es el desorden de un sistema, es decir, su grado de homogeneidad. Un ejemplo domstico sera el de lanzar un vaso de cristal al suelo: tender a romperse y a esparcirse, mientras que jams conseguiremos que, lanzando trozos de cristal, se construya un vaso por s solo. Otro ejemplo domstico: tenemos dos envases de un litro de capacidad que contienen, respectivamente, pintura blanca y pintura negra; con una cucharita, tomamos pintura blanca, la vertemos en el recipiente de pintura negra y mezclamos; luego tomamos con la misma cucharita pintura negra, la vertemos en el recipiente de pintura blanca y mezclamos; repetimos el proceso hasta que tenemos dos litros de pintura gris, que no podremos reconvertir en un litro de pintura blanca y otro de pintura negra; la entropia del conjunto ha ido en aumento hasta llegar a un mximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogneo). La variacin de entropa nos muestra la variacin del orden molecular ocurrido en una reaccin qumica. Si el incremento de entropa es positivo, los productos presentan un mayor desorden molecular (mayor entropa) que los reactivos. En cambio, cuando el incremento es negativo, los productos son ms ordenados. Hay una relacin entre la entropa y la espontaneidad de una reaccin qumica, que viene dada por la energa de Gibbs.

You might also like