jueves, 5 de febrero de 2009

LEY DE LA ENTROPIA











LEY DE LA ENTROPÌA

INTRODUCCIÒN

Este trabajo lo realizaremos con el propósito de dar a conocer algunos aspectos relacionados con la ley de la entropía; aspectos tales como su concepto, origen, características, ejemplos, algunas imágenes relacionadas con el tema y un mapa conceptual donde podemos ver claramente aspectos de esta ley.

CONCEPTO


La entropía es el segundo principio de la termodinámica que puede definirse esquemáticamente como el "progreso para la destrucción" o "desorden inherente a un sistema.
La entropía significa, expresado en términos vulgares, que todo va para peor o, lo que es lo mismo, que todo empeora o se arruina irremisiblemente.
Los sistemas tienden a buscar su estado más probable (posible), es decir, busca un nivel mas estable que tiende a ser lo más caótico.
Se llama estado de máxima entropía en el preciso instante cuando el sistema este a punto de cambiar de un estado “e” a un estado “e+1”.
La entropía está relacionada con la tendencia natural de los objetos a caer en un estado de desorden. Todos los sistemas no vivos tienden hacia el desorden; si los deja aislados, perderán con el tiempo todo movimiento y degenerarán, convirtiéndose en una masa inerte.
La entropía de un sistema es el desgaste que el sistema presenta por el transcurso del tiempo o por el funcionamiento del mismo. Los sistemas altamente en trópicos tienden a desaparecer por el desgaste generado por su proceso sistémico. Los mismos deben tener rigurosos sistemas de control y mecanismos de revisión, reelaboración y cambio permanente, para evitar su desaparición a través del tiempo.

ORIGEN

Originalmente, "entropía" surgió como palabra acuñada del griego, de em (en-en, sobre, cerca de...) y sqopg (tropêe-mudanza, giro, alternativa, cambio, evolución...).
El término fue usado por primera vez en 1850 por el físico alemán Rudolf Julius Emmanuel Clausius (1822-1888). Para calificar el grado de desorden de un sistema. Por tanto la segunda ley de la termodinámica dice que los sistemas aislados tienden al desorden. En la teoría de la comunicación o de la información, la entropía es un número que mide la incertidumbre de un mensaje. La entropía es nula cuando la certeza es absoluta.
Cuando añadimos información a un objeto físico lo que estamos haciendo es ordenar de una forma determinada los elementos que componen el sistema de ese objeto. Si estamos tallando una piedra de sílex para convertirla en punta de flecha, estamos seleccionando (mediante la eliminación de las lascas) las partes de la piedra que mantienen un cierto orden; lo que caracteriza una punta de flecha, su simetría, triangularidad y borde afilado, es precisamente el orden de sus componentes. Ese orden es, precisamente, la información tecnológica. Cualquier cambio aleatorio que se produzca en la forma de la flecha tendrá un efecto de aumento de su entropía, es decir, de pérdida de orden y de la información que contiene.

CARACTERISTICAS

La entropía se define solamente para estados de equilibrio.
Solamente pueden calcularse variaciones de entropía. En muchos problemas prácticos como el diseño de una maquina de vapor , consideramos únicamente diferencias de entropía. Por conveniencia se considera nula la entropía de una sustancia en algún estado de referencia conveniente. Así se calculan las tablas de vapor, e donde se supone cero la entropía del agua cuando se encuentra en fase liquida a 0'C y presión de 1 atm.
La entropía de un sistema en estado se equilibrio es únicamente función del estado del sistema, y es independiente de su historia pasada. La entropía puede calcularse como una función de las variables termodinámicas del sistema, tales como la presión y la temperatura o la presión y el volumen.
La entropía en un sistema aislado aumenta cuando el sistema experimenta un cambio irreversible.
Considérese un sistema aislado que contenga 2 secciones separadas con gases a diferentes presiones. Al quitar la separación ocurre un cambio altamente irreversible en el sistema al equilibrarse las dos presiones. Pero el mediano ha sufrido cambio durante este proceso, así que su energía y su estado permanecen constantes, y como el cambio es irreversible la entropía del sistema a aumentado.
En un sistema cerrado la entropía siempre debe ser positiva. Sin embargo en los sistemas abiertos biológicos o sociales, la entropía puede ser reducida o mejor aun transformarse en entropía negativa, es decir, un proceso de organización más completa y de capacidad para transformar los recursos. Esto es posible porque en los sistemas abiertos los recursos utilizados para reducir el proceso de entropía se toman del medio externo. Así mismo, los sistemas vivientes se mantienen en un estado estable y pueden evitar el incremento de la entropía y aun desarrollarse hacia estados de orden y de organización creciente.




EJEMPLOS

1. Cuando añadimos información a un objeto físico lo que estamos haciendo es ordenar de una forma determinada los elementos que componen el sistema de ese objeto. Por ejemplo, consideremos un producto de nuestra fábrica. Para este objeto recopilamos las características físicas del mismo (material, forma, tamaño, color,…) y las características propias de su diseño y fabricación (documentación, versionado, iteración, autor, workflow,…), es decir, estamos ordenando el objeto a través de su información tecnológica. Cualquier cambio aleatorio en las mismas provoca una pérdida de orden, un aumento de la entropía. La misma idea se puede aplicar a las informaciones de tipo conocimiento o de tipo logístico. Información sobre datos.
Una organización puede considerarse como un sistema en que la se genera información a partir de datos. Cuando la empresa alcanza un nivel crítico los niveles de datos e información del mismo han crecido de forma exponencial y tienden a la desorganización (pérdida de datos, lenta localización de los mismos, aumentos de los gastos en recursos, pérdida de capacidad de reacción frente a los cambios del mercado).
Por lo tanto, nos encontramos en la situación anterior. Como todos los sistemas, se presenta una tendencia al aumento de la entropía. Por lo tanto, es necesario mecanismos para reducir la entropía. Es cuando entra en juego, la gestión de la información a través de herramientas. Una forma de entender las herramientas de gestión de la información es como agentes cuyo objetivo es frenar o disminuir la entropía inherente a las organizaciones. Con lo que se añade energía al sistema para corregir el desorden. Es una forma casi poética de ver las cosas.

2. se han utilizado muchos ejemplos para explicar esta ley; uno de ellos señala que si destapamos un frasco de perfume y todo su contenido se evapora, para que se vuelva a introducir en el frasco tal como estaba es imposible. Tan imposible como que, en el juego del truco, un 4 le gane al A de espadas.

MAPA CONCEPTUAL