Descargar la presentación
La descarga está en progreso. Por favor, espere
1
Información, desorden y entropía
FI-2004 Termodinámica Biological Physics, P. Nelson pág. 196, Cap. 6 Información, desorden y entropía La flecha indica la evolución temporal del sistema, pero claramente es información superflua! Tampoco podemos identificar su estado inicial. Podemos intercambiar los rectángulos y no es posible, por simple inspección identificar el cuadro primitivo. Existe una pérdida de informa- ción. No podemos saber a partir del último cuadro, cual de las dos configuraciones iniciales, indica- das como el cuadro 0, le corresponde como su primitiva. Reif, Física estadística, berkeley Physics Course, Vol 5, pág. 65.
2
FI-2004 Termodinámica En esta sección incorporaremos
… En la evolución natural del sistema, desplegado, se perdió información y se desordenó. Asociamos a este fenómeno, el aumento de la entropía . No sabemos nada acerca del resultado. Si quisiéramos saberlo tendríamos que hacer el experi- mento paso a paso para saber Cómo resultó. Podemos evaluar esta absoluta desinformación con un valor igual a la unidad. (esto es arbitrario, pero como mostraremos, muy conveniente). El número de resultados posibles Ω en este experimento es Ω = 2N Definimos I=log(2N )= N (Log es logaritmo en base 2) Definimos I/N =1, como la desin- formación. I=N log2, es la información requerida para saber el resultado de este experimento. En esta sección incorporaremos la entropía S usando estadística Se trata de encontrar las ecuaciones de estado de un gas a partir de la entropía S. Ley de Shannon Comenzamos con un ejemplo simple que la introduce una forma de cuantificar la información o la igno- rancia que un observador tiene frente a una cierta composición de un conjunto de eventos. Ejemplo: El lanzamiento de N monedas y el resultado de este experimento. Si denominamos 0=cara 1 = sello, el resultado se puede escribir como:
3
FI-2004 Termodinámica Adoptamos como definición de la
información la siguiente: I = K Ln (Ω), donde usamos el Logaritmo natural y K una constante a definir. Usaremos la probabilidad de cada uno de los estados como la variable independiente. Si tomamos dos sistemas simultáneamente, y los hacemos evolucionar, entonces la desinfor- mación total debe ser la suma de la desinforma- ción asociada a cada uno de los sistemas, esto si son independientes entre sí. Ejemplo: Consideremos el lanzamiento simultáneo de un dado Y una moneda. Los resultados posibles en cada lanzamiento son 2 ◦ 6. Nuestra definición acerca de la información del sistema está dada por: I = Log(12)N , donde Ω=12 y N es el número de lanzamientos. Podemos ver que el uso del logaritmo, preserva la suma de la información para dos sistemas independientes: I = I + I = Log(2) N + Log(6)N = Log(12)N Ejemplo Considere una oración con N letras en ruso. El alfabeto ruso tiene M = 31 letras. Calcule la expresión de I para este caso. El número de configuraciones posibles es Ω= N! /(N1!N2 ! …NM !) Donde Ni = el número de veces que aparece la letra i-ésima.
4
FI-2004 Termodinámica Definiendo la probabilidad de la letra i-ésima
Entonces I= K[ Ln(N!) – Ln (Nj !)] Como calcular la superficie de una esfera de N dimensiones y no morir en el intento. La ecuación de un cascarón esférico De N-dimensiones es: x2 + y2 + z2 + u2 + v2 + w2 +… = R2 . Geométricamente, sobre el cascarón se desliza un vector que cuya suma de sus componentes cumple la ecuación anterior. El área de esta esfera tiene que ser Proporcional al radio(N-1) , simplemente por razones dimensionales. Área de la esfera= Cte. R(N-1) Utilizando la expresión para el logaritmo natural de un número muy grande, tenemos: I= K[N Ln N -N] {Nj Ln (Nj) - Nj}] Definiendo la probabilidad de la letra i-ésima como Pj = Nj /N , tenemos la expresión de Shannon: I/N = -K (Pj Ln Pj )
5
FI-2004 Termodinámica Ejemplo El otro espacio corresponde a las
Calculemos la entropía de un gas ideal utilizando la expresión definida previamente . En este caso consideramos un gas ideal en equilibrio termodinámico encerrado en un volumen V y cuya energía total permanece fija y toma el valor E. El número de átomos en el gas es N. El otro espacio corresponde a las velocidades. Conviene expresarlo en función del momentum. Corresponde en el espacio del momentum a un cascarón esférico de radio 2mE, donde E es la energía total del sistema, en la cual no incluimos ninguna otra energía. La suma del momentum de todas las partículas debe deslizarse sobre la superficie de este cascarón. Su área, que representa los distintos puntos posibles donde puede llegar el momen- tum total. Este vector es la suma vec- torial de cada uno de los momentum posibles de cada una de las partículas. El radio del cascarón tiene dimen- Siones de 3N, las tres dimensiones espaciales y las N partículas.e Ωp = Cte. (2mE)(3N-1)/2 Debemos calcular Ω para estas partículas. El volumen V, quiere decir V mm3 , por ejemplo. Por tanto puedo poner la primera partícula en cualquiera de las V cajitas de volumen un mm3 La segunda , igual, como no ocupan espacio (gas ideal) tiene V posibilidades de ubicarse y así… en cuanto al volumen espacial ΩV = VN
6
FI-2004 Termodinámica Para calcular la entropía como lo hizo Boltzmann, imitamos la expresión obtenida para la información, solo adaptamos la constante en frente del logaritmo y le llamamos kB = constante de Boltzmann. Esto es pura creatividad de Boltzmann. Hay una similaridad entre información, desorden y entropía y fue él quien la vió y con ella desarrolló una teoría diferente a lo conocido en su época. Uno de los problemas que tuvo su original concepción fue que utilizaba a los átomos como sus partículas. Estos, dentro de la comunidad de los físicos no eran aceptados. Entonces la entropía para un gas ideal es S = kB Ln Ω = kB Ln (ΩV Ωp ) = kB Ln [VN (2mE )(3N-1)/2 ] + Constante
7
FI-2004 Termodinámica La Entropía de Boltzmann S = kB Ln W
Donde kB = 1,381 X J/oK W ^ número de microestados posibles Mostraremos que en el caso de equilibrio, W es máximo Cada cuadrado en esta red, representa un estado posible. Todos los estados del centro (en rojo) están ocupados. Son 100 en total. Todo el cuadrado es de 40X40.
8
FI-2004 Termodinámica Un estado escapó del centro. Existen 100 maneras de elegir el cuadrado Rojo en el centro y 1500 maneras de ubicarlo en la región despoblada.
9
FI-2004 Termodinámica Si se extraen dos cuadrados, existen 100X99/2 maneras diferentes de Sacarlos. También existen 1500X1499/2 formas de ubicarlos en la red . Estos números representan las configuraciones posibles de este sistema.
10
FI-2004 Termodinámica Las entropías del sistema 1 y del sistema 2 y del universo total para diferentes posibilidades de estados Que se han re-ubicado desde el sistema 1 al sistema 2. La entropía del universo (ambos sistemas) alcanza un máximo cuya magnitud es 369, cuando el número de estados en el sistema 2 son entre 93 y 94. Las temperaturas de ambos sistemas en ese caso son las mismas.
11
FI-2004 Termodinámica En la figura aparece el gráfico de la entropía
versus el número de partículas en el estado 2. Las dos configuraciones posibles entre los estados 1 y 2, se denominan A y B. Las configuraciones son átomos (u otro elemento físico) los cuales pueden ubicarse en las dos áreas definidas al comienzo. En el estado A, se cuentan 99 átomos en el Sistema 2 y 1 en el sistema 1. En el estado B, que es el máximo de la entropía, entre 93 y 94 átomos se ubican en el sistema 2 y 6 ó 7 en el sistema 1. Este es el equilibrio termodinámico. Sus temperaturas son las mismas. 6/100 ~ 93/1500
12
FI-2004 Termodinámica Configuración correspondiente al estado A
13
FI-2004 Termodinámica Configuración correspondiente al estado B.
Como es un máximo de la entropía, es el estado de equilibrio térmico.
14
FI-2004 Termodinámica Algunas de las inconmensurables formas de arreglar 6 ó 7 estados en el sistema 1 y 93 ó 94 estados en el sistema 2.
15
FI-2004 Termodinámica
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.