La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Pontificia Universidad Católica del Perú

Presentaciones similares


Presentación del tema: "Pontificia Universidad Católica del Perú"— Transcripción de la presentación:

1 Pontificia Universidad Católica del Perú
Información Pontificia Universidad Católica del Perú Eduardo Massoni

2 Entropia Termodinamica S

3 Leyes de la Termodinámica
Primera Ley Conservación de la Energía Segunda Ley Entropía del Universo siempre crece Tercera Ley No se puede Alcanzar el cero Absoluto

4 Ciclo de Carnot Carnot Isotermico Eficiencia Adiabatico

5 Carnot: “Nadie Le Gana A Mi Motor”
Motor reversible Motor Refrigerador C C 2C M C

6 Carnot: “Nadie Le Gana A Mi Motor”
Un motor reversible que trabaja a dos temperaturas tiene la misma eficiencia que un motor de carnot Postulado Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo de menor temperatura a otro de mayor temperatura. Enunciado de Clausius

7 Postulado Es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta energía en forma de calor en energía en forma de trabajo». Enunciado de Kelvin-Planck.

8 Hay una cantidad asocianda al sistema que llamaremos S tal que :
Para el ciclo de Carnot Para cualquier ciclo cerrado el cambio de entropia S es nulo S es una funcion de estado

9 Procesos que no aumentan la entropia del universo no son posibles
Segunda Ley T1 T2 Q Universo es un sistema cerrado S1 S2 S3 T1 T2 Q Procesos que no aumentan la entropia del universo no son posibles Postulado Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo de menor temperatura a otro de mayor temperatura. Enunciado de Clausius

10 ¿ Que es esta variable S ? Boltzmann I D I D W= # de formas 1) IIIIIIIIIIIIIII W=1 2) IIIIIIDIIIIIIII W=N I D 3) IDIDIDIDIDIDID W=2N

11 La entropia mide el desorden medido como el numero de estados posibles
En este sistema aislado, cualquier configuracion o estado tiene la misma probabilidad Segunda Ley La entropia mide el desorden medido como el numero de estados posibles Procesos en el universo aumentan la entropia

12 La Información es Fisica

13 Principio de Landauer (1961)
El calor necesario para borrar un bit de informacion es:

14 La informacion se guarda en sistemas fisicos, por lo el manejo de informacion se rige bajo leyes fisicas Demonio de Maxwell ¿Entropia decrece?

15 NO Universo La entropia total del sistema +universo crece!!

16 Cuantificando la informacion

17 Teoria de la Informacion A mathematical theory of communication
¿Como cuantificamos la informacion? Teoria de la Informacion ( 1948) Lord Shannon A mathematical theory of communication Fuente Receptor Canal Codificador Decodificador Codificador comprime la informacion y codifica la transmision Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para mandar un mensaje

18 Teoria de la Informacion A mathematical theory of communication
¿Como cuantificamos la informacion? Teoria de la Informacion ( 1948) Lord Shannon A mathematical theory of communication Fuente Receptor Canal Codificador Decodificador Codificador comprime la informacion y codifica la transmision Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para manadr un mensaje

19 Redundancia “ Si hay redundancia podemos comprimir un mensaje” “La redundancia es buena en el sentido que permite corregir errores” “ El idioma Ingles tiene un factor de compresion 2” “ Mientras mayor redundancia , Mayor compresion y menor cantidad de recursos paraenviar la informacion ” “ Mayor redundancia Menos informacion”

20 ¿Para ocho caballos necesitamos 3 bits?
Ejemplo Central de apuestas Hipodromo Codificador C1 C2 C3 C4 C5 C6 C7 C8 Prob 1/2 1/4 1/8 1/16 1/64 Codigo en bits 01 101 1011 101011 011101 111110 101111 ¿Para ocho caballos necesitamos 3 bits? # promedio de bits para mandar resultados en un año

21 C1 C2 C3 C4 C5 C6 C7 C8 Prob 1/2 1/4 1/8 1/16 1/64 Codigo en bits 01 101 1011 101011 011101 111110 101111 Con esta codificacion el numero promedio de bits se puede escribir como: Con esta codificacion el numero promedio de bits se puede escribir como:

22 AL numero promedio de bits necesario para mandar la informacion esta dada por
Entropia de Shannon Eventos menos frecuentes necesitan mas bits Eventos mas frecuentes necesitan menos bits

23 ¿Como interpretamos la informacion en un evento?
Si consideramos la variable aleatoria Con probabilidades Diremos que la cantidad de informacion en el evento “i” estara dado por: Unidades Bits o Nats Que es consistente con:

24 Source code theorem by shannon
El maximo de compresion posible esta dado por El maximo de compresion mide la cantidad de informacion

25 ¿Hay alguna Relacion entre la entropia S y H?
Como en el estado inicial y final de equilibrio termico la probabilidad de cada estado es 1/W Informacion del universo crece!!!

26 Informacion Cuantica

27 Entropia de Von Neumann
Q uantum bits Enmarañamiento Teleportacion Criptografia cuantica Decoherencia Informacion accesible Quantum Information es mas complicada

28 Gracias!! Conclusiones Von Newmann a Shannon
“Debes llamarlo entropía por dos razones. En primer lugar tu función de incertidumbre ha sido usada en mecánica estadística bajo ese nombre, por tanto, ya tiene un nombre. En segundo lugar, y más importante, nadie sabe realmente qué es la entropía, por tanto, en un debate siempre tendrás esa ventaja. Las tres leyes de la termodinámica : 1) No puedes ganar. 2) No puedes empatar. 3) No puedes abandonar el juego. Gracias!!


Descargar ppt "Pontificia Universidad Católica del Perú"

Presentaciones similares


Anuncios Google