Descargar la presentación
La descarga está en progreso. Por favor, espere
1
ENTROPÍA LA MEDIDA DE LA INCERTIDUMBRE
Hebe Alicia Cadaval Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO
2
PARA QUE SE USA Para medir la incertidumbre.
Se calcula en función de la cantidad de información necesaria para eliminarla. Se basa sólo en las probabilidades de los estados, no en los resultados. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO
3
PARA QUE SE USA Lo que se analiza es qué tan incierta es una situación de decisión, por lo tanto no se tiene en cuenta a las alternativas. Cuanto más cierta es una situación, la entropía tiende a 0. En certeza la entropía es 0. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO
4
FÓRMULA H = - pi * log2 pi Hebe Alicia Cadaval
5
CÁLCULO DEL LOGARITMO EN BASE 2
Log10 X Log2 X = Log10 2 Hebe Alicia Cadaval
6
ENTROPÍA EN CERTEZA Situación de certeza H = - [ 1 * log2 1]
Hebe Alicia Cadaval
7
VARIOS ESTADOS EQUIPROBABLES
A medida que una variable no controlable posee más estados naturales, en general es más incierta. Si los estados son equiprobables, es más incierta la situación en la que la variable tiene más estados. La situación B es más incierta que la A. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO
8
VARIOS ESTADOS EQUIPROBABLES
Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO
9
CÁLCULO DE ENTROPÍA H (A) = - [ 0,5 * log2 0,5 + 0,5 * log2 0,5 ]
Hebe Alicia Cadaval
10
CÁLCULO DE ENTROPÍA H (B) = - [1/3*log21/3 + 1/3*log21/3 + 1/3*log21/3] H (B) = - [ 3 * 1/3 * log2 1/3 ] H (B) = - [ 3 * 1/3 * (-1, ) ] H (B) = - [ - 1, ] H (B) = 1, Hebe Alicia Cadaval
11
VARIAS VARIABLES A medida que existen más variables no controlables en la decisión, más incierta es la situación. Para hallar la entropía de una situación de decisión con varias variables no controlables no es necesario normalizar la matriz, se puede calcular directamente. Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO
12
EJEMPLO: VARIAS VARIABLES
N1 N2 M1 M2 M3 1/2 1/3 S1 S2 S3 S4 Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO
13
CÁLCULO DE ENTROPÍA La entropía de esta matriz sectorizada es:
H = H (N) + H (M) H = - {[0,5*log20,5 + 0,5*log20,5] + [1/3*log21/3 + 1/3*log21/3 + 1/3*log21/3]} H = - {[ 2 * 0,5 * log2 0,5] + [ 3 * 1/3 * log2 1/3 ]} H = - {[ 2 * 0,5 * (- 1) ] + 3 * 1/3 * (-1, ) ]} H = - {[ , ]} H = 2, Hebe Alicia Cadaval
14
EJEMPLO: VARIAS VARIABLES
Hebe Alicia Cadaval RICARDO ESTEBAN LIZASO
15
CÁLCULO DE ENTROPÍA La entropía de esta matriz, que es la matriz cartesiana de las otras dos, es: H = - [1/6*log21/6 + 1/6*log21/6 + 1/6*log21/6 + 1/6*log21/6 + 1/6*log21/6 + 1/6*log21/6] H = - [ 6 * 1/6 * log2 1/6 ] H = - [ 6 * 1/6 * (- 2, )] H = 2, Hebe Alicia Cadaval
16
VARIAS VARIABLES Como puede apreciarse no es necesario normalizar la matriz para calcular la entropía, puede hacerse directamente sumando las entropías de cada variable. Obsérvese que no se tienen en cuenta los resultados ni la cantidad de alternativas sujetas a cada variable no controlable para efectuar los cálculos, ya que se trabaja sólo con las probabilidades. Hebe Alicia Cadaval
17
PROBABILIDADES CONCENTRADAS
Cuando comparamos dos situaciones que cuentan con una variable no controlable con la misma cantidad de estados, será más incierta aquella en la que todos los estados tengan una probabilidad de suceder más pareja (menos concentrada). Hebe Alicia Cadaval
18
EJEMPLO: PROBABILIDADES CONCENTRADAS
Hebe Alicia Cadaval
19
CÁLCULO DE ENTROPÍA H (A) = - [1/3*log21/3 +1/3*log21/3 + 1/3*log21/3]
Hebe Alicia Cadaval
20
CÁLCULO DE ENTROPÍA H (B) = - [ 0,1*log20,1 + 0,8*log20,8 + 0,1*log20,1 ] H (B) = - [ 2 * 0,1 * log2 0,1 + 0,8 * log2 0,8 ] H (B) = - [ 2 * 0,1 * (-3, ) + 0,8 * (0, ] H (B) = - [ - 0, , ] H (B) = 0, Hebe Alicia Cadaval
Presentaciones similares
© 2024 SlidePlayer.es Inc.
All rights reserved.