La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Simulación Monte Carlo Juan Camilo Montoya Universidad Sergio Arboleda Dic, 2012.

Presentaciones similares


Presentación del tema: "Simulación Monte Carlo Juan Camilo Montoya Universidad Sergio Arboleda Dic, 2012."— Transcripción de la presentación:

1

2 Simulación Monte Carlo Juan Camilo Montoya Universidad Sergio Arboleda Dic, 2012

3 Que es? Método computacional iterativo usado para estudiar sistemas matemáticos, físicos o de cualquier índole, y encontrar soluciones aproximadas a problemas cuantitativos a partir del muestreo estadístico y los números aleatorios. Método computacional iterativo usado para estudiar sistemas matemáticos, físicos o de cualquier índole, y encontrar soluciones aproximadas a problemas cuantitativos a partir del muestreo estadístico y los números aleatorios.

4 Por que Simular? Complejidad de los problemas Complejidad de los problemas Imposibilidad de encontrar soluciones analíticas Imposibilidad de encontrar soluciones analíticas Variables dinámicas en el tiempo: procesos estocásticos. Variables dinámicas en el tiempo: procesos estocásticos. Para derrotar al casino?? Para derrotar al casino??

5 La casa Siempre Gana!

6 Orígenes Se atribuye a Stanislaw Ulam, matemático polaco. Ulam no inventó el muestreo estadístico, pero trabajando con John von Neuman y Nicholas Metropolis reconoció la el potencial de los computadores electrónicos para automatizar y aprovechar el proceso. Ulam y Metropolis publican el primer paper en 1949.

7

8 En este curso, usaremos la simulación Monte Carlo para el tratamiento de problemas y modelos con incertidumbre. Partiremos de modelos matemáticos que describan un problema o situación y que incorporen componentes probabilísticos.

9 Hay 2 componentes de aleatoriedad en un modelo: efecto aleatorio propio del sistema bajo análisis. Se puede reducir alterando el sistema. nivel de ignorancia del evaluador acerca de los parámetros del sistema. Se puede reducir a veces con mediciones adicionales mayor estudio, o consulta a expertos. = Variabilidad Total Riesgo + Incertidumbre

10 Tanto el riesgo como la incertidumbre se describen mediante…

11 …Variables Aleatorias

12 Para que modelar la variabilidad? El riesgo no es algo que se "sufre", el riesgo es algo que se puede administrar.

13 Administración del Riesgo 1. Negociar las variables negociables 2. Buscar más información 3. Aumentar el compromiso 4. Tomar precauciones adicionales 5. Compartir el riesgo 6. Transferir el riesgo 7. Formular planes de contingencia 8. No tomar medidas, asumir el riesgo 9. Cancelar el proyecto

14 Simulación Monte Carlo 1. Diseñar el modelo matemático que representa el problema con incertidumbre. 1. Diseñar el modelo matemático que representa el problema con incertidumbre. 2. Especificar distribuciones de probabilidad para las variables aleatorias relevantes. 2. Especificar distribuciones de probabilidad para las variables aleatorias relevantes. 3. Incluir posibles dependencias entre variables. 3. Incluir posibles dependencias entre variables. 4. Muestrear valores de las variables aleatorias. 4. Muestrear valores de las variables aleatorias. 5. Calcular el resultado del modelo según los valores del muestreo y registrar el resultado. 5. Calcular el resultado del modelo según los valores del muestreo y registrar el resultado. 6. Repetir el proceso iterativamente hasta tener una muestra estadísticamente representativa. 6. Repetir el proceso iterativamente hasta tener una muestra estadísticamente representativa. 7. Obtener la distribución de frecuencias del resultado de las iteraciones. 7. Obtener la distribución de frecuencias del resultado de las iteraciones. 8. Calcular media, desvío y curva de percentiles acumulados. 8. Calcular media, desvío y curva de percentiles acumulados.

15 Analisis de escenarios Debido a que la simulación involucra la generación de un numero alto de escenarios, puede ser entendida como una forma mas completa de realizar análisis de escenarios o análisis What-if What-if

16 Fundamentos de probabilidad para simulación.

17 Variables Aleatorias Variables Aleatorias Distribuciones de probabilidad Distribuciones de probabilidad Ley de los grandes números. Ley de los grandes números. Teorema del límite central. Teorema del límite central.

18 Fundamentos de probabilidad para simulación. Variables Aleatorias Variables Aleatorias Distribuciones de probabilidad Distribuciones de probabilidad Ley de los grandes números. Ley de los grandes números. Teorema del límite central. Teorema del límite central.

19 Variables Aleatorias Una Variable aleatoria X es una función cuyos valores son números reales y dependen del azar. Una Variable aleatoria X es una función cuyos valores son números reales y dependen del azar. Para caracterizar las variables aleatorias se utilizan las distribuciones de probabilidad. Para caracterizar las variables aleatorias se utilizan las distribuciones de probabilidad.

20 Fundamentos de probabilidad para simulación. Variables Aleatorias Variables Aleatorias Distribuciones de probabilidad Distribuciones de probabilidad Ley de los grandes números. Ley de los grandes números. Teorema del límite central. Teorema del límite central.

21 Distribución de probabilidad Una distribución de probabilidad describe el rango de valores que puede tomar una variable aleatoria y la probabilidad asignada a cada valor o rango de valores. Una distribución de probabilidad describe el rango de valores que puede tomar una variable aleatoria y la probabilidad asignada a cada valor o rango de valores.

22 Distribuciones de probabilidad Discretas Una variable aleatoria representada mediante una distribución discreta de probabilidad puede tomar un valor de entre un conjunto de valores, cada uno de los cuales tiene asignada una determinada probabilidad de ocurrencia. Una variable aleatoria representada mediante una distribución discreta de probabilidad puede tomar un valor de entre un conjunto de valores, cada uno de los cuales tiene asignada una determinada probabilidad de ocurrencia.

23 Distribuciones de probabilidad Continuas Una variable aleatoria representada mediante una distribución continua de probabilidad puede tomar cualquier valor dentro de un rango determinado. Una variable aleatoria representada mediante una distribución continua de probabilidad puede tomar cualquier valor dentro de un rango determinado.

24 Distribuciones de probabilidad No Limitadas La variable aleatoria puede tomar valores entre +infinito y –infinito Limitadas Los valores de la variable aleatoria quedan confinados entre dos valores extremos Parcialmente Limitadas Los valores de la variable aleatoria quedan limitados en uno de los extremos de la distribución.

25 Distribuciones de probabilidad Paramétricas La distribución de probabilidad se ajusta a la descripción matemática de un proceso aleatorio que cumple con determinados supuestos teóricos. La distribución de probabilidad se ajusta a la descripción matemática de un proceso aleatorio que cumple con determinados supuestos teóricos. Los parámetros que definen la distribución en general no guardan relación intuitiva con la forma de la distribución. Los parámetros que definen la distribución en general no guardan relación intuitiva con la forma de la distribución. Ejemplos: Normal, Lognormal, Exponencial, Beta. Ejemplos: Normal, Lognormal, Exponencial, Beta.

26 Distribuciones de probabilidad No Paramétricas Los parámetros que se usan para definir estas distribuciones describen la forma de la distribución. Los parámetros que se usan para definir estas distribuciones describen la forma de la distribución. No se apoyan en una teoría que describa el proceso de generación de valores aleatorios. No se apoyan en una teoría que describa el proceso de generación de valores aleatorios. Ejemplos: Triangular, Histograma, General, Uniforme, Acumulada Ejemplos: Triangular, Histograma, General, Uniforme, Acumulada

27 Distribuciones de probabilidad Subjetivas El uso de estas distribuciones de probabilidad es la única alternativa para describir una variable aleatoria cuando: El uso de estas distribuciones de probabilidad es la única alternativa para describir una variable aleatoria cuando: –1. No hay una base de antecedentes. –2. Los datos del pasado no son relevantes. –3. Los datos son escasos y no cubren todo el rango de posibles valores. –4. Es demasiado caro generar datos. –5. Generar valores llevaría demasiado tiempo

28 DISTRIBUCIONES NO PARAMETRICAS

29 Uniforme Todos los valores dentro del rango factible tienen la misma densidad de probabilidad. Todos los valores dentro del rango factible tienen la misma densidad de probabilidad. Parámetros : Uniform (min,max) Parámetros : Uniform (min,max) Aplicaciones: U(0,1) se usa en la generación de los valores de todas las demás distribuciones de probabilidad en el muestreo aleatorio. Aplicaciones: U(0,1) se usa en la generación de los valores de todas las demás distribuciones de probabilidad en el muestreo aleatorio. Es una aproximación muy cruda para usar como estimación de la incertidumbre percibida de un parámetro Es una aproximación muy cruda para usar como estimación de la incertidumbre percibida de un parámetro

30 Ejemplos:

31 Triangular Aplicaciones: estimar subjetivamente la distribución de la variable aleatoria cuando todo lo que puede precisarse de la misma es el valor mínimo, el valor más probable y el valor máximo. Aplicaciones: estimar subjetivamente la distribución de la variable aleatoria cuando todo lo que puede precisarse de la misma es el valor mínimo, el valor más probable y el valor máximo. Parámetros: Triang (min, +prob, max) Parámetros: Triang (min, +prob, max)

32 Triangular (cont.) Sus propiedades estadísticas se derivan de su forma, no de una teoría subyacente. Sus propiedades estadísticas se derivan de su forma, no de una teoría subyacente. Es de definición intuitiva y de gran flexibilidad en cuanto a geometrías posibles. Es de definición intuitiva y de gran flexibilidad en cuanto a geometrías posibles. La forma de la distribución usualmente lleva a sobreestimar la densidad de las colas y a subestimar la densidad en el tronco de la distribución. La forma de la distribución usualmente lleva a sobreestimar la densidad de las colas y a subestimar la densidad en el tronco de la distribución.

33 Discreta Aplicaciones: 1. Describir una variable aleatoria que puede tomar uno de entre un conjunto de valores discretos. 1. Describir una variable aleatoria que puede tomar uno de entre un conjunto de valores discretos. 2. Describir probabilidades condicionales para distintos estados de la naturaleza, donde cada estado de la naturaleza tiene una probabilidad de ocurrencia p. 2. Describir probabilidades condicionales para distintos estados de la naturaleza, donde cada estado de la naturaleza tiene una probabilidad de ocurrencia p. 3. Armar distribuciones de probabilidad compuestas a partir de la opinión de dos o más expertos, donde a la opinión de cada experto se le otorga una ponderación p. 3. Armar distribuciones de probabilidad compuestas a partir de la opinión de dos o más expertos, donde a la opinión de cada experto se le otorga una ponderación p. Parámetros: Discrete ({x i },{p i }) Parámetros: Discrete ({x i },{p i }) Discreta

34 Histograma Aplicaciones: representar la forma de la distribución de una serie de datos o la opinión de un experto acerca de la forma de la distribución de una variable. Aplicaciones: representar la forma de la distribución de una serie de datos o la opinión de un experto acerca de la forma de la distribución de una variable. Parámetros: Histogram (min, max, {p i }) Parámetros: Histogram (min, max, {p i }) Todos los intervalos de la distribución tienen el mismo ancho. Todos los intervalos de la distribución tienen el mismo ancho. Histograma

35 DISTRIBUCIONES PARAMETRICAS

36 Normal La mayoría de las variables aleatorias que se presentan en los estudios relacionados con las ciencias sociales, físicas y biológicas, son continuas y se distribuyen según la distribución de probabilidad Normal, que tiene la siguiente expresión analítica : La mayoría de las variables aleatorias que se presentan en los estudios relacionados con las ciencias sociales, físicas y biológicas, son continuas y se distribuyen según la distribución de probabilidad Normal, que tiene la siguiente expresión analítica : Donde μ es la media de la variable aleatoria y σ es su desviación típica. Donde μ es la media de la variable aleatoria y σ es su desviación típica.

37 Normal La distribución de probabilidad Normal, tiene forma de campana Para una variable aleatoria X, que se distribuye normalmente con media : μ y desviación típica : σ, la probabilidad de que la variable X esté comprendida entre los valores a y b es el área teñida de rojo en la siguiente figura

38 Esta probabilidad analíticamente se puede calcular así: Como el cálculo de esta integral es laborioso, para calcular el área se realiza el siguiente cambio de variable:

39 Este cambio origina una distribución normal estándar de media μ = 0 y desviación típica σ = 1 cuya función de densidad es :

40 Ejemplos: En todos los campos de las ciencias empíricas: biología, medicina, psicología, física, economía, etc. En particular, muchas medidas de datos continuos en medicina y en biología (talla, presión arterial, etc.)

41 Estimación subjetiva de los parámetros de una Normal Media: Valor más probable Media: Valor más probable Desvío: el intervalo +/- 2*sigma contiene el 95% de los valores, por lo tanto: Desvío: el intervalo +/- 2*sigma contiene el 95% de los valores, por lo tanto: Sigma: (máximo - más probable) / 2

42 Lognormal Aplicaciones: modelar variables que son el producto de una cantidad de otras variables aleatorias que ocurren naturalmente. Aplicaciones: modelar variables que son el producto de una cantidad de otras variables aleatorias que ocurren naturalmente. Generalmente brinda una buena representación de variables que se extienden de 0 a +inf y que tienen un sesgo positivo. Parámetros: Lognormal (mu,sigma) Parámetros: Lognormal (mu,sigma) Se usan como parámetros la media aritmética y el desvío standard de los datos disponibles.

43 Condiciones subyacentes La variable aleatoria puede tomar valores que aumentan sin límites pero no puede tomar valores negativos. La variable aleatoria puede tomar valores que aumentan sin límites pero no puede tomar valores negativos. La variable aleatoria tiene un sesgo positivo (modo < media) con la mayor parte de los valores cerca del límite inferior. La variable aleatoria tiene un sesgo positivo (modo < media) con la mayor parte de los valores cerca del límite inferior. El logaritmo natural de la variable se ajusta a una distribución Normal. El logaritmo natural de la variable se ajusta a una distribución Normal.

44 Ejemplos: es útil para modelar datos de numerosos estudios médicos tales como: es útil para modelar datos de numerosos estudios médicos tales como: el período de incubación de una enfermedad el período de incubación de una enfermedad los títulos de anticuerpo a un virus los títulos de anticuerpo a un virus El tiempo de supervivencia en pacientes con cáncer o SIDA, etc. El tiempo de supervivencia en pacientes con cáncer o SIDA, etc.

45 Distribuciones de probabilidad para Procesos estocasticos Discretos Un Proceso Discreto se caracteriza por una probabilidad p de ocurrencia de un evento discreto en cada prueba. Un Proceso Discreto se caracteriza por una probabilidad p de ocurrencia de un evento discreto en cada prueba.

46 Binomial Aplicaciones: estimar la distribución de la cantidad s de ocurrencias de un evento en n pruebas, cuando hay una probabilidad p de ocurrencia del evento en cada prueba. Aplicaciones: estimar la distribución de la cantidad s de ocurrencias de un evento en n pruebas, cuando hay una probabilidad p de ocurrencia del evento en cada prueba. Parámetros: Binomial (n,p) Parámetros: Binomial (n,p)

47 Ejemplo: Utilizada frecuentemente en control de calidad. p representa la fracción de items defectuosos. X representa el número de artículos defectuosos encontrados cuando se toma una muestra al azar de tamaño n. Utilizada frecuentemente en control de calidad. p representa la fracción de items defectuosos. X representa el número de artículos defectuosos encontrados cuando se toma una muestra al azar de tamaño n.

48 Distribución Hipergeométrica Al igual que la distribución Binomial, esta distribución describe la cantidad de ocurrencias de un evento en una cantidad de pruebas. Al igual que la distribución Binomial, esta distribución describe la cantidad de ocurrencias de un evento en una cantidad de pruebas. La diferencia con la distribución Binomial es que a medida que se avanza con las pruebas cambia la probabilidad de ocurrencia del evento: pruebas sin reemplazo. La diferencia con la distribución Binomial es que a medida que se avanza con las pruebas cambia la probabilidad de ocurrencia del evento: pruebas sin reemplazo.

49 Ejemplo: Combinación de eleméntos de dos fuentes distintas. Combinación de eleméntos de dos fuentes distintas. EJ: Un lote de tuberías está compuesto por 100 partes nacionales y 200 importadas. Si se seleccionan al azar 4 partes, cual es la probabilidad de que todas sean nacionales?

50 Geométrica Aplicaciones: estimar la cantidad n de pruebas necesarias hasta la ocurrencia del primer evento, cuando la probabilidad p de ocurrencia de un evento se mantiene constante en el tiempo. Aplicaciones: estimar la cantidad n de pruebas necesarias hasta la ocurrencia del primer evento, cuando la probabilidad p de ocurrencia de un evento se mantiene constante en el tiempo. La distribución Geométrica es análoga a la distribución Exponencial: Geométrica se aplica a variables discretas, Exponencial se aplica a variables continuas. La distribución Geométrica es análoga a la distribución Exponencial: Geométrica se aplica a variables discretas, Exponencial se aplica a variables continuas.

51 Ejemplos: La cantidad de intentos que de deben realizar en un proceso industrial con incertidumbre antes de obtener el resultado deseado. La cantidad de intentos que de deben realizar en un proceso industrial con incertidumbre antes de obtener el resultado deseado. Cantidad de niños varones que se van a tener antes de tener una niña. Cantidad de niños varones que se van a tener antes de tener una niña.

52 Binomial Negativa (Pascal) Aplicaciones: estimar la distribución de la cantidad n de pruebas hasta que ocurran s eventos, cuando la probabilidad p de ocurrencia de un evento es constante en el tiempo. Aplicaciones: estimar la distribución de la cantidad n de pruebas hasta que ocurran s eventos, cuando la probabilidad p de ocurrencia de un evento es constante en el tiempo.

53 Ejemplos: Si la probabilidad de que un niño expuesto a una enfermedad contagiosa la contraiga es 0,40, ¿cuál es la probabilidad de que el décimo niño expuesto a la enfermedad sea el tercero en contraerla? En un proceso de manufactura se sabe que un promedio de 1 en cada 10 productos es defectuoso, ¿cual es la probabilidad que el quinto (5) articulo examinado sea el primero (1) en estar defectuoso?

54 Distribuciones de probabilidad para Procesos Continuos Un Proceso Continuo se caracteriza por un Intervalo Medio de Tiempo entre Eventos (beta).

55 Poisson Aplicaciones: estimar la cantidad N de ocurrencias de un evento en un intervalo de tiempo T cuando el tiempo medio entre eventos sucesivos (beta) se ajusta a un proceso tipo Poisson. Aplicaciones: estimar la cantidad N de ocurrencias de un evento en un intervalo de tiempo T cuando el tiempo medio entre eventos sucesivos (beta) se ajusta a un proceso tipo Poisson. Lambda = 1 / beta, se puede interpretar como la cantidad promedio de ocurrencias del evento por unidad de exposición. Lambda = 1 / beta, se puede interpretar como la cantidad promedio de ocurrencias del evento por unidad de exposición.

56 Ejemplo: La cantidad de clientes que llegan por unidad de tiempo para ser atendidos en una cola de servicio. Puntos de atención, operadores telefónicos de atención al cliente, etc. La cantidad de clientes que llegan por unidad de tiempo para ser atendidos en una cola de servicio. Puntos de atención, operadores telefónicos de atención al cliente, etc.

57 Exponencial Aplicaciones: estimar la distribución del (tiempo) entre ocurrencias sucesivas de un evento que tiene una probabilidad de ocurrencia p constante por unidad de tiempo. Aplicaciones: estimar la distribución del (tiempo) entre ocurrencias sucesivas de un evento que tiene una probabilidad de ocurrencia p constante por unidad de tiempo.

58 Gamma Aplicaciones: estimar la distribución del tiempo entre ocurrencias sucesivas de un evento n veces cuando el evento tiene una probabilidad de ocurrencia p constante por unidad de tiempo. Aplicaciones: estimar la distribución del tiempo entre ocurrencias sucesivas de un evento n veces cuando el evento tiene una probabilidad de ocurrencia p constante por unidad de tiempo.

59 Ejemplos: Es muy utilizada en las teorías de la fiabilidad, mantenimiento y fenómenos de espera. Es muy utilizada en las teorías de la fiabilidad, mantenimiento y fenómenos de espera.

60 Fundamentos de probabilidad para simulación. Variables Aleatorias Variables Aleatorias Distribuciones de probabilidad Distribuciones de probabilidad Ley de los grandes números. Ley de los grandes números. Teorema del límite central. Teorema del límite central.

61 Ley de los Grandes Números (desigualdad de Tchebycheff) Cuanto mayor sea el tamaño de la muestra, mayor será el ajuste entre la distribución muestral y la distribución teórica sobre la que se basa la muestra. Cuanto mayor sea el tamaño de la muestra, mayor será el ajuste entre la distribución muestral y la distribución teórica sobre la que se basa la muestra. la frecuencia relativa de los resultados de un cierto experimento aleatorio, tienden a estabilizarse en cierto número, que es precisamente la probabilidad, cuando el experimento se realiza muchas veces la frecuencia relativa de los resultados de un cierto experimento aleatorio, tienden a estabilizarse en cierto número, que es precisamente la probabilidad, cuando el experimento se realiza muchas veces

62 Ejemplo intuitivo

63 Ejemplo simulado

64 Fundamentos de probabilidad para simulación. Variables Aleatorias Variables Aleatorias Distribuciones de probabilidad Distribuciones de probabilidad Ley de los grandes números. Ley de los grandes números. Teorema central del límite. Teorema central del límite.

65 Teorema Central del Límite (TCL) La media muestral de un conjunto de n variables muestreadas en forma independiente a partir de una misma distribución f(x) se ajusta a una distribución aprox. Normal con los siguientes parámetros: La media muestral de un conjunto de n variables muestreadas en forma independiente a partir de una misma distribución f(x) se ajusta a una distribución aprox. Normal con los siguientes parámetros: x = Normal ( mu, sigma / n 1/2 ) En otras palabras, la distribución del promedio de un conjunto de variables aleatorias depende tanto de la cantidad de variables aleatorias promediadas como de la incertidumbre aportada por cada variable. En otras palabras, la distribución del promedio de un conjunto de variables aleatorias depende tanto de la cantidad de variables aleatorias promediadas como de la incertidumbre aportada por cada variable.

66 Teorema Central del Límite (cont.) La suma de n variables aleatorias independientes da como resultado una distribución aproximadamente Normal, sin importar la forma de la distribución de las variables sumadas. La suma de n variables aleatorias independientes da como resultado una distribución aproximadamente Normal, sin importar la forma de la distribución de las variables sumadas. El producto de n variables aleatorias independientes da como resultado una distribución aproximadamente Lognormal, independientemente de la forma de la distribución de las variables intervinientes. El producto de n variables aleatorias independientes da como resultado una distribución aproximadamente Lognormal, independientemente de la forma de la distribución de las variables intervinientes.

67 Teorema Central del Límite (cont.)

68 Simulación Monte Carlo 1. Diseñar el modelo matemático que representa el problema. 1. Diseñar el modelo matemático que representa el problema. 2. Especificar distribuciones de probabilidad para las variables aleatorias relevantes. 2. Especificar distribuciones de probabilidad para las variables aleatorias relevantes. 3. Incluir posibles dependencias entre variables. 3. Incluir posibles dependencias entre variables. 4. Muestrear valores de las variables aleatorias. 4. Muestrear valores de las variables aleatorias. 5. Calcular el resultado del modelo según los valores del muestreo y registrar el resultado. 5. Calcular el resultado del modelo según los valores del muestreo y registrar el resultado. 6. Repetir el proceso iterativamente hasta tener una muestra estadísticamente representativa. 6. Repetir el proceso iterativamente hasta tener una muestra estadísticamente representativa. 7. Obtener la distribución de frecuencias del resultado de las iteraciones. 7. Obtener la distribución de frecuencias del resultado de las iteraciones. 8. Calcular media, desvío y curva de percentiles acumulados. 8. Calcular media, desvío y curva de percentiles acumulados.


Descargar ppt "Simulación Monte Carlo Juan Camilo Montoya Universidad Sergio Arboleda Dic, 2012."

Presentaciones similares


Anuncios Google