La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Simulación Dr. Ignacio Ponzoni

Presentaciones similares


Presentación del tema: "Simulación Dr. Ignacio Ponzoni"— Transcripción de la presentación:

1 Simulación Dr. Ignacio Ponzoni
Clase IV: Distribuciones Probabilísticas Departamento de Ciencias e Ingeniería de la Computación Universidad Nacional del Sur Año 2005

2 Probabilidad y Estadística en Simulación
El modelado de problemas reales requiere usualmente contemplar situaciones donde las acciones de algunos elementos del sistema NO se pueden predecir con total exactitud. En estos casos, la probabilidad y la estadística juegan un rol fundamental para construir buenos modelos. Principales usos en Simulación: Modelar distribuciones probabilísticas de las variables aleatorias. Analizar los resultados de los experimentos de simulación.

3 Variables Aleatorias Sea S un espacio muestral sobre el que se encuentra definida una función de probabilidad. Y sea X una función de valor real definida sobre S, de manera que transforme los resultados de S en puntos sobre la recta de los reales. Se dice que X es una VARIABLE ALEATORIA. Una variable aleatoria se dice discreta cuando el conjunto de valores que puede tomar la variable es finito o infinito contable. Una variable aleatoria se dice continua cuando el conjunto de valores que puede tomar la variable es un intervalo o conjunto de intervalos formado por infinitos números.

4 Distribuciones Probabilísticas
Un aspecto clave en los problemas de simulación no determinísticos es contar con un buen conocimiento de las distribuciones probabilísticas que modelan las variables aleatorias. Existen dos tipos de distribuciones: Continuas: son definidas por su función de densidad de probabilidad. Discretas: son definidas por su función másica de probabilidad.

5 Función Másica de Probabilidad de una Variable Aleatoria Discreta
Sea X una variable aleatoria discreta. Se llamará a p(x)  P(X = x) función de probabilidad de la variable aleatoria X, si satisface las siguientes propiedades: 1. p(x)  0 para todos los valores x de X; 2.  x p(x) = 1. La colección de pares (xi , p(xi )) correspondientes a los valores xi de X conforman la denominada función másica de probabilidad de la variable aleatoria X.

6 Función de Probabilidad Acumulativa de una Variable Aleatoria Discreta
La función de distribución acumulativa de una variable aleatoria discreta X es la probabilidad de que X sea menor o igual a un valor específico x y está dada por: F(x)  P(X  x) =  x  x p(xi ) i

7 Función de Densidad de Probabilidad de una Variable Aleatoria Continua
Si existe una función f(x) tal que: para cualesquiera a y b, entonces f(x) es la función de densidad de probabilidad de la variable aleatoria X.

8 Función de Probabilidad Acumulativa de una Variable Aleatoria Continua
Sea X una variable aleatoria continua y sea f(x) su función de densidad de probabilidad, la función de probabilidad acumulativa de X es:

9 Esperanza de una Variable Aleatoria
El valor esperado (o esperanza) de una variable aleatoria es un concepto muy importante en el estudio de las distribuciones probabilísticas. La esperanza de una variable aleatoria tiene sus orígenes en los juegos de azar, debido a que los apostadores deseaban saber cuál era su esperanza de ganar repetidamente un juego. En este contexto, el valor esperado representa la cantidad de dinero que el jugador está dispuesto a ganar o perder después de un número muy grande de apuestas.

10 Ejemplo Suponga que un juego de azar consiste en lanzar una moneda tratando de obtener una “cara”, y asuma que se dispone de hasta tres intentos. El juego termina cuando: se obtiene una “cara” en un lanzamiento, o se agotan los tres tiros, lo que suceda primero. Si en el primero, segundo o tercer lanzamiento el jugador obtiene una “cara”, este gana $2, $4, $8 respectivamente. Si no logra obtener una “cara” en ninguno de los lanzamientos, el jugador pierde $20.

11 $2*(1/2)+$4*(1/4)+$8*(1/8)-$20*(1/8) = $0.50
Ejemplo Si analizamos la probabilidad de cada resultado tenemos: P(X = $2) = 1/2. P(X = $4) = 1/4. P(X = $8) = 1/8. P(X = -$20) = 1/8. Luego, la esperanza es: $2*(1/2)+$4*(1/4)+$8*(1/8)-$20*(1/8) = $0.50

12 Definición de Esperanza
En definitiva, el valor esperado o media de una variable aleatoria X es el promedio o valor medio de X y está dado por: La media E(X) también se denota con el símbolo  . Si X es discreta Si X es continua

13 Otras Medidas de Tendencia Central y Dispersión
Existen otras medidas descriptivas que también permiten obtener una mejor caracterización de una variable aleatoria y su distribución de probabilidad. Las medidas más empleadas: Mediana Moda Varianza Desvío estándar

14 Mediana y Moda La mediana es el valor x de X tal que la distribución probabilística acumulada en x es igual a 0,5. La moda es el valor que se presenta con mayor frecuencia dentro de una distribución probabilística o de una muestra.

15 Medidas de Variación Varianza Desviación
Cantidades que expresan el grado de variación de una variable aleatoria. Propiedades de una distribución de probabilidades o cálculo de muestras. Medidas de variación más empleadas: Varianza Desviación

16 Varianza y Desviación Estándar
La varianza de una variable aleatoria es la media del cuadrado de la diferencia entre los valores de una variable aleatoria y su media, y se denota 2 o V(X). Es de importancia fundamental en estudios estadísticos, brinda una medida de la dispersión de los datos. La varianza de una distribución discreta es: La varianza de una distribución continua es: La desviación estándar es la raíz cuadrada de la varianza, y se denota como .

17 Parámetros de Distribuciones Probabilísticas
Las funciones de densidad y de masa de probabilidades dependen de uno o más parámetros. Tipos de parámetros: Parámetro de forma: controla la forma básica de una distribución. Para ciertas distribuciones, cambios en el valor de este parámetro producen modificaciones significativas en la forma de la distribución. Parámetro de escala: controla la unidad de medida dentro del rango de la distribución. Cambiando este parámetro la distribución se expande o contrae a lo largo del eje x. Parámetro de posición: especifica la posición de la distribución relativa a cero sobre el eje x. Este parámetro puede representar el punto medio o el extremo inferior del rango de la distribución.

18 Distribuciones Continuas Distribución Uniforme
Esta distribución caracteriza a las variables aleatorias en donde todos los posibles valores de la variables poseen igual probabilidad. Para una distribución uniforme con valor mínimo a y valor máximo b, la función de densidad de probabilidad es:

19 Distribuciones Continuas Distribución Uniforme
La función de probabilidad acumulativa es: La media de la distribución uniforme es (a+b)/2 y su varianza es (b-a)2/12. Parámetros: De posición: a De escala: b-a De forma: no posee.

20 Distribuciones Continuas Distribución Uniforme
Las funciones de generación de números aleatorios provistas por lenguajes de programación siguen generalmente una distribución uniforme donde a = 0 y b = 1. Este tipo de distribución es frecuentemente elegida cuando hay poco conocimiento disponible sobre la variable aleatoria que se desea modelar.

21 Distribuciones Continuas Distribución Uniforme
Problema Un autobus arriba cada 20 minutos a una parada específica de su recorrido, el cual comienza a las 6:40 am y termina a las 8:40 am. Un pasajero que no conoce los horarios del autobus, arriba a una parada en forma aleatoria (siguiendo una distribución uniforme) entre las 7:00 am y las 7:30 am cada mañana. ¿Cuál es la probabilidad de que el pasajero deba esperar el autobus más de 5 minutos?

22 Distribuciones Continuas Distribución Uniforme
Solución El pasajero debe esperar más de 5 minutos sólo si arriba entre las 7:00 am y 7:15 am o entre las 7:20 am y 7:30. Si la variable aleatoria X denota la cantidad de minutos (después de las 7:00 am) en que el pasajero arriba, luego la probabilidad que se desea conocer es: P(0 < X < 15) + P(20 < X < 30) Como X es uniforme con a = 0 y b = 30, la probabilidad es:

23 Distribuciones Continuas Distribución Normal
Es una distribución simétrica con forma de campana. La mediana es igual a la media en esta distribución. El rango de la variable no está limitado. La densidad se concentra en torno a la media. Parámetros: De posición: media, . De escala: varianza, 2.

24 Distribuciones Continuas Distribución Normal
La función de densidad de probabilidad para la distribución normal es: Se emplea para modelar: Errores y fallas en procesos. Tiempos de procesamiento en sistemas de servicios.  = 0, 2 = 1

25 Distribuciones Continuas Distribución Normal
Función de probabilidad acumulativa es: Transformando variables:  = 0, 2 = 1 F(x) donde: z = (t – μ)/σ x

26 Distribuciones Continuas Distribución Normal
Ejemplo El tiempo que se tarda en carga el tanque de un barco sigue una distribución N(12,4) {media = 12 y varianza = 4}. La probabilidad de que el tanque este lleno en al menos 10 horas es F(10), donde: El valor de (-1) se obtiene por tabla usando simetría.

27 Distribuciones Continuas Distribución Triangular
Esta distribución es definida mediante 3 parámetros: mínimo a, máximo b, intermedio c. Los valores más cercanos a c son los que poseen mayor probabilidad, mientras que los valores próximos a los extremos tienen menos probabilidad.

28 Distribuciones Continuas Distribución Triangular
Función de densidad de probabilidad: Parámetros: De posición: a De escala: b-a De forma: c

29 Distribuciones Continuas Distribución Triangular
La función de distribución de probabilidad acumulativa es: La media se computa como (a+b+c)/3, y la varianza como (a2+b2+c2-a.b-a.c-b.c)/18 Esta distribución es usada para aproximar otras distribuciones, tales como la normal, cuando los datos son insuficientes.

30 Distribuciones Continuas Distribución Triangular
Problema Los requerimientos de una central de procesamiento, para programas que debe ejecutar, sigue una distribución triangular con a = 0.05 seg., b = 6.5 seg., y c = 1.1 seg. Determine la probabilidad de que un requerimiento de CPU para un programa sea de a lo sumo 2.5 seg. Solución

31 Distribuciones Continuas Distribución Exponencial
Esta distribución modela eventos recurrentes en el tiempo. Se utiliza frecuentemente para modelar los tiempos entre arribos y tiempos de servicio con alto nivel de variabilidad. También se emplea para modelar tiempos entre fallas de máquinas y dispositivos eléctricos o mecánicos que fallan catastróficamente (instantáneamente). Una propiedad clave de esta distribución es que no posee memoria, esto quiere decir que lo sucedido antes del tiempo actual no afecta a los futuros valores de la variable aleatoria.

32 Distribuciones Continuas Distribución Exponencial
Función de densidad de la distribución de probabilidades: Función de distribución de probabilidades acumuladas: Media: Varianza: Parámetro de escala:  (también denominado tasa de fallas) F(x) x

33 Distribuciones Continuas Distribución Exponencial
Ejemplo Suponga que la vida útil de una lámpara industrial, en el orden de las miles de horas, sigue una distribución exponencial con una tasa de fallas  = 1/3 (es decir, una falla cada 3 mil horas). Luego, la probabilidad de que una lámpara supere su tiempo medio de vida es: P(variable > 3) = 1 - F(3) = 1 – (1 – e -3/3) = e -1=0.368 Nótese que la probabilidad de sobrevivir el tiempo medio de vida es siempre 0.368, independientemente del valor de .

34 Distribuciones Continuas Distribución Exponencial
La probabilidad de que la lámpara funcione entre 2000 y 3000 horas es: La propiedad de no poseer memoria significa que si tenemos dos tiempos s  0 y t  0, luego: P(variable > t+s, sabiendo que variable > s) = P(variable > t) Esto significa que si la variable representa el tiempo de vida de una lámpara en horas, luego la probabilidad de que la lámpara siga funcionando t+s horas, sabiendo que ya estuvo operativa durante s horas, es igual a la probabilidad de que una lámpara nueva funcione correctamente durante t horas. F(3) - F(2) = (1 – e-3/3) - (1 – e-2/3) = = 0.145

35 Distribuciones Discretas Distribución de Bernoulli
Una variable que sigue esta distribución tiene dos posibles valores: 1 (éxito) y 0 (fracaso). La función másica de probabilidad es: Esta distribución sirve para modelar fenómenos en donde sólo existen dos alternativas o posibilidades. Sirve por ejemplo, para modelar una distribución de datos obtenidos a partir de respuestas (por SÍ o por NO) en encuestas.

36 Distribuciones Discretas Distribución Binomial
Modela n experimentos independientes de la distribución de Bernoulli. La probabilidad de obtener x éxitos en n intentos es: donde: n es la cantidad de experimentos y p la probabilidad de éxito. La media es n.p y la varianza es n.p.(1-p) Esta distribución se utiliza por ejemplo para modelar los resultados de inspecciones en una operación de producción o para analizar los efectos de una droga experimental sobre una determinada cantidad de pacientes.

37 Distribuciones Discretas Distribución de Poisson
Esta distribución es muy útil para modelar variables aleatorias que representan la probabilidad de que ocurra cierta cantidad de eventos independientes a una velocidad constante en el tiempo. Por ejemplo, cantidad de eventos de arribos que ocurren en un determinado tiempo en sistemas de colas, el número de errores por línea en el código de un programa, etc.

38 Distribuciones Discretas Distribución de Poisson
La función másica de probabilidad de Poisson es:  es la cantidad de eventos que ocurre en promedio en una unidad de tiempo. La media y la varianza de esta distribución es .

39 Distribuciones Discretas Distribución de Poisson
Problema Después de una prueba de laboratorio muy rigurosa efectuada sobre un tipo componente electrónico, el fabricante determina que en promedio, sólo fallarán dos componentes antes de tener 1000 horas de funcionamiento. ¿Cuál es la probabilidad de que fallen 5 o más componentes en un período de 1000 horas? Solución

40 Funciones de Conteo En ciertos casos, queremos analizar el número de eventos que ocurren durante un determinado intervalo de tiempo. En tales casos, podemos definir una función de conteo N(t) definida para todo t 0. Esta función representará el número de eventos que ocurren en el período [0, t]. Luego, N(t) es una variable aleatoria cuyo rango es el conjunto de los números enteros no negativos.

41 Procesos de Poisson Un proceso de conteo de arribos, { N(t), t 0 }, es un Proceso de Poisson con tasa  si se verifican las siguientes condiciones: 1. Los arribos ocurren de a uno por vez. 2. {N(t), t 0} tiene incrementos estacionarios: la distribución de la cantidad de arribos entre t y t+s depende sólo de la longitud de s y no del tiempo inicial t. 3. {N(t), t 0} tiene incrementos independientes: el número de arribos en intervalos de tiempo que no se solapan constituyen variables aleatorias independientes. Si los arribos siguen un proceso de Poisson, entonces:

42 Procesos de Poisson Problema Solución
Los clientes arriban a un banco siguiendo una tasa de 2 por hora. ¿Cuál es la probabilidad de que arriben 8 clientes durante el transcurso de las próximas 3 horas? Solución

43 Probabilidad del Primer Arribo
Supongamos que A1 representa el tiempo en que ocurre el primer arribo en un proceso de Poisson. Luego, la probabilidad de que el A1 ocurra después de un tiempo t es igual a la probabilidad de que no hayan arribos el intervalo de tiempo [0, t]. En nuestra notación tenemos que: P(A1 > t) = P[N(t) = 0] = e-t Pero entonces, la probabilidad de que el primer arribo ocurra en el período [0, t] es: 1- P(A1 > t) = 1 - e-t.

44 Otras Distribuciones Probabilísticas
Continuas: Lognormal Gamma Erlang Weibull Beta Discretas: Geométrica

45 Recomendaciones Lectura recomendada para los temas vistos en clase:
Capítulo 3 del libro Introduction to Simulation and Risk Analysis de Evans y Olson. Capítulo 5 del libro Discrete-Event System Simulation de Banks, Carson, Nelson y Nicol. Ejercitación propuesta: Trabajo Práctico 3: Nociones Básicas de Probabilidad y Generación de Numeración Aleatorios.


Descargar ppt "Simulación Dr. Ignacio Ponzoni"

Presentaciones similares


Anuncios Google