P Y E 2012 Clase 11Gonzalo Perera1 Repaso de clase anterior Fórmula del bloqueo de Erlang. LFGN y el problema de la Robustez.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

El tiempo de vida Todos los seguros de vida dependen fundamentalmente del tiempo de vida del asegurado. Por ello, la medición del riesgo debe comenzar.
Inferencia estadística
} LISSET BÁRCENAS MONTERROZA
La prueba U DE MANN-WHITNEY
KRIGING.
La ley de los grandes números
Ecuaciones diferenciales de 1er orden :
Estimación por Intervalos de confianza
Introducción Media y varianza poblacional Sea
PROCESO DE MEDICIÓN.
Tema 2: Métodos de ajuste
Universidad Mexicana en Línea Carrera: Administración Pública Asignatura: Estadística Tutor: Leonardo Olmedo Alumno: Alfredo Camacho Cordero Matrícula:
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
P Y E 2012 Clase 17Gonzalo Perera1 Repaso de clase anterior En la clase pasada observamos en un primer ejemplo particular de test de hipótesis que: Cuando.
Calcular el cero del polinomio de orden 3 que pasa por los puntos
Clases 4 Pruebas de Hipótesis
ANALISIS DE DATOS CATEGORICOS
ESTADÍSTICA 4° MEDIO
VALIDACION DE METODOS ANALITICOS.
Unidad V: Estimación de
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
P y E 2012 Clase 7Gonzalo Perera1 Repaso de clase anterior Distribución Gaussiana, Cauchy, Uniforme y Exponencial.
el Desplazamiento (Dx)
ANALISIS DE FRECUENCIA EN HIDROLOGIA (3)
ESTADÍSTICAS DESCRIPTIVA
Métodos de calibración: regresión y correlación
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Capacidad de Proceso.
Clase 4a Significancia Estadística y Prueba Z
Inferencia Estadística
Función Densidad Continua (o distribución de probabilidad continua)
ESTADÍSTICA DESCRIPTIVA
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Repaso de clase anterior
Consignas Laboratorio III. ► Ejercicio 1 ► Al tirar un dado se obtiene la realización de una variable aleatoria discreta independiente con valores posibles:
P y E 2012 Clase 6Gonzalo Perera1 Repaso de clase anterior Distribución de Poisson como aproximación de la Bin(n,p) cuando n es muy grande y p es muy chico.
Repaso de clase anterior
P y E 2012 Clase 18Gonzalo Perera1 Repaso de clase anterior Presentación, en un ejemplo, del concepto de p-valor (no llegamos a desarrollarlo completamente,
P y E 2012 Clase 6Gonzalo Perera1 Repaso de clase anterior Distribución de Poisson como aproximación de la Bin(n,p) cuando n es muy grande y p es muy chico.
PROBABILIDAD II Distribuciones. Distribución de frecuencia: es un listado de frecuencias observadas de todos los resultados de un experimento que se presentaron.
P y E 2012 Clase 8Gonzalo Perera1 Repaso de clase anterior Distribuciones multivariadas.
P Y E 2004 Clase 19Gonzalo Perera1 Propiedades generales del p-valor Repaso de la clase anterior. Tests de aleatoriedad Estadística de datos dependientes.
Regresión Lineal Simple
Estadística Reporte Ejecutivo
MUESTREO ALEATORIO SIMPLE SIN REEMPLAZO (“mas”)
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
RIESGO, RENDIMIENTO Y VALOR
Distribuciones de Probabilidad
Inferencia estadística: Muestreo aleatorio simple
La distribución normal
Distribución Binomial
P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.
P y E 2012 Clase 14 Gonzalo Perera 1 Repaso de clase anterior Estimación de parámetros por el método de Máxima Verosimilitud.
Aspectos generales de la investigación educativa en el SNIT
P y E 2014 Clase 4Gonzalo Perera1 Repaso de clase anterior Probabilidad condicional, independencia de sucesos. Distribución Binomial e Hipergeométrica.
Objetivo: Recordar elementos presentes en el estudio de la estadística
Clase N°5 Generación de instancias de una v.a. (Parte II)
Clase N°11 Métodos de reducción de varianza
INFERENCIA ESTADÍSTICA
Capitulo 1 Análisis descriptivo
DILUCIONES.
Este trabajo tiene como fin demostrar las distintas formas de calcular el área de la función En el intervalo cerrado [-1,1] A través de las sumas de.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Ecuaciones Diferenciales Ordinarias de Primer Orden. Tema # 1.
Profesora: Debárbora Nancy Integrantes: Contreras Marina; Vargas Mónica Curso: 3er año del Profesorado de Matemáticas I. N. T.: Prof. Eduardo A. Fracchia.
ANALISIS DE VARIANZA.
Evaluando los promedios de grupos distintos UNIDAD 7 1.
Transcripción de la presentación:

P Y E 2012 Clase 11Gonzalo Perera1 Repaso de clase anterior Fórmula del bloqueo de Erlang. LFGN y el problema de la Robustez.

P Y E 2012 Clase 11Gonzalo Perera2 SIMULACIÓN DE DISTRIBUCIONES- MONTE CARLO Partiendo de la base que utilizando n veces el generador de números aleatorios de las computadoras obtenemos U 1,...,U n iid con distribución U[0,1], queremos construír, dada una distribución F cualquiera, una muestra X 1,...,X n iid con distribución F (muestra simulada de F). La simulación de muestras es una técnica que se usa ampliamente en el Método de Monte Carlo que veremos en un instante. El procedimiento es bien simple y lo veremos primero en dos casos particulares muy importantes y luego en forma general.

P Y E 2012 Clase 11Gonzalo Perera3 1) Caso en que F es discreta. Si la distribución F corresponde a una variable que toma los valores a 1,...., a k,... con probabilidades respectivas p 1,...., p k,... y llamamos q 1 = p 1, q 2 = p 1 +p 2, …, q k = p 1 + p 2 +…+ p k,.... y tenemos los números aleatorios U 1,...,U n, definamos X i del modo siguiente: Si U i  q 1, definimos X i = a 1, Si para algún j es q j-1 < U i  q j, definimos X i = a j, entonces X 1,...,X n iid con distribución F Ejemplo: si 0 < p < 1, y tenemos los números aleatorios U 1,...,U n · Si U i  p, definimos X i = 1 · Si p < U i, definimos X i = 0 y X 1,...,X n iid con distribución Ber(p)

P Y E 2012 Clase 11Gonzalo Perera4 2) Caso en que F es estrictamente creciente. Si la distribución F es estrictamente creciente, se prueba en el práctico y de hecho es muy simple, que si U es una variable con distribución U[0,1], entonces F -1 (U) tiene distribución F. En consecuencia, si tenemos los números aleatorios U 1,...,U n, y definimos X i = F -1 (U i ), entonces X 1,...,X n iid con distribución F Ejemplo: Puede verificarse fácilmente que la distribución de Cauchy standard es F(t)= (arctg(t)/  )+1/2 Entonces F -1 (y)=tg(  (y-1/2)) por lo que si tenemos los números aleatorios U 1,...,U n, y definimos X i = tg(  (U i -1/2)), resulta X 1,...,X n iid con distribución C(0,1)

P Y E 2012 Clase 11Gonzalo Perera5 3) Caso general (F cualquier distribución). Si la distribución F es cualquiera, se define la función inversa generalizada de F de la manera siguiente F -1 (y) = inf {x  R / F(x)  y} (coincide con la inversa habitual cuando F es estrictamente creciente) Puede verificarse que: F -1 (u)  t si y sólo si u  F(t), y de allí que, si U es una variable con distribución U[0,1], resulta P(F -1 (U)  t) = P(U  F(t)) = F(t), por lo que F -1 (U) tiene distribución F. Si tenemos los números aleatorios U 1,...,U n, y definimos X i = F -1 (U i ), entonces X 1,...,X n iid con distribución F

P Y E 2012 Clase 11Gonzalo Perera6 método de Monte Carlo Ahora que sabemos simular, veamos el método de Monte Carlo: Si quiere calcular una probabilidad, un valor esperado o cualquier atributo de una función de distribución, simule muestras muy grandes de la distribución involucrada y estime la probabilidad por la frecuencia observada en la muestra, el valor esperado por el promedio y, en general, el atributo de la distribución subyacente por el mismo atributo de la distribución empírica ( la discreta que asigna, a cada resultado obtenido, como probabilidad, la frecuencia observada). Más adelante (cuando veamos los Teorema de Glivenko-Cantelli y de Donsker), detallaremos el grado de precisión de este método.

P Y E 2012 Clase 11Gonzalo Perera7 Por ejemplo, si la muestra es 0.3, 0.1,0.3, 0.5, 0.3, 0.1, 0.6 la distribución empírica es la discreta concentrada en {0.1, 0.3, 0.5, 0.6} y que asigna las siguientes probabilidades : p(0.1)=2/7, p(0.3)= 3/7, p(0.5)=p(0.6)=1/7. En general si llamamos F n a la distribución discreta que como probabilidad de cada valor obtenido en la muestra toma la frecuencia observada de dicho valor, obsérvese que la fórmula del valor esperado aplicada a F n arroja como resultado el promedio, que es la estimación natural del valor esperado cuando éste existe. Así, Monte Carlo podría resumirse en: si se desea calcular una magnitud expresable como T(F), donde T es cierto funcional y F es una distribución, Monte Carlo lo aproxima por T(F n ), donde F n es la distribución empírica de la muestra de F construída por simulación.

P Y E 2012 Clase 11Gonzalo Perera8 Observación: Si utilizamos un mal generador, todas nuestras simulaciones serán malas. Veremos más adelante en este curso como chequear si sus generadores de números aleatorios son buenos o no. No hay generadores perfectos de números aleatorios, pero los hay de diversa calidad. Si utilizamos un mal generador, todas nuestras simulaciones serán malas. Veremos más adelante en este curso como chequear si sus generadores de números aleatorios son buenos o no. Veamos un primer ejemplo de cómo funciona Monte Carlo, comparando la distribución empírica obtenida en 5000 simulaciones de una Bin(30,1/6) con la distribución exacta.

P Y E 2012 Clase 11Gonzalo Perera9 Dan resultados sumamente similares!!!!

La distribución de Gumbel Calcularemos por Monte Carlo el valor esperado de la Gumbel, a partir de la simulación de una muestra de tamaño y del cálculo del promedio. Veamos un segundo ejemplo: La distribución de Gumbel es una distribución muy usada en la Ingeniería de valores extremos (viento más intenso, máxima ola, máxima lluvia, máxima carga, etc.) que se define por G(x)= exp (-exp(-x)) para todo x. Calcularemos por Monte Carlo el valor esperado de la Gumbel, a partir de la simulación de una muestra de tamaño y del cálculo del promedio. P Y E 2012 Clase 11Gonzalo Perera10

P Y E 2012 Clase 11Gonzalo Perera11 Es fácil invertir G: si G(x)=y, entonces -exp(-x)=log y por lo que: G -1 (y)=x= -log(-log(y)) para todo y en (0,1). La gráfica muestra la evolución del promedio en las simulaciones y nos quedamos como aproximación de Monte Carlo el último valor, o sea: 0,

P Y E 2012 Clase 11Gonzalo Perera12

constante de Euler-Mascheroni Por lo que el error absoluto de nuestro cálculo (que es muy simple y muy rápido) fue del orden de 6,8 *10 -3 y el error relativo fue del orden del 1,19% !!! Por otros métodos puede probarse que la esperanza de la Gumbel es la constante de Euler-Mascheroni: , Por lo que el error absoluto de nuestro cálculo (que es muy simple y muy rápido) fue del orden de 6,8 *10 -3 y el error relativo fue del orden del 1,19% !!! P Y E 2012 Clase 11Gonzalo Perera13

P Y E 2012 Clase 11Gonzalo Perera14 Hay métodos más sofisticados de simulación, como los de aceptación- rechazo. En la última década ha crecido mucho el uso métodos de simulación basados en Cadenas de Markov (referiremos a ellas más adelante), dando lugar a lo que se conoce como MCMC (Monte Carlo Markov Chain).