P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Tema 14. Estimación de parámetros: Estimación puntual y por intervalos
Tema.11. Principales modelos de distribución de probabilidad en Psicología: Variables discretas: binomial y Poisson. Variables continuas: normal, chi.
1.1 Contraste de Bondad de Ajuste para Datos Categóricos
Las distribuciones binomial y normal.
Estadística Unidad III
Variable Aleatoria Continua. Principales Distribuciones
Bivariadas y Multivariadas
DISTRIBUCIÓN BINOMIAL
La ley de los grandes números
DISTRIBUCIONES MUESTRALES, DE LAS MUESTRAS O DE MUESTREO
METODOLOGÍA DE INVESTIGACIÓN Titular: Agustín Salvia
Tema 8: Principales distribuciones de probabilidad
Universidad Mexicana en Línea Carrera: Administración Pública Asignatura: Estadística Tutor: Leonardo Olmedo Alumno: Alfredo Camacho Cordero Matrícula:
Tema 5: Modelos probabilísticos
PROBABILIDAD Y ESTADISTICA
Licenciatura en Administración Pública
P Y E 2012 Clase 17Gonzalo Perera1 Repaso de clase anterior En la clase pasada observamos en un primer ejemplo particular de test de hipótesis que: Cuando.
1 Planteamiento del problema ¿Tenemos los humanos la capacidad de percibir si nos miran desde atrás? O, más exactamente: ¿Es defendible que existen otras.
8.3.- APROXIMACIOIN DE LA DISTRIBUCION BINOMIAL A LA NORMAL
Distribuciones y Probabilidad
Distribuciones Discretas
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Variables Aleatorias Unidimensionales
Probabilidad. Variables aleatorias.
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Distribuciones derivadas del muestreo
Teoría de Probabilidad
DISTRIBUCIONES DE MUESTREO
MODELOS PROBABILÍSTICOS
Unidad III: Distribuciones Especiales
Distribuciones Continuas de Probabilidad
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
P y E 2012 Clase 7Gonzalo Perera1 Repaso de clase anterior Distribución Gaussiana, Cauchy, Uniforme y Exponencial.
ANALISIS DE FRECUENCIA EN HIDROLOGIA (3)
ESTADÍSTICAS DESCRIPTIVA
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
ESTIMACION POR INTERVALOS
Inferencia Estadística
Herramientas básicas.
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Repaso de clase anterior
Consignas Laboratorio III. ► Ejercicio 1 ► Al tirar un dado se obtiene la realización de una variable aleatoria discreta independiente con valores posibles:
P Y E 2012 Clase 11Gonzalo Perera1 Repaso de clase anterior Fórmula del bloqueo de Erlang. LFGN y el problema de la Robustez.
P y E 2012 Clase 6Gonzalo Perera1 Repaso de clase anterior Distribución de Poisson como aproximación de la Bin(n,p) cuando n es muy grande y p es muy chico.
Teoría de Probabilidad Dr. Salvador García Lumbreras
Sesión 10: Variable Aleatoria
ANÁLISIS E INTREPRETACIÓN DE DATOS
Repaso de clase anterior
Distribuciones probabilísticas discretas
P y E 2012 Clase 6Gonzalo Perera1 Repaso de clase anterior Distribución de Poisson como aproximación de la Bin(n,p) cuando n es muy grande y p es muy chico.
Medidas de Dispersión.
P y E 2012 Clase 5Gonzalo Perera1 Repaso de clase anterior Distribución Binomial (Bin(n,p)) e Hipergeométrica como conteo de artículos defectuosos en muestras.
Elementos Básicos de Probabilidad y Estadística
P y E 2012 Clase 5Gonzalo Perera1 Repaso de clase anterior Distribución Binomial (Bin(n,p)) e Hipergeométrica como conteo de artículos defectuosos en muestras.
DISTRIBUCIÓN DE POISSON
P Y E 2004 Clase 19Gonzalo Perera1 Propiedades generales del p-valor Repaso de la clase anterior. Tests de aleatoriedad Estadística de datos dependientes.
ESTIMACIÓN DE PARÁMETROS
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
Distribuciones de Probabilidad
P y E 2012 Clase 14 Gonzalo Perera 1 Repaso de clase anterior Estimación de parámetros por el método de Máxima Verosimilitud.
P y E 2014 Clase 4Gonzalo Perera1 Repaso de clase anterior Probabilidad condicional, independencia de sucesos. Distribución Binomial e Hipergeométrica.
Inferencia Estadística Conceptos Previos. Conceptos Previos Población: Es la colección de toda la posible información que caracteriza a un fenómeno aleatorio.
Clase N°11 Métodos de reducción de varianza
INFERENCIA ESTADÍSTICA
REGRESIÓN LINEAL SIMPLE
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Cálculo de área por medio de la sumas de Riemann Alumnas: Maciel Gisella, Uliambre Sabrina Profesora: Nancy Debárbora Curso: 3er año del prof. En matemáticas.
Medidas de tendencia central
Transcripción de la presentación:

P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.

P y E 2012 Clase 15Gonzalo Perera2 5. El Teorema Central del Límite. Para una variable X con valor esperado finito, su varianza es Var(X) = E{(X-E(X)) 2 } = E(X 2 )-(E(X) 2 ) La varianza es una medida de dispersión.

P y E 2012 Clase 15Gonzalo Perera3 En efecto, una aplicación de la Ley Fuerte de los Grandes Números muestra que si X 1,..., X n iid con varianza finita σ 2, entonces, si  X n = (X X n )/n, σ 2 n = ((X 1 -  X n ) (X n -  X n ) 2 ) / n, se tiene que, para n tendiendo a infinito, σ 2 n tiende a σ 2.

P y E 2012 Clase 15Gonzalo Perera4 Observaciones a partir de las propiedades de esperanza y varianza. a) Si X1,..., Xn iid con esperanza μ y varianza finita σ 2, entonces, si  X n = (X X n ) / n, Se tiene que: E(  X n ) = μ, Var(  X n ) = σ 2 /n.

P y E 2012 Clase 15Gonzalo Perera5 Observaciones a partir de las propiedades de esperanza y varianza. b) Si X VA con varianza positiva y finita y Z=(X-E(X))( Var(X)(-1/2) ), entonces E(Z)=0, Var(Z)=1 (Pero, obviamente Z puede no tener nada que ver con la N(0,1)!!)

P y E 2012 Clase 15Gonzalo Perera6 Lo que dice el Teorema Central del Límite (TCL) es que: Si X1,..., Xn iid con esperanza μ y varianza finita σ 2, y si  X n = (X X n )/n, entonces, para n grande, la distribución de √n (  X n - μ)/ σ se puede aproximar por una N(0,1).

P y E 2012 Clase 15Gonzalo Perera7 Ejemplo: tomemos X 1,..., X 12 iid con distribución U[0,1], en las que (verificarlo como ejercicio!) μ=1/2 y σ2=1/12, por lo que √n (  X n - μ)/ σ= X X 12 – 6 y comparemos las probabilidades empíricas (frecuencias) con las de la N(0,1)

P y E 2012 Clase 15Gonzalo Perera8 Es decir, tomamos muchas muestras de 12 datos iid con distribución U[0,1], en cada una de ellas calculamos √n (  X n - μ) / σ y nos fijamos con qué frecuencia obtenemos valores dentro de determinados intervalos, comparando estas frecuencias con las probabilidades que la N(0,1) asigna a dichos intervalos.

P y E 2012 Clase 15Gonzalo Perera9 Obtenemos la siguiente comparación: Hay una muy marcada coincidencia!!

P y E 2012 Clase 15Gonzalo Perera10 Primera utilidad del TCL (aproximación de algunas distribuciones conocidas ). En el cálculo realizado del IdC para el parámetro p de una Binomial, se usó el siguiente resultado: Si X 1,...,X n iid con distribución Ber(p), entonces para n grande, la distribución de √n (M n - p) se aproxima a una N(0, p(1-p)). Teniendo en cuenta que X X n tiene distribución Bin(n,p) y que M n =(X X n )/n, se deduce entonces la siguiente aproximación: Si n grande y p no muy pequeño y no muy cercano a 1, la distribución Bin(n,p) se puede aproximar por una N(np,np(1-p))

P y E 2012 Clase 15Gonzalo Perera11 Observación: Al aproximar una distribución discreta por una continua (en el caso, la Binomial por la gaussiana) se tiene el problema que para la continua los puntos tienen probabilidad cero, por lo que si se aproxima la probabilidad de cualquier valor particular, la aproximación sería cero!!! La corrección por continuidad indica como subsanar este inconveniente: Si por ejemplo se tiene una VA X con distribución Bin(n,p) y se desea aproximar P(X=k), observando que P(X=k)= P(k-1/2 < X  k+1/2), la corrección por continuidad consiste en aproximar ésta última probabilidad por la gaussiana y utilizarlo como aproximación de P(X=k).

P y E 2012 Clase 15Gonzalo Perera12 Veamos ahora qué tan buena es la aproximación gaussiana a la Binomial, en un sencillo ejemplo. * Lanzamos un dado equilibrado 30 veces de manera independiente, y contamos el número de veces que sale el seis: esta VA obviamente responde a una distribución Bin(30, 1/6). Primero observamos la frecuencia de cada uno de los resultados posibles (0, 1, 2,...., 30) en la realización de 5000 series de 30 lanzamientos independientes de un dado equilibrado (estos experimentos fueron en realidad simulados, utilizando el llamado método de Monte Carlo que veremos un poco más adelante); a estas estimaciones a partir de los experimentos referimos como “distribución empírica”. Y por otro lado calculamos las mismas probabilidades a partir de la N(5, 25/6).

P y E 2012 Clase 15Gonzalo Perera13 La siguiente gráfica muestra la anterior comparación. Se observa una razonable concordancia.

P y E 2012 Clase 15Gonzalo Perera14 Comparemos ahora el cálculo exacto de las probabilidades de los diversos resultados a partir de la Bin(30, 1/6) con la aproximación gaussiana. Dan valores muy similares!

P y E 2012 Clase 15Gonzalo Perera15 Finalmente grafiquemos la función de distribución de la Bin(30,1/6) y la de la gaussiana aproximante N(5, 25/6).

P y E 2012 Clase 15Gonzalo Perera16 Otras distribuciones conocidas como la Poisson, la Binomial Negativa y la Chi- cuadrado pueden ser aproximadas por gaussianas en ciertas condiciones. Referimos al texto por los detalles al respecto.