La ley de los grandes números

Slides:



Advertisements
Presentaciones similares
el 1, el 4 y el 9 tres cuadrados perfectos autosuficientes
Advertisements

DSITRIBUCION T DE STUDENT.
ESTIMACIÓN DE DENSIDAD
Introducción a la Estadística
Estadística I. Finanzas Y Contabilidad
Las distribuciones binomial y normal.
Estadística Unidad III
Descripción de los datos: medidas de dispersión
Medidas de Posición Central:
Ejemplo A continuación aparecen las tasas de retorno de dos fondos de inversión durante los últimos 10 años. 1. ¿Cuál es más riesgoso? 2. ¿En cuál invertiría.
Unidad de competencia II Estadística descriptiva:
Unidad de competencia II Estadística descriptiva:
Capítulo 4 Otras medidas descriptivas
Capítulo 3 Descripción de datos, medidas de tendencia central
Unidad 1: Funciones, Límite y Continuidad
Estadística Administrativa I
Variable Aleatoria Continua. Principales Distribuciones
Muestras aleatorias. Distribuciones en el muestreo.
Generación de Números Seudo-Aleatorios
Distribuciones de probabilidad bidimensionales o conjuntas
8. Distribuciones continuas
Matemáticas aplicadas a las CCSS II Ana Pola IES Avempace
} LISSET BÁRCENAS MONTERROZA
Exponentes Racionales y Radicales
Dra. Sandra Gutiérrez Complementos en Investigación de Operaciones
Tema 6 La demanda del mercado.
La minimización de los costes
Introducción al tema El único método científico para validar conclusiones sobre un grupo de individuos a partir de la información que nos proporciona un.
Procesos Estocásticos
Capítulo 5 Método de MonteCarlo
Introducción a las Señales Aleatorias ISAL
8.3.- APROXIMACIOIN DE LA DISTRIBUCION BINOMIAL A LA NORMAL
Tema 5: Modelos probabilísticos
Estimación por intervalos de confianza.
Lanzamiento de un dado Supongamos que lanzamos un dado sobre la mesa.
CULENDARIO 2007 Para los Patanes.
La transformada de Laplace
Ecuaciones diferenciales de 1er orden :
1.2 Variables aleatorias..
Variables Aleatoria Continua
Índice Estadística Aplicada Unidad II: Probabilidades
ESTADÍSTICA INFERENCIAL I
Sistemas de Ecuaciones lineales
Capital Asset Pricing Model (CAPM)
Distribución muestral de la Media
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Universidad Mexicana en Línea Carrera: Administración Pública Asignatura: Estadística Tutor: Leonardo Olmedo Alumno: Alfredo Camacho Cordero Matrícula:
PROBABILIDAD Y ESTADISTICA
Distribuciones y Probabilidad
Distribución Normal.
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Variables Aleatorias Unidimensionales
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Tema 6: Modelos probabilísticos
DISTRIBUCIÓN NORMAL La mayoría de las variables aleatorias que se presentan en los estudios relacionados con las ciencias sociales, físicas y biológicas,
DISTRIBUCIONES DE MUESTREO
Unidad V: Estimación de
Distribuciones Continuas de Probabilidad
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Función Densidad Continua (o distribución de probabilidad continua)
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Teoría de Probabilidad Dr. Salvador García Lumbreras
Tema 6: Distribuciones estadísticas
Estimación y contraste de hipótesis
ESTIMACIÓN DE PARÁMETROS
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
Distribuciones de Probabilidad
P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.
INFERENCIA ESTADÍSTICA
Transcripción de la presentación:

La ley de los grandes números "El indicio de que las cosas estaban saliéndose de su cauce normal vino una tarde de finales de la década de 1940. Simplemente lo que pasó fue que entre las siete y las nueve de aquella tarde el puente de Triborough tuvo la concentración de tráfico saliente más elevada de su historia". Comienzo del relato corto "La Ley" de Robert M. Coates

Suma de variables aleatorias discretas Supongamos que X e Y son dos variables aleatorias discretas e independientes con funciones de distribución p1(x) y p2(y) respectivamente. Sea Z = X + Y, ¿cómo será la función de distribución de Z, p3(z)? Puesto que el evento Z = z es la unión del par de eventos disjuntos: (X = k) e (Y = z - k), tendremos: Decimos que p3(x) es la convolución de p1(x) y p2(x): p3(x) = p1(x) * p2(x)

Convolución La convolución es una operación conmutativa y asociativa. Visto lo visto, es "fácil" demostrar por inducción cómo será la suma de n variables aleatorias independientes: teniendo en cuenta que:

Veamos un ejemplo: Supongamos que lanzamos un dado dos veces. Sea el resultado del primer lanzamiento la variable aleatoria X1 y del segundo, la variable aleatoria X2 , ambas con la misma distribución de probabilidad que llamaremos m(x). Calculemos la función de distribución de probabilidad para S2 = X1 + X2. (....)

Si quisiéramos calcular S3 = X1 + X2 + X3 , tendríamos: (...) Este es el resultado gráfico para la suma S10 de 10 dados.

Y estos son los resultados gráficos para las sumas S20 y S30 de 20 y 30 dados, respectivamente. Observemos que, a medida que aumenta el número de dados, tenemos una curva que se aproxima más y más a una campana de Gauss, a una normal. Veremos por qué más adelante, cuando hablemos del teorema central del límite.

Suma de variables aleatorias continuas Si X e Y son dos variables aleatorias continuas e independientes con funciones densidad de probabilidad f(x) y g(x) respectivamente, la variable aleatoria Z = X + Y, tendrá como densidad de probabilidad la convolución de f y g:

Suma de dos variables aleatorias uniformes independientes Dos distribuciones uniformes U(0,1). Obtenemos la densidad de probabilidad de la suma de las dos variables por convolución de sus densidades.

Observa que, como X e Y varían entre 0 y 1, su suma Z variará entre 0 y 2.

Convolución de dos densidades de probabilidad uniformes U(0,1).

Suma de dos variables aleatorias exponenciales independientes Dos densidades de probabilidad exponenciales Exp(λ). Obtenemos la densidad de probabilidad de la suma de las dos variables por convolución de sus densidades.

Convolución de dos densidades de probabilidad exponenciales Exp(λ).

Suma de dos variables aleatorias normales independientes Dos densidades de probabilidad normales tipificadas N(0,1).

Obtenemos la densidad de probabilidad de la suma de las dos variables por convolución de sus densidades. Normalización de N(0, √2) El resultado es una normal de media 0 y varianza 2, N(0,2)

Suma de n variables aleatorias independientes Teniendo en cuenta que: Y que: Tendremos para n variables aleatorias independientes: Recuerda que la convolución es una operación conmutativa y asociativa.

Suma de n uniformes

Suma de n normales

Suma de n exponenciales

Teorema central del límite En condiciones muy generales la suma de n variables aleatorias , independientes e idénticamente distribuidas con media μ y varianza distinta de cero σ2, tiende a la distribución normal a medida que n tiende a infinito. Otra manera de enunciarlo: bajo las mismas condiciones, si n es suficientemente grande se distribuye como una normal N(μ, σ2/n)

Desigualdad de Chebyshev (1821-1894) Una varianza pequeña indica que las desviaciones grandes alrededor de la media son improbables. La desigualdad de Chebyshev hace precisa esta impresión: O bien, haciendo: Pafnuti Lvovic Cebicev (1821-1894)

Demostración: Para el caso discreto la demostración es semejante.

Ley de los grandes números (en forma débil) Sean X1, X2, ..., Xn variables aleatorias independientes, con la misma distribución (misma media μ y varianza σ2). Entonces, para Sn = X1 + X2 + ... + Xn y cualquier real  > 0: «La frase "ley de los grandes números" es también usada ocasionalmente para referirse al principio de que la probabilidad de que cualquier evento posible (incluso uno improbable) ocurra al menos una vez en una serie, incrementa con el número de eventos en la serie. Por ejemplo, la probabilidad de que un individuo gane la lotería es bastante baja; sin embargo, la probabilidad de que alguien gane la lotería es bastante alta, suponiendo que suficientes personas comprasen boletos de lotería». Wikipedia

Demostración: Usando la desigualdad de Chebyshev y fijado un épsilón:

Observa que Sn/n es un promedio y por eso a la ley de los grandes números suele conocerse también como ley de los promedios. Hemos visto su "forma débil". En su "forma fuerte" nos dice que si repetimos el lanzamiento de una moneda, la proporción de caras se aproxima más y más a 1/2 a medida que aumentamos el número de lanzamientos. Si Sn es el número de caras en n lanzamientos, la ley fuerte de los grandes números dice que cuando n tiende a infinito:

Distribuciones para el número de caras en n lanzamientos de una moneda. La ley de los grandes números predice que el porcentaje de caras para n grande estará próximo a 1/2. En las gráficas se ha marcado con puntos las probabilidades comprendidas entre 0.45 y 0.55. Vemos como a medida que n crece la distribución se concentra más y más alrededor de 0.5 y el porcentaje de área correspondiente al intervalo (0.45, 0.55) se hace más y más grande.

Supongamos que tomamos al azar n números del intervalo [0,1] con una distribución uniforme. Si la variable aleatoria Xi describe la elección i-ésima, tenemos: De modo que, para cualquier  > 0, tendremos: Es decir, si escogemos al azar n números del intervalo [0,1], las probabilidades son mejores que 1 - 1/(12n2) de que la diferencia |Sn/n - 1/2| sea menor que .

Gráficos semejantes al caso del lanzamiento de n monedas anterior, pero ahora con la suma de n valores independientes tomados de una U(0,1). Rigen los mismos comentarios.

Una aplicación al Método de Monte Carlo Sea g(x) una función continua definida en el intervalo [0,1] y con imagen en [0,1]. Vimos cómo estimar el área bajo la función, su integral, generando pares de números (x,y) al azar. Existe una forma más eficiente de calcular la integral basándose en la ley de los grandes números.

Escojamos una gran cantidad de números Xn al azar del intervalo [0,1] con densidad uniforme. Definamos Yn = g (Xn). El valor esperado de Yn es una estimación del área. Como el dominio y la imagen de g(x) son el intervalo [0,1], la media μ estará en [0,1] también y |g(x)- μ| ≤ 1. Que podemos leer como: la diferencia entre el área estimada y la real, el error que cometemos, es mayor que épsilon con probabilidad 1/n2.