5. Distribuciones discretas

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Álgebra 2010 Clase N° 2 Conjuntos numéricos II
Conocimiento, Uso y Evaluación de Medicamentos Genéricos
Los números del 0 al cero uno dos tres cuatro cinco 6 7 8
La mediana La mediana es el valor tal que el 50 % de las observaciones son menores y 50 % de ellas son mayores a dicho valor. En otra palabras, la mediana.
Noviembre 2007Estudio Rostros de Noticias 2007Collect-GfKWikén Estudio Rostros de Noticias de la TV Chilena Desarrollados para Revista Wikén El Mercurio.
Curso de Bioestadística Parte 14 Análisis de datos binarios pareados
1 LA UTILIZACION DE LAS TIC EN LAS MICROEMPRESAS GALLEGAS. AÑO mayo 2005.
1 LA UTILIZACION DE LAS TIC EN LAS PYMES GALLEGAS AÑO de Junio de 2005.
Tema 13. Inferencia estadística Principales conceptos. Muestreo
TEMA 2 MÚLTIPLOS Y DIVISORES
02- Plan Organización Docente v.2 Noviembre 2009 SIES – SISTEMA INTEGRADO DE EDUCACIÓN SUPERIOR.
Estadística I. Finanzas Y Contabilidad
Aladdín-respuestas 1.Vivía 2.Era 3.Amaba 4.Quería 5.Gustaban 6.Se sentía 7.Salía 8.Tenía 9.Decidió 10.escapó 11. Se vistió 12. Conoció 13. Vio 14. Pensó
Respuestas Buscando a Nemo.
SIMULACIÓN DE MONTECARLO
Las distribuciones binomial y normal.
MuestraMétodo a prueba Nominal Ejercicio 1. ¿Es exacto el método?
Objetivo: Los estudiantes van a usar vocabulario del desayuno para comprender un cuento. Práctica: 1. ¿Te gusta comer? 2. ¿Te gusta beber Mt. Dew.
Estadística Unidad III
Mulán /75 puntos. 1.Querían 2.Gustaban 3.Escuchó 4.Dijo 5.Tenía 6.Ayudaron 7.Maquillaron 8.Arreglaron 9.Dio 10.Estaba 11.Iba 12.Quería 13.Salió 14.Gritó
Ejemplo A continuación aparecen las tasas de retorno de dos fondos de inversión durante los últimos 10 años. 1. ¿Cuál es más riesgoso? 2. ¿En cuál invertiría.
Unidad de competencia II Estadística descriptiva:
Unidad de competencia II Estadística descriptiva:
Capítulo 3 Descripción de datos, medidas de tendencia central
5. Distribuciones discretas
Generación de Números Seudo-Aleatorios
William Shakespeare ( greg.), fue un dramaturgo, poeta y actor inglés. Conocido en ocasiones como el Bardo de Avon (o.
Distribuciones de probabilidad bidimensionales o conjuntas
Estimación de parámetros poblacionales
DEPARTAMENTO ADMINISTRATIVO NACIONAL DE ESTADISTICA5 Libertad y Orden DEPARTAMENTO ADMINISTRATIVO NACIONAL DE ESTADISTICA CENSO GENERAL 2005 REPÚBLICA.
Grupo de Sequía del Servicio Meteorológico Nacional
8. Distribuciones continuas
Evolución Tasas de Interés Promedio del Sistema Financiero *
Parte 3. Descripción del código de una función 1.
Vocabulario querer comerlo -paja por supuesto - madera
Sistemas de Ecuaciones
Tema 1.- Aritmética. 1.-Usar el algoritmo de Euclides para calcular el máximo común divisor de a y b y expresarlo en función de a y b para: a) a= 56,
Distribuciones de Probabilidad Conceptos relacionados
FUNCIONES DE UNA VARIABLE REAL
DISTRIBUCIONES DISCRETAS DE PROBABILIDAD
Binomial Poisson Hipergeométrico Modelos Discretos
Profr. Ricardo A. Castro Rico
Ecuaciones Cuadráticas
¡Primero mira fijo a la bruja!
Introducción a las Señales Aleatorias ISAL
Introducción a las Señales Aleatorias ISAL
La ley de los grandes números
¿Qué es un conjunto? Un conjunto es una colección de objetos considerada como un todo. Los objetos de un conjunto son llamados elementos o miembros del.
4. 0 DISTRIBUCIONES DISCRETAS DE PROBABILIDAD 4
CONSTRUCCIONES - 2 Construcciones, divisiones, transposiciones, ... con palillos, cerillas, monedas, triángulos, cuadrados, trapecios, polígonos, etc.
CONSTRUCCIONES - 2 Construcciones, divisiones, transposiciones, ... con palillos, cerillas, monedas, triángulos, cuadrados, trapecios, polígonos, etc.
0 1 ¿Qué hora es? By: Craig Tillmann Revised by: Malinda Seger Coppell High School Coppell, TX.
By: Nicholas, Rayna, Nathaniel, Calvin
Los números. Del 0 al 100.
Probabilidad Escriba su nombre Estándar: Probabilidad y Estadística.
PUNTOS IMPORTANTES TOMADOS EN CUENTA EN ESTE MODELO DE ENSEÑANZA
Introducción Media y varianza poblacional Sea
uno cero dos seis siete nueve Los Números DIEZ cinco ocho tres
Los Numeros.
SUCESIONES Y PROGRESIONES.
1 M. en C. Gal Vargas Neri. ESTADISTICA I CSH, Tema III TEMARIO.
1 8 de febrero del Chapter 5 Encoding 3 Figure 5-1 Different Conversion Schemes.
ESTADIGRAFOS DE DISPERSION
Herramienta FRAX Expositor: Boris Inturias.
Licenciatura en Administración Pública
Teoría de Probabilidad Dr. Salvador García Lumbreras
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
1 Distribución de Poisson Cuando en una distribución binomial el número de intentos (n) es grande y la probabilidad de éxito (p) es pequeña, la distribución.
Transcripción de la presentación:

5. Distribuciones discretas ¿Qué tal van las clases, Bartolo? Me pregunta mi barbero. Bien... Dando probabilidad y estadística... Respondo. ¡Ah! Probabilidad... Yo suelo jugar a la lotería... Dice mientras me pasa la cuchilla. Cuando compro un número, tal y como yo lo veo, hay dos posibilidades: ganar o perder. De modo que tengo un 50% de probabilidad de ganar y un 50% de perder. -¡Muy bien, Ricardo! Respondo, mientras pienso que no es bueno contradecir a nadie que tenga una navaja en mi cuello...

Distribución de Bernoulli Experimento de Bernoulli: solo son posibles dos resultados: éxito o fracaso. Podemos definir una variable aleatoria discreta X tal que: éxito  1 fracaso  0 Si la probabilidad de éxito es p y la de fracaso 1 - p, podemos construir una función de probabilidad: Un típico experimento de Bernoulli es el lanzamiento de una moneda con probabilidad p para cara y (1-p) para cruz.

Función de distribución:

Ejercicio: Calcular la esperanza y la varianza de la distribución de Bernoulli.

Distribución binomial La distribución binomial aparece cuando estamos interesados en el número de veces que un suceso A ocurre (éxitos) en n intentos independientes de un experimento. P. ej.: # de caras en n lanzamientos de una moneda. Si A tiene probabilidad p (probabilidad de éxito) en un intento, entonces 1-p es la probabilidad de que A no ocurra (probabilidad de fracaso).

Experimento aleatorio: n = 3 lanzamientos de una moneda. Probabilidad de éxito en cada lanzamiento (cara) = p. Probabilidad de fracaso en cada lanzamiento (cruz) = 1- p = q.

X = Número de veces que ocurre A. Supongamos que el experimento consta de n intentos y definamos la variable aleatoria: X = Número de veces que ocurre A. En nuestro ejemplo: X = Número de veces que sale cara. Entonces X puede tomar los valores 0, 1, 2, ... n. Si consideramos uno de estos valores, digamos el valor x , i.e. en x de los n intentos ocurre A y en n - x no. Entonces la probabilidad de cada posible ordenación es pxqn-x y existen idénticas ordenaciones.

la distribución binomial: La función de probabilidad P(X = x) será la distribución binomial: Distribución binomial para n = 5 y distintos valores de p, B(5, p)

Tablero de Galton o quincunx Sir Francis Galton (1822-1911) Quincunx

Ejercicio: ¿Cuál es la probabilidad de que en una familia de 4 hijos exactamente 2 sean niñas?

Ejercicio: Si una décima parte de personas tiene cierto grupo sanguíneo, ¿cuál es la probabilidad de que entre 100 personas escogidas al azar exactamente 8 de ellas pertenezcan a este grupo sanguíneo?

¿Y si la pregunta es 8 como máximo?

Calcula la probabilidad de obtener al menos dos seises al lanzar un dado cuatro veces. p = 1/6, q = 5/6, n = 4 Al menos dos seises, implica que nos valen k = 2, 3, 4. P(2) + P(3) + P (4)

Ejercicio: Supongamos que la probabilidad de encontrar una estrella de masa m* >10 M en un cúmulo estelar joven es del 4%. ¿Cuál es la probabilidad de que en una muestra escogida al azar, entre 10 miembros del cúmulo encontremos 3 estrellas con m* >10 M?

Chuck-a-luck: Elige un número entre 1 y 6. Lanzas 3 dados. Si el número que has elegido sale en los 3 dados cobras 3 euros. Si sale en 2 cobras 2 euros. Si sale en un dado cobras 1 euro. Y si no sale en ninguno, pagas 1 euro. ¿Es un juego justo?

Características de la distribución binomial Media = E(X) = n p = 5 · 0.1 = 0.5 = 5 · 0.5 = 0.25 n = 5 p = 0.1 P(X) .6 .4 .2 X 1 2 3 4 5 Desviación estándar n = 5 p = 0.5 P(X) .6 .4 .2 X 1 2 3 4 5

Distribución multinomial Cuando hay más de dos acontecimientos posibles (A1, A2, A3 ...) con probabilidades p1 , p2 , p3 ... constantes y tales que:

Un método de diagnóstico tiene 3 resultados posibles: positivo (P), negativo (N) y dudoso (D). Se sabe que, en la población, el 10% de los sujetos son positivos, el 70% negativos y el resto dudosos. ¿Qué probabilidad hay de, en una muestra de 5 individuos, obtener exactamente 1 positivo, 1 negativo y 3 dudosos ?

Distribución geométrica Consideremos el siguiente experimento: Partimos de un experimento de Bernoulli donde la probabilidad de que ocurra un suceso es p (éxito) y la probabilidad de que no ocurra q = 1- p (fracaso). Repetimos nuestro experimento hasta conseguir el primer éxito. Definimos la variable aleatoria X, como el número de fracasos hasta que se obtiene el primer éxito. Entonces:

p(x) x Función de distribución:

¿Cómo simular de manera sencilla en el ordenador una variable aleatoria binomial X? Sumando n variables aleatorias independientes cuyos valores pueden ser 1 o 0, con probabilidad p y 1-p respectivamente. ¿Y cómo simular una distribución geométrica de parámetro p? Una manera es generar una secuencia de números aleatorios en [0, 1) con la función rnd, y paramos cuando obtengamos un número que no exceda a p, que es el equivalente al primer éxito. El problema es que si p es pequeño, en promedio se necesitan 1/p pasos de tiempo y se consume mucho tiempo de cómputo.

Una forma alternativa con tiempo de cómputo independiente del valor de p sería: Sea q = 1-p y definamos la variable Y como el menor entero que satisface: Entonces tenemos: De modo que Y está distribuida geométricamente con parámetro p.

Para generar Y, basta con que despejemos de:

Un acontecimiento ocurre, en la población, en el 10% de los casos Un acontecimiento ocurre, en la población, en el 10% de los casos. ¿Qué tamaño de muestra debo tomar para tener una probabilidad del 95% de obtener al menos un éxito ?

Distribución binomial negativa (de Pascal o de Pólya) Consideremos el siguiente experimento: Partimos de un experimento de Bernoulli donde la probabilidad de que ocurra un suceso es p (éxito) y la probabilidad de que no ocurra q = 1- p (fracaso). Repetimos nuestro experimento hasta conseguir el r-ésimo éxito. Definimos la variable aleatoria X, como el número de fracasos x hasta que se obtiene el r-ésimo éxito. Entonces: El último tiene que ser un éxito. Se denomina binomial negativa porque los coeficiente provienen de la serie binomial negativa:

Distribución binomial negativa (de Pascal o de Pólya) La distribución binomial negativa también se puede definir como el número de pruebas x hasta la aparición de r éxitos. Como el número de pruebas x, en este caso, contabiliza tanto los éxitos como los fracasos se tendría según ésta definición que:

Disponemos de una moneda trucada con probabilidad de cara igual a p=0.25. La lanzamos hasta que obtenemos 2 caras. La distribución del número de lanzamientos x será: P(x) x

Elegir al azar con reemplazo Elegir al azar con reemplazo significa que escogemos al azar un elemento de un conjunto y lo regresamos para elegir de nuevo al azar. Esto garantiza la independencia de las elecciones y nos lleva a una distribución binomial. Si una caja contiene N bolas de las cuales A son rojas, entonces la probabilidad de escoger al azar una bola roja es: p = A/N. Si repetimos el experimento sacando n bolas con reemplazo la probabilidad de que x sean rojas es: (Una distribución binomial)

Elegir al azar sin reemplazo Elegir al azar sin reemplazo significa que no devolvemos el elemento elegido al azar al conjunto. De modo que las probabilidades de la siguiente elección dependen de las anteriores. Si repetimos el experimento anterior sacando n bolas sin reemplazo, ¿cuál será ahora la probabilidad de que x sean rojas? Para calcular los casos favorables observa que: N = A + (N – A). De las A bolas rojas tomaremos x y de las N – A bolas no rojas tomaremos n – x.

Distribución hipergeométrica

Queremos seleccionar al azar dos bolas de una caja que contiene 10 bolas, tres de las cuales son rojas. Encuentra la función de probabilidad de la variable aleatoria : X = Número de bolas rojas en cada elección (con y sin reemplazo). Tenemos N = 10, A = 3, N - A = 7, n = 2 Escogemos con reemplazo: Escogemos sin reemplazo:

La distribución binomial es una aproximación aceptable a la Hipergeométrica Binomial N = 24 n = 5 X = 8 p = 8/24 =1/3 Observa que si N, A, N-A son grandes comparados con n no hay gran diferencia en qué distribución empleemos. La distribución binomial es una aproximación aceptable a la hipergeométrica si n < 5% de N. n = 5 Error x P(x) P(x) 0.1028 0.1317 -0.0289 1 0.3426 0.3292 0.0133 2 0.3689 0.3292 0.0397 3 0.1581 0.1646 -0.0065 4 0.0264 0.0412 -0.0148 5 0.0013 0.0041 -0.0028 N = 240 n = 5 X = 80 p = 80/240 =1/3 n = 5 x P(x) P(x) Error 0.1289 0.1317 -0.0028 1 0.3306 0.3292 0.0014 2 0.3327 0.3292 0.0035 3 0.1642 0.1646 -0.0004 4 0.0398 0.0412 -0.0014 5 0.0038 0.0041 -0.0003 30

Distribución de Poisson Cuando en una distribución binomial el número de intentos (n) es grande y la probabilidad de éxito (p) es pequeña, la distribución binomial converge a la distribución de Poisson: donde np =  Observa que si p es pequeña, el éxito es un “suceso raro”. La distribución de Poisson, junto con la uniforme y la binomial, son las distribuciones más utilizadas.

Un proceso poissoniano es aquél compuesto de eventos discretos que son independientes en el espacio y/o en el tiempo. Por ejemplo la llegada de fotones a un detector. Usemos la distribución binomial para modelar el proceso. Podemos dividir el intervalo de tiempo en el que ocurre el proceso en n subintervalos suficientemente pequeños, como para asegurarnos que a lo sumo se produce un evento en cada subintervalo. De modo que en cada subintervalo, o se producen 0 o 1 ocurrencias. A lo sumo llega un fotón en cada subintervalo o ninguno. De modo que podemos entender el proceso como un experimento de Bernoulli. Para determinar p, podemos razonar de la siguiente manera:

En promedio se producirán λt ocurrencias en un intervalo de tiempo t. Si este intervalo se divide en n subintervalos, entonces esperaríamos en promedio (usando Bernoulli): np ocurrencias. Así: λt = np, p = λt / n. Sin pérdida de generalidad supongamos que t = 1 y que X es la variable aleatoria = número total de ocurrencias. Sabemos que: Observa que para n grande P(X = 0) es aproximadamente e-λ. Además para n grande (y por tanto p muy pequeño):

Tenemos entonces la siguiente ecuación iterada: Que nos proporciona:

Bombas sobre Londres en la II Guerra Mundial (Feller) Supón que vivías en uno de los 100 bloques que aparecen en la gráfica inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100. Como cayeron 400 bombas, podemos entender el número de impactos en tu bloque como el número de éxitos en un experimento de Bernoulli con n = 400 y p = 1/100. Podemos usar una Poisson con λ=400 1/100=4: 400 bombas Observado Predicho 10 x 10

Características de la distribución de Poisson Media = 0.5 P(X)   E ( X )   .6 .4 .2 X Desviación estándar 1 2 3 4 5    = 6 P(X) .6 .4 Nota: el máximo de la distribución se encuentra en x   .2 X 2 4 6 8 10

La distribución de Poisson se obtiene como aproximación de una distribución binomial con la misma media, para ‘n grande’ (n > 30) y ‘p pequeño’ (p < 0,1). Queda caracterizada por un único parámetro μ (que es a su vez su media y varianza).  =  = n p =  Distribución de Poisson para varios valores de .

Si la probabilidad de fabricar un televisor defectuoso es p = 0.01, ¿cuál es la probabilidad de que en un lote de 100 televisores contenga más de 2 televisores defectuosos? La distribución binomial nos daría el resultado exacto: El suceso complementario Ac: No más de 2 televisores defectuosos puede aproximarse con una distribución de Poisson con  = np = 1, sumando p(0) + p(1) + p(2).

La señal promedio recibida en un telescopio de una fuente celeste es de 10 fotones por segundo. Calcular la probabilidad de recibir 7 fotones en un segundo dado. P(7) = 107 e−10 / 7! = 0.09, es decir 9% Parece muy baja. Comparemos con el valor de máxima probabilidad que ocurrirá para x = 10: μ = 10 P(10) = 1010 x e−10 / 10! = 0.125, es decir 12.5% Las probabilidades poissonianas para un número de eventos dado, son siempre pequeñas, incluso en el máximo de la distribución de probabilidad. Una distribución de Poisson con μ = 10.

Si en promedio, entran 2 coches por minuto en un garaje, ¿cuál es la probabilidad de que durante un minuto entren 4 o más coches? Si asumimos que un minuto puede dividirse en muchos intervalos cortos de tiempo independientes y que la probabilidad de que un coche entre en uno de esos intervalos es p – que para un intervalo pequeño será también pequeño – podemos aproximar la distribución a una Poisson con  = np = 2. y la respuesta es 1 – 0.857 = 0.143 El suceso complementario “entran 3 coches o menos” tiene probabilidad:

Ley de Benford

Primer dígito significativo 299.959 0,0174 1,74 ·10-2 [1,74] = 1 2,99959 ·105 [2,99959] = 2

Las barras negras representan las frecuencias de aparición como primer dígito significativo (d = 1,2,3,...,9) en una lista de N = 201 constantes físicas.

Leading digit Probability 1 30.1 % 2 17.6 % 3 12.5 % 4 9.7 % 5 7.9 % 6 6.7 % 7 5.8 % 8 5.1 % 9 4.6 % En barras blancas aparecen las frecuencias de aparición como primer dígito de los números 1 a 9 en el tamaño en bytes de N = 1.295.777 ficheros.

Simon Newcomb (1835-1909). Note on the frequency of use of the different digits in natural numbers. Amer. J. Math. 4 (1881) 39-40.

Frank Benford The law of anomalous numbers. Proc. Am. Philos. Soc. Title 1 2 3 4 5 6 7 8 9 Sampls Rivers, Area 31.0 16.4 10.7 11.3 7.2 8.6 5.5 4.2 5.1 335 Population 33.9 20.4 14.2 8.1 7.2 6.2 4.1 3.7 2.2 3259 Constants 41.3 14.4 4.8 8.6 10.6 5.8 1.0 2.9 10.6 104 Newspapers 30.0 18.0 12.0 10.0 8.0 6.0 6.0 5.0 5.0 100 Specific Heat 24.0 18.4 16.2 14.6 10.6 4.1 3.2 4.8 4.1 1389 Pressure 29.6 18.3 12.8 9.8 8.3 6.4 5.7 4.4 4.7 703 H.P. Lost 30.0 18.4 11.9 10.8 8.1 7.0 5.1 5.1 3.6 690 Mol. Wgt. 26.7 25.2 15.4 10.8 6.7 5.1 4.1 2.8 3.2 1800 Drainage 27.1 23.9 13.8 12.6 8.2 5.0 5.0 2.5 1.9 159 Atomic Wgt. 47.2 18.7 5.5 4.4 6.6 4.4 3.3 4.4 5.5 91       ,        25.7 20.3 9.7 6.8 6.6 6.8 7.2 8.0 8.9 5000 Design 26.8 14.8 14.3 7.5 8.3 8.4 7.0 7.3 5.6 560 Reader's Digest 33.4 18.5 12.4 7.5 7.1 6.5 5.5 4.9 4.2 308 Cost Data 32.4 18.8 10.1 10.1 9.8 5.5 4.7 5.5 3.1 741 X-Ray Volts 27.9 17.5 14.4 9.0 8.1 7.4 5.1 5.8 4.8 707 Am. League 32.7 17.6 12.6 9.8 7.4 6.4 4.9 5.6 3.0 1458 Blackbody 31.0 17.3 14.1 8.7 6.6 7.0 5.2 4.7 5.4 1165 Addresses 28.9 19.2 12.6 8.8 8.5 6.4 5.6 5.0 5.0 342 The law of anomalous numbers. Proc. Am. Philos. Soc. 78 (1938) 551-538.     ,              25.3 16.0 12.0 10.0 8.5 8.8 6.8 7.1 5.5 900 Death Rate 27.0 18.6 15.7 9.4 6.7 6.5 7.2 4.8 4.1 418 Average 30.6 18.5 12.4 9.4 8.0 6.4 5.1 4.9 4.7 1011 Probable Error

Las barras representan las frecuencias de aparición como primer dígito de los números 10 a 99 en los N = 1.295.777 ficheros medidos. La línea continua representa la ley de Benford generalizada para dos dígitos.

Invarianza de base y de escala en la densidad de probabilidad Theodore Hill Invarianza de escala Invarianza de base No toda lista de números que cumple la Ley de Benford proviene de una distribución invariante de escala. Pero seguro que es invariante de base.

Procesos multiplicativos

 = -1 5 décadas 5 décadas

Para una lista de números que siga una distribución de probabilidad en forma de ley de potencias N-1, tendremos que la probabilidad del primer dígito significativo es independiente de la década y sigue la ley de Benford: Normalizando:

The demonstration of Benford’s Law (and also for the distribution of the second digit) was done in 1996 by Professor Theodore Hill (School of Mathematics, Center for Applied Probability, Georgia Institute of Technology) in his article: “A Statistical Derivation of the Significant‐Digit law”. Hill later showed there was a kind of central limit theorem that applied to a wide variety of distributions--that combinations of distributions tend towards the distribution predicted by Benford’s law even when the original distributions do not [Hill1996].