La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Introducción a las Señales Aleatorias ISAL

Presentaciones similares


Presentación del tema: "Introducción a las Señales Aleatorias ISAL"— Transcripción de la presentación:

1 Introducción a las Señales Aleatorias ISAL
Capítulo 2: VARIABLE ALEATORIA Material de partida: Principios de probabilidad, variables aleatorias y señales aleatorias Peyton, Z. & Peebles, Jr. (Capítulo 2) Bartolo Luque Departamento Matemática Aplicada Y Estadística E.T.S.I. Aeronáuticos, UPM. Plaza Cardenal Cisneros, 3 Madrid 28040, Spain. Tf.:

2 Variable aleatoria -I  : Experimento aleatorio
: Espacio muestral (todos los resultados posibles) A cada elemento del espacio muestral w le asignamos un número real X(w) Una variable aleatoria X es una función que asocia a cada suceso del espacio muestral  de un experimento aleatorio un valor numérico real: Llamar variable a una función resulta algo confuso, por ello hay que insistir en que es una función. La variable aleatoria puede ser discreta, continua o mixta.

3 Elementos del espacio muestral Ley de correspondencia
Ejemplo de variable aleatoria discreta: Número de caras al lanzar 3 monedas. Elementos del espacio muestral C +C+ C CC+ C+C +CC CCC Ley de correspondencia Nº reales (# de caras) caras Establecer una variable aleatoria para un experimento aleatorio no es más que una manera de asignar de "manera natural" números a los eventos.

4 Variable aleatoria -II
Una variable aleatoria X es una función que aplica cada suceso del espacio muestral  en algún punto de la recta real. Más de un suceso puede aplicarse al mismo valor de X pero no puede ser multivaluada (todo punto de debe corresponder con un solo valor de X) Wx W Rango Dominio X(“cero caras”)=0 X(“una cara”)=1 X(“dos caras”)=2 X(“tres caras”)=3 Dominio : W ={“cero caras”,“una cara”,“dos caras”,“tres caras”} Rango : {0,1,2,3}

5 Variable aleatoria -III
Notación: variable aleatoria W,X,Y mayúscula, valores concretos, minúscula, w,x,y Condiciones para que una función sea una v.a.: Además de no ser multivaluada {X =< x} será un suceso para cualquier número real x (y podremos calcular su probabilidad-ver arriba-) Que las probabilidades de los sucesos {X=} y {X=- } sean igual a cero.

6 Variable aleatoria -IV
Formalización: < W ,F , P> espacio probabilístico ligado a  X: W  R w W  X(w)  R X es una variable aleatoria (v.a.) si y sólo si Nota: Una v.a. Compleja Z es de la forma Z=X + jY, con X, Y v.a’s reales definidas sobre el mismo W

7 Función de Distribución

8 Función de Distribución-I

9 Función de Distribución-II
Propiedades, algunas específicas derivadas del hecho de que FX(x) es una probabilidad

10 Función de Distribución-III
Propiedades 1,2 y 3 fáciles de demostrar, la 4 -> FX(x) no decreciente, y la 5....

11 Función de Distribución-IV
Propiedades 5

12 Función de Distribución-V
Variable aleatoria discreta: aquella cuya función de distribución es “escalonada” Ejemplo: Lanzamiento de dos dados, con v.a. X la suma de los dados rango Wx = {2,3,...,12} 1,0 0,5 0,028 FX(x) x

13 Función de Distribución-VI
Variable aleatoria discreta: Es suficiente conocer las xi y las pi para caracterizar probabilísticamente una v.a discreta La v.a. Sólo toma valores discretos: X discreta <=> Wx discreto Propiedades: x 1,0 0,5 0,028 FX(x)

14 Ej. v.a discreta sobre un espacio muestral infinito numerable, (N infinito) también podemos definir una función de densidad Ejemplo: Sea X = Número de lanzamientos de una moneda antes de que aparezca una cara. Entonces: P(X = 1) = P(C) = 1/ P(X = 2) = P(+C) = 1/2 . 1/2 = 1/ P(X = 3) = P(++C) = 1/2 . 1/2 . 1/2 = 1/8 ... y en general P(X = n) = (1/2)n, n = 1,2,…. Demuestra que está normalizada.

15 Función de Distribución-VII
Variable aleatoria continua: aquella cuya función de distribución es “continua” Propiedades: x 1,0 0,5 FX(x) Rango continuo

16 Función de Distribución-VIII
Variable aleatoria mixta: aquella cuya función de distribución es “discontinua” pero no escalonada (parte escalonada, parte continua) 1,0 0,5 FX(x) P(X=x0) x x NOTA: Para todos los casos discreto, continuo, mixto MEDIANA xm es la mediana de X, si y sólo si xm Wx y F(xm)=1/2

17 Función de Densidad

18 Función de Densidad (de probabilidad)-I
Pueden existir puntos donde la derivada no esté definida: puntos de cambio abrupto de pendiente (f(x) usa la función escalón u(x)) Interpretación... Cómo se “distribuye” (densidad) la “masa” de probabilidad de X (en este ejemplo, uniformenente) x 1,0 0,5 FX(x) 1,0 0,5 1/8 fX(x) ...acumulación de probabilidad... “Función de distribución de probabilidad acumulativa” x

19 Función de Densidad (de probabilidad)-II
para v.a’s discretas, la derivada de los “escalones” -> funciones impulso unitario (n) (delta –densidad infinita concentrada en un punto) x 1,0 0,5 0,028 FX(x) 6/36 fx(x) 5/36 5/36 4/36 4/36 3/36 3/36 2/36 2/36 1/36 1/36 X

20 Función de densidad de probabilidad
Se puede pensar como la generalización de un histograma de frecuencias relativas para variable continua. b a

21 Función de Densidad -III
Propiedades de f(x) Las propiedades 1 y 2 pueden utilizarse como pruebas para ver si una función g X(x) puede ser una f.d.p. Ejercicio

22 Siguen un orden alfabético
...veremos la media.... mediana xm es la mediana de X, si y sólo si xm Wx y FX(xm)=1/2 moda xmod: es el valor para el cuál la distribución toma su máximo absoluto. Siguen un orden alfabético

23 Ejemplos Distribuciones Continuas
Variable Aleatoria

24 Ejemplos Distribuciones Continuas
Distribución uniforme (X v.a. uniforme) Misma prob. intervalos de igual “anchura” (área igual) Cuantificación de señales.....

25 Calcula la probabilidad Ejemplo: f x para ( ) = - £ ì í ï î 1 47 41
el resto de valores Calcula la probabilidad Area = 0.5 5

26 Ejemplo: Dibuja la función de probabilidad f(x) y la función de distribución F(x) de una variable discreta definida como: X = Número en la cara de un dado. X tiene como posibles valores x = 1, 2, 3, 4, 5, 6 cada uno con probabilidad 1/6 1 x f(x) 0.5 F(x) 6 Función de probabilidad f(x) Función de distribución F(x)

27 Distribución Gaussiana (Normal)
Sin duda la distribución continua de probabilidad más importante, por la frecuencia con que se encuentra y por sus aplicaciones teóricas, es la distribución normal, gaussiana o de Laplace- Gauss. Fue descubierta y publicada por primera vez en 1733 por De Moivre. A la misma llegaron, de forma independiente, Laplace (1812) y Gauss (1809), en relación con la teoría de los errores de observación astronómica y física . Pierre Simon de Laplace ( ) Karl F. Gauss ( )

28 Caracteres morfológicos de individuos (personas, animales, plantas,
Caracteres morfológicos de individuos (personas, animales, plantas,...) de una especie (tallas, pesos, diámetros, perímetros,...). Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen, ... Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco. Errores cometidos al medir ciertas magnitudes. Valores estadísticos muestrales, por ejemplo : la media. Y en general cualquier característica que se obtenga como suma de muchos factores.  Otras distribuciones como la binomial o la de Poisson se aproximan a la normal. Distribuciones binomiales con n grande (n>30) y ‘p ni pequeño’ (np > 5) ‘ni grande’ (n(1-p) > 5).

29 Distribución normal o gaussiana
Está caracterizada por dos parámetros: la media, μ y la desviación típica, σ. Su función de densidad es: La curva normal adopta un número infinito de formas, determinadas por sus parámetros μ y σ.

30 Características de la distribución Normal
Tiene forma de campana, es asintótica al eje de las abscisas (para x =  ) Simétrica con respecto a la media () donde coinciden la mediana (Mn) y la moda (Mo ) Los puntos de inflexión tienen como abscisas los valores    Puntos de Inflexión (decrece 0,607 veces su máximo)   +   -   +  , Mo, Mn

31 Distribución normal con
=0 para varios valores s 1.6 1.2 s=0.25 s=0.5 s=1 p(x) 0.8 0.4 -2.50 -1.50 -0.50 0.50 1.50 2.50 x

32 Curvas normales con distintas medias y desviaciones estándar.
20 30 40 50 60 70 80 90 100 110 120 Curvas normales con distintas medias y desviaciones estándar. 9

33 N(μ, σ): Interpretación geométrica
Podemos interpretar la media como un factor de traslación. Y la desviación típica como un factor de escala, grado de dispersión,…

34 N(μ, σ): Interpretación probabilista
Entre la media y una desviación típica tenemos siempre la misma probabilidad: aproximadamente el 68%. Entre la media y dos desviaciones típicas aprox. 95% Si tomamos intervalos centrados en μ, y cuyos extremos están… a distancia σ,  tenemos probabilidad 68% a distancia 2 σ,  tenemos probabilidad 95% a distancia 2’5 σ  tenemos probabilidad 99%

35 ¡No podemos calcular analíticamente el valor de la integral!
Podemos obtener la función de distribución F(x) integrando la función de densidad de probabilidad: De modo que la probabilidad de una variable aleatoria normal X en un intervalo a  x  b es: En particular: ¡No podemos calcular analíticamente el valor de la integral! Tabularemos sus valores numéricos...

36 Es una traslación , y un cambio de escala de la variable original.
¿Cómo calcular probabilidades asociadas a una curva normal específica? Dado que tanto  como  pueden asumir infinitos valores lo que hace impracticable tabular las probabilidades para todas las posibles distribuciones normales, se utiliza la distribución normal reducida o tipificada. x -  Se define una variable z = Es una traslación , y un cambio de escala de la variable original.

37 La nueva variable z se distribuye como una NORMAL con media  = 0 y desviación típica  = 1
Recordemos de nuevo que en cualquier distribución normal las probabilidades delimitadas entre :    68 %  2  95 %  3  99 % 68% 99% 95% 68% 95% 99% z

38 Tipificación Dada una variable de media μ y desviación típica σ, se denomina valor tipificado z, de una observación x, a la distancia (con signo) con respecto a la media, medido en desviaciones típicas, es decir: En el caso de variable X normal, la interpretación es clara: asigna a todo valor de N(μ, σ), un valor de N(0,1) que deja exáctamente la misma probabilidad por debajo. Nos permite así comparar entre dos valores de dos distribuciones normales diferentes.

39 Se quiere dar una beca a uno de dos estudiantes de sistemas educativos diferentes y se asignará al que tenga mejor expediente académico: El estudiante A tiene una calificación de 8 en un sistema donde la calificación de los alumnos se comporta como N(6,1). El estudiante B tiene una calificación de 80 en un sistema donde la calificación de los alumnos se comporta como N(70,10). No podemos comparar directamente 8 puntos de A frente a los 80 de B, pero como ambas poblaciones se comportan de modo normal, podemos tipificar y observar las puntuaciones sobre una distribución de referencia N(0,1). Como zA > zB, podemos decir que el porcentaje de compañeros del mismo sistema de estudios que ha superado en calificación al estudiante A es mayor que el que ha superado B. En principio A es mejor candidato para la beca.

40 Apliquemos el cambio de variable tipificada a la función de distribución F(x):
Las probabilidades de la variable tipificada (z) están tabuladas para los diferentes valores de la variable. Para calcular probabilidades, una vez transformada, la variable a valores de z, se busca en una tabla el área correspondiente.

41 Característica de la distribución normal tipificada (reducida o estándar):
No depende de ningún parámetro. Su media es 0, su varianza es 1 y su desviación típica es 1. La curva  f(x)  es simétrica respecto al eje de ordenadas y tiene un máximo en este eje. Tiene dos puntos de inflexión en  x =1 y  x = -1. f(x) G(x1) 1-G(x1) x1 x

42 Hay varios tipos de tablas de la distribución normal
La que se explica aquí representa las áreas G(x) para X mayores o iguales que cero (G(0)=0.5) Los valores negativos de x NO están tabulados, ya que la distribución es simétrica y G(-x)=1-G(x) 1-G(1.8) G(-1.8) +

43

44

45

46 Ejemplo 1 ¿Cuál es la probabilidad de que un valor de v.a. z N(0,1) esté entre 0 y -2.03? ? Cómo la curva es simétrica P (-2.03 < z < 0) = P (0 < z < 2.03) z

47 ¿Cuál es la probabilidad de que un valor de z esté entre 0 y -2.03?
Ejemplo 1 ¿Cuál es la probabilidad de que un valor de z esté entre 0 y -2.03? Se busca en la tabla G(2.03) – G(0) = – 0.5 = 47. 88% z

48 Ejemplo 2 ¿Cuál es la probabilidad de que un valor de z esté entre y 2.03 ? En el ejemplo 1, vimos que la probabilidad de que z estuviera entre 0 y 2.03= La misma área hay entre 0 y , por lo tanto P ( -2.03< z< 2.03) = 47.88% ? 47.88% 95.76% z

49 ¿Cuál es la probabilidad de que un valor de z sea mayor a 1.25 ?
Ejemplo 3 ¿Cuál es la probabilidad de que un valor de z sea mayor a 1.25 ? 1.0 – G(1.25) = 1.0 – = 50% 39.44% 10.56% ? z

50 Hallar P( -0.34 < z <  )
Ejemplo 4 Hallar P( < z <  ) 63.31% Por simetría G(0.34)=0.6331 13.31% 50% z

51 Ejemplo 5 Hallar P( 0.34 < z < 2.30)
G(2.30) – G(0.34) = – = 35.62% z

52 EJEMPLO Sea una variable distribuida normalmente con media  = 4 y desviación típica  = 1.5. ¿Cuál es la probabilidad de encontrar un valor x  6 (P(x  6 ))?

53 ?  = 4  = 1.5 0.0918 x 6 1.- transformar x en un valor de z
 =  = 1.5 1.- transformar x en un valor de z z = (6 - 4)/1.5 = 1.33 2.- P(x 6)=1-P(x<6)= 1-P(z<1.33)= 1-G(1.33)= =0.0918 0.5 ? 0.0918 x 6 z

54 ¿Cómo hallar un valor de x, dada la probabilidad?
Hasta ahora vimos como dado un valor x de la variable, hallar probabilidades transformando (estandarización) la variable en valores de x -   z = ¿Cómo hallar un valor de x, dada la probabilidad? Ejemplo: Sea una variable distribuida normalmente con  =4 y  =2 . Hallar el valor de x que deja por encima de él un % (0.3820) Se busca en la tabla de acuerdo al área. Con su signo Se debe desestandarizar : x = z  +  1-G(z) = ; G(z)=  Se busca en la tabla el valor más aproximado : corresponde a z =+ 0.30 38.20% Sustituyendo en la fórmula x2+4 =4.60 x = ? 4.60

55 Ejemplo Distribuciones Continuas
.... “relacionadas” con la v.a. gaussiana

56 Ejemplo Distribuciones Continuas .... “relacionadas” con la v.a. gaussiana...

57 Ejemplo Distribuciones Continuas .... “relacionadas” con la v.a. gaussiana...

58 Distribución log-normal Log-N(,)
Se trata de la densidad de probabilidad de una variable log x distribuida según una función normal:

59

60

61 Más ejemplos Distribuciones Continuas

62 Distribución exponencial Exp ()
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0 1 2 3 4 5 6 7 8     Vida media 31

63 Distribución exponencial Exp ()
31

64 Distribución exponencial Exp ()
Ejemplos de este tipo de distribuciones son: el tiempo que tarda una partícula radiactiva en desintegrarse (datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 14) o el tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente. 31

65 Distribución exponencial Exp ()
31

66 Distribución exponencial Exp ()
... más adelante veremos... Distribución condicionada 31

67 Ejemplo Distribuciones Discretas

68 Distribución de Bernoulli-I
Experimento de Bernoulli: solo son posibles dos resultados: éxito o fracaso. Podemos definir una variable aleatoria discreta X tal que: éxito  1 fracaso  0 Si la probabilidad de éxito es p y la de fracaso 1 - p, podemos construir una función de probabilidad: < W ,F , P> espacio probabilístico ligado a  (ensayo de Bernoulli) A  F P(A)=p X: W  R w W  X(w) = 1 si w  A 0 si w  A P(X=1)=P(A)=p P(X=0)=P(noA)=1-p=q

69 Distribución de Bernoulli-II
Experimento de Bernoulli: Si la probabilidad de éxito es p y la de fracaso 1 - p, < W ,F , P> espacio probabilístico ligado a  (ensayo de Bernoulli) A  F P(A)=p X: W  R w W  X(w) = 1 si w  A 0 si w  A P(X=1)=P(A)=p P(X=0)=P(noA)=1-p=q f(x) q p x F(x) q 1.0 x

70 Distribución binomial-I
La distribución binomial aparece cuando estamos interesados en el número de veces que un suceso A ocurre (éxitos) en n intentos independientes de un ensayo de Bernouilli (la probabilidad de ocurrencia de A es cte.) P. ej.: # de caras en n lanzamientos de una moneda.

71 Distribución binomial-II
< Wi ,Fi , Pi > espacio probabilístico ligado a i (ensayos de Bernoulli) i=1,2, n Cada ensayo es independiente de los demás Ai  A en el ensayo i -ésimo Ai  Fi Xi v.a. De Bernouillo del ensayo i -ésimo Pi (Xi)=Pi (Ai)=p  = 1 x 2 x  n -> < W ,F , P> X: W  R (w1 , w wn )  X(w1 , w wn ) = X(w1)+X(w2 ) .....X(wn) = nº de ocurrencias de A

72 Distribución binomial-III

73 Experimento aleatorio: n = 3 lanzamientos de una moneda.
Probabilidad de éxito en cada lanzamiento (cara) = p. Probabilidad de fracaso en cada lanzamiento (cruz) = 1- p = q.

74 la distribución binomial:
La función de probabilidad P(X = x) será la distribución binomial: Distribución binomial para n = 5 y distintos valores de p, B(5, p)

75

76 Ejercicio: ¿Cuál es la probabilidad de que en una familia de 4 hijos exactamente 2 sean niñas?

77 Ejercicio: Si una décima parte de personas tiene cierto grupo sanguíneo, ¿cuál es la probabilidad de que entre 100 personas escogidas al azar exactamente 8 de ellas pertenezcan a este grupo sanguíneo?

78 ¿Y si la pregunta es 8 personas como máximo?

79 Calcula la probabilidad de obtener al menos dos seises al lanzar un dado cuatro veces.
p = 1/6, q = 5/6, n = 4 Al menos dos seises, implica que nos valen k = 2, 3, 4. P(2) + P(3) + P (4)

80 Ejercicio: Supongamos que la probabilidad de encontrar una estrella de masa m* >10 M en un cúmulo estelar joven es del 4%. ¿Cuál es la probabilidad de que en una muestra escogida al azar, entre 10 miembros del cúmulo encontremos 3 estrellas con m* >10 M?

81 Chuck-a-luck: Elige un número entre 1 y 6. Lanzas 3 dados.
Si el número que has elegido sale en los 3 dados cobras 3 euros. Si sale en 2 cobras 2 euros. Si sale en un dado cobras 1 euro. Y si no sale en ninguno, pagas 1 euro. ¿Es un juego justo?

82 Un acontecimiento ocurre, en la población, en el 10% de los casos
Un acontecimiento ocurre, en la población, en el 10% de los casos. ¿Qué tamaño de muestra debo tomar para tener una probabilidad del 95% de obtener al menos un éxito ?

83 Distribución geométrica-I
Consideremos el siguiente experimento: Partimos de un experimento de Bernoulli donde la probabilidad de que ocurra un suceso es p (éxito) y la probabilidad de que no ocurra q = 1- p (fracaso). Repetimos nuestro experimento hasta conseguir el primer éxito. Definimos la variable aleatoria X con distribución geométrica, como el número de fracasos hasta que se obtiene el primer éxito. Entonces:

84 Distribución geométrica-II
Definimos la variable aleatoria X con distribución geométrica, como el número de fracasos hasta que se obtiene el primer éxito. Aplicaciones como Nº de productos inspeccionados hasta uno defectuoso Distribución geométrica “contrapartida” discreta de la distribución exponencial Como la distribución exponencial (en continua) es la única discreta “sin memoria” P{X=n+m|X>n} = P{X=m}

85 Distribución de Poisson-I
Cuando en una distribución binomial el número de intentos (n) es grande y la probabilidad de éxito (p) es pequeña, la distribución binomial converge a la distribución de Poisson: donde np =  Observa que si p es pequeña, el éxito es un “suceso raro”. La distribución de Poisson, junto con la uniforme y la binomial, son las distribuciones más utilizadas.

86 Distribución de Poisson-II
Límite de la distribución binomial

87 Proceso de Poisson y Distribución exponencial Exp ()
En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos "sucesos raros" consecutivos sigue un modelo probabilístico exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida importante (o una coz de burro, recuerda...) 31

88 Distribuciones de Binomiales, Poisson y Exponencial-I
Ejemplos: la llegada de fotones a un detector. la probabilidad de fallo de un equipo Hipótesis: probabilidad de llegada o de fallo en un intervalo de tiempo “h” es siempre igual (“no envejecimiento” -> distribución exponencial – geométrica en v.a. discreta) la llegada (fallo) de un fotón (equipo) no afecta a los demás. i observación de fallo del componente i-ésimo en un intervalo de tiempo t0 i ={“fallo en t0” , “no fallo en t0”} X i(“fallo”)=1 X i(“no fallo”)=0 pi =p=P(“fallo en t0”)=(modelada con una v.a T con distribución exponencial)=P(T  t0)=F(t0)=1-e- t0  = 1 x 2 x  n Número (k) de “n” componentes que fallan en t0

89 Distribuciones de Binomiales, Poisson y Exponencial-II
i observación de fallo del componente i-ésimo en un intervalo de tiempo t0 i ={“fallo en t0” , “no fallo en t0”} X i(“fallo”)=1 X i(“no fallo”)=0 pi =p=P(“fallo en t0”)=(modelada con una v.a T con distribución exponencial)=P(T  t0)=F(t0)=1-e- t0  = 1 x 2 x  n Número (k) de “n” componentes que fallan en t0

90 Distribuciones de Binomiales, Poisson y Exponencial-III
El dato de la probabilidad de fallo en 1 año nos permite obtener el parámetro  (llamado “c” en este caso) de una v.a T con distribución exponencial Sobre esa distribución ya podemos calcular p=Ft(2 años)

91 Distribuciones de Binomiales, Poisson y Exponencial-IV
Teniendo p, podemos usar la Binomial para la v.a k (k=0) fallos en 1000 componentes Como np < 5 (n grande, p pequeño) podemos utilizar la aproximación de Poisson a la Binomial

92 Bombas sobre Londres en la II Guerra Mundial (Feller)
Supón que vivías en uno de los 100 bloques que aparecen en la gráfica inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100. Como cayeron 400 bombas, podemos entender el número de impactos en tu bloque como el número de éxitos en un experimento de Bernoulli con n = 400 y p = 1/100. Podemos usar una Poisson con λ=400 1/100=4: 400 bombas Observado Predicho 10 x 10

93 La distribución de Poisson se obtiene como aproximación de
una distribución binomial con la misma media, para ‘n grande’ (n > 30) y ‘p pequeño’ (p < 0,1). Queda caracterizada por un único parámetro μ (que es a su vez su media y varianza).  =  = n p =  Distribución de Poisson para varios valores de .

94 Si la probabilidad de fabricar un televisor defectuoso es
p = 0.01, ¿cuál es la probabilidad de que en un lote de 100 televisores contenga más de 2 televisores defectuosos? La distribución binomial nos daría el resultado exacto para la probabilidad del suceso complementario Ac: No más de 2 televisores : El suceso complementario Ac también puede aproximarse con una distribución de Poisson con  = np = 1, sumando p(0) + p(1) + p(2).

95 La señal promedio recibida en un telescopio de una fuente celeste es de 10 fotones por segundo. Calcular la probabilidad de recibir 7 fotones en un segundo dado. Una distribución de Poisson con μ = 10. P(7) = 107 e−10 / 7! = 0.09, es decir 9% Parece muy baja. Comparemos con el valor de máxima probabilidad que ocurrirá para x = 10: μ = P(10) = 1010 x e−10 / 10! = 0.125, es decir % Las probabilidades poissonianas para un número de eventos dado, son siempre pequeñas, incluso en el máximo de la distribución de probabilidad.

96 Si en promedio, entran 2 coches por minuto en un garaje, ¿cuál es la probabilidad de que durante un minuto entren 4 o más coches? Si asumimos que un minuto puede dividirse en muchos intervalos cortos de tiempo independientes y que la probabilidad de que un coche entre en uno de esos intervalos es p – que para un intervalo pequeño será también pequeño – podemos aproximar la distribución a una Poisson con  = np = 2. El suceso complementario “entran 3 coches o menos” tiene probabilidad: y la respuesta es 1 – = 0.143

97 Ejemplo de p 29 !!!! El suceso complementario “entran 3 coches o menos” tiene probabilidad: y la respuesta es 1 – = 0.143

98 Funciones de Distribución y Densidad CONDICIONALES
Extender el concepto de Probabilidad Condicional entre sucesos (Capítulo 1) para incluir Variables Aleatorias < W ,F , P> Espacio probabilístico A,B  F P(B)  0 Probabilidad de un suceso A sabiendo que se ha producido un suceso B:

99 Funciones de Distribución y Densidad CONDICIONALES
< W ,F , P> Espacio probabilístico X : W > R (X v.a.) B  F P(B)  0 Función de distribución condicional:

100 Funciones de Distribución y Densidad CONDICIONALES
La Función de distribución condicional: es una auténtica Función de Distribución (F.D.)

101 Funciones de Distribución y Densidad CONDICIONALES
< W ,F , P> Espacio probabilístico X: W > R v.a. B  F P(B)  0 Función de densidad condicional:

102 Funciones de Distribución y Densidad CONDICIONALES
La Función de densidad condicional: es una auténtica Función de Densidad (f.d.p)

103 Funciones de Distribución y Densidad CONDICIONALES
Si {A1, A2 , An } es una partición de  Teorema de la Probabilidad Total

104

105

106 Calcula FX(x) y fX(x) (aplicando el Teorema de la Probabilidad Total)

107 Calcula FX(x) y fX(x) (aplicando el Teorema de la Probabilidad Total)

108 El “suceso condicionante” B puede también estar definido en función de una v.a (la misma u otra), por ej.: B={Xb} Ejemplo: analizar la condición de “sin memoria” de la distribución exponencial

109 El “suceso condicionante” B puede también estar definido en función de una v.a (la misma u otra), por ej.: B={Xb} Ejemplo: analizar la condición de “sin memoria” de la distribución exponencial (la única continua)

110 ...también para FD y fdp discretas condicionales.....
... Y la ditribución geométrica es “sin memoria” (la única discreta) V.a. X con distribución geométrica, como el número de fracasos hasta que se obtiene el primer éxito.


Descargar ppt "Introducción a las Señales Aleatorias ISAL"

Presentaciones similares


Anuncios Google