P y E 2012 Clase 7Gonzalo Perera1 Repaso de clase anterior Distribución Gaussiana, Cauchy, Uniforme y Exponencial.

Slides:



Advertisements
Presentaciones similares
DSITRIBUCION T DE STUDENT.
Advertisements

Valores y Vectores Propios
DERIVADA DE UNA FUNCION REAL
Bivariadas y Multivariadas
La transformada de Fourier.
La ley de los grandes números
4. 0 DISTRIBUCIONES DISCRETAS DE PROBABILIDAD 4
ESPACIOS VECTORIALES.
Estadística Descriptiva
Transformaciones de variables aleatorias
Distribuciones de Probabilidad
Supongamos que nos plantean el siguiente problema:
Tema 2: Métodos de ajuste
MEDIDAS DE DISPERSIÓN:
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Matemáticas III Tema I FUNCIONES
8.3.- APROXIMACIOIN DE LA DISTRIBUCION BINOMIAL A LA NORMAL
Población y Muestra.
Distribuciones y Probabilidad
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Unidad V: Estimación de
Representación de Señales y Ruido por medio de Series Ortogonales
Vectores Aleatorios 1 Distribución conjunta de un vector aleatorio
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Distribuciones derivadas del muestreo
Guías Modulares de Estudio Matemáticas IV – Parte B
DISTRIBUCIONES DE MUESTREO
Unidad V: Estimación de
ESTADISTICA TEMA y 223.
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
Gerenciamiento Técnico de Proyectos
Valor que toma la variable aleatoria
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Inferencia Estadística
Sesión 2: Teoría de Probabilidad
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
ECUACIONES CUADRÁTICAS
Unidad V: Estimación de
Repaso de clase anterior
Variables estadísticas bidimensionales
El Teorema central del Límite
P Y E 2012 Clase 11Gonzalo Perera1 Repaso de clase anterior Fórmula del bloqueo de Erlang. LFGN y el problema de la Robustez.
P y E 2012 Clase 6Gonzalo Perera1 Repaso de clase anterior Distribución de Poisson como aproximación de la Bin(n,p) cuando n es muy grande y p es muy chico.
Distribuciones de probabilidad bidimensionales o conjuntas
Sesión 13: Distribuciones Muestrales y Tamaño de Muestra
Repaso de clase anterior
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
P y E 2012 Clase 6Gonzalo Perera1 Repaso de clase anterior Distribución de Poisson como aproximación de la Bin(n,p) cuando n es muy grande y p es muy chico.
P y E 2012 Clase 5Gonzalo Perera1 Repaso de clase anterior Distribución Binomial (Bin(n,p)) e Hipergeométrica como conteo de artículos defectuosos en muestras.
Elementos Básicos de Probabilidad y Estadística
P y E 2012 Clase 5Gonzalo Perera1 Repaso de clase anterior Distribución Binomial (Bin(n,p)) e Hipergeométrica como conteo de artículos defectuosos en muestras.
Estimación Diferencia de dos medias
Estimación y contraste de hipótesis
P y E 2012 Clase 8Gonzalo Perera1 Repaso de clase anterior Distribuciones multivariadas.
FUNCIONES LINEÁLES Y CUÁDRATICAS
P Y E 2004 Clase 19Gonzalo Perera1 Propiedades generales del p-valor Repaso de la clase anterior. Tests de aleatoriedad Estadística de datos dependientes.
ESTIMACIÓN DE PARÁMETROS
Variables estadísticas bidimensionales
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
RIESGO, RENDIMIENTO Y VALOR
P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.
P y E 2012 Clase 14 Gonzalo Perera 1 Repaso de clase anterior Estimación de parámetros por el método de Máxima Verosimilitud.
Aspectos generales de la investigación educativa en el SNIT
P y E 2014 Clase 4Gonzalo Perera1 Repaso de clase anterior Probabilidad condicional, independencia de sucesos. Distribución Binomial e Hipergeométrica.
Inferencia Estadística Conceptos Previos. Conceptos Previos Población: Es la colección de toda la posible información que caracteriza a un fenómeno aleatorio.
INFERENCIA ESTADÍSTICA
Villamizar Luis Miguel. Variables aleatorias Se denomina variable aleatoria al conjunto imagen de esta correspondencia, es decir, al conjunto de los números.
ANALISIS DE VARIANZA.
Transcripción de la presentación:

P y E 2012 Clase 7Gonzalo Perera1 Repaso de clase anterior Distribución Gaussiana, Cauchy, Uniforme y Exponencial.

P y E 2012 Clase 7Gonzalo Perera2 Distribuciones de vectores aletorios Si X =(X 1,…,X d ) y t=(t 1,…,t d ) NOTACION: X ≤ t si y sólo si X i ≤ t i para i=1,…d. La función de distribución de X o función de distribución conjunta de X 1,…,X d es Las distribuciones vectoriales tienen propiedades similares, aunque no idénticas, a las distribucones reales F X (t) = P(X ≤ t ) para todo t

P y E 2012 Clase 7Gonzalo Perera3 Por ejemplo: si X es de dimensión d=2, P(X  (a 1,a 2 ]x(b 1,b 2 ])= F X (a 2, b 2 ) - F X (a 1, b 2 ) - F X (a 2, b 1 )) + F X (a 1, b 1 ) = = ∆ 2 ((a 1,a 2 ]x(b 1,b 2 ]) (incremento doble de F X en el rectángulo) Gráficamente La generalización a dimensiones mayores es sencilla (paridad de subíndices)

P y E 2012 Clase 7Gonzalo Perera4 Es importante observar que esto efectivamente marca una diferencia entre las propiedades de las distribuciones en dimensión1, con las de las distribuciones llamadas “multivariadas” ( en dimensiones iguales o mayores que 2). Por ejemplo si F(u,v)= 0 si u+v≤1 y F(u,v)= 1 si u+v>1, entonces es obvio que F es creciente en cada una de sus dos coordenadas, pero sus incrementos dobles no son siempre positivos ya que F(0.5,2)-F(0.5,1)-F(0,2)+F(0,1)= = -1<0

P y E 2012 Clase 7Gonzalo Perera5 Caracterización de la independencia. OBSERVACION:Tanto el concepto de función de probabilidad como el de densidad no dependen en absoluto de la dimensión a)X 1,…X d independientes si y solo si conjunta se factoriza: F X 1,…,X d (t 1,…,t d )=F X 1 (t 1 )…F X d (t d ) b) En el caso AC, idem densidad conjunta c) En el caso discreto, idem función de probabilidad conjunta

P y E 2012 Clase 7Gonzalo Perera6 Notacion: Se dice que X 1,…X d son iid si son independientes e idénticamente distribuídas (con igual distribución). En el curso aprenderemos a verificar si es plausible que una muestra de datos sea iid, ya que esa suposición separa la Estadística más clásica de la más reciente. Vamos ahora a ver un ejemplo muy sencillo en que la primera “i” de “iid “NO ES CIERTA y el “id” SI LO ES. Concretamente, veremos que en el muestreo de artículos de un control de calidad por atributo en un lote con proporción p de defectuosos, si X i = 1 si el i-ésimo articulo muestreado es defectuoso y X i = 0 si el i-ésimo articulo es bueno, entonces:

P y E 2012 Clase 7Gonzalo Perera7 a)Si el muestreo es CON REPOSICION, X 1,…X n son iid con distribución Ber(p) b)Si el muestreo es SIN REPOSICION, X 1,…X n NO SON independientes aunque son idénticamente distribuídas con distribución Ber(p) Dejamos el caso a), más sencillo, como ejercicio, vamos al caso b). Llamemos D=pN la cantidad de defectuosos en el lote de tamaño N. Veremos que P(X i =1)=p para todo i=1,…,n pero que P( X 1 =1, X 2 =1) ≠P(X 1 =1) P(X 2 =1)

P y E 2012 Clase 7Gonzalo Perera8 Para la primera condición veamos el caso n=2 ( el caso general es similar) P(X 2 =1)= P(X 2 =1/ X 1 =1) P(X 1 =1)+ P(X 2 =1/ X 1 =0) P(X 1 =0)= P(X 2 =1/ X 1 =1) p+ P(X 2 =1/ X 1 =0) (1-p)= (si X 1 =1, quedan D-1 defectuosos en un lote de N-1 y si X 1 =0, quedan D defectuosos en un lote de N-1 ) {p(D-1)/(N-1)}+ {(1-p)D/(N-1)}= (D-p)/(N-1)= (pN-p)/(N-1)= p(N-1)/(N-1)=p y queda probado.

P y E 2012 Clase 7Gonzalo Perera9 Para la segunda condición tenemos que, por lo recién visto: por un lado P(X 1 =1)P(X 2 =1)= p 2, por otro lado P(X 1 =1, X 2 =1) =P(X 2 =1/ X 1 =1) P(X 1 =1)=P(X 2 =1/ X 1 =1) p (si X 1 =1, quedan D-1 defectuosos en un lote de N-1) {p(D-1)/(N-1)}. Como claramente p=D/N ≠ (D-1)/(N-1), queda probado.

P y E 2012 Clase 7Gonzalo Perera10 DISTRIBUCION CONDICIONAL. Como el nombre lo sugiere, la distribución condicional de X dada Y=v es: F X/Y=v (u)= P( X≤u/Y=v) Por ejemplo, acabamos de probar que en un muestreo SIN REPOSICION: a)X 2 tiene distribución Ber(p) b)X 2 /X 1 =1 tiene distribución Ber(q) con q= (D-1)/(N-1) (distinta a la anterior).

P y E 2012 Clase 7Gonzalo Perera11 De hecho puede verse que: Teorema: a)X e Y son independientes si y sólo si la distribución de X/Y=v coincide con la distribución de X para todo valor de v (“ Y no dice nada sobre X”). b) Si X e E independientes y g una función cualquiera, la distribución de g(X,Y)/Y=v coincide con la distribución de g(X,v) (“Principio de Sustitución”)

P y E 2012 Clase 7Gonzalo Perera12 OBSERVACION: Un contraejemplo muestra que NO se puede aplicar el principio de sustitución si X e Y no son independientes. En efecto, tomemos X=Y con distribución Ber(p) y g(x,y)=x-y, por lo que g(X,Y)=0 y su distribución condicionada a cualquier evento da probabilidad 1 al 0. Sin embargo si v=1 se tiene que g(X,v)=X-1, que toma el valor 0 con probabilidad p y el valor -1 con probabilidad 1-p, por lo que no vale aquí el principio de sustitución.

P y E 2012 Clase 7Gonzalo Perera13 Son muy útiles, los conceptos de función de probabilidad condicional p X/Y=v (u)=P(X=u, Y=v)/P(Y=v)= p (X,Y) (u,v)/p Y (v) y de densidad condicional f X/Y=v (u)= f (X,Y) (u,v)/f Y (v) en los casos de vectores discretos o AC, respectivamente.

P y E 2012 Clase 7Gonzalo Perera14 Se tiene que p (X,Y) (u,v)= p X/Y=v (u)p Y (v) (caso discreto) y que f (X,Y) (u,v)= f X/Y=v (u)f Y (v) (caso AC) para todo par de valores u,v Sin embargo : SON MUY UTILES TAMBIEN EN LA PRACTICA LOS CASOS DE “MEZCLAS”, CONDICIONALES DONDE UNA VARIABLE ES DISCRETA Y LA OTRA ES AC. Veremos un par de ejemplos.

P y E 2012 Clase 7Gonzalo Perera15 Ejemplo 1: Supongamos que en una casa comparten el uso de una conexión ADSL tres personas A, B y C. Si la persona A fuera la única en usar la conexión, el tráfico mensual que generaría se puede representar por una variable aleatoria N(1000, ) ( la unidad de referencia es Mb). Si B fuera la única en usarlo, su tráfico sería una N(750, ) y si C fuera la única en usarlo, su tráfico sería una N(500, 2.500). Supongamos que A, B y C se distribuyen aleatoriamente el uso del enlace, pero que el 60% del tiempo lo usa A, el 30% lo usa B y el 10% lo usa C. Si X= tráfico mensual del enlace, propongámonos hallar la densidad de X y la P(X<800).

P y E 2012 Clase 7Gonzalo Perera16 Definamos Y=1, si A está usando el enlace, Y=2 si lo está usando B e Y=3 si lo está usando C. Queda como ejercicio verificar que: F X (t)=F X/Y=1 (t)p Y (1) + F X/Y=2 (t)p Y (2) + F X/Y=3 (t)p Y (3) y que por ende f X (t)=f X/Y=1 (t)p Y (1) + f X/Y=2 (t)p Y (2) + f X/Y=3 (t)p Y (3) Llamando φ a la densidad N(0,1) y Φ a la distribución N(0,1), por los datos del problema, se tiene que:

P y E 2012 Clase 7Gonzalo Perera17 P(X<800)=0.6Φ(( )/100)+ 0.3Φ(( )/100)+ 0.1Φ(( )/50)=0.6 Φ(-2)+ 0.3 Φ(0.5)+ 0.1Φ(6)= 0.6*( )+0.3* =0.321 Por otro lado: f X (t)= 0.6 (1/100)φ((t-1000)/100)+ 0.3(1/10)φ((t-750/100)+0.1φ((t-500)/50) (Ver gráfica en próximo slide) Este es un caso de MEZCLA DE NORMALES, que resulta sumamente útil en la modelización práctica

P y E 2012 Clase 7Gonzalo Perera18

P y E 2012 Clase 7Gonzalo Perera19 Obsérvese que contrariu sensu a los más difundido, no siempre una mezcla de k poblaciones relativamente homogéneas modeladas cada una por una gsitribución gaussiana y su conjunto por un mezcla de gaussianas, corresponde a “contar picos de campana” ya que en el ejemplo anterior hay una mezcla de tres gaussianas, y sólo DOS picos son claramente apreciables a nivel visual. Esto responde, claramente, al grado de dispersión o disimilaridad en los subgrupos poblacionales que dan lugar a las normales. Si las normales están suficientemente separadas, sus “picos” indican una subpoblación o segmento homogéneo. Si están “cerca” se confunden. Es tema aún actual de investigación el determinar en cuantos segmentos homogéneos se puede dividir una pobación heterogénea.