La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

CONSTRUIMOS FUTURO Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación.

Presentaciones similares


Presentación del tema: "CONSTRUIMOS FUTURO Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación."— Transcripción de la presentación:

1 CONSTRUIMOS FUTURO Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación y Desarrollo para la Investigación en Ingeniería del Software Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación y Desarrollo para la Investigación en Ingeniería del Software

2 CONSTRUIMOS FUTURO Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación y Desarrollo para la Investigación en Ingeniería del Software Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación y Desarrollo para la Investigación en Ingeniería del Software

3 Centro de Innovación y Desarrollo para la Investigación en Ingeniería del Software CONSTRUIMOS FUTURO Material aprobado para uso público. Distribución limitada por el CIDLIS. Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 Jueves, 20 de Agosto de 2015 Módulo 3: Prueba de Hipótesis: Conferencia No. 10 Lección 3.2. Estimación Curso de Estadística y Probabilidad para Ingenieros – CEPI –

4 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 4 Jueves, 20 de Agosto de 2015 Objetivos de la Conferencia Los objetivos de esta conferencia permiten: Entender el significado de estimador y estimación. Conceptualizar y entender el significado de estimación puntual. Observar los distintas distribuciones muestrales Conceptualizar y entender estimación por intervalos, significando: Intervalo de confianza. Variabilidad de un parámetro Error de Estimación Nivel de confianza Nivel de significación Valor crítico

5 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 5 Jueves, 20 de Agosto de 2015 Guión de la Conferencia Conocimiento 10 Motivación: Modelo General de Variable aleatoria –Significado de estimador y estimación. Estimadores estadísticos –Estimadores Puntuales Estimadores Estimaciones –Distribuciones Muestrales Gamma, Chi-cuadrado, Normal, T-student, F-Snecoder –Estimadores de Intervalos Intervalo de confianza. Variabilidad de un parámetro Error de Estimación Nivel de confianza Nivel de significación Valor crítico –Aplicaciones Resumen Post-test Agenda de actividades de la semana Actividad : Lección 3.2. Estimación

6 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 6 Jueves, 20 de Agosto de 2015 La estimación es el conjunto de técnicas para dar un valor aproximado a un parámetro de una población a partir de los datos proporcionados por una muestra. Un estimador de un parámetro poblacional es una función de los datos muestrales; es una fórmula que depende de los valores de una muestra, con la cual se hacen estimaciones. Por ejemplo, un estimador de la media poblacional, μ, sería la media muestral,, según la siguiente fórmula: Donde (x 1, x 2,..., x n ) sería el conjunto de datos de la muestra, el ejemplo es una estimación puntual. Sin embargo, el estimador es una variable aleatoria que asigna a cada valor de la función su probabilidad de aparición, es decir, la probabilidad de la muestra de la que se extrae. El resultado de un estimador pueden ser: –un simple valor; estimación en un punto, o, –un rango de valores; un intervalo de confianza. Motivación ¿ESTIMADOR ó ESTIMACIÓN? Al valorar un punto, hay que calcular el margen de error asociado a la estimación de ese punto. Los estimadores de parámetros de población son diferenciados a veces de los valores verdaderos usando el símbolo de “sombrero”.

7 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 7 Jueves, 20 de Agosto de 2015 1. Estimación Puntual (EP) EP es la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada (estimador). Ejemplo, estimar la talla media de un determinado grupo de individuos. Puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos de la muestra. –Sea X una v.a. cuya función de probabilidad (o densidad de probabilidad si es continua) depende de unos parámetros desconocidos : –Representado mediante una muestra aleatoria simple de la variable. Se denota, mediante fc, a la función de densidad conjunta de la muestra, formada por observaciones independientes, puede factorizarse como: –Se denomina estimador de un parámetro a cualquier v.a. que se exprese en función de la muestra aleatoria y que tenga por objeto aproximar el valor de: Debe observarse, que el estimador no es un valor concreto, sino una variable aleatoria, porque aunque depende unívocamente de los valores de la muestra observados (X(i) = x(i)), la elección de la muestra es un proceso aleatorio. Una vez que la muestra ha sido elegida, se denomina estimación, al valor numérico que toma el estimador sobre esa muestra.

8 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 8 Jueves, 20 de Agosto de 2015 Ejemplo: –Considerando una v.a, a la cual, sólo se le conoce que su ley de distribución es gaussiana, –Para muestras aleatorias de tamaño n = 3, –un posible estimador del parámetro  es –Si al realizar un muestreo aleatorio simple, se obtiene: 1. Estimación Puntual (EP) El estimador sirve para aproximar el valor de un parámetro desconocido, pero...Si el parámetro es desconocido, ¿Cómo podemos decir que un estimador dado sirve para aproximarlo? Para hacerlo, es necesario definir, en qué sentido un estimador es bueno para cierto parámetro.

9 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 9 Jueves, 20 de Agosto de 2015 Las características deseables para esta nueva variable aleatoria (usada para estimar el parámetro desconocido) son: –Carencia de sesgo: El valor medio que se obtiene de la estimación para diferentes muestras debe ser el valor del parámetro. –Consistencia: Cuando el tamaño de la muestra crece arbitrariamente, el valor estimado se aproxima al parámetro desconocido. –Eficiencia: El estimador, al ser v.a., no puede exigírsele, que para una muestra cualquiera, se obtenga como estimación el valor exacto del parámetro. Sin embargo, es deseable, que su dispersión con respecto al valor central (varianza), sea tan pequeña como sea posible. –Suficiencia: El estimador debería aprovechar toda la información existente en la muestra. 1. Estimación Puntual (EP)

10 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 10 Jueves, 20 de Agosto de 2015 1. Estimación Puntual (EP) El valor medio que se obtiene de la estimación para diferentes muestras debe ser el valor del parámetro. Un estimador de un parámetro es insesgado si: La insesgamiento o carencia de sesgo se interpreta como: –Si se tiene un número indefinido de muestras de una población, todas ellas son del mismo tamaño n. –En cada muestra el estimador ofrece una estimación concreta del parámetro que buscamos. –Entonces, el estimador es insesgado, si en dicha cantidad indefinida de estimaciones, el valor medio es (el valor que se desea conocer). Carencia de sesgo ó insesgamiento:

11 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 11 Jueves, 20 de Agosto de 2015 1. Estimación Puntual (EP) Cuando el tamaño de la muestra crece arbitrariamente, el valor estimado se aproxima al parámetro desconocido. Se dice que un estimador es un estimador consistente para el parámetro si: o equivalentemente Este tipo de propiedades definidas cuando el número de observaciones n, tiende a infinito, se llaman propiedades asintóticas. CONSISTENCIA:

12 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 12 Jueves, 20 de Agosto de 2015 1. Estimación Puntual (EP) El estimador, al ser v.a., no puede exigírsele, que para una muestra cualquiera, se obtenga como estimación el valor exacto del parámetro. Sin embargo, es deseable, que su dispersión con respecto al valor central (varianza), sea tan pequeña como sea posible. Dados dos estimadores y de un mismo parámetro, diremos que es más eficiente si: EFICIENCIA

13 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 13 Jueves, 20 de Agosto de 2015 1. Estimación Puntual (EP) Se dice que es un estimador suficiente del parámetro si para todo posible valor de. SUFICIENCIA: El estimador debería aprovechar toda la información existente en la muestra Esta definición, así enunciada, es un poco confusa, pero lo que expresa es que un estimador es suficiente, si usa toda la información existente en la muestra que sirva para estimar el parámetro.

14 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 14 Jueves, 20 de Agosto de 2015 1. Estimación Puntual (EP) MÉTODO DE ESTIMADORES DE MÁXIMA VEROSIMILITUD MÉTODO DE ESTIMADORES DE LOS MOMENTOS MÉTODO DE MÍNIMOS CUADRADOS (En otra ocasión) Métodos para establecer estimadores:

15 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 15 Jueves, 20 de Agosto de 2015 La función de verosimilitud de una muestra o conjunto de variables aleatorias X1, X2,..., Xn se define como la función conjunta de densidad de dichas variables. Si representamos por L(X,) la función de verosimilitud, entonces está dada por: Como las variables son independientes, entonces la función de verosimilitud puede expresarse como: Ahora, como las variables son idénticamente distribuidas, la función de densidad conjunta puede expresarse como: Dado que se toma la muestra aleatoria y se obtienen los resultados X1 = x 1, X2 =x 2,..., Xn = xn, y como la función de verosimilitud es una función de densidad, entonces el objetivo que se pretende con el método de estimación es encontrar aquellos valores de los parámetros que maximicen la probabilidad de obtener los valores que se dieron en la muestra. Por lo tanto, para encontrar estos estimativos se debe derivar la función de verosimilitud con respecto a cada uno de los parámetros a estimar, igualar a cero y despejar el respectivo valor. Es decir Métodos para establecer estimadores: MÉTODO DE ESTIMADORES DE MÁXIMA VEROSIMILITUD

16 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 16 Jueves, 20 de Agosto de 2015 Ejemplo. Si una variable aleatoria sigue una distribución exponencial con parámetro, encontrar el estimador del parámetro usando el método de máxima verosimilitud. f(X) = e -x, x > 0 La función de verosimilitud está dada por: Considerando el logaritmo tenemos que: Derivando el logaritmo de la función de verosimilitud con respecto al parámetro  se tiene: MÉTODO DE ESTIMADORES DE MÁXIMA VEROSIMILITUD Métodos para establecer estimadores: Se observa que, el estadístico usado para estimar el parámetro es el inverso de la media muestral. Si el parámetro que estuviéramos estimando fuera el valor esperado  = 1/, entonces el estadístico será la media muestral. Este estimador es insesgado.

17 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 17 Jueves, 20 de Agosto de 2015 MÉTODO DE ESTIMADORES DE MÁXIMA VEROSIMILITUD Métodos para establecer estimadores: Derive respecto a  y  para encontrar sus respectivos estimadores Ejemplo. Consideremos la estimación de los parámetros  y  ² de una distribución normal por el método de máxima verosimilitud. Si X~ N( ,  ²)   = {  1,  2}  1 = ,  2 =  ². La función de verosimilitud está dada por: El logaritmo de la función de verosimilitud está dado por:

18 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 18 Jueves, 20 de Agosto de 2015 MÉTODO DE MOMENTOS Métodos para establecer estimadores: –los momentos sirven para caracterizar una distribución de probabilidad. –Si dos variables aleatorias tienen los mismos momentos, dichas variables tienen la misma función de densidad y se pueden emplear para estimar sus respectivos parámetros. –El método consiste en igualar los primeros momentos de una población a los momentos correspondientes de una muestra: Definición. El r- ésimo momento (absoluto) de una variable aleatoria está dado por: El r-ésimo momento de orden central m r de una muestra aleatoria X1, X2,..., X n es la media de sus r- ésimas potencias: CONTINUA

19 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 19 Jueves, 20 de Agosto de 2015 Ejemplo. Si una variable aleatoria sigue una distribución exponencial con parámetro, encontrar el estimador del parámetro usando el método de los momentos. f(X) = e -x, x > 0 Como sólo existe un parámetro, bastará con usar el primer momento, es decir,  1 = m 1 El primer momento de la distribución exponencial es 1/, por lo cual se tiene que  1 = m 1  2 = m 2 ……  p = m p Luego si una distribución tiene p parámetros desconocidos, su estimación se da como: Métodos para establecer estimadores: MÉTODO DE MOMENTOS De nuevo, el estadístico usado para estimar el parámetro es el inverso de la media muestral. Si el parámetro que estuviéramos estimando fuera el valor esperado  = 1/, entonces el estadístico será la media muestral. Este estimador es insesgado.

20 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 20 Jueves, 20 de Agosto de 2015 Ejemplo. Si una variable aleatoria tiene una distribución gama, con parámetros y k desconocidos, se tiene lo siguiente: Se puede demostrar que el j-ésimo momento absoluto está dado por: Por lo tanto los dos primeros momentos poblacionales están dados por: Igualando estos dos momentos poblacionales a los respectivos momentos muestrales se tiene: De (1) se tiene que y reemplazando en la ecuación(2) obtenemos: Por lo tanto Métodos para establecer estimadores: MÉTODO DE MOMENTOS

21 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 21 Jueves, 20 de Agosto de 2015 Ejemplo. Estimar por el método de los momentos los parámetros  y ² de una distribución normal. Como son dos parámetros los que necesitamos estimar, usaremos los dos primeros momentos de la distribución normal, que están dados por: Igualando los dos primeros momentos poblacionales con sus respectivos momentos muestrales tenemos que: De lo anterior se concluye que el estimativo de la media poblacional  es la media muestral, y es un estimativo insesgado, mientras que el estimativo de la varianza poblacional ² no es la varianza muestral S², sino la cuasivarianza, y es un estimativo sesgado. Ejemplo. Estimar por el método de los momentos el parámetro de una distribución de Poisson. Métodos para establecer estimadores: MÉTODO DE MOMENTOS

22 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 22 Jueves, 20 de Agosto de 2015 1. Estimación Puntual (EP)

23 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 23 Jueves, 20 de Agosto de 2015 2. Distribuciones Muestrales

24 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 24 Jueves, 20 de Agosto de 2015 2. Distribuciones Muestrales n 2 n 2   n n n

25 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 25 Jueves, 20 de Agosto de 2015 2. Distribuciones Muestrales k 12 3 k 1 2 2 2 3 2 k 2 k 2 1 k 2 k/ 2 k 2 2  2 2 2 k 1 k  k  k

26 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 26 Jueves, 20 de Agosto de 2015 2. Distribuciones Muestrales u,v ,u,v u / 2u / 2 (u / 2)-1 (u + v) 2 2 2

27 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 27 Jueves, 20 de Agosto de 2015 3. Estimación por intervalos Es estimar un intervalo dentro del cual estará el valor de un parámetro estimado con una cierta probabilidad. La estimación por intervalos exige los siguientes conceptos: INTERVALO DE CONFIANZA: expresión del tipo [θ 1, θ 2 ] ó θ 1 ≤ θ ≤ θ 2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. VARIABILIDAD DEL PARÁMETRO. Si no se conoce, puede obtenerse una aproximación con los datos aportados por la literatura científica o en un estudio piloto. Hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional (σ). ERROR DE LA ESTIMACIÓN. Medida de precisión correspondiente con la amplitud del intervalo de confianza. A mayor precisión deseada en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza; menor el error, y más sujetos deberán incluirse en la muestra estudiada. Llamaremos a esta precisión E, según la fórmula E = θ 2 - θ 1. NIVEL DE CONFIANZA. Probabilidad que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1- α); frecuentemente se expresa con un porcentaje ((1-α)·100%). Es rutina tomar como nivel de confianza un 95% o un 99%, que corresponden α con 0,05 y 0,01, respectivamente.

28 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 28 Jueves, 20 de Agosto de 2015 3. Estimación por intervalos VALOR Α (NIVEL DE SIGNIFICACIÓN). Probabilidad (en tanto por uno) de fallar en la estimación; la diferencia entre la certeza (1) y el nivel de confianza (1-α); una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05. VALOR CRÍTICO (Zα/ 2 ). Valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Los valores críticos están tabulados o se calculan en función de la distribución poblacional; La distribución normal, de media 0 y desviación típica 1, el valor crítico para α = 0,05 se calcula aplicando el programa de distribución para ese valor (o el más aproximado), si se observa que corresponde a -0,64. Entonces Z α/2 = 0,64. Ejemplo, en una muestra "3 es una estimación de la media con un margen de error de 0,6 y un nivel de confianza del 99%", se interpreta que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el intervalo de confianza según las definiciones dadas. Para un tamaño fijo de muestra, los conceptos de error y nivel de confianza van relacionados. Si se admite un error mayor, es decir, se aumenta el tamaño del intervalo de confianza, hay mayor probabilidad de éxito en una estimación; mayor nivel de confianza. Mas conceptos:

29 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 29 Jueves, 20 de Agosto de 2015 3. Estimación por intervalos

30 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 30 Jueves, 20 de Agosto de 2015 3. Estimación por intervalos

31 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 31 Jueves, 20 de Agosto de 2015 Que se vio en la conferencia Motivación: Modelo General de Variable aleatoria –Significado de estimador y estimación. Estimadores estadísticos –Estimadores Puntuales Estimadores Estimaciones –Distribuciones Muestrales Gamma, Chi-cuadrado, Normal, T-student, F-Snecoder –Estimadores de Intervalos Intervalo de confianza. Variabilidad de un parámetro Error de Estimación Nivel de confianza Nivel de significación Valor crítico –Aplicaciones Agenda de actividades de la semana

32 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 32 Jueves, 20 de Agosto de 2015 Actividad Lección 3.2. ESTIMACIÓN Con los conocimientos adquiridos en la conferencia iniciar con la lección propuesta en el libro de actividades.

33 Copyright © CIDLIS–UIS 2009 CEPI_II_2009_C10_M_03_V2.0 33 Jueves, 20 de Agosto de 2015 Créditos Operación: Ing. (c) Diana Patricia Bautista Otálora Calidad y Planificación: Ing. Sergio Enrique Méndez Aceros Autoría e Instrucción: Phd. Ricardo Llamosa Villalba

34 CONSTRUIMOS FUTURO Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación y Desarrollo para la Investigación en Ingeniería del Software Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación y Desarrollo para la Investigación en Ingeniería del Software


Descargar ppt "CONSTRUIMOS FUTURO Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación."

Presentaciones similares


Anuncios Google