FUNCIONES DE DENSIDAD DE PROBABILIDAD

Slides:



Advertisements
Presentaciones similares
ESTADISTICA INFERENCIAL
Advertisements

EC. DIFERENCIAL Def: Se llama ecuación diferencial a una relación que contiene una o varias derivadas de una función no especificada “y” con respecto.
Bivariadas y Multivariadas
INTEGRACIÓN.
} LISSET BÁRCENAS MONTERROZA
UNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE INGENIERIA 1er SEMESTRE
KRIGING.
GEOESTADISTICA MULTIVARIADA
La ley de los grandes números
DISTRIBUCIONES MUESTRALES, DE LAS MUESTRAS O DE MUESTREO
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
Regresión y correlación
Universidad de América
1º BACHILLERATO | Matemáticas © Oxford University Press España, S.A Hacer clic en la pantalla para avanzar VARIABLE ESTADÍSTICA UNIDIMENSIONAL Población:
Estadística bidimensional
COMPORTAMIENTO DE LAS DISTRIBUCIONES DE
Universidad Mexicana en Línea Carrera: Administración Pública Asignatura: Estadística Tutor: Leonardo Olmedo Alumno: Alfredo Camacho Cordero Matrícula:
Sesión 2: Métodos Probabilísticos Básicos
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
Distribución Normal.
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Variables Aleatorias Unidimensionales
3. Funciones discriminantes para la f.d.p normal.
Vectores Aleatorios 1 Distribución conjunta de un vector aleatorio
INTERVALO DE CONFIANZA
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Distribuciones derivadas del muestreo
DISTRIBUCIÓN NORMAL La mayoría de las variables aleatorias que se presentan en los estudios relacionados con las ciencias sociales, físicas y biológicas,
DISTRIBUCIONES DE MUESTREO
Unidad V: Estimación de
Valor que toma la variable aleatoria
ANALISIS DE FRECUENCIA EN HIDROLOGIA (2)
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
FACILITADOR JOSE HERIBERTO CRUZ GARCÍA
Reconocimiento de Formas en Data Mining Prof: Héctor Allende Capítulo 2 Aproximación Paramétrica.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
ESTADISTICA I CSH M. en C. Gal Vargas Neri.
Capítulo 7 Estimación de Parámetros Estadística Computacional
ESTIMACION POR INTERVALOS
Matemáticas Aplicadas CS I
Titular: Agustín Salvia
Inferencia Estadística
Función Densidad Continua (o distribución de probabilidad continua)
Unidad V: Estimación de
Procesamiento Digital de Imágenes
Distribuciones de probabilidad bidimensionales o conjuntas
DISTRIBUCIONES MUESTRALES
Pruebas de hipótesis.
Tema 6: Distribuciones estadísticas
Elementos Básicos de Probabilidad y Estadística
Estimación Diferencia de dos medias
Estimación y contraste de hipótesis
INTERVALOS DE CONFIANZA
ESTIMACIÓN DE PARÁMETROS
estadístico de procesos.
INTERVALO DE CONFIANZA
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
Ejercicios Dado un conjunto de datos, aplicar el Criterio de Fourier para desechar los posibles valores atípicos.
Distribuciones de Probabilidad
La campana de Gauss Campana de Gauss
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
INFERENCIA ESTADÍSTICA
UNIVERSIDAD CENTRAL DEL ECUADOR FACULTAD DE CIENCIAS ECONOMICAS INFERENCIA ESTADISTICA TEMA: ESTIMACION PUNTUAL, PROPIEDADES DE LAS ESTIMACIONES;
7. Distribución normal Sin duda la distribución continua de probabilidad más importante, por la frecuencia con que se encuentra y por sus aplicaciones.
ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS.
INTRODUCCIÓN 1.- Estadística: concepto, contenido y relaciones
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Yulieth ariza Villarreal Estadística II. Historia La distribución de Student fue descrita en 1908 por William Sealy Gosset. Gosset trabajaba en una fábrica.
Transcripción de la presentación:

FUNCIONES DE DENSIDAD DE PROBABILIDAD Alumno: Medina Vieyra F. Javier Cálculo II

La función de densidad se utiliza en la ciencia estadística con el proposito de conocer cómo se distribuyen las probabilidades de un evento en relación al resultado del evento. En este caso se llama función de densidad de probabilidad. Matemáticamente la FDP (función densidad de probabilidad) es la derivada de la función distribución de probabilidad. Y las propiedades de FDP (a veces visto como PDF del inglés) son: FDP(x) 0. La integral de FDP(x) en el rango especificado para la función, siempre es 1. Algunas FDP están declaradas en rangos de a , como la de la distribución normal En la siguiente imagen se puede ver el aspecto de la gráfica de la función de densidad para la distribución Norma N(0,1)

La función de densidad de probabilidad normal Es bien conocido que el clasificador de Bayes minimiza la probabilidad de error de clasificación. Recordando la regla de clasificación de Bayes, Seleccionar si P(| X)  >  P(| X) para toda j i. o de otra forma, Seleccionar si P(X|)   >  P(X|)  para toda j i. esta regla está determinada por la función de densidad de probabilidad, p (X|). Así, suponiendo conocidas las probabilidades a priori, el cálculo de la densidad de probabilidad es un requisito indispensable para poder clasificar por esta regla cualquier patrón X y si se conoce la forma funcional de P(X|) el problema es trivial.

Entre las funciones de densidad de probabilidad, la función de densidad normal (gaussiana) es la más tratada en la Literatura por su tratabilidad analítica y sus interesantes propiedades. Algunas de ellas son: Parámetros que especifican la distribución. La función de densidad normal queda completamente especificada por pocos parámetros. En el caso unidimensional, bastan únicamente dos parámetros: la media y la varianza. En el caso multidimensional, el vector medio y la matriz de covarianza. Incorrelación e independencia. Dado un conjunto de patrones que siguen una distribución normal, si las variables asociadas están incorreladas, entonces son independientes. Justificación física. La suposición de normalidad es una aproximación razonable para la mayor parte de los datos tomados de la Naturaleza. Esto es cierto, en particular, para variables aleatorias que son suma de otras variables y el teorema central del límite puede aplicarse. La función de densidad normal es acertada en situaciones en las que un conjunto de patrones de una determinada clase toman valores en un rango contínuo y alrededor de un patrón promedio. Esto es, considera que los patrones de clases diferentes tienen distintos valores pero los valores de los patrones de una clase son lo más parecidos posible.

4. Densidades marginales y condicionadas 4. Densidades marginales y condicionadas. Las densidades marginales y condicionadas de una distribución normal son también normales. 5. Invarianza frente a transformaciones lineales. La distribución que sigue cualquier combinación lineal de una variable aleatoria normal es también normal (con diferentes parámetros). Además, siempre es posible encontrar una transformación lineal y no singular que hace que la nueva matriz de covarianza sea diagonal, esto es, siempre puede encontrarse, para una distribución normal, un nuevo conjunto de ejes tal que las nuevas variables son independientes en este nuevo sistema. Esta propiedad es particularmente interesante cuando se aplican transformaciones lineales a los datos, con objeto de resaltar algunas características que se ponen de manifiesto con estas transformaciones. Además, desde un punto de vista práctico (dada su tratabilidad analítica) la relación calidad-costo de la clasificación es mucho mejor que con otros modelos más complejos y los clasificadores diseñados bajo esta suposición son clasificadores robustos.

La función de densidad de probabilidad normal unidimensional La forma de funcional de la función de densidad de probabilidad normal para una variable es la siguiente: P (x| ) =  exp -    (1)que inidica la probabilidad de que, asumiendo que la clase cierta sea , el patrón observado tenga el valor x. En la ecuación 1, = E [ x| ] es la media de la clase i. = E [ (x - )2| ] es la varianza de la clase i. La función de densidad de probabilidad normal (unidimensional) está completamente especificada por dos parámetros: y . Por simplicidad, la ecuación 1 se suele abreviar por P (x| )N(,).

En la figura 2 representamos tres funciones de densidad de probabilidad normales de media 0 y varianzas: 0.15, 1 y 2. Observar la forma simétrica y de ``campana'' que caracteriza a estas funciones. Recordar que el área bajo cada campana es 1 por lo que, informalmente hablando, las campanas bajas serán anchas mientras que las campanas estrechas serán altas. La ``anchura'' de las campanas está en relación inversa con el valor de la varianza: a menor varianza, los datos estarán más concentrados alrededor de la media y por lo tanto, la probabilidad de encontrar un valor cercano a la media aumenta: la altura de la campana es mayor.

forma precisa según el número de desviaciones típicas Una propiedad interesante y útil de la función de densidad normal es la siguiente: el área bajo la curva de la función de densidad de probabilidad normal puede calcularse de forma precisa según el número de desviaciones típicas Una propiedad interesante y útil de la función de densidad normal es la siguiente: el área bajo la curva de la función de densidad de probabilidad normal puede calcularse de forma precisa según el número de desviaciones típicas forma precisa según el número de desviaciones típicas

Areas bajo la curva de la fdp gaussiana en función del número de desviaciones típicasEste valor indica la proporción de la población que se encuentra en determinados intervalos centrados en la media. Así, si es el valor medio y es la desviación típica,

El 68.3% de las observaciones están en el intervalo [ - , + ]. En la práctica, y son desconocidos y deben estimarse a partir de los prototipos de la clase . En la literatura pueden encontrarse diferentes estimadores para estos parámetros. Nosotros utilizaremos los siguientes estimadores, que tienen la propiedad de no estar sesgados: =   xj (2) =   (xj-)2 (3)donde: Ni es el número de prototipos de la clase i. xj es el j-ésimo prototipo de la clase i.

La función de densidad de probabilidad normal multidimensional La forma de funcional de la función de densidad de probabilidad normal para d variables es una extensión directa de la expresión dada en la ecuación 4: P (X|) =  exp -  (X-)T  (X-) (4)donde: = E [ X| ] es el vector medio de la clase i, = E [ (X - )(X - )T| ] es la matriz de covarianza de la clase i, || es el determinante de ;/DD> es la matriz inversa de , (X - )T es el vector traspuesto de (X - ).

La función de densidad de probabilidad normal multivariante está completamente especificada por los parámetros recogidos en y . Por simplicidad, la ecuación 4 se suele abreviar por P (X| )N(,). En la figura 4 mostramos la representación de una función de densidad de probabilidad normal para un conjunto de patrones bidimensionales

En la práctica, los parámetros que definen la distribución, =       = son desconocidos y deben estimarse a partir del conjunto de prototipos.