> xi <- c(1, 1, 2, 2, 2.6, 2.8, 2.8, 3, 3, 3, 3.8, 4, 5.2, 6, 6.4, 6.5, 7) > par(mfrow=c(1,3)) > hist(xi, breaks=4, main="4 bins") > hist(xi, breaks=6,

Slides:



Advertisements
Presentaciones similares
ESTIMACIÓN DE DENSIDAD
Advertisements

Límites de Funciones Definición de Límites Propiedades de Límites
Jacqueline Chávez Cuzcano
SIMULACIÓN DE MONTECARLO
JUAN JOSÉ VENEGAS MORENO
Estadística Unidad III
SVM en R, el paquete e1071 > names(tinto)
Problemas Resueltos sobre Reglas de cálculo de Límites
ESTADISTICA INFERENCIAL
Adaptación por el autor de apuntes de clases dictadas por la Dra. G Castle en la Universidad de Liverpool, enriquecidas con experiencias del propio autor.
Los elementos invertibles de Z6 son 1 y 5
Integrales VI Sesión.
Generación de Números Seudo-Aleatorios
Estimación de los Errores de Muestreo Encuestas de Salud Reproductiva   RHS Usando SPSS 19.
Clase 13.2 Integrales Impropias.
La ley de los grandes números
8.3.- APROXIMACIOIN DE LA DISTRIBUCION BINOMIAL A LA NORMAL
Reducción de datos Por Elizabeth León.
CARACTERÍSTICAS ESTADÍSTICAS
REGRESIÓN POR MÍNIMOS CUADRADOS
Solución de problema Herramientas aplicables
Medidas de tendencia central
Introducción al lenguaje R Sesión 4 / Gráficos en R
Introducción al lenguaje R Sesión 2: Objetos en R
MÓDULO DE MEDIDAS DE DISPERSIÓN O VARIABILIDAD
Ultrasonido Industrial
MUESTREO DE ACEPTACIÓN DE LOTES POR VARIABLES
Maracaibo, 5 de Noviembre de 2007 Universidad del Zulia Facultad de Ingeniería Instituto de Cálculo Aplicado Universidad del Zulia Facultad de Ingeniería.
Estadística Descriptiva
FUNCIONES DE DENSIDAD DE PROBABILIDAD
EVALUACION DE RIESGO EN UN PROYECTO/EMPRESA. ESFUERZOS REALIZADOS PARA TRABAJAR CON INCERTIDUMBRE Considerar estimadores mas acertados: no obstante cuan.
Sesión 2: Métodos Probabilísticos Básicos
ANALISIS DE DATOS CON EXCEL
MÉTODO BOOTSTRAP Considere una muestra aleatoria de tamaño n = 10 con las siguientes observaciones: X1 = -2.41, X2 = 4.86, X3 = 6.06, X4 = 9.11 X5 = 10.2,
Distribución Normal.
Análisis de series de tiempo Cuarta semana Abril Julio 2009.
Descripción de Contenidos con Wavelets Jaime Gaviria.
Detectores de Borde. Extracción de Características Detección de Líneas. Detección de Puntos de Borde. Detección de Contornos.
MÉTODO DE PIXELES DE BORDE
VALIDACION DE METODOS ANALITICOS.
Gerenciamiento Técnico de Proyectos
Tema 8: Estimación 1. Introducción.
DISTRIBUCION NORMAL Mario Briones L. MV, MSc 2005.
Elaboración de gráficas
Métodos de calibración: regresión y correlación
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Capacidad de Proceso.
Estimación por intervalo en la regresión: Bandas de Confianza
Herramientas básicas.
Análisis de series de tiempo
Tema 3: Filtros.
PROBABILIDAD CONCEPTO.
Análisis de correspondencia canónica (CCA)
La Distribución Normal.
Herramientas avanzadas. Lo primero: abrir el modelo.
SESION 5: MEDIDAS DE FORMA. Hasta el momento nos hemos enfocado en el análisis de datos a partir de los valores centrales y la variabilidad de las observaciones.
P Y E 2004 Clase 19Gonzalo Perera1 Propiedades generales del p-valor Repaso de la clase anterior. Tests de aleatoriedad Estadística de datos dependientes.
Estadística Descriptiva
SEMINARIO 5: GRÁFICAS EN SPSS Marta Rodríguez Sánchez 1º Enfermería B Subgrupo: 8.
RATS MODELIZACIÓN DE DISTRIBUCIONES. RATS 1. FUNCIONES DE PROBABILIDAD.
INTRODUCCIÓN A SPSS Statistic Package for Social Sciencies.
P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.
Clase N°9 Análisis de output en el largo plazo (Parte II) ICS3723 Simulación Profesor Pedro Gazmuri.
Medición y Metrología Medición. Base de la Instrumentación
Clase N°11 Métodos de reducción de varianza
UNIVERSIDAD CATOLICA ARGENTINA
Cálculo de área por medio de la sumas de Riemann Alumnas: Maciel Gisella, Uliambre Sabrina Profesora: Nancy Debárbora Curso: 3er año del prof. En matemáticas.
LOGO Medidas de posición Pedro Godoy G. Media Aritmética Valor representativo de un conjunto de datos Para datos no agrupados 1, x2, x3, x4,…………………………,
Medidas de tendencia central
Transcripción de la presentación:

> xi <- c(1, 1, 2, 2, 2.6, 2.8, 2.8, 3, 3, 3, 3.8, 4, 5.2, 6, 6.4, 6.5, 7) > par(mfrow=c(1,3)) > hist(xi, breaks=4, main="4 bins") > hist(xi, breaks=6, main="6 bins") > hist(xi, breaks=9, main="9 bins") Efecto del número de clases o bins sobre el aspecto de un histograma

> par(mfrow=c(2,2)) > hist(xi, breaks=seq(0,7,1)) > hist(xi, breaks=0.25+seq(0,7,1)) > hist(xi, breaks=0.5+seq(0,7,1)) > hist(xi, breaks=0.75+seq(0,7,1)) Efecto del cambio de los límites de las clases

¿Qué pasa si promediamos los histogramas del paso anterior? Al realizar un gráfico que promedia los valores de densidad de cada uno de los histogramas anteriores, obtenemos un average shifted histogram (ASH). En los histogramas originales tenemos un ancho de bin, h=1, y en ASH promediamos 4 desplazamientos (m=4), determinando un δ= h/m = ¼ = 0.25.

Otra forma de ver la función ASH es como un histograma con ancho de bin δ, y luego se calcula el histograma de ancho de clase h agregando los recuentos de de m clases adyacentes. Si llamamos a los recuentos v k, podemos definir el valor de la función ASH para un punto x como: Ahora, si el número de desplazamientos tiende a infinito obtenemos: Que es un estimador de densidad kernel con un kernel triangular.

Donde K es el kernel y h el ancho de banda. Algunas opciones comunes de función kernel son: La forma más general de un estimador kernel de densidad es: Existen varios métodos para determinar el valor de h. En general estos métodos buscan minimizar la integral del error cuadrático medio, normalmente por validación cruzada. Tiene un efecto más importante la selección del ancho de banda que la del kernel Gausiana Epanechnikov Triangular

> par(mfrow=c(1,3)) > plot(density(xi), main="ancho de banda (bw) optimizado") > plot(density(xi, bw=0.3), main="bw=0.3") > plot(density(xi, bw=2), main="bw=2") Kernel Gaussiano

Kernel Epanechnikov > par(mfrow=c(1,3)) > plot(density(xi, kernel="epanechnikov"), main="ancho de banda (bw) optimizado") > plot(density(xi, kernel="epanechnikov", bw=0.3), main="bw=0.3") > plot(density(xi, kernel="epanechnikov", bw=2), main="bw=2")

Variantes Se puede usar un ancho de banda variable, este tipo de técnicas se conocen como estimadores de densidad kernel adaptativos. Esto es útil, por ejemplo, para aumentar el suavizado en las puntas de la distribución donde hay menos datos, y reducirlo en las proximidades de la moda. Las técnicas de estimación kernel se pueden extender al caso multivariado. No vamos a analizar la teoría en profundidad, pero vamos a considerar algunos puntos importantes: La maldición de la dimensionalidad: es muy fácil llegar a una situación donde a pesar de contar con una cantidad masiva de datos, los histogramas multidimensionales son ralos. Para evitar esta situación se puede reducir el número de clases, pero esto aumenta el sesgo. En el caso de estimadores multidimensionales de densidad, una opción frecuente es el kernel producto con anchos de banda específicos por dimensión

# white es una matriz de 12 variables medidas sobre 1599 vinos blancos # se puede obtener del UCI Machine Learning Repository > names(white) [1] "fixed.acidity" "volatile.acidity" "citric.acid" [4] "residual.sugar" "chlorides" "free.sulfur.dioxide" [7] "total.sulfur.dioxide" "density" "pH" [10] "sulphates" "alcohol" "quality" > plot(white$alcohol, white$fixed.acidity, col="red", pch=19, cex=.6, xlab="alcohol", ylab="acidez") Un ejemplo en dos dimensiones

> library(MASS) > w1 <- kde2d(white$alcohol, white$fixed.acidity) > image(w1, col=heat.colors(7), xlab="alcohol", ylab="acidez")

> contour(w1, col=topo.colors(10), xlab="alcohol", ylab="acidez") > persp(w1, xlab="alcohol", ylab="acidez", theta=45, phi=15, r=15)

> install.packages(ks) # ks es un paquete para trabajar con hasta 6 dimensiones > library(ks) > hpi_white <- Hpi(white[,c(2:4)]) > hpi_white [,1] [,2] [,3] [1,] [2,] [3,] > hpi_white_diag <- Hpi.diag(white[,c(2:4)], pilot="samse") > hpi_white_diag [,1] [,2] [,3] [1,] [2,] [3,] > install.packages("misc3d") > install.packages("rgl") > fhat_white <- kde(x=white[,c(2:4)], H=hpi_white) > plot(fhat_white) > fhat_white_diag <- kde(x=white[,c(2:4)], H=hpi_white_diag) > plot(fhat_white_diag) Un ejemplo en tres dimensiones