ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS.

Slides:



Advertisements
Presentaciones similares
Si la estadística no miente...: ¡Cuánto influyes sobre mi!
Advertisements

Tema 6: Regresión lineal.
Tema 5: Asociación. 1. Introducción. 2. Tablas y gráficas bivariadas.
Correlaciones bivariadas y correlaciones parciales
Regresión mínimo cuadrada (I)
REGRESION LINEAL SIMPLE
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
Bivariadas y Multivariadas
Estadística: -Correlación y regresión
Ingeniería Industrial II CicloEducativo 2011
Introducción a la Estadística. Modelos de regresión
Regresión y correlación
Medidas de Dispersión Estadística E.S.O.
Distribuciones de frecuencias bidimensionales
Estadística Descriptiva: 4. Correlación y Regresión Lineal
بسم الله الرحمن الرحيم.
Tema 1- Regresión lineal simple.
CURSO DE ESTADÍSTICA BÁSICA
Estadística Descriptiva: 4. Correlación y Regresión Lineal Ricardo Ñanculef Alegría Universidad Técnica Federico Santa María.
Regresión lineal Es un modelo matemático para predecir el efecto de una variable sobre otra, ambas cuantitativas. Una variable es la dependiente y otra.
1º BACHILLERATO | Matemáticas © Oxford University Press España, S.A Hacer clic en la pantalla para avanzar VARIABLE ESTADÍSTICA UNIDIMENSIONAL Población:
9 Regresión Lineal Simple
Estadística bidimensional
MEDIDAS DE DISPERSIÓN:
Análisis de Correlación y de Regresión lineal simple
MEDIDAS DE CORRELACIÓN
Escuela de Administración
Facultad: Turismo Y Hotelería
UNIVERSIDAD AUTONOMA DEL PERÚ
Distribuciones bidimensionales. Tablas de contingencia
Tema 3: Estadística descriptiva bivariante y regresión lineal.
REGRESION Y CORRELACION
Pronósticos, Series de Tiempo y Regresión
Tema 7: Regresión Simple y Múltiple. EJEMPLO: Aproxima bien el número de préstamos que efectúa una biblioteca a lo largo de su primer año de vida. Nos.
Valor que toma la variable aleatoria
Tema 7: Regresión Simple
Titular: Agustín Salvia
Introducción a la Inferencia Estadística
ESTADÍSTICA BIDIMENSIONAL
Estadística bidimensional
Estadística Descriptiva
Variables estadísticas bidimensionales
RELACIÓN ENTRE VARIABLES
Análisis de Datos en Economía
Distribuciones de probabilidad bidimensionales o conjuntas
Estadística aplicada a la educación
coeficientes de correlación de
Relaciones entre variables y regresión
SEMINARIO DE INVESTIGACION Titular: Agustín Salvia
Estadística II Regresión Lineal.
Análisis de los Datos Cuantitativos
Regresión Lineal Simple
Variables estadísticas bidimensionales
CORRELACIÓN Y REGRESIÓN EMPLEANDO EXCEL
Correlación Decimos que dos variables, X e Y, están correlacionadas cuando hay una relación cuantitativa entre ellas. X suele ser la variable independiente.
Construcción de modelos con regresión y correlación
Ejercicios Dado un conjunto de datos, aplicar el Criterio de Fourier para desechar los posibles valores atípicos.
Variables estadísticas bidimensionales
Correlación ρ (rho) r.
Unidad 4 Análisis de los Datos.
ANÁLISIS DE LA INFORMACIÓN La relación entre variables.
UNIDAD IV Regresión y correlación lineal
Tema 2: Estadística bidimensional
REGRESIÓN LINEAL SIMPLE
REGRESIÓN LINEAL SIMPLE. Temas Introducción Análisis de regresión (Ejemplo aplicado) La ecuación de una recta Modelo estadístico y suposiciones Estimación.
Introducción a la Estadística Inferencial con SPSS Juan José Igartua Perosanz Universidad de Salamanca
1 ANÁLISIS DE CORRELACIÓN, REGRESIÓN Y CONTRASTE.
Licenciatura en Psicopedagogía: Métodos, Diseños y Técnicas de Investigación Psicológica Tema 9 Fiabilidad de las puntuaciones.
1 REGRESIÓN CON VARIABLES DICOTÓMICAS TEMA 1 (CONTINUACIÓN)
ESTADÍSTICA BIDIMENSIONAL
Transcripción de la presentación:

ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS

Covarianza (S xy ) Mide la relación lineal entre dos variables y se expresa mediante la siguiente fórmula: Propiedades: S xy es un valor que varía entre -∞ y + ∞ Si S xy es positivo, entonces la correlación es directa (a mayor valor de X, mayor valor de Y) y, por tanto, la recta de regresión es ascendente. Si S xy es negativo, entonces la correlación es inversa (a mayor valor de X, menor valor de Y) y, por tanto, la recta de regresión es descendente. Si S xy es cero, entonces no hay correlación entre X e Y.

Coeficiente de correlación de Pearson (r xy ) La covarianza depende de los valores de las variables y por tanto de sus unidades. Para tener una medida adimensional se utiliza el coeficiente de correlación de Pearson (r xy) que nos indica qué tipo de relación existe entre dos variables, así como la magnitud de dicha correlación, siendo invariante frente a transformaciones lineales (cambio de origen y escala) de las variables. El coeficiente de correlación de Pearson fue construido bajo el supuesto de que los datos siguen una distribución normal bivariada y la escala de medición es al menos de intervalo.

El Coeficiente de Correlación de Pearson mide la relación lineal entre dos variables y se define como el cociente entre la covarianza y el producto de las desviaciones típicas de ambas variables. Toma la siguiente expresión para el cálculo: Propiedades: Es un coeficiente adimensional. Es decir, que es independiente de las unidades en que están expresadas las variables. Por ello sirve de valor de comparación aunque la variables vengan expresadas en unidades diferentes. -1 ≤ r xy ≤ 1 Si r xy =1 ó r xy = -1, la relación es funcional. Una variable depende matemáticamente de la otra (puede expresarse mediante una fórmula en la que intervenga la otra, por ejemplo la longitud de una circunferencia depende del radio mediante la fórmula (L=2πr).

Interpretación: Si r xy está próximo a 1 ó -1 la correlación es fuerte (por encima de ±0.8). Si r xy está próximo a 0, la correlación es débil. Si r xy >0 la correlación es directa. Hay relación lineal positiva. Si r xy <0 la correlación es inversa. Hay relación lineal negativa. Si S xy = 0 y por tanto r xy = 0 la correlación es nula. La relación lineal es nula. Interpretación gráfica: Si r xy = 1 los puntos (x,y) forman una línea ascendente. Si r xy = -1 los puntos (x,y) forman una línea descendente. Si r xy > 0 los puntos (x,y) forman una nube ascendente más cercana a una recta cuanto más cercano sea este valor a 1. Si r xy < 0 los puntos (x,y) forman una nube descendente más cercana a una recta cuanto más cercano sea este valor a -1. Si r xy = 0 la nube de puntos sigue una distribución totalmente aleatoria (circular).

MEDIDAS DE RELACIÓN ENTRE VARIABLES ORDINALES Coeficiente de correlación de Spearman Cuando los datos no se distribuyen según una normal bivariada o bien están medidos con una escala ordinal, una de las posibles medidas de asociación lineal es el coeficiente de correlación de Spearman (1904). Este coeficiente se define de igual manera que el de Pearson, sólo que en lugar de utilizar los valores de las variables, utiliza los rangos asociados a estos valores. En el caso de que una variable sea ordinal y la otra cuantitativa, se analizarán los datos como si las dos fuesen ordinales.

donde d i es la diferencia entre el rango del caso i en la variable X, y en la variable Y. Propiedades: - 1 ≤ r s ≤ +1 Si r s = +1, hay correlación directa máxima. Si r s = -1, hay correlación inversa máxima. Si r s = +1, la correlación es nula.

MEDIDAS DE RELACIÓN ENTRE VARIABLES NOMINALES En muchos casos la relación entre determinadas variables no puede medirse con una escala cuantitativa. Por ejemplo: la relación entre el género y la ideología política. Al no cuantificarse numéricamente las variables no se puede hablar de una correlación directa o inversa. Por ejemplo: decir que a mayor género, mayor ideología política no tiene sentido. Por lo tanto, cuando decimos que dos variables nominales X e Y están relacionadas, queremos decir que las proporciones de X (género: hombre, mujer) son diferentes en cada categoría de Y (ideología política: izquierda, derecha). Si X e Y no están relacionadas, entonces las proporciones de X serán iguales en las distintas categorías de Y. A las frecuencias que esperaríamos obtener si X e Y estuvieran relacionadas se les denomina frecuencias observadas. A las frecuencias que esperaríamos obtener si X e Y no estuvieran relacionadas se les denomina frecuencias esperadas.

REGRESIÓN LINEAL SIMPLE En un gráfico de nube de puntos, podemos observar de manera intuitiva cierto grado de asociación o correlación lineal entre las dos variables. Incluso se podría trazar una recta, llamada recta de regresión, que se ajustase a la nube de puntos. No obstante, también la apreciación visual de la existencia de correlación no es suficiente. Vamos a proceder ahora a estudiar el procedimiento de selección de esta recta y los parámetros de medida que debemos usar. Una vez encontrada la función que representa esta dependencia de las variables, podremos predecir los valores de una variable (variable dependiente o explicada) a partir de los valores de las otras (variables independientes o explicativas). Además, podremos calcular la fiabilidad de esta predicción.

La regresión puede o no representarse por una recta. En el caso de que elijamos un recta para ajustarla a la nube de puntos, estaremos hablando de regresión lineal. En otro caso, diremos que la regresión es no lineal. Asimismo, una regresión lineal es simple cuando solamente exista una variable independiente. Cuando sean más de una las variables independientes diremos que la regresión lineal es múltiple. A partir de la observación de la nube de puntos se elige el tipo de función o curva que mejor relaciona las dos variables. Se obtiene así la ecuación de la recta o de la curva que mejor se adapta al conjunto de puntos y que sirve para predecir el valor de una de las variables.