Estadística bidimensional Juan Carlos Ballabriga Departamento de Matemáticas IES Benjamín de Tudela
Variables estadísticas bidimensionales Se trata de variables que surgen cuando se estudian dos características asociadas a la observación de un mismo fenómeno.
Ejemplo 1.- Estudiamos la talla, medida en cm. y el peso, medido en kg. de un grupo de 10 personas, podemos obtener los siguientes valores Podemos llamar X a la talla e Y al peso con lo que se obtendría la variable bidimensional (X, Y) que toma 10 valores, que son las 10 parejas de valores de la tabla anterior: (160,55), (165,58), etc.
Variables estadísticas bidimensionales En algunos casos el número de "parejas" de valores (x,y) es grande y además muchos de ellos aparecen repetidos; en este caso se utiliza una "Tabla de doble entrada" como la que se muestra a continuación en el ejemplo 2 En la primera fila se colocan los valores de una de las características o variable que componen la variable bidimensional y en la primera columna los de la otra.
Variables estadísticas bidimensionales Ejemplo 2.- Se representa por X el número de hijos de 100 familias y por Y el número de hijas Nº de hijas (y) Nº de hijos (x) 1 2 3 Frecuencias Marginales (x) 10 15 43 12 7 31 8 4 16 6 Frecuencias Marginales(y) 33 34 27 100
Representación gráfica Diagramas de dispersión o nubes de puntos: En unos ejes de coordenadas representaremos la posición y frecuencia de cada pareja de datos
Diagramas de dispersión o nubes de puntos En el ejemplo 1 anterior en el que se estudiaba la talla y el peso de 10 personas se obtendría el siguiente diagrama de dispersión: (En el eje X se representa la talla en cm. y en el eje Y el peso en kg.)
En el caso de tablas de doble entrada 15 10 12 2 7 8 4 3 1
Diagramas de dispersión o nubes de puntos Se puede ver en el primera figura que correspondía al diagrama de talla - peso que la serie de puntos presenta una tendencia "ascendente" . Se dice en este caso que existen entre las dos variables una "dependencia directa" . En caso en que la tendencia sea "descendente" se diría que estaríamos ante una " dependencia inversa " Naturalmente en caso en que no se pueda observar una tendencia clara estaríamos ante una dependencia muy débil que no se puede observar mediante la nube de puntos
Diferentes tipos de diagramas
Dependencia funcional
Ajustes lineales
Covarianza y Correlación Para estudiar si hay relación o no entre las variables Puede ser directa o inversa Se puede “cuantificar”
Covarianza Usaremos una fórmula más cómoda
Tabla de frecuencia Covarianza Talla (cm) Peso kg) x-X y-Y (x-X)(y-Y) 160 55 -12,6 -11,3 142,38 165 58 -7,6 -8,3 63,08 168 -4,6 38,18 170 61 -2,6 -5,3 13,78 171 67 -1,6 0,7 -1,12 175 62 2,4 -4,3 -10,32 66 -0,3 -0,72 180 74 7,4 7,7 56,98 79 12,7 93,98 182 83 9,4 16,7 156,98 10 Media x 172,6 Cov 15,698 Media y 66,3 Covarianza
Como vemos la relación es Positiva (creciente) y parece que es bastante fuerte, pero ¿cuánto?
Coeficiente de Correlación Para cuantificar la relación usaremos el coeficiente de correlación: Propiedades: Es un valor entre -1 y 1 Si es positivo la relación es directa y si es negativa es inversa Cuando se acerca a cero no hay relación
En el ejemplo 1 Mucha relación directa Talla (cm) Peso kg) x-X y-Y 160 55 -12,6 -11,3 142,38 158,76 127,69 165 58 -7,6 -8,3 63,08 57,76 68,89 168 -4,6 38,18 21,16 170 61 -2,6 -5,3 13,78 6,76 28,09 171 67 -1,6 0,7 -1,12 2,56 0,49 175 62 2,4 -4,3 -10,32 5,76 18,49 66 -0,3 -0,72 0,09 180 74 7,4 7,7 56,98 54,76 59,29 79 12,7 93,98 161,29 182 83 9,4 16,7 156,98 88,36 278,89 10 553,2 456,4 812,1 Media x 172,6 Cov 55,32 Var x 45,64 Media y 66,3 81,21 Des x 6,7557383 Des y 9,01165911 Coef. Correl. 0,91 Mucha relación directa
Recta de regresión Relación entre dos variables Variable independiente x Variable dependiente y función lineal del tipo y = ax + b, su gráfica correspondería a una recta de regresión. Ajuste por mínimos cuadrados
Se deduce que la recta de regresión debe pasar por el punto correspondiente a las medias de ambas variables y que debe tener por pendiente Con ello la expresión de la recta de regresión utilizando la ecuación punto-pendiente será: Esta es la llamada "Recta de regresión de y sobre x". Si se deseara estudiar la dependencia de x respecto a y sólo habría que cambiar en la expresión de la recta x por y, obteniéndose la recta regresión de x sobre y
En la imagen siguiente se muestra la recta de regresión de y (peso) sobre x (talla) del ejemplo 1 de este tema. En este caso se supone que represente cómo depende el peso de una persona de su talla Si recordamos que entre la talla y el peso decíamos que existía una dependencia directa, la recta de regresión lo confirma ya que su pendiente es positiva: a medida que aumenta la talla aumenta el peso. Por tanto: Dependencia directa - Pendiente de la recta positiva - Función creciente
Media x 172,6 Media y 66,3
Utilidad tiene la recta de regresión Mediante la recta de regresión podríamos obtener de manera aproximada el valor de la variable dependiente (y) de la que conociéramos la variable independiente (x), en una población semejante a aquella de la que se ha obtenido la muestra De manera más precisa, si conocemos la expresión de la recta de regresión, se pueden calcular valores para la variable y, conocidos los de x, como si se tratara de una función
Ejemplo : Si observamos la gráfica, podríamos suponer por ejemplo que una persona de 185 cm pesaría algo más de 80 kg De acuerdo a la fórmula La recta de regresión de la variable y (peso) sobre x (talla) será la recta: que pasa por el punto (172,6 ; 66,3) (medias respectivas de (x,y)) tiene de pendiente: 55.32 / 50.71 = 1.0909 Recta: y – 66.3 = 1.0909 ( x – 172.6) que operando y simplificando queda: y = 1.0909x – 121.9
El valor del peso que suponíamos aproximado para una talla de 185 cm sería: Este valor obtenido es algo menor al esperado. Eso quiere decir que las predicciones hechas con la recta de regresión no son exactas. Por tanto la recta de regresión se puede utilizar para realizar predicciones para la variable y a partir de valores conocidos de la variable x.
Resumen: Variables bidimensionales Coeficiente de correlación Regresión Recta de regresión