Tema 6: Regresión lineal. 1. Introducción. 2. La ecuación de la recta. 3. El criterio de mínimos cuadrados. 4. Representación gráfica. 5. Coeficientes.

Slides:



Advertisements
Presentaciones similares
Tema 6: Regresión lineal.
Advertisements

Tema.9.Predicción y estimación. Concepto. Cálculo de la ecuación de regresión lineal. Modelo general lineal. Evaluación del modelo. Diagnóstico del modelo.
Regresión y correlación
Tema 1- Regresión lineal simple.
Regresión lineal Es un modelo matemático para predecir el efecto de una variable sobre otra, ambas cuantitativas. Una variable es la dependiente y otra.
Estadística Aplicada a las Ciencias Políticas
ANÁLISIS DE LA INFORMACIÓN La relación entre variables.
REGRESIÓN LINEAL MÚLTIPLE TEMA INTRODUCCIÓN 2 x1x1 Y x2x2 x3x3 xKxK.
LEONARDO LÓPEZ C. ECONOMIA ESTADISTICA COMPUTARIZADA PARALELO: 261.
Tema 3: Distribuciones bidimensionales: Relación estre dos variables estadísticas Relación estadísca: Correlación Diagramas de dispersión.
TEMA 3: Estadística Bidimensional. ● Álvaro Fernández Romero y Luis Carlos Fernández herrezuelo.
CORRELACIÓN.  La correlación es la forma numérica en la que la estadística ha podido evaluar la relación de dos o más variables, es decir, mide la dependencia.
Free and Quick Translation of Anderson's slides1 Modelo de Regresión Lineal Simple y =  0 +  1 x + u.
REGRESIÓN Y CORRELACIÓN  REGRESIÓN Es un Proceso estadístico que consiste en predecir una variable a partir de otra utilizando datos anteriores. INGA.
1 Pronósticos, Series de Tiempo y Regresión Capítulo 3: Regresión Lineal Simple.
Ing. VITELIO ASENCIOS TARAZONA. Dentro de los modelos causales o asociativos encontramos el análisis de regresión o regresión lineal, que es un método.
Funciones.
Funciones y gráficas Daniel Ordoñez Aguirre Licenciatura EN DERECHO
San Pedro Sac. San Marcos Guatemala.
Descripción y tratamientos de datos multivariantes
Repaso: Sistemas mixtos
Curso de Elaboración de Pruebas Prof. Gerardo A. Valderrama M
Rectas en el plano cartesiano
Tarea II Matemáticas Francisco Raul Gandara Villaverde
GRÁFICAS Y FUNCIONES María José Peña Mártil MATEMÁTICAS
Pedro Letelier Patricio Contreras
MEDIDAS DE FORMA ASIMETRIA Y CURTOSIS..
MEP- II.
ESTADÍSTICA II Ing. Danmelys Perozo MSc.
con a, b y c constantes reales y a ≠ 0.
U.D. 13 * 3º ESO E.AP. FUNCIONES LINEALES Y CUADRÁTICAS
Capítulo 6 Regresión no lineal
Tema 4: Análisis de datos bivariantes numéricos (continuación)
Correlación Lineal de Pearson y Regresión Lineal Simple
ESTADÍSTICA BIDIMENSIONAL
LA COVARIANZA Y EL COEFICIENTE DE CORRELACIÓN LINEAL DE PEARSON
CALCULO DE COSTOS POR MÉTODOS ESTADÍSTICOS:
ESTADÍSTICA BIDIMENSIONAL
Ecuación de la recta. Elementos de ecuación de la recta En una ecuación dela recta de tipo y=mx+c se analizan los siguientes elementos: m es la pendiente.
Análisis descriptivo y presentación de datos bivariables
PREDICCIÓN Y ESTIMACIÓN
REGRESÍON LINEAL SIMPLE
Estimación de parámetros: Estimación puntual y por intervalos
ECONOMETRIA I 3. MODELO LINEAL DE TRES VARIABLES
REGRESIÓN LINEAL SIMPLE
3.1 AREAS.
3. COMPONENTES PRINCIPALES  Introducción  Componentes principales  Componentes principales muestrales  Comportamiento asintótico de autovalores y autovectores.
ANÁLISIS DE REGRESIÓN SIMPLE
Análisis de Regresión Lineal Curso de Verano ENCUP: Introducción al análisis cuantitativo en ciencias sociales Javier Aparicio División de Estudios Políticos,
Tema 1- Regresión lineal simple.
ESTADÍSTICA BIDIMENSIONAL
Correlación Relación no lineal Relación lineal positiva Relación
Ecuación Explícita de la Recta
ICPM050 – ECONOMETRÍA tema 03: ESTIMACIÓN MODELO LINEAL SIMPLE
Correlación Relación no lineal Relación lineal positiva Relación
INTRODUCCIÓN 1. Álgebra lineal y vectores aleatorios 2. Distribución normal multivariante ANÁLISIS DE LA MATRIZ DE COVARIANZAS 3. Componentes principales.
Modelo de Regresión Lineal Simple
Analisis de Regresion Multiple
CAPITULO 3: MEDIDAS DE VARIABILIDAD Y ASIMETRÍA
Ejemplos con análisis y grafico
DETERMINACIÓN DE LA RECTA DE REGRESIÓN
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES I 1º BTO A
Tema 5: Asociación. 1. Introducción. 2. Tablas y gráficas bivariadas.
Regresión lineal Electivo Estadística IV°Medio 2019.
ESTADÍSTICA DESCRIPTIVA Mg. JHON FREDY SABI ROJAS.
INFORMACION GENERAL DE OBJETO DE APRENDIZAJE Bibliografía Autor Competencia Tema INICIO Facultad de Ingeniería Mexicali – Agosto 2009 Optimizado para Microsoft.
INFORMACION GENERAL DE OBJETO DE APRENDIZAJE Bibliografía Autor Competencia Tema INICIO Facultad de Ingeniería Mexicali – Agosto 2009 Optimizado para Microsoft.
ANALISIS DE REGRESION SIMPLE
REGRESION LINEAL SIMPLE
UNIDAD EDUCATIVA “MARIANO PICON SALAS REGRESION LINEAL SIMPLE
Transcripción de la presentación:

Tema 6: Regresión lineal. 1. Introducción. 2. La ecuación de la recta. 3. El criterio de mínimos cuadrados. 4. Representación gráfica. 5. Coeficientes de regresión estandarizados. 6. El coeficiente de determinación. 7. Introducción a la regresión múltiple.

Concepto El establecimiento de una correlación entre dos variables es importante, pero esto se considera un primer paso para predecir una variable a partir de la otra. (U otras, en el caso de la regresión múltiple.) Claro está, si sabemos que la variable X está muy relacionada con Y, ello quiere decir que podemos predecir Y a partir de X. Estamos ya en el terreno de la predicción. (Evidentemente si, X no está relacionada con Y, X no sirve como predictor de Y.) Nota: Emplearemos los términos “regresión” y “predicción” como casi sinónimos. (La razón del uso del término “regresión” es antigua, y se ha mantenido como tal.)

Concepto (2) rendimiento inteligencia El tema básico en regresión (con 2 variables) es ajustar los puntos del diagrama de dispersión de las variables X e Y. Para simplificar, nos centraremos especialmente (por simplicidad) en el caso de que la relación entre X e Y sea lineal. Claro está, el tema ahora es cómo conseguir cuál es la “mejor” línea que parece unir los puntos. Necesitamos para ello un criterio. Si bien hay otros criterios, el más empleado comúnmente, y el que veremos aquí, es el criterio de mínimos cuadrados. Criterio de mínimos cuadrados: Es aquel que minimiza las distancias cuadráticas de los puntos con la línea.

Repaso de la ecuación de una recta rendimiento inteligencia Y=A+BX A es la ordenada en el origen (es donde la recta corta el eje Y) B es la pendiente (observad que en el caso de las relaciones positivas, B será positivo; en el caso de las relación negativas, B será negativo; si no hay relación, B será aproximadamente 0) Si queremos predecir Y a partir de X, necesitamos calcular (en el caso de relación lineal) la recta de regresión de Y sobre (a partir de) X.

Cálculo de la ecuación de regresión lineal (de Y sobre X) Rendimiento (Y) Inteligencia (X) El criterio de mínimos cuadrados nos proporciona un valor de A y uno de B, tal que Y’ sea mínimo

Cálculo de la ecuación de regresión lineal (de Y sobre X) CI (X) Rendim (Y)

Cálculo de la ecuación de regresión lineal (de Y sobre X) La recta por mínimos cuadrados es: Y’=-8’5+0’15X Observa.... -Cada unidad de CI hace aumentar 0’15 la nota. -Aunque en este caso, lo siguiente no tiene sentido, una persona con CI de 0, sacaría un -8.5 es mínimo Esa expresión vale 11.5 en nuestro caso

Cálculo de la ecuación de regresión lineal (de Y sobre X) Las fórmulas.... En puntuaciones directas Nota: Tanto A como B se pueden obtener fácilmente en cualquier calculadora con opción “LR” (Linear Regression) Pendiente Ordenada origen

Cálculo de la ecuación de regresión lineal (de Y sobre X) Y’=-8’5+0’15X Luego

Cálculo de la ecuación de regresión lineal (de Y sobre X) Las fórmulas en puntuaciones diferenciales Pendiente Ordenada origen Fijaros que la media de X y la media de Y serán 0 en puntuación típicas IMPORTANTE: B=b Es decir, la pendiente en puntuaciones diferenciales es la MISMA que en puntuaciones directas Por tanto, la recta de regresión en puntuaciones diferenciales es en nuestro caso: y’=0’15x

Cálculo de la ecuación de regresión lineal (de Y sobre X) Las fórmulas en puntuaciones típicas Pendiente Ordenada origen Al igual que en las puntuaciones diferenciales Por tanto, la recta de regresión en puntuaciones típicas es en nuestro caso: z y’ =0’703z x IMPORTANTE: Como veremos, la pendiente en puntuaciones típicas COINCIDE con el índice de correlación de Pearson

Cálculo de la ecuación de regresión lineal (de Y sobre X) OUTPUT DEL ORDENADOR Ord. y pendiente (punt.directas) Ord. y pendiente (punt.típicas) Observad que el índice de corr.Pearson coincide con la pendiente expresada en puntuaciones típicas.

Cálculo de la ecuación de regresión lineal (de Y sobre X) Sabemos que Y por el tema anterior Y por el tema de variabilidad y Se deduce que

Cálculo de la ecuación de regresión lineal (de Y sobre X) En definitiva, y Evidentemente, la ordenada en el origen de la recta de regresión de Y sobre X será 0 para puntuaciones diferenciales y típicas (dado que las medias para las respectivas puntuaciones tanto en X como en Y serán 0 en tales casos).

Los errores de predicción en la recta de regresión de Y sobre X Puntuaciones observadas Puntuaciones predichas Error de predicción con la recta de regresión de Y sobre X La cuestión ahora en cuánto se reduce la varianza al emplear la recta de regresión de Y sobre X (es decir, teniendo X como predictor) en comparación con el caso en que no tuviéramos la recta de regresión

Los errores de predicción en la recta de regresión de Y sobre X Si no tuviéramos el predictor X, ¿qué puntuación prediríamos para las puntuaciones de Y? En tal caso, dado el criterio de mínimos cuadrados, si tenemos datos en Y y carecemos de datos en X, nuestra mejor estimación de Y será su media Recordemos que la media minimiza el sumatorio de las diferencias Cuadráticas es mínimo Si empleamos la media como predictor, la varianza de las predicciones será

Los errores de predicción en la recta de regresión de Y sobre X Pero si tenemos un predictor X, la varianza será Esta es la varianza de Y no explicada por X Se puede demostrar que Que despejando sale

¿Cuán buena es la predicción de la recta de regresión? El coeficiente de determinación como índice de la bondad de ajuste de nuestro modelo (la recta de regresión) Acabamos de mostrar que Es el llamado coeficiente de determinación y permite conocer cuán bueno es el ajuste de la recta de regresión (o en general del modelo lineal). Está acotado entre 0 y 1. Si todos los puntos del diagrama de dispersión están sobre la recta (con pendiente diferente de 0), entonces será 0, y el coeficiente de determinación será 1 Cuanto más se alejen los puntos de la recta de regresión, mayor será el valor de el valor del coeficiente de determinación será menor y menor.

El coeficiente de determinación y la proporción de varianza asociada/explicada/común (1) Empecemos con una tautología Esta expresión indica que la puntuación observada por el sujeto i-ésimo es igual a la puntuación predicha para dicho sujeto más un error de predicción. Se puede demostrar que las puntuaciones predichas y los errores de predicción son independientes, con lo que podemos señalar Varianza total de Y Varianza de las puntuaciones de Y predichas por el predictor X Varianza de los errores de predicción (varianza no explicada por X)

El coeficiente de determinación y la proporción de varianza asociada/explicada/común (2) De la transparencia anterior, tenemos Y sabíamos que luego En definitiva, el coeficiente de determinación mide la proporción de la varianza de Y que está asociada/explicada por el predictor X

Introducción a la regresión lineal múltiple (1) Hemos visto el caso de un predictor (X) y una variable predicha (Y), y obtenido la recta de regresión de Y sobre X por el procedimiento de mínimos cuadrados. Dada la naturaleza del comportamiento humano, en el que cada conducta observada puede ser influida por diferentes variables, resulta más “ecológico” examinar no ya cuán bueno es un predictor X para predecir Y, sino más bien tendremos varios predictores X 1, X 2,...., para predecir Y (o si se quiere, varios predictores, X 2, X 3,...., para predecir X 1 ). Es el caso de la regresión múltiple. Hasta ahora teníamos Ahora tendremos k predictores: “criterio”, variable a predecir, variable “dependiente” Variables predictoras

Introducción a la regresión lineal múltiple (2) Es importante que os deis cuenta que las ponderaciones B 2, B 3,..., son análogas a las que vimos en el caso de la recta de regresión. Tales coeficientes representan cuán importante es la respectiva variable predictora en la ecuación de regresión. Al igual que ocurría en la recta de regresión (fijaros que el caso de 1 predictor es un caso particular de la regresión múltiple), A representa el lugar donde el hiperplano de regresión múltiple corta el eje de la variable predicha. Por simplicidad, y dado que normalmente todo el proceso se hace mediante ordenador, no veremos las fórmulas (ver el texto de Botella y otros, en el que está todo bien explicado)...pero ahora veremos unas puntualizaciones. Por ejemplo Recta regresión

Introducción a la regresión lineal múltiple (3) En puntuaciones directas, la ecuación de regresión es la que sabemos En puntuaciones diferenciales, recordad que A valía 0 en la recta de regresión; lo mismo se aplica en la ecuación de regresión. Y aplicando la misma lógica, el valor de los pesos es el mismo que el que teníamos en puntuaciones directas etcétera

Introducción a la regresión lineal múltiple (4) Datos (N=5) Rendim Ansied Neurot Como en el caso de 1 predictor:

El modelo lineal general El modelo lineal general subyace a buena parte de las pruebas estadísticas que se efectúan en psicología y en otras ciencias sociales. Por decir unas pocas -Análisis de regresión (ya vistos) -Análisis de Varianza (se verán 2º cuatrimestre) -Pruebas t (se verán 2º cuatrimestre) -Análisis de covarianza -Análisis de conglomerados (cluster analysis) -Análisis factorial -Escalamiento multidimensional -Correlación canónica -Análisis discriminante y más....

El modelo lineal general (2) Claramente, los análisis de regresión que hemos visto son un caso particular del modelo lineal general, en el caso de 2 variables: una actúa como predictor y una variable predicha. Observado = Predicho + Error estimación O si se quiere expresar así en términos generales

El modelo lineal general (3) La expresión general es Y: Variable dependiente X 1, X 2,..., variables independientes (predictoras de Y) e: error aleatorio B 1, B 2,..., son los pesos que determinan la contribución de cada variable independiente. El caso en el modelo lineal general es que en la parte izquierda de la ecuación podemos tener no sólo una variable dependiente, sino varias.