REGRESIÓN POR MÍNIMOS CUADRADOS

Slides:



Advertisements
Presentaciones similares
Serie de Taylor y Maclaurin
Advertisements

MODELO DE REGRESIÓN LINEAL SIMPLE
REGRESION LINEAL SIMPLE
Valores y Vectores Propios
Pronósticos, Series de Tiempo y Regresión
Diferenciación e Integración Numérica
2.1 – Expresiones algebraicas
MÉTODOS NUMÉRICOS. Explicación del método de L U. Realizado por:
“Construcción de Software para Regresión: El Caso de Selección de Modelos y Pruebas de Homocedasticidad” Previa a la obtención del Título de: INGENIERO.
KRIGING.
3. Métodos de resolución Ecuaciones algebraicas lineales
Covarianza muestral Sean x1, x2, ..., xn e y1, y2, ..., yn dos muestras aleatorias independientes de observaciones de X e Y respectivamente. La covarianza.
Modelado y simulación en Ingeniería Química. Manuel Rodríguez
Prof. Ramón Garduño Juárez Modelado Molecular Diseño de Fármacos
INFERENCIA ESTADISTICA
PROPIEDADES ESTADÍSTICAS DE LOS ESTIMADORES
MODELO DE REGRESIÓN MÚLTIPLE
REGRESION & CORRELACION
MATRICES.
Método de Gauss-Seidel
DESCOMPOSICIÓN L U Verónica Miranda, Mariano Avilés, Andrés Navarro, Katherine González.
Regresión Lineal y Regresión Polinomial
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
Investigación Operativa
MODELOS DE ECUACIONES SIMULTÁNEAS
Sistema de tres ecuaciones con tres incógnitas
Regresión y correlación
DEFINICIONES Y TERMINOLOGÍA
Lic. Mat. Helga Kelly Quiroz Chavil
Sistemas de Ecuaciones lineales
M. en C. José Andrés Vázquez Flores
Prof. Esteban Hernández
Métodos de Análisis Ingenieril
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Estadística Descriptiva: 4. Correlación y Regresión Lineal Ricardo Ñanculef Alegría Universidad Técnica Federico Santa María.
Tema 2: Métodos de ajuste
José Francisco Valverde Calderón Sitio web: Profesor:
Calcular el cero del polinomio de orden 3 que pasa por los puntos
Polinomios Álgebra Superior.
Cálculo de ceros de funciones de Rn–> Rn :
BIOMETRIA II TEMA 2 El Modelo de Regresión.
Interpolación y aproximación polinomial
Pronósticos, Series de Tiempo y Regresión
Pronósticos, Series de Tiempo y Regresión
Tópicos Especiales en Computación Numérica
Programación Numérica
DERIVADO DE LOS COEFICIENTES DE REGRESIÓN LINEAL Y X Esta sequencia muestra cómo los coeficientes de regresión para un modelo de regresión lineal simple.
Modelo de regresión con dos variables: Estimación
Métodos de calibración: regresión y correlación
Departamento de Informática Universidad Técnica Federico Santa María
Matrices Conceptos generales
Titular: Agustín Salvia
ANALISIS DE REGRESION MULTIPLE
5. El Método Simplex En lo que sigue consideremos un problema de programación lineal en su forma estándar ³ =
Interpolación y aproximación polinomial
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Regresión lineal múltiple
Cálculo de extremos de funciones de R n –> R : Supongamos que queremos calcular un extremo de una función f de R n –> R: donde.
1 Condiciones de extremo Proceso para derivar las condiciones De problema más simple a más complejo Progresión de problemas: Problema sin restricciones.
TEMA 5: El problema del flujo con costo mínimo
INAOE CURSO PROPEDEUTICO PARA LA MAESTRIA EN ELECTRONICA
Método de mínimos cuadrados
1 Análisis Matemático II Presentaciones en el Aula TEMA 3 Otras herramientas para la resolución de EDO Autor: Gustavo Lores 2015 Facultad de Ingeniería.
CONCEPTOS BÁSICOS DE ECUACIONES DIFERENCIALES
UNSa Sede Regional Oran TEU - TUP. Un espacio vectorial (o espacio lineal) es el objeto básico de estudio del álgebra lineal.álgebra lineal A los elementos.
REGRESIÓN LINEAL SIMPLE
REGRESIÓN LINEAL SIMPLE. Temas Introducción Análisis de regresión (Ejemplo aplicado) La ecuación de una recta Modelo estadístico y suposiciones Estimación.
ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS.
ECUACIONES DIFERENCIALES. ECUACION DIFERENCIAL Una ecuación diferencial es una ecuación en la que intervienen derivadas de una o más funciones desconocidas.ecuaciónderivadas.
M.E. ADA PAULINA MORA GONZALEZ. Esta parte describe las técnicas para ajustar curvas en base a datos para estimaciones intermedias. Una manera de hacerlo.
Transcripción de la presentación:

REGRESIÓN POR MÍNIMOS CUADRADOS -JOHNNY CARPIO QUIRÓS  -DOUGLAS ESPINOZA -DIEGO ANÍBAL NAVARRO CARRILLO -MAURICIO RETANA FERNANDEZ -MARCIA VEGA MONTIEL    -RAQUEL VILLALOBOS RODRIGUEZ

REGRESIÓN POR MÍNIMOS CUADRADOS Regresión Lineal Múltiple. Mínimos Cuadrados Lineales. Regresión No Lineal.

REGRESIÓN LINEAL MÚLTIPLE

DEFINICIÓN Extensión útil de la regresión lineal cuando y es una función lineal de dos o más variables independientes. Ejemplo:

SUMA DE LOS CUADRADOS DE LOS RESIDUOS

DERIVADAS PARA LA MATRIZ DE COEFICIENTES

MATRIZ PARA EL CÁLCULO DE LOS COEFICIENTES

EJEMPLO Los datos de la Tabla 1 se calcularon según la ecuación: Utilice regresión lineal para ajustar esos datos.

TABLA 2. CÁLCULOS REQUERIDOS

MATRIZ Y RESPUESTA

EXTENDIENDO EL CÁLCULO A M DIMENSIONES …

MÍNIMOS CUADRADOS

HISTORIA En 1829 Gauss fue capaz de establecer la razón del éxito maravilloso de resolver ecuaciones no lineales de Kepler por el método de mínimos cuadrados : simplemente, el método de mínimos cuadrados es óptimo en muchos aspectos. El argumento concreto se conoce como teorema de gauss Markov.

Las regresiones: lineal, polinomial y lineal múltiple pertenecen al siguiente modelo lineal general de mínimos cuadrados: donde todos los zm son funciones diferentes y los an son los coeficientes numéricos (“y” depende de múltiples valores de “x”, esto es, x1, x2, x3, … , xm).

Esa ecuación se puede reescribir en forma matricial así:

donde [Z] es una matriz de los valores calculados de las funciones z en los valores medidos de las variables independientes (todos los valores de “x” en una tabla). donde m es el número de variables en el modelo (número de funciones “x”) y n el número de datos (número de valores “x”). [Z] no siempre es una matriz cuadrada.

El vector columna {Y} contiene los valores observados de la variable dependiente: El vector columna {A} contiene los coeficientes desconocidos (los que se calculan con el método):

y el vector columna {E} contiene los residuos: La suma de los cuadrados de este modelo se define como:

Esta cantidad se minimiza tomando las derivadas parciales con respecto a cada coeficiente e igualando a cero las ecuaciones restantes. El resultado son las ecuaciones normales (que dan los valores para los coeficientes “a”) que se expresan de forma matricial como:

Técnicas de solución: Pueden utilizarse descomposición LU, Cholesky o matriz inversa.

EJEMPLO: Dados los datos: Ajuste por mínimos cuadrados X Y 1 5.04 2 8.12 3 10.64 4 13.18 5 16.20 6 20.04

Por tanto, nuestro sistema a resolver será: de donde obtenemos que: tendremos que el polinomio viene dado por:

Para ajustar los datos a una cuadrática (polinomio de grado 2), resolvemos el siguiente sistema de ecuaciones:

Con lo que el sistema a resolver es: Se obtienen: Con lo que el sistema a resolver es:                                                                                       

Cuya solución viene dada por: y, por lo tanto, la cuadrática de ajuste es:

REGRESIÓN NO LINEAL

UTILIDAD Existe una gran cantidad de casos en ingeniería en donde modelos no lineales deben ser ajustados con datos.

¿EN QUÉ SE BASA? Al igual que en los mínimos cuadrados lineales se basa en la determinación de los valores de los parámetros que minimizan la suma de los cuadrados de los residuos, la solución debe proceder en una forma iterativa.

¿CÓMO FUNCIONA? El método de Gauss-Newton sirve para minimizar los cuadrados de los residuos entre datos y ecuaciones no lineales. Forma lineal aproximada por medio de una expansión por serie de Taylor. Nuevas estimaciones por medio de la teoría de mínimos cuadrados.

MÉTODO DE GAUSS-NEWTON Para resolver problemas no lineales por mínimos cuadrados. Es un proceso iterativo. Debemos proporcionar una estimación inicial del parámetro vector que denominaremos p0.

Dadas m funciones f1,. , fm de n parámetros p1, Dadas m funciones f1, ..., fm de n parámetros p1, ..., pn con m≥n, queremos minimizar la suma Donde, p se refiere al vector (p1, ..., pn).

Una estimación inicial del parámetro vector es p0. Estimaciones posteriores pk para el vector parámetro son producidas por la relación recurrente: donde f=(f1, ..., fm) yJf(p) denota el Jacobiano de f en p (nótese que no es necesario que Jf sea cuadrada).

Una buena implementación del algoritmo de Gauss-Newton utiliza también un algoritmo de busqueda lineal: en lugar de la fórmula anterior para pk+1, se utiliza Donde el número αk es de algún modo óptimo.

CRITERIO DE PARO El procedimiento antes descrito para la regresión no lineal se repite hasta que la solución converge, es decir cuando este por debajo de un criterio de paro aceptable.

POSIBLES PROBLEMAS Para el método de Gauss-Newton las derivadas parciales pueden ser difíciles de calcular, una alternativa es: Donde delta es la perturbación fraccional pequeña.

OTROS POSIBLES PROBLEMAS Puede converger con lentitud Puede oscilar ampliamente, o sea cambia en forma continua de dirección. Puede no converger

Curva ajustada de un conjunto de datos no lineales.

Gráfico de residuos

EJEMPLO Dada la función f(x;ao,a1)=ao (1-e-a1x) X 0.25 0.75 1.25 1.75 2.25 Y 0.28 0.57 0.68 0.74 0.79

Haciendo uso de los valores iniciales: ao=1.0 y a1 =1.0 Se obtiene:

De la matriz multiplicada por su transpuesta se obtiene:

Se calcula el vector D que contiene las diferencias entre mediciones y predicciones del modelo.

Los valores obtenidos se agregan al para metro inicial supuesto, se obtiene: ao=1.0 - 0.2714 = 0.7286 a1=1.0 + 0.5019 = 1.5019