Nociones Elementales de Matrices

Slides:



Advertisements
Presentaciones similares
Tipos de matrices fila opuesta cuadrada nula triangular simétrica
Advertisements

FACTORIZACIÓN LU Bachilleres:
Valores y Vectores Propios
-Raúl Ojeda Osorio -Jordy Joaquin Cuan Robledo
¿ Que es un sistema de ecuaciones?
FUNCIONES DE UNA VARIABLE REAL
Repaso de matrices DAGOBERTO SALGADO HORTA.
MÉTODOS NUMÉRICOS. Explicación del método de L U. Realizado por:
Resolución de Sistemas Lineales
Distribución de frecuencias
2. Métodos de resolución (© Chema Madoz, VEGAP, Madrid 2009)
3. Ecuaciones diferenciales de orden superior
Introducción a las Señales Aleatorias ISAL
Sistemas de Ecuaciones Diferenciales Lineales
MATRICES.
DESCOMPOSICIÓN L U Verónica Miranda, Mariano Avilés, Andrés Navarro, Katherine González.
ECUACIONES CUÁDRATICAS RACIONALES
SISTEMAS DE ECUACIONES RESOLUCIÓN POR EL METODO DE GAUSS
Solucion de la ecuacion de estado
Solución de sistemas lineales de n x n empleando la regla de Cramer
Sistema de tres ecuaciones con tres incógnitas
Sistemas de Ecuaciones lineales
Tema: Sistema de Ecuaciones Lineales - Forma Matricial
Análisis de nodos y mallas
Factorización de cholesky
Teoría de sistemas de Ecuaciones No lineales
Profesora: Mafalda Carreño Morchio
Ecuaciones diferenciales
Problemas de frontera para ecuaciones diferenciales
Mini-video 1 de 3 Sistemas de ecuaciones lineales
SISTEMAS DE ECUACIONES
Inversa de una matriz.
Sistema de Ecuaciones Lineales Forma Matricial
Sesión 12.2 Sistemas lineales y método de Gauss.
Álgebra Superior Matrices Sesión II.
Propiedades de los determinantes.
OPTIMIZACIÓN DINÁMICA
Solución de sistemas de ecuaciones
ALGORITMO DE FACTORIZACION DIRECTA.
Ecuaciones diferenciales
Tema 3.- MATRICES INVERTIBLES
Laboratorio de cómputo científico
Factorización Directa con pivoteo máximo de columna.
UNIDAD 4 Clase 6.3 Tema: Sistema de Ecuaciones Lineales
Ecuaciones cuadráticas
Tema: Propiedades de los determinantes
RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES MEDIANTE DETERMINANTES
METODOS NUMERICOS VER2013 INTEGRANTE: JUAN CARLOS ROJAS PEREZ.
Ecuaciones diferenciales
Matrices rango de una matriz
Resolución de Sistemas Lineales
SISTEMA DE ECUACIONES LINEALES. Métodos ExactosMétodos Aproximados.
MATRICES.
Resolución de Sistemas Lineales Introducción. Notación matricial.
Sistemas de Ecuaciones Lineales Método de GAUSS.
Integrar : CICK PARA SALIR. Una ecuación diferencial de primer orden de la forma: Es considerada de variables separables o separable. Para poder resolverlas.
Representación de sistemas lineales en forma matricial Ax=b
Para el PH3 ¿Cuál es el resultado de las siguientes operaciones?
MATRIZ INVERSA.
Matemática Básica (Ing.) 1 Sesión 12.1 Sistemas lineales y método de Gauss.
6. Sistemas de ecuaciones diferenciales lineales
SISTEMAS DE ECUACIONES LINEALES
28/10/2015 SISTEMAS DE ECUACIONES LINEALES Es aquel conjunto formado por dos o más ecuaciones, en el cual su conjunto solución verifica cada una de las.
UPC DETERMINANTES TÓPICOS DE MÁTEMATICA 1 MA112 EPE Tema :
5. Repaso de matrices (© Chema Madoz, VEGAP, Madrid 2009)
MATRICES Y SISTEMAS LINEALES EN APLICACIÓN UNIVERSIDAD INTERAMERICANA DE PUERTO RICO RECINTO DE FAJARDO Proyecto MSP-II.
MATRICES Y DETERMINANTES Una matriz cuadrada que posee inversa se dice que es inversible o regular; en caso contrario recibe el nombre de singular. Matrices.
Matrices ¿Qué es una matriz? ¿Qué es una matriz? ¿Qué es una matriz? ¿Qué es una matriz? Su Estructura Su Estructura Su Estructura Su Estructura Propiedades.
MATRICES Por Jorge Sánchez.
Transcripción de la presentación:

Nociones Elementales de Matrices Antes de ver la solución de los Sistemas de Ecuaciones Lineales haremos un repaso de las fundamentos de las matrices.

Nociones Elementales de Matrices

Nociones Elementales de Matrices

Nociones Elementales de Matrices

Nociones Elementales de Matrices

Nociones Elementales de Matrices

Nociones Elementales de Matrices

Solución de sistemas de ecuaciones lineales Análisis de Circuitos (ecuaciones de malla y nodos) Solución Numérica de ecuaciones diferenciales (Método de las diferencias Finitas) Solución Numérica de ecuaciones de integrales (Metodo de los Elementos Finitos, Método de los Momentos) 

Consistencia (Solubilidad) El sistema lineal de ecuaciones Ax=b tiene una solución, o es consistente si y solo si Rango{A}=Rango{A|b} Un sistema es inconsistente cuando Rango{A}<Rango{A|b} Rank{A} es el máximo numero de columnas linealmente independientes o filas de A. El rango puede ser encontrado usando ERO (Elementary Row Oparations) ó ECO (Elementary column operations).

Operaciones Elementales de filas (ERO) Las siguientes operaciones aplicadas a la matriz aumentada[A|b], producen un sistema lineal equivalente Intercambios: El orden de dos filas pueden ser cambiada Escalado: Multiplicando un fila por una constante no cero Reemplazo: Las filas pueden ser reemplazadas por la suma de esa fila y un múltiplo distinto a cero de cualquier otra fila

Un ejemplo inconsistente ERO:Multiplicar la primera fila por -2 y sumar la segunda fila Rank{A}=1 Entonces este sistema de ecuaciones no es soluble Rank{A|b}=2

Unicidad de las soluciones El sistema tiene una única solucion si y solo si Rango{A}=Rango{A|b}=n n es el orden del sistema Tales sistemas son llamados sistemas full-rank (rango completo)

Sistemas rango completo (Full-rank) Si Rango{A}=n Det{A}  0  A es no singular por lo tanto invertible Solución Única

Matrices de rango deficiente Si Rango{A}=m<n Det{A} = 0  A is singular por lo tanto no es invertible número infinito de soluciones (n-m variables libres) sistema sub-determinado Rank{A}=Rank{A|b}=1 Consistente  soluble

Sistema de ecuaciones mal-condicionadas Una pequeña desviación en las entradas de la matriz A, causa una gran desviación en la solución.  

Mal condicionada (continua.....) Un sistema lineal de ecuaciones se dice a ser “mal condicionada” si la matriz de coeficientes tiende a ser singular

Tipos de ecuaciones de sistemas lineales a ser estudiados Los coeficientes reales de la matriz cuadrada A EL vector b es diferente de cero y real Sistema consistente, soluble Sistemas rango completo, solución única Sistemas bien-condicionados

Técnicas de Solución Métodos directos de solución Encuentra una solución en un número finito de operaciones transformando el sistema en un sistema equivalente que sea ' más fácil ' de solucionar. Triangulares diagonales, . Métodos de solución Iterativos Calcula las aproximaciones sucesivas del vector solución para una mat. A y un b dados, comenzando de un punto inicial x0 Total del · de operaciones es incierto, puede que no converja.

Métodos de solución directa Eliminación Gaussiana Usando ERO, la matriz A es transformada en una matriz triangular superior (todos los elementos debajo de la diagonal son cero). Sustitución hacia atrás es usada para resolver un sistema triangular superior Back substitution  ERO

Primer paso de la eliminación Elemento pivotal

Segundo paso de la eliminación Elemento Pivotal

Algoritmo de la Eliminación Gaussiana For c=p+1 to n

Algoritmo de la sustitución hacia atrás

Contador de Operaciones Número de operaciones aritméticas requeridas por el algoritmo para completar esta tarea. Generalmente solo multiplicaciones y divisiones son contadas. Proceso de Eliminación Sustitución hacia atrás Total Dominates No eficiente para diferentes vectores RHS

Decomposición LU A=LU Ax=b LUx=b Define Ux=y Ly=b Resolver y por sustitución hacia adelante Ux=y Resolver x por sustitución hacia atrás Las operaciones elementales entre filas debe ser desarrolladas en b así como en A. La información de estas operaciones es almacenada en L En verdad y es obtenida aplicando operaciones elementales al vector b.

Decomposición LU por Eliminación Gausiana Existen infinitas formas diferentes para descomponer A. Una de las más populares es: U=Matriz de la Eliminación Gaussiana L=Multiplicadores usados para la eliminación Almacenamiento Compacto: Las entradas diagonales de la matriz L son todos unos, estos no necesitan almacenarse. LU es almacenado en una matriz.

Contador de Operaciones A=LU Descomposición Ly=b Sustitución hacia adelante Ux=y Sustitución hacia atrás Total Para diferentes vectores RHS, el sistema puede ser eficientemente resuelto.

Pivoteo Computadoras usan precisión aritmética finita Pequeños errores son introducidos en cada operación aritmética, propagación de errores Cuando los elementos pivotales son muy pequeños, los multiplicadores podrían ser muy grandes. La adición de números de magnitud diferente puede conducir a la pérdida de significación . Para reducir el error, se realiza intercambio de filas para maximizar la magnitud del elemento pivotal.

Ejemplo: Sin Pivoteo aritmética 4-digit Pérdida de precisión

Ejemplo: Con Pivoteo

Procedimiento de Pivoteo Parte Eliminada Fila Pivotal Columna Pivotal

Pivoteo por fila Más comúnmente llamado procedimiento de pivoteo parcial Busque la columna pivotal Encuentre el mas grande elemento en magnitud Luego intercambie esta fila con la fila pivotal.

Pivoteo por filas Intercambio de filas El más grande en magnitud

Pivoteo por columna El mas grande en magnitud Intercambio de Estas columnas

Pivoteo Completo estas filas Más grande en magnitud Intercambie estas columnas estas filas Más grande en magnitud

Pivoteo por filas en Descomposición LU Cuando dos filas de A se intercambian, las filas de b deben también ser intercambiadas. Use un vector pivote. Vector pivote inicial son enteros desde 1 hasta n. Cuando dos filas (i y j) de A son intercambiadas, aplicar esto al vector pivote.

Modificando el vector b Cuando se realiza la descomposición LU de A, el vector pivote nos da el orden de las filas después del intercambio. Antes de aplicar la sustitución hacia adelante para resolver Ly=b, modificar el orden del vector b de acuerdo a las entradas del vector pivote.

Descomposición LU algoritmo con pivoteo parcial Columna para una entrada máxima Intercambiode filas Actualizando la matriz L For c=k+1 to n Actualizando la matriz U

Ejemplo Intercambio de columnas: Máxima magnitud segunda fila Intercanbio de la 1era y 2da fila

Ejemplo (continuación)... Elimación de a21 y a31 usando a11 como elemento pivotal A=LU en forma compacta (en una sola matriz) Multiplicadores (matriz L) l21=0; l31=-0.25

Ejemplo (continuación)... Columna encontrada: Maxima magnitud en la tercera fila Intercambio de la 2da y 3era fila

Ejemplo (continuación)... Eliminar a32 usando a22 como elemento pivotal Multiplicadores (matriz L) l32=3/3.5

Ejemplo (continuación)... A’x=b’ LUx=b’ Ux=y Ly=b’

Ejemplo (continuación)... Ly=b’ Sustitución Inversa Ux=y Sustitución Directa

Eliminación de Gauss-Jordan Los elementos sobre la diagonal se convierten y por debajo de la diagonal son ceros.

Eliminación de Gauss-Jordan Casi 50% mas de operaciones aritméticas que la Eliminación Gaussiana. Gauss-Jordan (GJ) Eliminación es preferible cuando la inversa de una matriz es requirido. Aplicar eliminación GJ para convertir A en una matriz identidad.

Diferentes formas de factorización LU Forma de Doolittle Obtenida por Eliminación Gaussiana Forma de Crout Forma de Choleski

Forma de Crout Cálculo de la primera columna de L Cálculo de la primera fila de U Cálculo alternado de las colum. de L y filas de U

Secuencia de la reducción de Crout 2 1 4 3 5 6 7 Una entrada de la matriz A es usada solamente una vez para calcular la Correspondiente entrada de las matrices L o U .Así las columnas de L y las filas de U pueden ser almacenadas en la matriz A

Factorización de Choleski Si A es simétrica y definida positiva, entonces la factorización LU Puede ser arreglada para que U = LT , la cual se obtiene de la factorización de Choleski A = LLT Donde L es una matriz triangular inferior con diagonal con entradas positivas Algoritmo para el cálculo puede ser derivado por la ecuación correspondiente a las entradas de A y LLt En el caso de 2 × 2, por ejemplo, Implica que:

Factorización de Choleski (continua) Una forma de escribir el algoritmo general,es

Solución de Sistemas Lineales de ecuaciones Complejas Cz=w C=A+jB Z=x+jy w=u+jv (A+jB)(x+jy)=(u+jv) (Ax-By)+j(Bx+Ay)=u+jv Sistema lineal de ecuaciones reales

Sistemas grandes y Esparcidos Cuando el sistema lineal es grande y esparcido (muchas entradas ceros), los métodos directos llegan a ser ineficientes por la presencia de términos de relleno. Los términos de relleno son aquellos que resultan ser diferentes de cero durante la eliminación Términos de relleno Eliminación

Matrices Esparcidas La matriz de ecuación de nodos es una matriz esparcida. Matrices Esparcidas son almacenadas eficientemente almacenando solamente las entradas no cero. Cuando del sistema es muy grande (n=10,000) los términos de relleno aumentan los requerimientos de almacenamiento considerablemente. En tales casos los métodos de solución iterativa debe ser preferidos en lugar de métodos de solución directa.

Problema 1 Resolver por Eliminación Gaussiana con pivoteo parcial de filas: E2-(3/4)E1 =>E2 E3-(1/2)E1 =>E3 E4-(-1/4)E1=>E4

Problema 1 Intercambiamos las Ecuaciones 2 y 3 (E2E3) E3-(-1/2)E2 =>E3 E4-( 1/4)E2 =>E4

Problema 1 E4-(-1/4)E3 =>E4 Resolviendo por sustitución hacia atrás:

Problema 2 Obtener la factorización de Doolite: Solución 1 A partir de la Eliminacion Gaussiana: m21= a21/a11 =2/6=1/3 E2-(1/3)E1=>E2

Problema 2 Solución 2 Planteando el producto matricial:

Problema 3 Resolver por la factorización de Doolite: Solución Del ejercicio anterior ya tenemos la factorización LU:

Problema 3 Se obtienen dos sistemas triangulares fáciles de resolver. Resolviendo el sistema triangular inferior por sustitución directa: Resolviendo el sistema triangular superior por sustitución directa:

Problema 4 Obtener la factorización de Crout: Solucion Debemos plantear la multiplicacion matricial:

Problema 4

Problema 5 Método de Crout para sistemas tridiagonales

Problema 6 Factorizar por el método de Choleski la siguiente matriz: Solución Se requiere que la matriz sea simétrica y definida positiva para aplicar Choleski.

Problema 6 Es evidente que la matriz es simétrica; para verificar que es definida positiva verificamos si se satisface el criterio de Silvester:

Problema 6 Dado que los determinantes de todos los menores principales son positivos podemos afirma que la matriz es definida positiva y podemos aplicar la factorización de Choleski con seguridad.

Problema 6 Resolviendo la multiplicación matricial: