Estás en > Matemáticas y Poesía > Matemáticas

MONOGRAFIAS MATEMÁTICAS
TEORÍA MATRICIAL

CÁLCULO DE VALORES Y VECTORES PROPIOS

 

METODO PARA EL CALCULO DE VALORES Y VECTORES PROPIOS DOMINANTES DE UNA MATRIZ - PARTE I


Continúa en PARTE II - PARTE III - PARTE IV


RESUMEN

La teoría sobre el cálculo de valores propios o autovalores de matrices, tiene plicaciones en diversas ramas de la ciencia. Así, disciplinas tales como la Química, la Economía, la Teoria de juegos y otros campos de la ciencia y las ingenierías hacen uso de sus resultados.

El trabajo relativo al método para el cálculo de los autovalores dominantes de una matriz de gran dimensión está estructurado en cuatro capítulos.

En este articulo se describe un procedimiento para la obtención de los valores y vectores propios dominantes de una matriz. El método se apoya en los conceptos de matriz sigma y matriz propia. El proceso seguido es tal que las matriz propia contiene los vectores propios asociados a los valores propios dominantes de la matriz objeto del problema, y la matriz sigma contiene dichos valores propios. La característica principal del método estriba en que no es necesario resolver el problema de valores y vectores propios en cada iteración.

INTRODUCCION

Muchos problemas prácticos de determinación de vectores y valores propios de una matriz de orden n solo requieren el conocimiento de un número limitado de dichos pares; por ejemplo, aquellos cuyos p valores propios (p < n) son los de mayor módulo.

Cuando p = 1 y se trata de obtener el valor propio de mayor módulo o valor propio dominante de una matriz general y su vector propio asociado, puede citarse como más adecuado el método de la potencia, atribuido a Von Misses [1], el cual, a partir de una aproximación arbitraria del vector propio buscado, obtiene iterativamente la aproximación deseada en función de la precisión requerida. La localización de otros valores propios se puede realizar utilizando técnicas de deflacción [2], pudiéndose obtener de esta forma los valores propios dominantes y sus correspondientes vectores propios.

Otros métodos de obtención del valor propio dominante de una matriz se basan en el concepto de "Cociente de Rayleigh" [3] por el cual pueden construirse algoritmos iterativos que convergen cuadraticamente al valor propio dominante.

Los métodos de Iteración Simultánea constituyen una generalización del método de la potencia. Se basan en el procesamiento simultáneo de un subconjunto inicial de p vectores ortogonales a los que se trata de modo que en cada paso del proceso iterativo se mantenga entre ellos la relación de ortogonalidad y no converjan al mismo vector propio. Estos procedimientos son mas eficaces que las técnicas de deflación. Entre ellos se pueden señalar el método desarrollado por Rutishauser [4] en 1969, de aplicación a matrices simétricas definido-positivas. En 1970, Clint y Jennings [5] publican su aportación para matrices simétricas. En 1975, Jennings y W.J. Steward [6] desarrollan un algoritmo para matrices reales simétricas y no simétricas.

El método que presentamos en estas notas es general, válido para matrices finitas de cualquier tipo. Si bien constituye una generalización del método de la potencia, difiere de los métodos de iteración simultánea en los siguientes aspectos :
  • Se basa en las propiedades de las matrices sigma [7] y en el concepto de matriz propia.


  • Desde un punto de vista computacional, no es necesario ortogonalizar los vectores de iteración según las técnicas descritas en Wilkinson [8] ni resolver en cada ciclo el problema de valores y vectores propios, como ocurre en los métodos de Iteración Simultánea o los de Arnoldi y Lanczos [9]. Este hecho es debido a que la convergencia del método no se estudia en los valores propios si no en las matrices sigma.
OBTENCION DE MATRICES PROPIAS

A continuación vamos a exponer la forma de obtener la matriz sigma que proporciona los valores propios de mayor valor absoluto de la matriz original. Además se indicará la forma de obtener los vectores propios correspondientes.

Definición.- Sea A una matriz de dimensión n x n. Diremos que una matriz de dimensión n x r, denotada Mr es una matriz propia de A, asociada a la matriz sigma , de dimensión r x r, si se cumple (1) :
    \(A·M_r = M_r· \Sigma_r\)
siendo una matriz cuadrada cualquiera.

Según [10] , una ecuación como (1) implica que todos los valores propios de son valores propios de A. Las columnas de la matriz propia Mr forman una base del subespacio invariante asociado a los r valores propios de A contenidos en Σr

Está claro que si r = 1, la anterior definición es equivalente a la de vector propio y valor propio,ya que todo escalar conmuta con cualquier matriz.

TEOREMA

Sea A una matriz de dimensión nxn con s valores propios distintos, cada uno de multiplicidad ri, de modo que se cumple (2) :
    \(\begin{array}{l} |\lambda_{1,1}| = \cdots = |\lambda_{1,r_1}|\geq |\lambda_{2,1}|= \cdots = |\lambda_{2,r_2}|\geq \\  \\ \geq \cdots \geq |\lambda_{l,1}|> |\lambda_{l,r_l}|= \cdots = |\lambda_{s,1}|= \cdots =|\lambda_{s,r_s}|\\\\\\\ con \; r_1+r_2 + \cdots + r_s= n \end{array} \)
Es decir, de los n valores propios que posee A, son estrictamente superiores al resto .

Entonces, el "Método de iteración por matrices propias" nos permite obtener una matriz propia asociada al subespacio invariante dominante \((r_1+r_2 + \cdots + r_l) \)-dimensional que contiene los \(r_1+r_2 + \cdots + r_l \equiv R \) valores propios de A de mayor módulo.

Demostración

Para facilitar el proceso, de ahora en adelante tomaremos (3) :
    \( \lambda_{1,i}\equiv \lambda_1 ; \lambda_{2,i}\equiv \lambda_2 ; \cdots ; \lambda_{s,i}\equiv \lambda_s \)
Según [11], para la matriz A existe una base de Jordan de la forma (4) :
    \((u^1_1, \ldots, u^1_{r_1},u^2_1, \ldots, u^2_{r_2},\ldots, u^s_1, \ldots, u^s_{r_s}) \)
para la que se verificará (5) :
    \((A-\lambda_iI)u_j^i= u_{j+1}^i\; ; \; (1\leq j \leq r_i -1)\; ; \; (1\leq i \leq s) \)
Tomando un vector arbitrario q, de dimensión n, y teniendo en cuenta (4), podemos escribir (6):
    \(q =\displaystyle \sum_{i=1}^{r_1}\alpha_i^1u_i^1 + \sum_{i=1}^{r_1}\alpha_i^2u_i^2 +\ldots + \sum_{i=1}^{r_1}\alpha_i^su_i^s = \sum_{k=1}^s\sum_{i=1}^{r_1}\alpha_i^ku_i^k \)
y aplicando sobre él la matriz A (7) :
    \(Aq =\displaystyle A\left( \sum_{i=1}^{r_1}\alpha_i^1u_i^1\right) + A\left(\sum_{i=1}^{r_1}\alpha_i^2u_i^2 \right)+\ldots + A\left(\sum_{i=1}^{r_1}\alpha_i^su_i^s \right)= A\left(\sum_{k=1}^s\sum_{i=1}^{r_1}\alpha_i^ku_i^k \right)\)
Pero, según (5), tenemos (8) :
    \(Au_j^i = u_{j+1}^i + \lambda_i u_j^i\)
con lo cual (9) :
    \(Aq =\displaystyle \lambda_1\sum_{i=1}^{r_1}\alpha_i^1u_i^1 + \sum_{i=1}^{r_1-1}\alpha_i^1u_{i+1}^1 +\ldots + \lambda_l\sum_{i=1}^{r_1}\alpha_i^su_i^s + \sum_{i=1}^{r_1-1}\alpha_i^su_{i+1}^s \)
Aplicando de nuevo la matriz A resulta (10) :
    \(A^2q =\displaystyle \lambda_1^2\sum_{i=1}^{r_1}\alpha_i^1u_i^1 + \lambda_1\sum_{i=1}^{r_1-1}\alpha_i^1u_{i+1}^1 +\ldots + \lambda_1\sum_{i=1}^{r_1-1}\alpha_i^su_{i+1}^s + \sum_{i=1}^{r_1-2}\alpha_i^su_{i+2}^s \)
y reagrupando términos (11) :
    \(A^2q =\displaystyle \sum_{j=0}^2 \lambda_1^{2-j}C_2^j \sum_{i=1}^{r_1-j}\alpha_i^1u_{i+j}^1 +\cdots + \sum_{j=0}^2 \lambda_s^{2-j}C_2^j \sum_{i=1}^{r_1-j}\alpha_i^su_{i+j}^s\)

donde \( C_2^j\) son los coeficientes binomiales.
Análogamente (12) :
    \(A^pq =\displaystyle \sum_{j=0}^2 \lambda_1^{p-j}C_p^j \sum_{i=1}^{r_1-j}\alpha_i^1u_{i+j}^1 +\cdots + \sum_{j=0}^p \lambda_s^{p-j}C_p^j \sum_{i=1}^{r_1-j}\alpha_i^su_{i+j}^s\)
o también (13) :
    \(\displaystyle A^p q = \sum_{j=0}^s\sum_{k=1}^p \lambda_s^{p-j}C_p^j \sum_{i=1}^{r_1-j}\alpha_i^ku_{i+j}^k\)
Si cada vector de la base de Jordan se escribe en función de los vectores de la base canónica, resulta (14) :
    \(\displaystyle A^p q = \sum_{j=0}^s\sum_{k=1}^p \lambda_s^{p-j}C_p^j \sum_{i=1}^{r_1-j}\alpha_i^k\left(\sum _{t=1}^n \beta_{i+j,t}^ke_t\right)\)
y por la propiedad asociativa de la suma de escalares (15) :
    \(A^pq = \displaystyle \sum_{t=1}^n\sum_{k=1}^s\sum_{j=0}^p\sum_{i=1}^{r_i-j}\lambda_k^{p-j}C_p^j\alpha_i^k\beta_{i+j,t}^ke_t \)
tomando vectores arbitrarios linealmente independientes y considerando para cada uno de ellos la ecuación (15), obtenemos la matriz (16) :
    \(\displaystyle A^pQ =\left(
    \begin{array}{ccc}
    \sum_{k=1}^s\sum_{j=0}^p\sum_{i=1}^{r_i-1}\lambda_k^{p-j}C_p^j\alpha^k_{1i} \alpha^k_{i+j,1} & \cdots & \sum_{k=1}^s\sum_{j=0}^p\sum_{i=1}^{r_i-1}\lambda_k^{p-j}C_p^j\alpha^k_{Ri} \alpha^k_{i+j,1} \\
    \cdots & \cdots & \cdots \\
    \sum_{k=1}^s\sum_{j=0}^p\sum_{i=1}^{r_i-1}\lambda_k^{p-j}C_p^j\alpha^k_{1i} \alpha^k_{i+j,n} & \cdots & \sum_{k=1}^s\sum_{j=0}^p\sum_{i=1}^{r_i-1}\lambda_k^{p-j}C_p^j\alpha^k_{Ri} \alpha^k_{i+j,n} \\
    \end{array}
    \right) \)
Según la hipótesis inicial, existen R valores propios de mayor valor absoluto que el resto, Si aproximamos cada elemento de la matriz de (16) tomando sólo los l primeros términos del sumatorio más externo, resultará (17) :
    \(\displaystyle A^pQ =\left(
    \begin{array}{ccc}
    \sum_{k=1}^l\sum_{j=0}^p\sum_{i=1}^{r_i-1}\lambda_k^{p-j}C_p^j\alpha^k_{1i} \alpha^k_{i+j,1} & \cdots & \sum_{k=1}^l\sum_{j=0}^p\sum_{i=1}^{r_i-1}\lambda_k^{p-j}C_p^j\alpha^k_{Ri} \alpha^k_{i+j,1} \\
    \cdots & \cdots & \cdots \\
    \sum_{k=1}^l\sum_{j=0}^p\sum_{i=1}^{r_i-1}\lambda_k^{p-j}C_p^j\alpha^k_{1i} \alpha^k_{i+j,n} & \cdots & \sum_{k=1}^l\sum_{j=0}^p\sum_{i=1}^{r_i-1}\lambda_k^{p-j}C_p^j\alpha^k_{Ri} \alpha^k_{i+j,n} \\
    \end{array}
    \right) \)
Y esta matriz puede descomponerse en la forma (18) :
    \(A^pQ \equiv M_p \approx [\beta][\lambda^{(p)}][\alpha^T] = \hat{M}_p\)
donde \( [\beta]\; y \;[\alpha^T]\) son, respectivamente, matrices de dimensión nxR y RxR

y \( [\lambda^{(p)}]\) es una matriz de dimensión RxR, diagonal por bloques, donde cada bloque, de dimensión \( r_k\) es triangular inferior de la forma (21) :
    \((\alpha_{i,j})_k = \left(C_p^{i-1}\lambda_k^{p-(i-1)}\right) \)
que es, justamente, la forma de la potencia p-ésima del bloque de Jordan \( S_k\) [12].

Continuar leyendo en ... PARTE II - PARTE III - PARTE IV
¿Te han sido de utilidad estos apuntes sobre el cálculo de valores propios?.- ¡Recomiénda esta página!

Otros usuarios de Matemáticas y poesía también han visto:


 


tema escrito por: José Antonio Hervás