Estás en > Matemáticas y Poesía > Matemáticas

MONOGRAFIAS MATEMÁTICAS
TEORÍA MATRICIAL

CÁLCULO DE VECTORES Y VALORES PROPIOS

 

METODO PARA EL CALCULO DE VALORES Y VECTORES PROPIOS DOMINANTES DE UNA MATRIZ - PARTE II


Continía en PARTE III - PARTE IV


Viene de PARTE I.

Análogamente, si consideramos la siguiente iteración y descomponemos, queda (22) :
    \( A^{p+1}Q = A·M_p = M_{p+1}\approx \hat{M}_{p+1} = [\beta][\lambda^{(p)}][\alpha^T] \)
La matriz \( [\alpha^T]\) depende únicamente de los vectores iniciales de iteración, que se han tomado linealmente independientes, por lo que podemos considerarla no singular para escribir (23) :
    \( \begin{array}{l}
    \hat{M}_{p+1} = A·\hat{M}_p = [\beta][\lambda^{(p+1)}][\alpha^T] = [\beta][\lambda^{(p)}][\lambda^{(1)}][\alpha^T] = \\
    \\
    [\beta][\lambda^{(p)}][\alpha^T][\alpha^T]^{-1}[\lambda^{(1)}][\alpha^T] = \hat{M}_p[\alpha^T]^{-1}[\lambda^{(1)}][\alpha^T] = \hat{M}_p·\Sigma_R
    \end{array} \)
Lo que significa que \(\hat{M}_p\) es una matriz propia de A.

Para el cálculo de los vectores de Jordan asociados a los R valores propios de mayor módulo, tenemos (24) :
    \( A·\hat{M}_p = \hat{M}_p[\alpha^T]^{-1}[\lambda^{(1)}][\alpha^T] \)
Y multiplicando a derecha por \( [\alpha^T]^{-1}\)(25) :
    \( A·\hat{M}_p[\alpha^T]^{-1} = \hat{M}_p[\alpha^T]^{-1}[\lambda^{(1)}] \)
Por lo que \(\hat{M}_p[\alpha^T]^{-1}\) da los vectores de Jordan buscados.

Los valores propios de la matriz dada en (23) y que llamamos matriz sigma, coinciden con los valores propios dominantes de la matriz inicial.

La matriz sigma puede obtenerse sin más que considerar una matriz arbitraria V de la misma dimensión que , puesto que, teniendo en cuenta (23), podemos hacer (26) :
    \( \hat{M}_{p+1} = A·\hat{M}_p = \hat{M}_p·\Sigma_R \rightarrow V^{\;T}·\hat{M}_{p+1} =V^{\;T}· \hat{M}_p·\Sigma_R \)
Y de ahí obtener mediante (27) :
    \( \Sigma_R = \left[V^{\;T}· \hat{M}_p \right]^{-1}\left[V^{\;T}·\hat{M}_{p+1} \right] \)
lo cual siempre es posible al haber elegido V arbitraria.

Queda así resuelto el problema de extracción de los R valores propios de mayor módulo de una matriz y sus vectores propios correspondientes.

Una variante sobre el algoritmo anterior puede hacerse considerando un solo vector de iteración para obtener una base de Krilov del subespacio dominante [13].

Sea v vector cualquiera de dimensión n y supongamos que A posee n vectores propios. Podemos expresar v como combinación lineal de dichos vectores propios (28) :
    \(\displaystyle v = \alpha_1q_1 +\ldots + \alpha_nq_n = \sum_{i=1}^n \alpha_iq_i \)
Si aplicamos p veces la matriz A sobre el vector v, obtenemos (29) :
    \( \displaystyle A^pv = \alpha_1\lambda_1^pq_1 +\ldots + \alpha_n \lambda_n^pq_n = \sum_{i=1}^n \alpha_i \lambda_i^pq_i \)
Cada uno de estos vectores propios, \(q_i\), puede expresarse en función de los vectores de la base canónica, lo cual nos permite escribir (30) :
    \( A^pv = \alpha_1\lambda_1^p\left(\beta_{11}, \ldots ,\beta_{1n} \right) +\ldots + \alpha_n \lambda_n^p\left(\beta_{n1}, \ldots ,\beta_{nn} \right) \)
Consideramos entonces r iteracciones, a partir de una p-ésima dada, para escribir la matriz de dimensión nxr (31) :
    \( M_p =\displaystyle \left[ \begin{array}{ccc} \sum_{i=1}^n \alpha_i \lambda_i^p\beta_{i1} & \cdots & \sum_{i=1}^n \alpha_i \lambda_i^{p+\gamma-1}\beta_{i1}\\ \sum_{i=1}^n \alpha_i \lambda_i^p\beta_{i2} & \cdots & \sum_{i=1}^n \alpha_i \lambda_i^{p+\gamma-1}\beta_{i2} \\ . & \cdots & . \\ \sum_{i=1}^n \alpha_i \lambda_i^p\beta_{in} & \cdots & \sum_{i=1}^n \alpha_i \lambda_i^{p+\gamma-1}\beta_{in} \\ \end{array} \right]\; \alpha_i , \beta_{ik}, \lambda_i \in \Re \)
Teniendo en cuenta la hipótesis dada en (2) podemos aproximar los elementos de (31) para escribir (32) :
    \( \tilde{M}_p =\displaystyle \left[ \begin{array}{ccc} \sum_{i=1}^r \alpha_i \lambda_i^p\beta_{i1} & \cdots & \sum_{i=1}^r \alpha_i \lambda_i^{p+\gamma-1}\beta_{i1}\\ \sum_{i=1}^r \alpha_i \lambda_i^p\beta_{i2} & \cdots & \sum_{i=1}^r \alpha_i \lambda_i^{p+\gamma-1}\beta_{i2} \\ . & \cdots & . \\ \sum_{i=1}^r \alpha_i \lambda_i^p\beta_{in} & \cdots & \sum_{i=1}^r \alpha_i \lambda_i^{p+\gamma-1}\beta_{in} \\ \end{array} \right]\; \alpha_i , \beta_{ik}, \lambda_i \in \Re \)
Y esta matriz puede descomponerse en la forma (33) :
    \( \left[ \begin{array}{ccc} \beta_{11} & \cdots & \beta_{r1} \\ \beta_{12} & \cdots & \beta_{r2} \\ . & \cdots & .\\ \beta_{1n} & \cdots & \beta_{rn} \\ \end{array} \right]\left[ \begin{array}{ccc} \alpha_1\lambda_1^p & . & 0 \\ . & . & . \\ 0 & . & \alpha_r\lambda_r^p \\ \end{array} \right]\left[ \begin{array}{cccc} 1 & \lambda_1 & \cdots & \lambda_1^{r-1} \\ . & . & \cdots & . \\ 1 & \lambda_r & \cdots & \lambda_r^{r-1} \\ \end{array} \right] \)
De estos tres factores, con dimensiones respectivas nxr, rxr y rxn, el de la derecha es una matriz de Vandermonde [12] con determinante distinto de cero, siempre que todos los \(\lambda_i\) sean distintos entre si, el central es una matriz diagonal cuyos elementos dependen de los \(\lambda_i\) (todos ellos estrictamente superiores a cero) y de los \(\alpha_i\) que a su vez dependen del vector elegido para la iteracción y que por tanto pueden elegirse distintos de cero, y el de la izquierda es la matriz de los coeficientes de los r vectores propios asociados a los r valores propios dominantes, que tiene rango r lo que significa que existe al menos un bloque de dimensión rxr en (33) que es NO SINGULAR.

Obtengamos ahora la siguiente iteración \(\tilde{M}_{p+1}\) (34) :
    \( \tilde{M}_{p+1} \cong A·\tilde{M}_p \cong\displaystyle \left[ \begin{array}{ccc} \sum_{i=1}^r \alpha_i \lambda_i^{p+1}\beta_{i1} & \cdots & \sum_{i=1}^r \alpha_i \lambda_i^{p+\gamma}\beta_{i1}\\ \sum_{i=1}^r \alpha_i \lambda_i^{p+1}\beta_{i2} & \cdots & \sum_{i=1}^r \alpha_i \lambda_i^{p+\gamma}\beta_{i2} \\ . & \cdots & . \\ \sum_{i=1}^r \alpha_i \lambda_i^{p+1}\beta_{in} & \cdots & \sum_{i=1}^r \alpha_i \lambda_i^{p+\gamma}\beta_{in} \\ \end{array} \right]\; \alpha_i , \beta_{ik}, \lambda_i \in \Re \)
Que puede también descomponerse en la forma (35) :
    \( \left[ \begin{array}{ccc} \beta_{11} & \cdots & \beta_{r1} \\ \beta_{12} & \cdots & \beta_{r2} \\ . & \cdots & .\\ \beta_{1n} & \cdots & \beta_{rn} \\ \end{array} \right]\left[ \begin{array}{ccc} \alpha_1\lambda_1^p & . & 0 \\ . & . & . \\ 0 & . & \alpha_r\lambda_r^p \\ \end{array} \right]\left[ \begin{array}{cccc} \lambda_1& \lambda_1^2 & \cdots & \lambda_1^r \\ . & . & \cdots & . \\ \lambda_r & \lambda_r^2 & \cdots & \lambda_r^r \\ \end{array} \right] \)
Una comparación entre las dos matrices de la derecha en (33) y (35) nos permite escribir (36) :
    \(\left[ \begin{array}{cccc} 1 & \lambda_1 & \cdots & \lambda_1^{r-1} \\ . & . & \cdots & . \\ 1 & \lambda_r & \cdots & \lambda_r^{r-1} \\ \end{array} \right]\left[ \begin{array}{cccc} 0 & 0 & \cdots & a_1 \\ 1 & 0 & \cdots & a_2 \\ 0 & 1 & \cdots & a_3 \\ . & . & \cdots & . \\ 0 & 0 & \cdots & a_r \\ \end{array} \right] = \left[ \begin{array}{cccc} \lambda_1& \lambda_1^2 & \cdots & \lambda_1^r \\ . & . & \cdots & . \\ \lambda_r & \lambda_r^2 & \cdots & \lambda_r^r \\ \end{array} \right] \)

donde (37) :

es la llamada matriz de Frobenius, o "companion matrix" [14],para la que se cumple que (38)
    \( w^r - a_r·w^{r-1} - \ldots - a_1 = 0 \)
es su polinomio característico .

Por todo ello (34) quedará (39) :
    \( \tilde{M}_{p+1} = A·\tilde{M}_p = \tilde{M}_p·S \)
Y\(\tilde{M}_p\) es una matriz propia de A

Si premultiplicamos la anterior expresión por\(\tilde{M}_p^T\) Cálculo de valores propios obtenemos (40) :
    \( \tilde{M}_p^T·\tilde{M}_{p+1} = \tilde{M}_p^T·\tilde{M}_p·S \)
Y por tanto (41) :
    \( \left[\tilde{M}_p^T·\tilde{M}_p\right]^{-1}\left[\tilde{M}_p^T·\tilde{M}_{p+1}\right] = S \)
Ya que, según [15], la inversa indicada siempre existe .

Para el cálculo de los vectores propios asociados a los r valores propios dominantes, tomamos la ecuación (39) donde A es de dimensión n x n, M es de dimensión n x r, y S es de dimensión rxr y tiene la forma dada en (37).

Continuar leyendo en ... PARTE III - PARTE IV viene de ... PARTE I
¿Te han sido de utilidad estos apuntes sobre el cálculo de valores propios?.- ¡Recomiénda esta página!

Otros usuarios de Matemáticas y poesía también han visto:


 


tema escrito por: José Antonio Hervás