Estás en > Matemáticas y Poesía > Matemáticas

MONOGRAFIAS MATEMÁTICAS
ANÁLISIS NUMÉRICO

VALORES PROPIOS EN MATRICES SIMÉTRICAS

 

LOCALIZACION DE VALORES PROPIOS EN MATRICES SIMÉTRICAS

ABSTRACT

En este artículo se describe un resultado que permite dar una cota inferior y otra superior de al menos un valor propio de cualquier matriz simétrica. El resultado es interesante por cuanto el procedimiento para la obtención de dichas cotas es particularmente sencillo.

INTRODUCCION

En este trabajo se enuncia un teorema de acotación de valores propios de matrices simétricas.
Si se considera el caso de matrices simétricas de elementos no negativos, tenemos un resultado general (en cuanto que es aplicable a matrices no necesariamente simétricas) que se conoce como teorema de Perron-Frobenius [1]

Son también conocidos y de aplicación general el teorema de Gersgorin y otros resultados descritos en [2] ,[3] y [4], así como el teorema que enuncia que ningún valor propio de una matriz es superior en valor absoluto a cualquiera de las normas de ésta [5]

El resultado descrito a continuación sólo ha podido demostrarse para matrices simétricas por lo que tiene una utilidad limitada, pero es de aplicación tan elemental que lo hace útil en diversas situaciones.

ACOTACION DE VALORES PROPIOS

A continuación vamos a exponer el resultado básico de este trabajo que nos proporciona una región de localización de al menos un valor propio de una matriz simétrica. Además se indicará la forma de obtener otras posibles regiones.

TEOREMA 1

Para cualquier matriz simétrica A existe un valor\( \lambda_k \in \sigma(A) \) tal que (1) :

    \(\displaystyle \min_{i\leq j \leq n} \sum_{i=1}^n a_{ij}\leq \lambda_k\leq \max_{i\leq j \leq n} \sum_{i=1}^n a_{ij} \)
Demostración

Siendo P y Q matrices simétricas y Q definida no negativa, según [6] , para cualquier valor propio de P se cumple (2) :
    \(\lambda_k(P) \leq \lambda_k(P+Q) \)
Tomemos entonces A y descompongámosla de dos modos en dos matrices simétricas tales que (3) y (4) :
    \( A = A_{inf} + D_{inf}\; ; \;A = A_{sup} - D_{sup} \)
Siendo \( A_{inf} \;y\; A_{sup}\) matrices con todos sus elementos no diagonales iguales a los de A, y el resto construidos en la forma (5) :
    \(\displaystyle \dot{a}_{rr} = a_{rr} - \left( \sum_{i=1}^n a_{ir}- \min_{i\leq j \leq n} \sum_{i=1}^n a_{ij} \right) \)
Para Ainf, y
    \( \displaystyle \ddot{a}_{rr} = a_{rr} + \left( \max_{i\leq j \leq n} \sum_{i=1}^n a_{ij}- \sum_{i=1}^n a_{ir} \right) \)
Para Asup , y donde arr son los elementos diagonales de A. Si aplicamos la ecuación (2) a (5) y (6), tendremos (7) y (8) :
    \( \begin{array}{c} \lambda_k (A_{inf})\leq \lambda_k (A_{inf}+ D_{inf})= \lambda_k(A) \\ \\ \lambda_k (A) \leq \lambda_k (A_{sup}+ D_{sup})= \lambda_k(A_{sup}) \end{array} \)
Y a partir de ahí (9) :
    \(\lambda_k (A_{inf})\leq \lambda_k (A)\leq \lambda_k (A_{sup}) \)
Pero resulta que \( A_{inf} \;y\; A_{sup}\) son matrices sigma [7] que cumplen (10), (11) :
    \( \displaystyle \lambda_k (A_{inf})= \min_{i\leq j \leq n} \sum_{i=1}^n a_{ij}\; ; \;\lambda_k (A_{sup})= \max_{i\leq j \leq n} \sum_{i=1}^n a_{ij} \)
Por lo que tendremos (12) :
    \(
      \(\displaystyle \min_{i\leq j \leq n} \sum_{i=1}^n a_{ij}\leq \lambda_k(A)\leq \max_{i\leq j \leq n} \sum_{i=1}^n a_{ij} \)
    \)
Y queda demostrado lo que nos proponíamos.

Podemos aproximar el valor propio acotado mediante (13) :
    \( \displaystyle \lambda_k \approx \frac{1}{n}\left(\sum_{j=1}^n \sum_{k=1}^n a_{jk}\right) \)
ya que, para cualquier vector propio de A podemos poner (14) :
    \(1 = \nu_{ij} + \varepsilon_{ij} \)
donde el subíndice j señala la componente j-ésima del vector propio i-ésimo o el vector resíduo i-ésimo.
Desarrollando el cociente de Rayleig [8] para el vector definido por (14) y relacionado con \(\lambda_k\) , tenemos (15) :
    \( \displaystyle \frac{(\nu_k + \varepsilon_k)A(\nu_k + \varepsilon_k) }{(\nu_k + \varepsilon_k)(\nu_k + \varepsilon_k) }= \frac{ \displaystyle \lambda_k\sum_{j=1}^n \nu_{kj}+ \sum_{j=1}^n A \varepsilon_{kj} }{ \displaystyle \sum_{j=1}^n \nu_{kj}+ \sum_{j=1}^n \varepsilon_{kj} }= \frac{1}{n}\left(\sum_{j=1}^n \sum_{k=1}^n a_{jk}\right) \)
o también (16) :
    \(\lambda_k\left[ \frac{ \displaystyle \sum_{j=1}^n \nu_{kj}+(1/\lambda_k) \sum_{j=1}^n A \varepsilon_{kj} }{ \displaystyle \sum_{j=1}^n \nu_{kj}+ \sum_{j=1}^n \varepsilon_{kj} }\right]=\displaystyle \frac{1}{n}\left(\sum_{j=1}^n \sum_{k=1}^n a_{jk}\right) \)
Y el miembro derecho de esta expresión nos asegura que el izquierdo, que es una aproximación para \( \lambda_k\) , está acotado por lo límites dados en (12).

EJEMPLO 1

Para la matriz :
    \( A = \left( \begin{array}{cccccc} 3 & -4 & 2 & 0 & 0 & 2 \\ -4 & 1 & 4 & 2 & -1 & -2 \\ 2 & 4 & 0 & 4 & -1 & 0 \\ 0 & 2 & 4 & 2 & 2 & 1 \\ 0 & 1 & -1 & 2 & 1 & 2 \\ 2 & -2 & 0 & 1 & 2 & 1 \\ \end{array} \right) \)
Se cumple :
    \(\exists \lambda_k : 0 < \lambda_k < 11 \)
Cotas obtenidas sumando por filas o columnas sus elementos.
Para λk podemos dar el valor aproximado:
    \(\lambda_k\approx \displaystyle \frac{1}{n}\left(\sum_{j=1}^n \sum_{k=1}^n a_{jk}\right) \approx 5,3 \)
Si tenemos en cuenta que la transformación de una matriz simétrica mediante matrices de rotación da como resultado otra matriz simétrica semejante, podemos hacer :
    - Aproximar los límites del entorno en el que está contenido el valor propio acotado.
    - Buscar cotas para otros valores propios.
El modo de afrontar las dos cuestiones a la vez es considerando cada fila de una matriz, semejante a la inicial, función de un parámetro (el ángulo de rotación de la matriz de transformación) y determinando la varianza mínima de los valores de las sumas de las filas de dicha matriz, o el máximo y mínimo de la media de dichos valores.

BIBLIOGRAFIA

1. Barrios, J. A., Gonzalez, C., Moreno, J. C., Algebra matricial para economistas. Ed AC.
2. Horn, Roger A., Matrix analysis. Ed Cambridge University Press 1985. pp 343-388.
3. Parlett, B.N.; The Symmetric Eigenvalue Problem, Prentice-Hall, Englewood Cliffs, NJ.
4. Gasca, M.; Cálculo Numérico, Ed. Mira.
5. Faddeeva, V.N. ;Métodos de Cálculo de Algebra Lineal, Ed. Paraninfo.
6. Guelfand, I.M. ; Lecciones de Algebra Lineal, Serv. Ed. Universidad del Pais Vasco.
7. Hervás, J.A.;Hormaza, M.V.; Hernandez,A.;Ajuria, M.B.; Matriz Propia: Aplicación al cálculo de valores y vectores propios. Report SA-12. Departamento de Ingenieria Mecánica, UPV.
8. Chatelin, F.; Valeurs propres de matrices. Ed Masson; Paris.
9. Soft Warehouse : "Derive : A Mathematical Assistant"
¿Te han sido de utilidad estos apuntes sobre localización de valores propios en matrices simétricas?.- ¡Recomiénda esta página!

Otros usuarios de Matemáticas y poesía también han visto:


 


tema escrito por: José Antonio Hervás