Como paso inicial para caracterizar clases
de matrices que pueden transformarse en matrices sigma, tenemos
la siguiente definición :
Definición 1
Diremos que una matriz cuadrada tiene un polinomio característico
sigma-reducible, si mediante transformaciones de semejanza elementales
(permutaciones de filas y columnas), podemos transformar dicha
matriz en una matriz sigma.
TEOREMA 1
Sea M una matriz de la forma (1) :
\( M = \left(
\begin{array}{ccc}
A_{\Sigma_{1,1}(r)} & \cdots & A_{\Sigma_{1,n}(r)} \\
· & \cdots & · \\
A_{\Sigma_{n,1}(r)} & \cdots & A_{\Sigma_{n,n}(r)} \\
\end{array}
\right)\)
Donde las \(A_{\Sigma_{i,j}(r)}\) son matrices sigma de grado
r y dimensión mxm.
Se cumple que M es semejante a una matriz sigma para la que se
tiene (2) :
\(\sigma(s.r) = \left( \begin{array}{ccc}
A_{\sigma_{1,1}(r)} & \cdots & A_{\sigma_{1,s}(r)} \\
· & \cdots & · \\ A_{\sigma_{s,1}(r)}
& \cdots & A_{\sigma_{s,s}(r)} \\
\end{array}
\right) \)
Y su polinomio característico puede escribirse como (3)
:
\(P(M) = P[\sigma(s.r)]·P(C)\)
Siendo C una matriz compuesta de dimensión [(m-r)s x (m-r)s]
de la forma (4) :
\(C = \left(
\begin{array}{ccc}
C_{1,1} & \cdots & C_{1,s} \\
· & \cdots & · \\
C_{s,1} & \cdots & C_{s,s} \\
\end{array}
\right) \)
Donde cada \(C_{ij}\) y cada \(\sigma_{i,j}(r)\) se obtienen de
aplicar el teorema 2 de [1] a cada submatriz .
Demostración.-
Se trata tan solo de transformar la matriz M, mediante una matriz
de permutación P, que actúa sobre sus filas como
sigue :
\(\begin{array}{c}
\textrm{las} r-1 \textrm{ filas de } A_{\Sigma_{1,1}(r)},...,A_{\Sigma_{1,s}(r)}
\textrm{ quedan invariantes} \\
\\
\textrm{las} r-1 \textrm{ filas de } A_{\Sigma_{2,1}(r)},...,A_{\Sigma_{2,s}(r)}
\textrm{ van a la posición }r-2 \\ \\
\textrm{las} r-1 \textrm{ filas de } A_{\Sigma_{s,1}(r)},...,A_{\Sigma_{s,s}(r)}\textrm{
van a la posición }r-n
\end{array} \)
Siguiendo una pauta análoga se van colocando las r-segundas,
..., r-m-ésimas filas de cada fila matricial :
\( A_{\Sigma_{1,1}(r)},...,A_{\Sigma_{1,s}(r)}, ..., A_{\Sigma_{s,1}(r)},...,A_{\Sigma_{s,s}(r)}\)
La matriz que resulta de estas transformaciones es semejante a
M y, claramente, es una matriz sigma.
Ejemplo .-
Las matrices :
\(\left(
\begin{array}{cccccc}
1 & 5 & 3 & 1 & -2 & 1 \\
-2 & -6 & 2 & 4 & 2 & -1 \\
0 & 1 & 2 & 1 & 5 & 0 \\
4 & 3 & 1 & 2 & -2 & 3 \\
1 & -1 & 0 & 2 & -1 & 0 \\
1 & 4 & 3 & 1 & 2 & 1 \\
\end{array}
\right) - \left(
\begin{array}{cccccc}
1 & 3 & -2 & 5 & 1 & 1 \\
0 & 2 & 5 & 1 & 1 & 0 \\
1 & 0 & -1 & -1 & 2 & 0 \\
-2 & 2 & 2 & -6 & 4 & -1 \\
4 & 1 & -2 & 3 & 2 & 3 \\
2 & 3 & 2 & 4 & 1 & 1 \\
\end{array} \right) \)
Son semejantes por permutaciones y pueden descomponerse en :
\( \left(
\begin{array}{ccc}
-1 & 5 & 0 \\
4 & 3 & 3 \\
3 & 3 & 1 \\
\end{array}
\right) \; ; \;\left(
\begin{array}{ccc}
-4 & 2 & -3 \\
-1 & 1 & 5 \\
2 & -2 & -1 \\
\end{array}
\right) \)
COROLARIO 1.
Siendo M una matriz n x n, que admite una partición en
bloques que cumplen las siguientes propiedades :
a) Todos los bloques situados sobre la diagonal principal son
matrices sigma del mismo orden aunque no necesariamente de la
misma dimensión.
b) Todos los bloques fuera de la diagonal principal (que en general
no serán matrices cuadradas) son matrices sigma rectangulares
del mismo orden que los bloques diagonales.
Entonces M tiene un polinomio característico sigma-reducible.
Definición 2.-
Sea A una matriz cuadrada de dimensión n x n, con n = r.s,
que puede escribirse en la forma (5) :
\(\left(
\begin{array}{ccc}
A_{1,1} & \cdots & A_{1,s} \\
. & \cdots & . \\
A_{s,1} & \cdots & A_{s,s} \\
\end{array}
\right) \)
Denotaremos por \(A_{jj}(r)\) a la matriz de dimensión
(n-r)x(n-r) obtenida suprimiendo de A las submatrices de la fila
j y la columna j. A dicha matriz la llamaremos j-ésimo
menor principal de grado r, de A
El siguiente resultado nos permite determinar cierta clase de
matrices que admiten ser transformadas en matrices sigma mediante
manipulaciones matriciales sencillas.
TEOREMA 2
Sea A una matriz de orden n, con n = r.s. Si alguna de las matrices
[A
jj(r)]
T obtenidas de A tiene como matriz
propia la (s-1)-upla (6) :
\( (A_{j,1},...,A_{j,j-1}, A_{j,j+1},...,A_{j,s})^T\)
Y cada A
ji es no singular, entonces cada solución
distinta, X(r), de la ecuación matricial (7) :
\(\displaystyle X(r) + B_r = X(r)·A_{j,j}·X^{-1}(r)
+ \sum_{i=i}^sA_{j,i}·A_{i,j}·X^{-1}(r) \)
Nos da, para la matriz A, un factor propio de grado r que puede
escribirse en la forma (8) :
Además, la matriz propia de \(A^T\) asociada a cada factor
propio es de la forma (9) :
\( (A_{j,1},...,A_{j,j-1},X(r), A_{j,j+1},...,A_{j,s})^T\)
Demostración.-
(en lo que sigue, y mientras no haya lugar a confusión,
dejaremos de escribir el índice "r").
Puesto que ninguno de los A
ji de la (s-1)-upla considerada
es sin-gular, podemos transformar A en otra matriz semejante premultipli-cándola
y postmultiplicándola, respectivamente, por una matriz
r-diagonal (y su inversa) de la forma (10) :
\(\left(
\begin{array}{ccccccc}
A_{1,1} & . & . & . & . & . & 0 \\
. & . & . & . & . & . & . \\
0 & . & A_{j,j-1} & . & . & . & 0 \\
0 & . & . & X & . & . & 0 \\
0 & . & . & . & A_{j,j+1} & . & 0 \\
. & . & . & . & . & . & . \\
0 & . & . & . & . & . & A_{s,s} \\
\end{array}
\right) \)
Con lo que resulta (11) :
\( M = D·A·D^{-1}\left( \begin{array}{ccccc}
A_{j,1}A_{1,1}A_{j,1}^{-1} & . & A_{j,1}A_{1,j}X^{-1}
& . & A_{j,1}A_{1,s}A_{j,1}^{-1} \\
X& . & X·A_{j,j}X^{-1}& . & X \\
A_{j,s}A_{s,1}A_{j,s}^{-1} & . & A_{j,s}A_{s,j}X^{-1}
& . & A_{j,s}A_{s,s}A_{j,s}^{-1} \\
\end{array}
\right) \)
Considerando ahora la matriz \(M_{jj}\) tenemos que será
de la forma (12) :
\(M_{jj} = \left(
\begin{array}{ccc}
A_{j,1}A_{1,1}A_{j,1}^{-1} & . & A_{j,1}A_{1,s}A_{j,1}^{-1}
\\
. & .. & . \\
A_{j,s}A_{s,1}A_{j,s}^{-1} & . & A_{j,s}A_{s,s}A_{j,s}^{-1}
\\
\end{array}
\right) \)
Sumando entre si cada una de las columnas de submatrices de esta
matriz, obtenemos (13) :
\(\begin{array}{c}
A_{j,1}A_{1,1}A_{j,1}^{-1} + ... + A_{j,1}A_{1,s}A_{j,1}^{-1}
= B_1 \\
.................. \\
A_{j,s}A_{s,1}A_{j,s}^{-1} + ... + A_{j,s}A_{s,s}A_{j,s}^{-1}
= B_s
\end{array}\)
O lo que es igual (14) :
\(\begin{array}{c}
A_{j,1}A_{1,1} + ... + A_{j,1}A_{1,s} = B_1A_{j,1} \\
.................. \\
A_{j,s}A_{s,1} + ... + A_{j,s}A_{s,s} = B_sA_{j,s}
\end{array} \)
Es decir (15) :
\([A_{j,j}]^T \left(
\begin{array}{c}
A_{j,1}^T \\
. \\
A_{j,s}^T \\
\end{array}
\right) = \left(
\begin{array}{c}
A_{j,1}^T \\
. \\
A_{j,s}^T \\
\end{array}
\right)\left(
\begin{array}{ccc}
B_1 & . & B_s \\
\end{array}
\right) \)
Pero hemos dicho que (A_{j1} ... A{js})^T es una matriz propia
de [A_{jj}]^T por lo que todos los B
i serán
iguales. En consecuencia, también serán iguales
todas las sumas dadas por (13). Estas sumas se corresponden con
todas las columnas de M salvo la j-ésima.
No obstante, y puesto que X no está determinada, podemos
hacer que la columna j-ésima sume igual que las restantes.
Para ello, se debe cumplir (16) :
\(\displaystyle X + B = X·A_{j,j}X^{-1} + \sum_{i=i}^sA_{j,i}·A_{i,j}·X^{-1}
\)
Cada matriz X que verifique esta ecuación permite que se
cumplan las hipótesis del teorema 1 de [1] por lo que (17)
:
\( (A_{j,1},...,A_{j,j-1},X, A_{j,j+1},...,A_{j,s})\)
será una matriz propia de A
T asociada al factor
propio X+B.
Ejemplo - En una matriz de la forma :
\(\left(
\begin{array}{cc}
A & B \\
-B & A \\
\end{array}
\right) \)
podemos hacer :
\(\left(
\begin{array}{cc}
I & 0 \\
0 & i \\
\end{array}
\right)\left(
\begin{array}{cc}
A & B \\
-B & A \\
\end{array}
\right)\left(
\begin{array}{cc}
I & 0 \\
0 & -i \\
\end{array}
\right) = \left(
\begin{array}{cc}
A & -iB \\
-iB & A \\
\end{array}
\right) \)
por lo que su polinomio característico admite una descomposición
en la forma :
\( P(M) = P(A+i·B)·P(A- i·B)\)
Algunos resultados obtenidos pueden relacionarse con el producto
de Kronecker de dos matrices.
TEOREMA 3
Sea M una matriz cuadrada de dimensión n que puede escribirse
en la forma (17) :
\( M = \left(
\begin{array}{ccc}
A_{1,1} & \cdots & A_{1,n} \\
· & \cdots & · \\
A_{n,1} & \cdots & A_{n,n} \\
\end{array}
\right)\)
Donde cada Aij es a su vez una matriz cuadrada de dimensión
r (con n = r.m). Si todas las Aij poseen una matriz propia común,
entonces la matriz (18) :
\( \sigma = \left(
\begin{array}{ccc}
\sigma_{1,1} & \cdots & \sigma_{1,m} \\
· & \cdots & · \\
\sigma_{m,1} & \cdots & \sigma_{m,m} \\
\end{array}
\right)\)
en la que σ
ij es el factor propio de A
ij
asociado a la matriz propia considerada, es un factor propio de
M.
Demostración.-
Sobre la hipótesis de que existe una matriz propia que
es común a todas las Aij, podemos premultiplicar y postmultiplicar
M por W y W
-1, matrices r-diagonales con todas sus
componentes iguales. Con esta operación aplicamos el teorema
1 a cada matriz A
ij y de ese modo resulta una matriz
del tipo dado en el teorema 1 y que verifica la hipótesis
planteada.
COROLARIO 2
Si M es una matriz de la forma (19) :
\( M = \left(
\begin{array}{ccc}
P_{1,1}(A) & \cdots & P_{1,n}(A) \\
· & \cdots & · \\
P_{n,1}(A) & \cdots & P_{n,n}(A) \\
\end{array}
\right)\)
donde los P
ij(.) son polinomios, entonces la matriz
(20) :
\( \sigma = \left(
\begin{array}{ccc}
P_{1,1}(\lambda_i) & \cdots & P_{1,n}(\lambda_i) \\
· & \cdots & · \\
P_{n,1}(\lambda_i) & \cdots & P_{n,n}(\lambda_i) \\
\end{array}
\right)\)
con λ
i siendo el valor propio i-ésimo
de A, es una matriz propia de M.
Se puede deducir de ello que el producto de Kronecker de dos matrices
[2] tiene como valores propios el producto de los valores propios
de las matrices que lo componen ya que se tiene (21) :
\(B \otimes A = \left(
\begin{array}{cc}
b_{11}A & b_{1n}A \\
b_{n1}A & b_{nn}A \\
\end{array}
\right) \)
Que es una matriz de la forma anterior con P
ij(A) monomios
lineales.
En realidad, el resultado anterior nos permite decir que toda
matriz M de la forma (22) :
\(\displaystyle M = \sum_{i=0}^n B_i \otimes A^i \)
donde las B
i son matrices cuadradas m-dimensionales,
en general distintas, y A una matriz cuadrada s-dimensional (para
la que el superíndice i expresa potenciación), tiene
s factores propios (distintos o confundidos) de la forma [3] (23)
:
\(\displaystyle M = \sum_{i=0}^n \lambda_j^iB_i \)
Siendo λ
j el valor propio j-ésimo de
A.
BIBLIOGRAFIA
Matrices sigma. J A Hervás
R. Bellman, Introducción al análisis matricial,
pgs 250 y sgts. Ed Reverté
J. Williamson, Raices Características de una matriz de
tipo especial