CARACTERIZACIÓN Y PROPIEDADES DE LAS MATRICES SIGMA
Para centrar el objeto de nuestro estudio, comenzamos definiendo
una matriz sigma. Dada la dualidad existente entre las filas y
las columnas de una matriz cuadrada, en lo que respecta al determinante
de ésta, los resultados que obtengamos para una matriz
sigma por columnas serán aplicables a una matriz sigma
por filas.
Las matrices sigma permiten generalizar el concepto de valor propio
a múltiples dimensiones a través del concepto de
matriz propia. Las matrices sigma reducibles son matrices facilmente
transformables en matrices sigma mediante transformaciones de
semejanza elementales. Las matrices bisimétricas son un
tipo especial de matrices sigma reducibles. Toda matriz de Toeplitz
simétrica es bisimétrica y, por lo tanto sigma reducible.
DEFINICIONES Y PROPIEDADES
Definición 1.- Sea A una matriz
nxn, cuyos elementos son polinomios en una o varias indeterminadas
(que en todo caso denominaremos simplemente por x) y que puede
escribirse en la forma (1)
\( A(x) = \left[
\begin{array}{ccc}
A_{11}(x) & \cdots & A_{1s}(x) \\
. & \cdots & . \\
A_{s1}(x) & \cdots & A_{ss}(x) \\
\end{array}
\right] \)
donde \(A_{ij}(x)\) son matrices cuadradas de orden r, con r x
s = n.
Diremos que A(x) es una matriz sigma,por columnas, de grado r,\(A_{\Sigma_c(r)}\)
(o, simplemente, matriz sigma) si podemos tomar en ella s sumas
equivalentes de la forma (2):
\( \displaystyle \forall \; j (j=1,...,s)\sum_{i=1}^s A_{ij}(x) = \sigma_r(x) \)
siendo \(\sigma_r\) una matriz cuadrada de orden r sin ninguna
restricción adicional.
Definición 2.- Sea A una matriz
de dimensión n x n. Diremos que una matriz de dimensión
n x r, denotada M
r es una matriz propia de A, asociada
al factor propio \(\sigma_r\) , de dimensión r x
r, si se cumple (3):
\( A·M_r = M_r·\sigma_r \)
siendo una matriz cuadrada cualquiera.
Según [1] , una ecuación como (3) implica que todos
los valores propios de \(\sigma_r\) son valores propios
de A.
Está claro que si r = 1, la anterior definición
es equivalente a la de vector propio y valor propio,ya que todo
escalar conmuta con cualquier matriz.
Definición 3.- Diremos que una
matriz cuadrada es r-diagonal si todos sus elementos, salvo tal
vez los formados por submatrices cuadradas de orden r, que se
situan a lo largo de su diagonal principal, son nulos.
Lema 1.- Una matriz r-diagonal será
singular sii lo es alguna de las submatrices que la forman.
Demostración.- Para que una matriz cuadrada A sea singular,
es condición necesaria y suficiente que se tenga det A
= 0, pero sabemos que para una matriz diagonal por bloques, como
es el caso de una matriz r-diagonal, se cumple [2] (4):
\(|A| = |A_{11}|·|A_{22}|·\cdots ·|A_{ss}|
\)
por lo tanto, si det A
ii = 0, para algún i,
resulta det A = 0, y queda demostrado lo que nos proponíamos.
TEOREMA 1
.- Si una matriz de dimensión n x n, con n = r x s, tiene
una matriz propia de dimensión n x r, entonces existe una
matriz particularmente sencilla que por una transformación
de semejanza convierte a la matriz A en una matriz de tipo sigma.
Si la matriz propia no tiene componentes singulares, la matriz
de transformación es r-diagonal y se obtiene directamente
de aquella.
Demostración.- Según la definición 2 podemos
escribir (5):
donde B es una matriz propia de A y \(\sigma_r\) su factor propio
asociado. Tomando traspuestas resulta (6) :
\(\left[
\begin{array}{ccc}
B_1^T & \cdots & B_s^T \\
\end{array}
\right]\left[
\begin{array}{ccc}
A_{11}^T & \cdots & A_{s1}^T \\
. & \cdots & . \\
A_{1s}^T & \cdots & A_{ss}^T \\
\end{array}
\right] = \sigma_r^T·\left[
\begin{array}{ccc}
B_1^T & \cdots & B_s^T \\
\end{array}
\right] \)
y desarrollando (7):
\( \begin{array}{c}
B_1^T·A_{11}^T + \cdots + B_s^T·A_{1s}^T = \sigma_r^T·B_1^T\\
\cdots \\
B_1^T·A_{s1}^T + \cdots + B_s^T·A_{ss}^T = \sigma_r^T·B_s^T
\end{array} \)
Si la matriz propia no tiene componentes singulares, podemos multiplicar
a derecha por las inversas respectivas de (8)
para obtener (9):
\( \begin{array}{c} B_1^T·A_{11}^T[B_1^{-1}]^T + \cdots + B_s^T·A_{1s}^T[B_1^{-1}]^T
= \sigma_r^T\\ \cdots \\ B_1^T·A_{s1}^T[B_s^{-1}]^T + \cdots
+ B_s^T·A_{ss}^T[B_s^{-1}]^T = \sigma_r^T \end{array} \)
Que en forma más compacta puede escribirse en la forma
(10) :
\( \left[\left(
\begin{array}{cc}
B_1^{-1} & 0 \\
0 & B_s^{-1} \\
\end{array}
\right)\left(
\begin{array}{cc}
A_{11} & A_{1s} \\
A_{s1} & A_{ss} \\
\end{array}
\right)\left(
\begin{array}{cc}
B_1 & 0 \\
0 & B_s \\
\end{array}
\right)
\right]^T \)
Por lo tanto, cuando la matriz propia no tiene componentes singulares,
la matriz de transformación es r-diagonal.
Si la matriz propia tiene componentes singulares podemos considerar
una matriz de transformación que cumpla (12) :
\(\displaystyle \sum_{i=1}^s C_{ij} = B_i \)
Para algún B
k singular, la matriz C mas sencilla
que cumpla las propiedades requeridas será de la forma
(13):
\( C = \left( \begin{array}{ccccc} B_1 & . & 0 & . & 0 \\ 0
& .& F_j & . & B_j-F_j \\ 0 & . & 0 & . & B_s \\ \end{array} \right)
\)
Con F
j no singular en la posición de C
jj
; B
j - F
j en la posición de Cjs y
nulos todos los elementos no señalados fuera de la r-diagonal
principal.
Teniendo en cuenta que la matriz inversa de C se obtiene invirtiendo
cada una de las submatrices de la r-diagonal principal.
y colocando el elemento \(-B^{-1}(B_j-F_j)F_j^{-1}\) en la posición
de \(C_{js}\) tendremos que los elementos de la matriz (14)
:
\( [C]^T·[A]^T·[C^{-1}]^T \)
valen para todas las columnas distintas de la j-ésima \(\sigma_r^T\),y
para la columna j-ésima, puesto que \((B_1^T,..., B_s^T)^T\)
es una matriz propia de A, los términos resultantes también
quedarán \(\sigma_r^T\) y con este resultado queda demostrado
lo que nos proponíamos.
En el siguiente capítulo varios teoremas esenciales relativos
a las matrices sigma, entre ellos el que permite deducir una descomposición
de la forma:
\( |A(x)| = |\sigma_r(x)|·|C(x)| \)
MATRICES SIGMA. CONTINUACIÓN