Estás en > Matemáticas y Poesía > Matemáticas

MONOGRAFIAS MATEMÁTICAS ~ TEORÍA MATRICIAL

MATRICES SIGMA REDUCIBLES

CARACTERIZACIÓN Y PROPIEDADES DE LAS MATRICES SIGMA-REDUCIBLES

Como paso inicial para caracterizar clases de matrices que pueden transformarse en matrices sigma, tenemos la siguiente definición :

Definición 1

Diremos que una matriz cuadrada tiene un polinomio característico sigma-reducible, si mediante transformaciones de semejanza elementales (permutaciones de filas y columnas), podemos transformar dicha matriz en una matriz sigma.

TEOREMA 1

Sea M una matriz de la forma (1) :
    \( M = \left(
    \begin{array}{ccc}
    A_{\Sigma_{1,1}(r)} & \cdots & A_{\Sigma_{1,n}(r)} \\
    · & \cdots & · \\
    A_{\Sigma_{n,1}(r)} & \cdots & A_{\Sigma_{n,n}(r)} \\
    \end{array}
    \right)\)
Donde las \(A_{\Sigma_{i,j}(r)}\) son matrices sigma de grado r y dimensión mxm.

Se cumple que M es semejante a una matriz sigma para la que se tiene (2) :
    \(\sigma(s.r) = \left( \begin{array}{ccc}
    A_{\sigma_{1,1}(r)} & \cdots & A_{\sigma_{1,s}(r)} \\
    · & \cdots & · \\ A_{\sigma_{s,1}(r)} & \cdots & A_{\sigma_{s,s}(r)} \\
    \end{array}
    \right) \)
Y su polinomio característico puede escribirse como (3) :
    \(P(M) = P[\sigma(s.r)]·P(C)\)
Siendo C una matriz compuesta de dimensión [(m-r)s x (m-r)s] de la forma (4) :
    \(C = \left(
    \begin{array}{ccc}
    C_{1,1} & \cdots & C_{1,s} \\
    · & \cdots & · \\
    C_{s,1} & \cdots & C_{s,s} \\
    \end{array}
    \right) \)
Donde cada \(C_{ij}\) y cada \(\sigma_{i,j}(r)\) se obtienen de aplicar el teorema 2 de [1] a cada submatriz .

Demostración.- Se trata tan solo de transformar la matriz M, mediante una matriz de permutación P, que actúa sobre sus filas como sigue :
    \(\begin{array}{c}
    \textrm{las} r-1 \textrm{ filas de } A_{\Sigma_{1,1}(r)},...,A_{\Sigma_{1,s}(r)} \textrm{ quedan invariantes} \\
    \\
    \textrm{las} r-1 \textrm{ filas de } A_{\Sigma_{2,1}(r)},...,A_{\Sigma_{2,s}(r)} \textrm{ van a la posición }r-2 \\ \\
    \textrm{las} r-1 \textrm{ filas de } A_{\Sigma_{s,1}(r)},...,A_{\Sigma_{s,s}(r)}\textrm{ van a la posición }r-n
    \end{array} \)
Siguiendo una pauta análoga se van colocando las r-segundas, ..., r-m-ésimas filas de cada fila matricial :
    \( A_{\Sigma_{1,1}(r)},...,A_{\Sigma_{1,s}(r)}, ..., A_{\Sigma_{s,1}(r)},...,A_{\Sigma_{s,s}(r)}\)
La matriz que resulta de estas transformaciones es semejante a M y, claramente, es una matriz sigma.

Ejemplo .- Las matrices :
    \(\left(
    \begin{array}{cccccc}
    1 & 5 & 3 & 1 & -2 & 1 \\
    -2 & -6 & 2 & 4 & 2 & -1 \\
    0 & 1 & 2 & 1 & 5 & 0 \\
    4 & 3 & 1 & 2 & -2 & 3 \\
    1 & -1 & 0 & 2 & -1 & 0 \\
    1 & 4 & 3 & 1 & 2 & 1 \\
    \end{array}
    \right) - \left(
    \begin{array}{cccccc}
    1 & 3 & -2 & 5 & 1 & 1 \\
    0 & 2 & 5 & 1 & 1 & 0 \\
    1 & 0 & -1 & -1 & 2 & 0 \\
    -2 & 2 & 2 & -6 & 4 & -1 \\
    4 & 1 & -2 & 3 & 2 & 3 \\
    2 & 3 & 2 & 4 & 1 & 1 \\
    \end{array} \right) \)
Son semejantes por permutaciones y pueden descomponerse en :
    \( \left(
    \begin{array}{ccc}
    -1 & 5 & 0 \\
    4 & 3 & 3 \\
    3 & 3 & 1 \\
    \end{array}
    \right) \; ; \;\left(
    \begin{array}{ccc}
    -4 & 2 & -3 \\
    -1 & 1 & 5 \\
    2 & -2 & -1 \\
    \end{array}
    \right) \)
COROLARIO 1.

Siendo M una matriz n x n, que admite una partición en bloques que cumplen las siguientes propiedades :

a) Todos los bloques situados sobre la diagonal principal son matrices sigma del mismo orden aunque no necesariamente de la misma dimensión.

b) Todos los bloques fuera de la diagonal principal (que en general no serán matrices cuadradas) son matrices sigma rectangulares del mismo orden que los bloques diagonales.

Entonces M tiene un polinomio característico sigma-reducible.

Definición 2.- Sea A una matriz cuadrada de dimensión n x n, con n = r.s, que puede escribirse en la forma (5) :
    \(\left(
    \begin{array}{ccc}
    A_{1,1} & \cdots & A_{1,s} \\
    . & \cdots & . \\
    A_{s,1} & \cdots & A_{s,s} \\
    \end{array}
    \right) \)
Denotaremos por \(A_{jj}(r)\) a la matriz de dimensión (n-r)x(n-r) obtenida suprimiendo de A las submatrices de la fila j y la columna j. A dicha matriz la llamaremos j-ésimo menor principal de grado r, de A

El siguiente resultado nos permite determinar cierta clase de matrices que admiten ser transformadas en matrices sigma mediante manipulaciones matriciales sencillas.

TEOREMA 2

Sea A una matriz de orden n, con n = r.s. Si alguna de las matrices [Ajj(r)]T obtenidas de A tiene como matriz propia la (s-1)-upla (6) :
    \( (A_{j,1},...,A_{j,j-1}, A_{j,j+1},...,A_{j,s})^T\)
Y cada Aji es no singular, entonces cada solución distinta, X(r), de la ecuación matricial (7) :
    \(\displaystyle X(r) + B_r = X(r)·A_{j,j}·X^{-1}(r) + \sum_{i=i}^sA_{j,i}·A_{i,j}·X^{-1}(r) \)
Nos da, para la matriz A, un factor propio de grado r que puede escribirse en la forma (8) :
    \(X(r) + B_r\)
Además, la matriz propia de \(A^T\) asociada a cada factor propio es de la forma (9) :
    \( (A_{j,1},...,A_{j,j-1},X(r), A_{j,j+1},...,A_{j,s})^T\)
Demostración.- (en lo que sigue, y mientras no haya lugar a confusión, dejaremos de escribir el índice "r").

Puesto que ninguno de los Aji de la (s-1)-upla considerada es sin-gular, podemos transformar A en otra matriz semejante premultipli-cándola y postmultiplicándola, respectivamente, por una matriz r-diagonal (y su inversa) de la forma (10) :
    \(\left(
    \begin{array}{ccccccc}
    A_{1,1} & . & . & . & . & . & 0 \\
    . & . & . & . & . & . & . \\
    0 & . & A_{j,j-1} & . & . & . & 0 \\
    0 & . & . & X & . & . & 0 \\
    0 & . & . & . & A_{j,j+1} & . & 0 \\
    . & . & . & . & . & . & . \\
    0 & . & . & . & . & . & A_{s,s} \\
    \end{array}
    \right) \)
Con lo que resulta (11) :
    \( M = D·A·D^{-1}\left( \begin{array}{ccccc}
    A_{j,1}A_{1,1}A_{j,1}^{-1} & . & A_{j,1}A_{1,j}X^{-1} & . & A_{j,1}A_{1,s}A_{j,1}^{-1} \\
    X& . & X·A_{j,j}X^{-1}& . & X \\
    A_{j,s}A_{s,1}A_{j,s}^{-1} & . & A_{j,s}A_{s,j}X^{-1} & . & A_{j,s}A_{s,s}A_{j,s}^{-1} \\
    \end{array}
    \right) \)
Considerando ahora la matriz \(M_{jj}\) tenemos que será de la forma (12) :
    \(M_{jj} = \left(
    \begin{array}{ccc}
    A_{j,1}A_{1,1}A_{j,1}^{-1} & . & A_{j,1}A_{1,s}A_{j,1}^{-1} \\
    . & .. & . \\
    A_{j,s}A_{s,1}A_{j,s}^{-1} & . & A_{j,s}A_{s,s}A_{j,s}^{-1} \\
    \end{array}
    \right) \)
Sumando entre si cada una de las columnas de submatrices de esta matriz, obtenemos (13) :
    \(\begin{array}{c}
    A_{j,1}A_{1,1}A_{j,1}^{-1} + ... + A_{j,1}A_{1,s}A_{j,1}^{-1} = B_1 \\
    .................. \\
    A_{j,s}A_{s,1}A_{j,s}^{-1} + ... + A_{j,s}A_{s,s}A_{j,s}^{-1} = B_s
    \end{array}\)
O lo que es igual (14) :
    \(\begin{array}{c}
    A_{j,1}A_{1,1} + ... + A_{j,1}A_{1,s} = B_1A_{j,1} \\
    .................. \\
    A_{j,s}A_{s,1} + ... + A_{j,s}A_{s,s} = B_sA_{j,s}
    \end{array} \)
Es decir (15) :
    \([A_{j,j}]^T \left(
    \begin{array}{c}
    A_{j,1}^T \\
    . \\
    A_{j,s}^T \\
    \end{array}
    \right) = \left(
    \begin{array}{c}
    A_{j,1}^T \\
    . \\
    A_{j,s}^T \\
    \end{array}
    \right)\left(
    \begin{array}{ccc}
    B_1 & . & B_s \\
    \end{array}
    \right) \)
Pero hemos dicho que (A_{j1} ... A{js})^T es una matriz propia de [A_{jj}]^T por lo que todos los Bi serán iguales. En consecuencia, también serán iguales todas las sumas dadas por (13). Estas sumas se corresponden con todas las columnas de M salvo la j-ésima.

No obstante, y puesto que X no está determinada, podemos hacer que la columna j-ésima sume igual que las restantes. Para ello, se debe cumplir (16) :
    \(\displaystyle X + B = X·A_{j,j}X^{-1} + \sum_{i=i}^sA_{j,i}·A_{i,j}·X^{-1} \)
Cada matriz X que verifique esta ecuación permite que se cumplan las hipótesis del teorema 1 de [1] por lo que (17) :
    \( (A_{j,1},...,A_{j,j-1},X, A_{j,j+1},...,A_{j,s})\)
será una matriz propia de AT asociada al factor propio X+B.

Ejemplo - En una matriz de la forma :
    \(\left(
    \begin{array}{cc}
    A & B \\
    -B & A \\
    \end{array}
    \right) \)
podemos hacer :
    \(\left(
    \begin{array}{cc}
    I & 0 \\
    0 & i \\
    \end{array}
    \right)\left(
    \begin{array}{cc}
    A & B \\
    -B & A \\
    \end{array}
    \right)\left(
    \begin{array}{cc}
    I & 0 \\
    0 & -i \\
    \end{array}
    \right) = \left(
    \begin{array}{cc}
    A & -iB \\
    -iB & A \\
    \end{array}
    \right) \)
por lo que su polinomio característico admite una descomposición en la forma :
    \( P(M) = P(A+i·B)·P(A- i·B)\)
Algunos resultados obtenidos pueden relacionarse con el producto de Kronecker de dos matrices.

TEOREMA 3

Sea M una matriz cuadrada de dimensión n que puede escribirse en la forma (17) :
    \( M = \left(
    \begin{array}{ccc}
    A_{1,1} & \cdots & A_{1,n} \\
    · & \cdots & · \\
    A_{n,1} & \cdots & A_{n,n} \\
    \end{array}
    \right)\)
Donde cada Aij es a su vez una matriz cuadrada de dimensión r (con n = r.m). Si todas las Aij poseen una matriz propia común, entonces la matriz (18) :
    \( \sigma = \left(
    \begin{array}{ccc}
    \sigma_{1,1} & \cdots & \sigma_{1,m} \\
    · & \cdots & · \\
    \sigma_{m,1} & \cdots & \sigma_{m,m} \\
    \end{array}
    \right)\)
en la que σij es el factor propio de Aij asociado a la matriz propia considerada, es un factor propio de M.

Demostración.- Sobre la hipótesis de que existe una matriz propia que es común a todas las Aij, podemos premultiplicar y postmultiplicar M por W y W-1, matrices r-diagonales con todas sus componentes iguales. Con esta operación aplicamos el teorema 1 a cada matriz Aij y de ese modo resulta una matriz del tipo dado en el teorema 1 y que verifica la hipótesis planteada.

COROLARIO 2

Si M es una matriz de la forma (19) :
    \( M = \left(
    \begin{array}{ccc}
    P_{1,1}(A) & \cdots & P_{1,n}(A) \\
    · & \cdots & · \\
    P_{n,1}(A) & \cdots & P_{n,n}(A) \\
    \end{array}
    \right)\)
donde los Pij(.) son polinomios, entonces la matriz (20) :
    \( \sigma = \left(
    \begin{array}{ccc}
    P_{1,1}(\lambda_i) & \cdots & P_{1,n}(\lambda_i) \\
    · & \cdots & · \\
    P_{n,1}(\lambda_i) & \cdots & P_{n,n}(\lambda_i) \\
    \end{array}
    \right)\)
con λi siendo el valor propio i-ésimo de A, es una matriz propia de M.

Se puede deducir de ello que el producto de Kronecker de dos matrices [2] tiene como valores propios el producto de los valores propios de las matrices que lo componen ya que se tiene (21) :
    \(B \otimes A = \left(
    \begin{array}{cc}
    b_{11}A & b_{1n}A \\
    b_{n1}A & b_{nn}A \\
    \end{array}
    \right) \)
Que es una matriz de la forma anterior con Pij(A) monomios lineales.

En realidad, el resultado anterior nos permite decir que toda matriz M de la forma (22) :
    \(\displaystyle M = \sum_{i=0}^n B_i \otimes A^i \)
donde las Bi son matrices cuadradas m-dimensionales, en general distintas, y A una matriz cuadrada s-dimensional (para la que el superíndice i expresa potenciación), tiene s factores propios (distintos o confundidos) de la forma [3] (23) :
    \(\displaystyle M = \sum_{i=0}^n \lambda_j^iB_i \)
Siendo λj el valor propio j-ésimo de A.

BIBLIOGRAFIA

Matrices sigma. J A Hervás

R. Bellman, Introducción al análisis matricial, pgs 250 y sgts. Ed Reverté

J. Williamson, Raices Características de una matriz de tipo especial
¿Te han sido de utilidad estos apuntes sobre las matrices sigma reducibles?.- ¡Recomiénda esta página!



Página publicada por: José Antonio Hervás