Estás en > Matemáticas y Poesía > Matemáticas

MONOGRAFIAS MATEMÁTICAS ~ TEORÍA MATRICIAL

MATRICES SIGMA

CARACTERIZACIÓN Y PROPIEDADES DE LAS MATRICES SIGMA

Para centrar el objeto de nuestro estudio, comenzamos definiendo una matriz sigma. Dada la dualidad existente entre las filas y las columnas de una matriz cuadrada, en lo que respecta al determinante de ésta, los resultados que obtengamos para una matriz sigma por columnas serán aplicables a una matriz sigma por filas.

Las matrices sigma permiten generalizar el concepto de valor propio a múltiples dimensiones a través del concepto de matriz propia. Las matrices sigma reducibles son matrices facilmente transformables en matrices sigma mediante transformaciones de semejanza elementales. Las matrices bisimétricas son un tipo especial de matrices sigma reducibles. Toda matriz de Toeplitz simétrica es bisimétrica y, por lo tanto sigma reducible.

DEFINICIONES Y PROPIEDADES

Definición 1.- Sea A una matriz nxn, cuyos elementos son polinomios en una o varias indeterminadas (que en todo caso denominaremos simplemente por x) y que puede escribirse en la forma (1)
    \( A(x) = \left[ \begin{array}{ccc} A_{11}(x) & \cdots & A_{1s}(x) \\ . & \cdots & . \\ A_{s1}(x) & \cdots & A_{ss}(x) \\ \end{array} \right] \)
donde \(A_{ij}(x)\) son matrices cuadradas de orden r, con r x s = n.
Diremos que A(x) es una matriz sigma,por columnas, de grado r,\(A_{\Sigma_c(r)}\) (o, simplemente, matriz sigma) si podemos tomar en ella s sumas equivalentes de la forma (2):
    \( \displaystyle \forall \; j (j=1,...,s)\sum_{i=1}^s A_{ij}(x) = \sigma_r(x) \)
siendo \(\sigma_r\) una matriz cuadrada de orden r sin ninguna restricción adicional.

Definición 2.- Sea A una matriz de dimensión n x n. Diremos que una matriz de dimensión n x r, denotada Mr es una matriz propia de A, asociada al factor propio \(\sigma_r\) , de dimensión r x r, si se cumple (3):
    \( A·M_r = M_r·\sigma_r \)
siendo una matriz cuadrada cualquiera.

Según [1] , una ecuación como (3) implica que todos los valores propios de \(\sigma_r\) son valores propios de A.
Está claro que si r = 1, la anterior definición es equivalente a la de vector propio y valor propio,ya que todo escalar conmuta con cualquier matriz.

Definición 3.- Diremos que una matriz cuadrada es r-diagonal si todos sus elementos, salvo tal vez los formados por submatrices cuadradas de orden r, que se situan a lo largo de su diagonal principal, son nulos.

Lema 1.- Una matriz r-diagonal será singular sii lo es alguna de las submatrices que la forman.
Demostración.- Para que una matriz cuadrada A sea singular, es condición necesaria y suficiente que se tenga det A = 0, pero sabemos que para una matriz diagonal por bloques, como es el caso de una matriz r-diagonal, se cumple [2] (4):
    \(|A| = |A_{11}|·|A_{22}|·\cdots ·|A_{ss}| \)
por lo tanto, si det Aii = 0, para algún i, resulta det A = 0, y queda demostrado lo que nos proponíamos.

TEOREMA 1

.- Si una matriz de dimensión n x n, con n = r x s, tiene una matriz propia de dimensión n x r, entonces existe una matriz particularmente sencilla que por una transformación de semejanza convierte a la matriz A en una matriz de tipo sigma.
Si la matriz propia no tiene componentes singulares, la matriz de transformación es r-diagonal y se obtiene directamente de aquella.
Demostración.- Según la definición 2 podemos escribir (5):
    \( A·B = B·\sigma_r \)
donde B es una matriz propia de A y \(\sigma_r\) su factor propio asociado. Tomando traspuestas resulta (6) :
    \(\left[ \begin{array}{ccc} B_1^T & \cdots & B_s^T \\ \end{array} \right]\left[ \begin{array}{ccc} A_{11}^T & \cdots & A_{s1}^T \\ . & \cdots & . \\ A_{1s}^T & \cdots & A_{ss}^T \\ \end{array} \right] = \sigma_r^T·\left[ \begin{array}{ccc} B_1^T & \cdots & B_s^T \\ \end{array} \right] \)
y desarrollando (7):
    \( \begin{array}{c} B_1^T·A_{11}^T + \cdots + B_s^T·A_{1s}^T = \sigma_r^T·B_1^T\\ \cdots \\ B_1^T·A_{s1}^T + \cdots + B_s^T·A_{ss}^T = \sigma_r^T·B_s^T \end{array} \)
Si la matriz propia no tiene componentes singulares, podemos multiplicar a derecha por las inversas respectivas de (8)
    \(B_1^T, ... , B_s^T\)
para obtener (9):
    \( \begin{array}{c} B_1^T·A_{11}^T[B_1^{-1}]^T + \cdots + B_s^T·A_{1s}^T[B_1^{-1}]^T = \sigma_r^T\\ \cdots \\ B_1^T·A_{s1}^T[B_s^{-1}]^T + \cdots + B_s^T·A_{ss}^T[B_s^{-1}]^T = \sigma_r^T \end{array} \)
Que en forma más compacta puede escribirse en la forma (10) :
    \( \left[\left( \begin{array}{cc} B_1^{-1} & 0 \\ 0 & B_s^{-1} \\ \end{array} \right)\left( \begin{array}{cc} A_{11} & A_{1s} \\ A_{s1} & A_{ss} \\ \end{array} \right)\left( \begin{array}{cc} B_1 & 0 \\ 0 & B_s \\ \end{array} \right) \right]^T \)
Por lo tanto, cuando la matriz propia no tiene componentes singulares, la matriz de transformación es r-diagonal.
Si la matriz propia tiene componentes singulares podemos considerar una matriz de transformación que cumpla (12) :
    \(\displaystyle \sum_{i=1}^s C_{ij} = B_i \)
Para algún Bk singular, la matriz C mas sencilla que cumpla las propiedades requeridas será de la forma (13):
    \( C = \left( \begin{array}{ccccc} B_1 & . & 0 & . & 0 \\ 0 & .& F_j & . & B_j-F_j \\ 0 & . & 0 & . & B_s \\ \end{array} \right) \)
Con Fj no singular en la posición de Cjj ; Bj - Fj en la posición de Cjs y nulos todos los elementos no señalados fuera de la r-diagonal principal.

Teniendo en cuenta que la matriz inversa de C se obtiene invirtiendo cada una de las submatrices de la r-diagonal principal.

y colocando el elemento \(-B^{-1}(B_j-F_j)F_j^{-1}\) en la posición de \(C_{js}\) tendremos que los elementos de la matriz (14) :
    \( [C]^T·[A]^T·[C^{-1}]^T \)
valen para todas las columnas distintas de la j-ésima \(\sigma_r^T\),y para la columna j-ésima, puesto que \((B_1^T,..., B_s^T)^T\) es una matriz propia de A, los términos resultantes también quedarán \(\sigma_r^T\) y con este resultado queda demostrado lo que nos proponíamos.

En el siguiente capítulo varios teoremas esenciales relativos a las matrices sigma, entre ellos el que permite deducir una descomposición de la forma:

    \( |A(x)| = |\sigma_r(x)|·|C(x)| \)
MATRICES SIGMA. CONTINUACIÓN
¿Te han sido de utilidad estos apuntes sobre las matrices sigma?.- ¡Recomiénda esta página!



Página publicada por: José Antonio Hervás