Estás en > Matemáticas y Poesía > Matemáticas

MONOGRAFIAS MATEMÁTICAS ~ SISTEMAS ESTOCASTICOS

TEORIA DE LA PROBABILIDAD

ESTIMACION DINAMICA

Los distintos métodos de estimación enumerados pueden aplicarse con éxito a un sistema discreto regido per las ecuaciones:
    \( \begin{array}{lc}
    x(k+1) = \phi(k)·x(k) + b(k)3u(k) + G(k)·v(k) & (79) \\
     &  \\
    y(k) = D(k)·x(k) + w(k) & (80)
    \end{array} \)
donde k es el valor discreto y entero de la variable independiente, generalmente el tiempo, x(k) es el vector de estado (inaccesible), y(k) es el vector secuencia de salida, que viene dado como una combinación lineal de los estados perturbados por un ruido, y u(k) es una señal de control determinista y discreta.
Las características de los procesos v(k) y w(k) se supondrán conocidas y estarán determinadas por las asignadas a un ruido blanco:
    \( \begin{array}{lc}
    E[v(k)] = \bar{v} & (81) \\
     &  \\
    E[(v(j)-\bar{v})·(v(k) - \bar{v})^T]=V(k)·\delta(j-k) & (82) \\
     &  \\
    E[w(k)] = \bar{w} & (83) \\
    & \\
    E[(w(j)-\bar{w})·(w(k) - \bar{w})^T]=W(k)·\delta(j-k) & (84)
    \end{array} \)
Para el propósito que nos ocupa vamos a suponer conocido el estimado a priori del vector de estado inicial, así como la covarianza del vector desviación:
    \( \begin{array}{lc}
    E[x(0)] = \bar{x}(0) & (85) \\
     &  \\
    E[(x(0)-\bar{x}(0))·(x(0)-\bar{x}(0))^T] = \bar{X}(0) & (86)
    \end{array} \)
En primer lugar consideramos la transición de k = 0 a k = 1. Teniendo en cuenta la ecuación de estado (79) y aplicando el operador expectación obtenemos el estimado a priori \( \bar{x}(1) \) como:
    \( \bar{x}(1)= E[x(1)] = \phi(0)·\bar{x}(0) + B(0)·\bar{u}(0) + G(0)·\bar{v}(0)\qquad\; (87) \)
y teniendo en cuenta que el vector u(k) es determinístico :
    \(\bar{x}(1) = \phi(0)·\bar{x}(0) + B(0)·u(0) + G(0)·\bar{v}(0)\qquad\qquad (88) \)
La matriz de covarianza del nuevo vector desviación vendrá dada por:
    \( E[x(1) - \bar{x}(1))·(x(1)-\bar{x}(1))^T] = \bar{X}(1)\qquad (89) \)
y teniendo en cuenta las ecuaciones (79) y (88) :
    \( \bar{X}(1) = \phi(0)·X(0)·\phi^T(0) + G(0)·V(0)·G^T(0) \qquad (90) \)
Podemos ahora emplear el vector de salida y(1) para obtener el estimado de x(1) de varianza mínima por el método de mínimos cuadrados, es decir deseamos minimizar el funcional :
    \( \displaystyle\begin{array}{l}
    J = \frac{1}{2}\left[(x(k) - \bar{x}(k))^TP(k)·(x(k) - \bar{x}(k)) +\right. \\
     \\
    \left.+ (y(k)- D(k)·x(k))^TQ(k)·(y(k) - D(k)·x(k))\right]
    \end{array} \)
donde las matrices P(k) y Q(k) son simétricas y definidas positivas.
Tenemos :
    \( \displaystyle \left.\frac{\partial J}{\partial x}\right|_{x = \hat{x}} = 0\qquad (91) \)
y efectuando operaciones:
    \( \displaystyle \begin{array}{l}
    \frac{\partial J}{\partial x} = \frac{1}{2}·\frac{\partial }{\partial x}\left[(x(k) - \bar{x}(k))^TP(k)·(x(k)-\bar{x}(k)) + \right. \\
     \\
    + y^T(k)·Q(k)·y(k) - y^T(k)·Q(k)·D(k)·x(k) - \\ \\ - x^T(k)·D^T(k)·Q(k)·y(k) + \\
     \\
    \left.+ x^T(k)·D(k)·Q(k)·D(k)·x(k)\right]= \\
     \\
    P(k)·(x(k)- \bar{x}(k))- D^T(k)·Q(k)·(y(k)-D(k)·x(k)) = 0
    \end{array} \)

Sumando y restando

    \( \displaystyle D^T(k)Q(k)D(k)\bar{x}(k) \)

a esta expresión, resulta :

    \( \begin{array}{l}
    P(x)·x(k) = P(k)·\bar{x}(k) - D^T(k)·Q(k)·y(k) +\\ \\+ D^T(k)·Q(k)·D(k)·x(k) + \\
     \\
    + D^T(k)·Q(k)·D(k)·\bar{x}(k) -\\ \\-D^T(k)·Q(k)·D(k)·\bar{x}(k) = 0
    \end{array} \)
y poniendo \( x = \hat{x} \) :
    \( \begin{array}{l}
    \left[P(k) + D^T(k)·Q(k)·D(k)\right]\hat{x}(k) +\\ \\+ \left[P(k) + D^T(k)·Q(k)·D(k)\right]\bar{x}(k) \\
     \\
    + D^T(k)·Q(k)[y(k) - D(k)·\bar{x}(k)]
    \end{array} \)
con lo que el estimado óptimo a posteriori será :
    \(\begin{array}{l}
    \hat{x}(k) = \bar{x}(k) + [P(k) + D^T(k)·Q(k)·D(k)]^{-1}\times \\
     \\
    \times D^T(k)·Q(k)[y(k) - D(k)·\bar{x}(k)]
    \end{array} \)
que puede escribirse en la forma :
    \( \hat{x}(k) = \bar{x}(k) + [P(k) + M(k)[y(k) - D(k)·\bar{x}(k)]\quad (92) \)
con:
    \(\begin{array}{ll}
    M(k) = R(k)·D^T(k)·Q(k) & \quad (93) \\
     &  \\
    R(k) = [P(k) + D^T(k)·Q(k)·D(k)]^{-1} & \quad (94)
    \end{array} \)
siendo R(k) una matriz simétrica definida positiva por serlo P(k) y Q(k).
Teniendo en cuenta la ecuación (92) podemos escribir la covarianza del error cometido en el estimado a posteriori, x(k), en función de la covarianza del error del estimado a priori, \bar{x}(k), es decir :
    \(\begin{array}{l}
    X = E[(x(k) - \hat{x}(k))·(x(k) - \hat{x}(k))^T] = \\
     \\
    = E\left[(x(k)- \bar{x}(k) - M(k)·(y(k) - D(k)·\bar{x}(k))·\right. \\
     \\
    \left.(x(k) - \bar{x}(k) - M(k))·(y(k) - D(k)·\bar{x}(k))^T\right] \\\\
    \end{array} \)
y teniendo en cuenta la ecuación (80) :
    \( \begin{array}{l}
    X = E\left[((I-M(k)·D(k))·(x(k)- \bar{x}(k))-M(k)·w(k))·\right. \\
     \\
    \left. ·((I- M(k)·D(k))·(x(k) - \bar{x}(k)) - M(k)·w(k))^T\right]\\ \\
    \end{array} \)

de donde se obtiene, recordando que \( [x(k) - \bar{x}(k)] \;y \;w(k) \) son no correlacionados:

    \(\begin{array}{l}
    X = \left[I - M(k)·D(k)\right]·\overline{X}(k)· \\
     \\
    · \left[I - M(k)·D(k)\right]^T + M(k)·W(k)·M^T(k)\qquad (95)
    \end{array} \)
Para un problema de varianza mínima se trata de minimizar el funcional:
    \(E\left[(x(k)-\bar{x}(k))^T(x(k)- \bar{x}(k)) \right] = traza\:X \qquad(96) \)
Y como esta expresión está relacionada con P(k) y Q(k),
debemos buscar dos matrices \( \hat{P}(k)\; y\; \hat{Q}(k) \) que verifiquen:
    \( \displaystyle \left.\frac{\partial}{\partial P}[traza \:X]\right|_{P = \hat{P}}= 0\quad ; \quad \left.\frac{\partial}{\partial Q}[traza \:X]\right|_{Q = \hat{Q}}= 0 \)
Puesto que se cumple:
    \( d[traza\;X] = traza[dX] \qquad (97) \)
para encontrar las expresiones que nos interesan, diferenciamos (95) con respecto a M(k), es decir:
    \( \begin{array}{l}
    traza[dX] = traza \left[ -2·\bar{X}(k)·D^T(k)·dM^T(k) + \right. \\
     \\
    \left. + 2·M(k)·(D(k)·\bar{X}(k)·D^T(k) + W(k))·dM^T(k)\right]
    \end{array} \)
donde hemos aplicado las regias de diferenciación matricial. Podemos ahora sustituir el valor de M(k) dado por (93) para llegar a:
    \( \displaystyle \begin{array}{l}
    traza [dX] = traza\left[2\left(M(k)·(D(k)·\bar{X}(k)·D^T(k) + W(k))-\right.\right. \\
     \\
    \left.\left. - \bar{X}(k)·D^T(k)\right\}d(R(k)·D^T(k)·Q(k))^T\right]
    \end{array} \)
Debemos considerar en este punto la expresión de R(k) dada en (94) :
    \( R(k) = \left[P(k) + D^T(k)·Q(k)·D(k)\right]^{-1} \)
y tener en cuenta que se cumple:
    \( \begin{array}{l}
    dR(k) = d\left[P(k) + D^T(k)·Q(k)·D(k)\right]^{-1}= \\
     \\
    = -R(k)\left[dP(k) + D^T(k)·dQ(k)·D(k)\right]R(k)
    \end{array} \)
con lo cual tendremos, despues de hacer operaciones :
    \( \begin{array}{} traza \;dX = traza \left\{A(k)[R(k)D^T(k)dQ(k)]^T - \right. \\  \\ - Q(k)D(k)R(k)A(k)[R(k)dP(k)]^T \\  \\ \left.- Q(k)D(k)R(k)D^T(k)A(k)[R(k)D(k)DQ(k)]^T\right\}\qquad (98) \end{array}\)
Donde hemos puesto:
    \( A(k) = 2\{M(k)·(D(k)·X(k)·D^T(k) + W(k))- \bar{X}(k)·D^T(k)\} \)
y considerado que R(k), P(k) y Q(k) son matrices simétricas, A partir de la ex presión (98) podemos desarrollar las condiciones necesarias para obtener los va lores de P(k) y Q(k) que minimizan el funcional (96). Aplicando a la expresión (98) las reglas de derivación de un vector con respecto a una matriz, tenemos:
    \( \displaystyle \frac{\partial}{\partial P}[traza X] = - Q(k)·D(k)·R(k)·A(k)·R^T(k) = 0\qquad (99) \)
y análogamente:
    \( \displaystyle \begin{array}{l} \frac{\partial}{\partial Q} [traza\; X] = \\  \\ = A(k)D(k)R(k) - Q(k)D(k)R(k)\\ \\·D^T(k)A(k)D(k)R(k) = 0 \end{array}\)
que también podemos escribir :
    \( \left[I - Q(k)·D(k)·R(k)·D^T(k)\right]·A(k)·D(k)·R(k) = 0\qquad (100) \)
Una condición suficiente para que se verifiquen simultáneamente las ecuaciones (99) y (100) es hacer A(k) = 0, es decir :
    \( M(k)[D(k)·X(k)·D^T(k)+ W(k)] - X(k)·D^T(k) = 0 \qquad (101) \)
y teniendo en cuenta las ecuaciones (93) y(94)
    \( \begin{array}{l}
    \left[P(k) + D^T(k)·Q(k)·D(k)\right]^{-1}D^T(k)·Q(k)· \\
     \\
    [D(k)·X(k)·D^T(k) + W(k)] = X(k)·D^T(k)
    \end{array} \)
De donde se deduce:
    \( D^T(k)·Q(k)·W(k) = P(k)·X(k)·D^T(k) \)
o lo que es igual:
    \( P^{-1}(k)D^T(k)·Q(k) = X(k)·D^T(k)·W^{-1}(k) \)
Es decir, que si elegimos las matrices P(k) y Q(k) de la forma :
    \( \begin{array}{ll}
    P(k) = \bar{X}^{-1} = E[(x(k)- \bar{x}(x))·(x(k) - \bar{x}(k))^T]^{-1} & \qquad (102) \\
     &  \\
    Q(k) = W^{-1}(k) = E[w(k)·w^T(k)]^{-1} & \qquad (103)
    \end{array} \)
haremos mínimo el funcional (96)
Volviendo a la ecuación (91) y sustituyendo en ella los valores de P(k) y Q(k) llegaríamos a una expresión como la (92) que en este caso tendría a
    \( \begin{array}{l} M(k) = \left[\bar{X}^{-1}(k) + D^T(k)·W^{-1}(k)·D(k)\right]^{-1}· \\  \\ D^T(k)·W^{-1}(k)\qquad (104) \end{array} \)
como matriz de realimentación.
Nos interesa escribir la expresión de la covarianza del error cometido en el estimado a posteriori, que habíamos obtenido en (95), como función de los valores de P(k) y Q(k) dados por (102) y (103). Para ello podemos ver que se tiene:
    \( \begin{array}{l} R(k)= \left[P(k) + D^T(k)Q(k)D(k)\right]^{-1} = \\  \\ = \left[\bar{X}^{-1}(k) + D^T(k)W^{-1}(k)D(k)\right]^{-1} \end{array}\)
de donde resulta:
    \( R^{-1}(k) = \bar{X}^{-1}(k) + D^T(k)W^{-1}(k)D(k)\qquad (105)\)
y a partir de ahí, premultiplicando por R(k) y postmultiplicando por \( \bar{X}(k) \) :
    \( \bar{X}(k) = R(k) + R(k)·D^T(k)·W^{-1}(k)·D(k)·\bar{X}(k)\qquad (106) \)
con lo que finalmente :
    \( R(k) = \bar{X}(k) - R(k)·D^T(k)·W^{-1}(k)·D(k)·\bar{X}(k) \)
y considerando las ecuaciones (93) y (103) :
    \( R(k) = [I - M(k)·D(k)]\bar{X}(k)\qquad (107) \)
Esto nos permite escribir la ecuación (95) en Ia forma:
    \( \begin{array}{l}
    X(k) = R(k)[I - M(k)·D(k)]^T + R(k)·D^T(k)·W^{-1}(k)·W(k)·M^T(k) = \\
     \\
    = R(k) - R(k)·D^T(k)·M^T(k) + R(k)·D^T(k)·M^T(k) = R(k)\qquad (108)
    \end{array} \)
y recordando las ecuaciones (94), (102) y (103):
    \( X(k)= \left[\bar{X}^{-1}(k) + D^T(k)·W^{-1}(k)·D(k)\right]^{-1} \)
pero teniendo en cuenta las reglas de inversión matricial:
    \( \begin{array}{l}
    X(k) = \bar{X}(k) - \bar{X}(k)·D^T(k)[D(k)·X(k)·D^T(k) \\
     \\
    + W(k)]^{-1}·D(k)·\bar{X}(k)\qquad (109)
    \end{array} \)
La interpretación que podemos darle a la ecuación (109) es que la covarianza de la desviación del estimado a posteriori es menor que la del estimado a priori, es decir, que la incertidumbre es menor después de efectuar una medida que antes de hacerla. Para comprobar esto solo tenemos que ver que el segundo término de la derecha de la ecuación (109) es definido positivo, cuestión esta que resulta sencilla si tenemos en cuenta que \( \bar{X}(k)\; y\; W(k) \) son matrices de covarianza (simétricas y definidas positivas) y además, en general, se cumple que para toda matriz H definida positiva, \( D^T·W·D \) es definida positiva, sea cual sea la matriz D.
Todo el proceso desarrollado nos permite escribir las relaciones entre los estimados a priori, \( \bar{X}(k) \), y a posteriori, \( \hat{X}(k) \), así como las transiciones de las matrices de covarianza y de realimentación. Estas relaciones constituyen el llamado filtro de KALMAN cuya estructura viene reflejada en la figura 2 Así, a partir de las ecuaciones (92) y (88) tenemos:
    \( \begin{array}{ll}
    \hat{x}(k) = \bar{x}(k) + M(k)[y(k) - D(k)·\bar{x}(k)] & \qquad (110) \\
     &  \\
    \bar{x}(k+1) = \phi(k)·\bar{x}(k) + B(k)·u(k) + G(k)·\bar{v}(k) & \qquad (111)
    \end{array} \)
y, análogamente, considerando (109) y (90) :
    \( \begin{array}{ll}
    X(k) = \bar{X}(k) + \bar{X}(k)·D^T(k)·\\ \\·[D(k)·X(k)·D^T(k)+W(k)]^{-1}·D(k)·\bar{X}(k) & \quad (112) \\
     &  \\
    \bar{X}(k+1) = \phi(k)·\bar{X}(k)·\phi(k) + G(k)·V(k)·G^T(k) & \quad (113)
    \end{array} \)
con la matriz de realimentación :
    \( M(k) = \overline{X}(k)·D^T(k)·W^{-1}(k)\qquad (114) \)

Fig 2.- Diagrama del filtro de Kalman para procesos discretos

CONTROL ESTOCÁSTICO
Otros usuarios de Matemáticas y poesía también han visto:




Página publicada por: Jos Antonio Hervs