Estás en > Matemáticas y Poesía > Matemáticas

MONOGRAFIAS MATEMÁTICAS ~ SISTEMAS ESTOCASTICOS

TEORIA DE LA PROBABILIDAD

PROCESOS ESTOCÁSTICOS

Cuando una variable aleatoria es función del tiempo tenemos un proceso estocástico. La definición formal de un proceso de este tipo es la siguiente:
Se denomina proceso estocástico a un conjunto de n variables aleatorias Z(t) , que dependen del parámetro t;, c a un conjunto de realizaciones del proceso z(t) .Con objeto de definir un proceso, es necesario asignar una medida de probabilidad en el espacio funcional de las realizaciones. Para ello, en el intervalo de variación de t, consideramos n valores cualesquiera \( t_1,...,t_n \) ; la función aleatoria z(t) se convierte, entonces, para cada uno de esos n valores de t en las variables aleatorias :
    \( z(t_1) \: ; \: z(t_2) \: ; \: ... \: ; \: z(t_n)\)
Si consideramos ahora el vector aleatorio n-dimensional \({z(t_1) \: ; \: ... \: ; \: z(t_n)} \) y la función de distribución del mismo:
    \( \begin{array}{l}
    P[z(t_1)<x_1 \: ;\: z(t_2)<x_2\: ;\: ... \:;\: Z(t_n)<x_n ]= \\
     \\
    = P(x_1,..., x_n , t_1, ..., t_n)\qquad\qquad (31)
    \end{array} \)
diremos que conocemos la estructura probabilística de este proceso estocástico si conocemos la distribución conjunta de las n variables aleatorias \( z(t_i)\). Esta distribución determina la distribución de cualquier subconjunto de variables y, en particular, las distribuciones marginales para cada una de ellas.
La determinación práctica de la distribución conjunta de un proceso estocástico requiere observar un gran número de realizaciones. Esta estimación se simplifica mucho cuando podemos suponer que la distribución conjunta es normal multivariable, ya que, en este caso, quedará determinada por el vector de medias y la matriz de covarianzas. Con referencia a esto, se dice que un proceso estocástico es gaussiano si todas las distribuciones de un vector aleatorio de dimensión n son variables gaussianas.
Se denomina función de medias de un proceso estocástico a una función del tiempo que proporciona las medias de las distribuciones marginales \( z(t_i) \) para cada instante:
    \( \mu(t_i) = E[z(t_i)]\qquad\qquad (32) \)
un caso particular importante es aquel en el que todas las variables tienen la misma media. Se dice entonces que el proceso es estable en la media.
Análogamente, la función de varianzas del proceso es aquella que proporciona las varianzas en cada instante temporal:
    \( \sigma^2(t_i)= Var[z(t_i)]\qquad\qquad (33) \)
Si esta función es constante en el tiempo se dice que el proceso es estable en la varianza.
La función de autocovarianzas de un proceso estocástico es aquella que describe las covarianzas en dos instantes cualesquiera:
    \(\begin{array}{l}
    Cov[z(T_1), z(t_{i+j})] = \\
     \\
    = e[z(t_i) - (t_i)][z(t_{i+j}) - \psi(t_{i+j})] (34)
    \end{array} \)
Cuando la función de autocovarianzas viene tipificada se la conoce con el nombre de función de autocorrelación:
    \( \displaystyle \rho(t_i,t_{i+j}) = \frac{Cov[z(t_i), z(t_{i+j})]}{\sigma(t_i), \sigma(t_{i+j})}\qquad (35) \)
Eh general, estas dos funciones dependen de dos parámetros, el instante inicial y el intervalo entre observaciones.
Si estudiamos a lo largo del tiempo un proceso estocástico solo dispondremos de un valor de cada variable en cada instante. Para poder estimar las características "trasversales" del proceso (medias, varianzas, etc.) a partir de su evolución "longitudinal" es necesario suponer que la distribución de las variables es estable a lo largo del tiempo. Esto nos lleva al concepto de estacionaridad.
Un proceso estocástico es estacionario en sentido débil, si existen y son estables la media, la varianza y las covarianzas, es decir, si para todo instante se verifica:
    \( \begin{array}{lc}
    \mu(t_i)= \mu = Cte & \quad (36) \\
     &  \\
    \sigma^2(t_1) = \sigma^2 = Cte & \quad (37) \\
     &  \\
    Cov[z(t_1),z(t_{i+k})] = Cov [z(t_1),z(t_{i-k})]= \gamma_k & \quad (38)
    \end{array} \)
Para un proceso estacionario la función de autocorrelacion puede calcularse mediante:
    \( \displaystyle \rho_k = \frac{\gamma_k}{\gamma_c}\qquad (39) \)
La estacionaridad no garantiza la estabilidad de un proceso estocástico, ya que la distribución de las variables \( z(t_i)\) puedes estar cambiando en el tiempo. Sin embargo, si suponemos que estas variables tienen conjuntamente una distribución gaussiana n-dimensional, resultará que todas las distribuciones marginales serán idénticas por estar determinadas por el vector media y la matriz de covarianza del proceso total. En estas condiciones decimos que un proceso es estacionario en sentido estricto.
En general, la estacionalidad vivir solo coincide con la estricta cuándo se considera la hipótesis de normalidad sí tenemos en cuenta el teorema central del límite esta situación se dará con bastante frecuencia.
Un proceso estocastico z(t) se denomina ergódico si todas sus propiedades estadísticas pueden determinarse a partir de una sola muestra. Un proceso ergódico debe ser excepcional yo en sentido estricto. Cuídate ergodicidad de un proceso es una cosa muy deseable ya que nos permite obtener las características de este con un número mínimo de realizaciones.
La posibilidad de calcular los parámetros estadísticos de un proceso estocástico estacionario queda establecida por el llamado teorema ergódico de Birkoff que enuncia:
Sí z(t) es un proceso estacionario con media finita, promedio temporal \( \eta_T \) tiende a un límite \( \eta \) para casi todas las muestras de z(t).
    \( \displaystyle E[z(t)] = \lim \frac{1}{T}\int_{-\infty}^{+\infty}z(t)dt\qquad (40) \)
Un proceso estacionario muy importante es el definido por las relaciones:
    \( \begin{array}{lc}
    E[z(t)] = \mu = 0 & \qquad (41) \\
    Var [z(t)] = \sigma^2 &  \\
    \sigma^2(t_1) = \sigma^2 = Cte & \qquad (42) \\
     &  \\
    Cov [z(t_i), z(t_{i-k})] = 0 , k = \pm 1, \pm 2, ...& \qquad (43)
    \end{array} \)
Y recibe el nombre de proceso de ruido. En un proceso de este tipo conoce valores pasados no proporciona ninguna información sobre el futuro ya que el proceso no tiene memoria.
Cuando todas las variables aleatorias de un proceso de ruido tienen distribución normal, no correlación de estas garantiza su independencia. En este caso decimos que se trata de un proceso de ruido blanco.
Sí consideramos un proceso de ruido blanco estándar, z(t), podemos expresar su función de autocovarianza por:
    \( \rho_{zz}(\tau) = \sigma^2·\delta(\tau)\qquad (44) \)
La transformada de Fourier de esta función, el espectro de potencia de dicho proceso, vale:
    \( \displaystyle Z(w) = \int_{-\infty}^{+\infty}\exp (-i·w \tau)·\rho_{zz}(\tau)·d\tau = \sigma^2\qquad (45) \)
Es decir, es una constante en todas las frecuencias. Ver el nombre de blanco aplicado a este proceso por similitud con la luz blanca que cubre todo el espectro. Un proceso blanco no es físicamente realizable ya que requeriría una potencia infinita, puede aproximarse a un realizable con un espectro constante hasta muy altas frecuencias., al ser su tratamiento sistemático muy sencillo, con profusión en la aproximación de modelos de ruido.
DESCOMPOSICIÓN DE WOLD. PROCESOS ARMA
Otros usuarios de Matemáticas y poesía también han visto:




Página publicada por: José Antonio Hervás