Estás en > Matemáticas y Poesía > Matemáticas

MONOGRAFIAS MATEMÁTICAS ~ SISTEMAS ESTOCASTICOS

TEORIA DE LA PROBABILIDAD

REPRESENTACION DE SEÑALES ALEATORIAS

Los entes manejados en la teoría de las probabilidades se llaman puntos muéstrales. El conjunto de todos los casos posibles individuales de un experimento aleatorio se llama "espacio muestral" del experimento. Un espacio muestral puede ser discreto o continuo, según que el conjunto de casos posibles sea numerable o no.
Variable aleatoria.- Sea S un espacio muestral, una variable aleatoria n-dimensional es simplemente una función cuyo dominio es el espacio muestral dado y cuyo recorrido es una colección de n-uplas de números reales (vectores de Rn). Una variable aleatoria es, por tanto, una función vectorial definida en un con junto. La palabra "aleatoria" solo sirve para recordar que el conjunto en cuestión es un espacio muestral.
Si el espacio muestral de un experimento X no es numerable, entonces no es posible asignar probabilidades no aulas a los sucesos elementales que lo constituyen. A fin de generalizar la noción de probabilidad de un suceso elemental en espacios muéstrales no numerables se introduce el concepto de función de densidad de probabilidad, designada por p(x) y que tiene las siguientes propiedades:

    \( \displaystyle \begin{array}{l}
    0 \leq p(x_i)\quad ; \quad -\infty < x_i < +\infty\;, i= 1,..., n\qquad (1) \\
     \\
    \int_{-\infty}^{+\infty}p(x_i)dx_i = 1\qquad\qquad (2)
    \end{array} \)
Para cualquier suceso E perteneciente al espacio muestral se define su probabilidad mediante:
    \( \displaystyle\begin{array}{l}
    p(E)= \int_{-\infty}^{E}p(x_i)dx_i = \\
     \\
    = \int_{-\infty}^{E_1}... \int_{-\infty}^{E_n}p(x_1,...,x_n)dx_1...dx_n\qquad\qquad (3)
    \end{array} \)
Cuando se define una función con las propiedades anteriores decimos que se ha definido una distribución de probabilidades continua.
A partir de la función de densidad de probabilidad puede obtenerse la función de distribución, P(x), definida por:
    \( \displaystyle P(x) = P(X\leq x)\qquad\qquad (4) \)

y que en el caso continuo se obtiene mediante:

    \( \displaystyle\begin{array}{l}
    P(x) = P(X\leq x)=\int_{-\infty}^{x}p(x)dx = \\
     \\
    = \int_{-\infty}^{x_1}... \int_{-\infty}^{x_n}p(\xi_1,...,\xi_n)d\xi_1...d\xi_n \qquad (5)
    \end{array} \)
Debido a la naturaleza de su definición, P(x) tiene que ser una función monótona creciente. Los valores de P(x) estarán comprendidos entre 0 y 1, y su definición implica también que \( P(-\infty) \) tiene que ser igual a cero y que \( P(\infty) \) tiene que ser igual a uno en todos los casos.
A fin de describir ciertas propiedades de las distribuciones de probabilidad es útil definir algunas cantidades o parámetros estadísticos relacionados con ellas. De ese modo, si x es una variable estadística n-dimensional, su valor esperado o primer momento se establece como:
    \( \displaystyle\begin{array}{l}
    E[x] = \int_{-\infty}^{+\infty}...\int_{-\infty}^{+\infty}\left(
    \begin{array}{c}
    x_1 \\
    \vdots \\
    x_n \\
    \end{array}
    \right) \\
     \\
    p(x_1,...,x_n)dx_1...dx_n = \bar{x}\qquad (6)
    \end{array} \)
Podemos considerar E[x] como la media de la población de la que se ha sacado la muestra. Es habitual designar este valor mediante la letra \( \mu \).
De modo semejante podemos definir el valor esperado de cualquier función f(X), es decir:
    \( \displaystyle E[f(X)] = \int_{-\infty}^{+\infty}f(x).p(x)dx\qquad (7) \)

En particular, la matriz de covarianza de x viene definida por:

    \( \displaystyle \sigma = E[(x-\mu)(x-\mu)^T]\qquad\qquad (8) \)
Siendo \( \sigma \) una matriz simétrica y definida positiva. Cada término \( p_{ii} \) de la diagonal principal de \( \sigma \)recibe el nombre de varianza de \( x_i \), y cada término \( p_{ii}, i\neq j \) es llamado covarianza de \( x_i \; y \; x_j \).
Desarrollando la expresión (8) se obtiene una relación interesante entre la media y la varianza de una función aleatoria:
    \( \displaystyle\begin{array}{l}
    \sigma = E[(x-\mu)(x-\mu)^T]= \\
     \\
    = E[x·x^T - x·\mu^T - \mu·x^T + \mu·\mu^T] = \\
     \\
    = E[x·x^T] - E[x]\mu^T - \mu·E[x^T] + \mu·\mu^T = \\
     \\
    = E[x·x^T] - \mu·\mu^T -\mu·\mu^T + \mu·\mu^T = \\
     \\
    = E[x·x^T] - \mu·\mu^T\qquad (9)
    \end{array} \)
La expresión \( E[x·x^T] \) recibe el nombre de valor cuadrático medio de x.
Generalizando la noción de matriz de covarianza se introduce el conjunto de covarianza cruzada entre dos vectores X e Y:
    \( \displaystyle \begin{array}{l}
    \sigma_{xy} = E[(X-\bar{X})(Y- \bar{Y}] =\\
     \\
    \int_{-\infty}^{+\infty}...\int_{-\infty}^{+\infty}(x-\bar{x})(y-\bar{y})dx_1...dx_n·dy_1...dy_n\quad(10)
    \end{array}
    \)
Sí dice que los elementos \( X_i \) de un vector estocástico X, de dimensión n, son estadísticamente independientes si su función de distribución compuesta se factoriza idénticamente en el producto de sus funciones distribución marginal
    \( \displaystyle P(x_1,...,x_n) = P(x_1)...P(x_n)\qquad\qquad (11) \)
Es fácil ver entonces, cuando las derivadas parciales enésimas adecuadas en ambos miembros de (11) que cuando los elementos de X son estadísticamente independientes su función de densidad compuesta también se puede factorizar:
    \( P(x_1,...,x_n) = p(x_1)...p(x_n)\qquad\qquad (12) \)
Análogamente, dos variables \( X_i \; e\; Y_i \) si dicen no correlacionadas sí:
    \( \displaystyle E_{x_iy_i}(X_i,Y_i) = E_{x_i}(X_i)·E_{y_i}(Y_i)\qquad (13) \)

Si X es un vector estocástico de dimensión n cuyas componentes son no correlacionadas, se verifica:

    \( \displaystyle\begin{array}{l}
    E[(X-\bar{X})(Y- \bar{Y}] = \\
     \\
    = E(X_i,X_j)-\bar{X}_i·E(X_j)-E(X_i)·\bar{X}_j+\bar{X}_i·\bar{X}_j =\\
     \\
    = E(X_i)·E(X_j) - \bar{X}_i\bar{X}_j - \bar{X}_i\bar{X}_j + \bar{X}_i\bar{X}_j = \\
     \\
    = \bar{X}_i\bar{X}_j- \bar{X}_i\bar{X}_j = 0 \quad (14) \\
    
    \end{array} \)

y, por tanto, su matriz de covarianza es diagonal.
Finalmente, dos vectores estocásticos son ortogonales si se cumple:

    \( E[X_i, X_j] = 0\qquad\qquad (15) \)
La independencia entre vectores aleatorios implica su no correlación, pero lo contrario no es siempre cierto. Análogamente, dos vectores ortogonales son no correlacionados, pero si estos son no correlacionados, para que sean también - ortogonales su valor medio debe ser nulo.
Función característica.- Una alternativa al conocimiento de los momentos de orden sucesivo de una variable aleatoria X se tiene mediante la llamada función característica, dada por:
    \( \displaystyle\begin{array}{l}
    \phi_x = E[\exp(i·x^Tu)] = \\
     \\
    =\int_{-\infty}^{+\infty}...\int_{-\infty}^{+\infty}\exp(i·x^Tu)·p(x)dx_1...dx_n\qquad (16)
    \end{array} \)
siendo u un vector de dimensión n. La importancia de la función característica radica en el hecho de que los momentos sucesivos de X pueden obtenerse derivando dicha función característica, es decir:
    \( \displaystyle E[x^r]= \frac{1}{i^r}·\frac{d^r}{du^r}[\phi_x(0)]\qquad (17) \)
para todo r, supuesto que \( \phi_x(u) \) sea analítica, y donde i es la unidad imaginaria.
A partir de su definición podemos ver que la función característica es justamente la transformada do Fourier de la función densidad de probabilidad, por lo que la fórmula de inversión que se sigue de la teoría de Fourier nos permite escribir:

    \( \displaystyle\begin{array}{l}
    p(x) = \frac{1}{(2\pi)^n} \int_{-\infty}^{+\infty}...\int_{-\infty}^{+\infty} \\
     \\
    \exp(i·x^Tu)·\phi_x(u)du_1...du_n\qquad (18)
    \end{array} \)
Siempre, claro está, que \( \phi_x(u) \) sea absolutamente integrable.

DISTRIBUCION NORMAL
Otros usuarios de Matemáticas y poesía también han visto:




Página publicada por: José Antonio Hervás