Question sur la loi de Wishart (inverse)

Bonjour à tous
J'ai une question par rapport à la loi de Wishart pour les matrices. Si $X_1, \dots, X_n \in \mathbb{R}^d$ sont des vecteurs gaussiens indépendants tels que $X_i \sim \mathcal{N}(0, \Sigma)$, alors,
$$
S = \sum_{i=1}^n X_i X_i^\top

$$ suit une loi de Wishart de paramètre $n,\Sigma$, notée $W(n, \Sigma)$.

Ma question est la suivante, existe-t-il des résultats lorsque $X_i \sim \mathcal{N}(0, \Sigma_i)$, c'est-à-dire lorsque la matrice de covariance diffère pour chaque vecteur gaussien ? Il est clair par exemple que l'espérance reste calculable sans problème.

Cependant mon objectif serait d'obtenir à terme de l'information sur $S^{-1}$ dans le cas $X_i \sim \mathcal{N}(0, \Sigma_i)$. Dans le cas standard, l'inverse de $S$ suit une loi dite de Wishart inverse dont l'espérance est également connue et proportionnelle à $\Sigma^{-1}$.

Donc si quelqu'un parmi vous est à l'aise avec ce type de distribution je suis preneur. Je ne suis à vrai dire pas convaincu qu'une telle extension soit possible à décrire. Intuitivement, je pensais que la matrice,
$$
\Sigma' = \frac{1}{n} \sum_{i=1}^n \Sigma_i

$$ devrait jouer un rôle similaire $ \Sigma$ dans le cas généralisé, interprétée comme une covariance "moyenne".
Bref, merci d'avance !
Noveang.

Réponses

  • Je ne sais pas quels résultats tu espères, mais le cas $d=1$ devrait déjà mieux cerner les problèmes.
  • Bonjour P.
    Mon objectif final est de savoir si je peux dire quelque chose de $\mathbb{E}(S')^{-1}$, c'est-à-dire, est-ce que l'espérance de l'inverse est calculable dans le cas où les matrices de covariances diffèrent.

    Pour $d = 1$, $S' = \sum_{i=1}^n \sigma_i X_i^2,$ avec $X_i \sim \mathcal{N}(0, 1)$. On trouve donc quelque chose qui ressemble à une loi du $\chi^2$, sans toutefois l'être.

    N'ayant rien trouvé à propos de ce type de généralisation dans le cas d'une loi du $\chi^2$, j'imagine qu'il en va de même pour le cas matriciel.
    Cependant, je peux au moins encadrer $S'$, en posant $S = \sum_{i = 1}^n X_i$ on a
    $$
    \min_{i=1}^n{\sigma_i} \cdot S \leq S' \leq \max_{i=1}^n{\sigma_i} \cdot S.

    $$ Ce type d'encadrement me conviendrait parfaitement s'il se généralisait au cas multi-dimensionnel. Mais j'en doute.
  • Si tu permets, je remplace ton $\sigma_i$ par $\sigma_i^2...$ En appliquant$$ \frac{1}{a}=\int_{0}^{\infty}e^{-sa}ds$$ a $a=S'=\sum_{i=1}^n\sigma_i^2X_i^2$ on trouve pour $n\geq 3$
    $$\mathbb{E}(S'^{-1})=\int_0^{\infty}\frac{ds}{\prod_{i=1}^n\sqrt{1+2s\sigma_i^2}}.$$ En posant $\sigma^2=\frac{1}{n}(\sigma_1^2+\cdots+\sigma^2_n)$ et en utilisant $$a_1\ldots a_n\leq
    \left(\frac{1}{n}(a_1+\cdots+a_n)\right)^n$$ applique a $a_i=1+2s \sigma_i^2$ on obtient l'inegalite peut etre interessante
    $$\mathbb{E}(S'^{-1})\geq \int_0^{\infty}\frac{ds}{(1+2s \sigma^2)^{n/2}}=\frac{1}{(n-2)\sigma^2}.$$
  • La première identité est intéressante, et il me semble qu'elle se généralise au cas matriciel, i.e.,
    $$
    A^{-1} = \int_0^{+\infty}e^{-sA}ds.

    $$ En revanche, je ne vois pas comment tu obtiens l'égalité pour l'espérance ?

    L'inégalité finale que tu obtiens est en effet plutôt intéressante, mais idéalement, je souhaiterais obtenir une majoration de l'espérance.

    J'essaye d'appliquer au cas matriciel. On a $\Sigma_i X_i X_i^\top \Sigma_i$ qui est presque un projecteur, si je pose $\delta_i = || \Sigma_i X_i ||_2^2$, on a $\Sigma_i X_i X_i^\top \Sigma_i = \delta_i P_i$, avec $P_i$ un projecteur orthogonal. Donc,
    $$
    \begin{align}
    S'^{-1} &= \int_0^{+\infty}e^{-s \sum_{i=1}^n \Sigma_i X_i X_i^\top \Sigma_i} ds \\
    &= \int_0^{+\infty} \prod_{i=1}^n e^{-s \Sigma_i X_i X_i^\top \Sigma_i} ds \\
    &= \int_0^{+\infty} \prod_{i=1}^n e^{-s \delta_i P_i} ds\\
    &= \int_0^{+\infty} \prod_{i=1}^n [I + (e^{-s \delta_i} - 1) P_i] ds
    \end{align}

    EDIT : calcul erroné.

    $$ Je ne sais pas vraiment comment avancer davantage. Prendre l'espérance à ce moment là me semble délicat.
  • Heu, $e^ {A+B}$ est rarement $e^A\times e^B.$ Pour la majoration en posant $a_i=(1+2s\sigma_i^2)^{-n/2}$ et $\frac{1}{m^2}=\frac{1}{n}(\frac{1}{\sigma_1^2}+\cdots+\frac{1}{\sigma_n^2})$ tu obtiens $$\mathbb{E}()S'^{-1}\leq \frac{1}{(n-2)m^2}.$$
  • Pardon, j'ai été un peu vite en besogne en effet.
  • Effectivement, pour la majoration c'est une bonne approche.

    En revanche, pour la généralisation au cas matriciel, comme tu l'as très justement corrigé, on perd la propriété de l'exponentielle, dont visiblement tu fais usage pour le calcul de l'espérance.

    Donc il ne semble pas simple en l'état de passer au cas matriciel, étant donné que plusieurs étapes nécessitent des propriétés supplémentaires qu'ont les réels sur les matrices :/.

    Pour le cas matriciel, le point de chute final de mon calcul serait $\text{Tr}\left( \mathbb{E}[ S'^{-1} ] \right) = \mathbb{E}\left[ \text{Tr}(S'^{-1}) \right]$.

    Donc peut-être que calculer l'espérance de la matrice n'est pas nécessaire, mais qu'une approche se concentrant sur la trace pourrait aboutir ? Par exemple, les coefficients diagonaux de la matrice inverse dans le cas Gaussien standard sont de la forme $1 / W_i$ avec $W_i \sim \chi^2$. Et l'espérance de l'inverse d'une loi du $\chi^2$ est calculable !

    Sinon, j'ai pensé, si je sépare, $S' = \sum_{i=1}^n \Sigma_i X_i X_i^\top \Sigma_i = \Sigma_1 X_1 X_1^\top \Sigma_1 + R = ||\Sigma_1 X_1||^2 P_1 + R$, on a,

    $$
    \begin{align*}
    \text{Tr}(S'^{-1}) & = \int_0^{+\infty}\text{Tr}\left(e^{-sS'}\right)ds \\
    & = \int_0^{+\infty}\text{Tr}\left(e^{-s||\Sigma_1 X_1||^2 P_1 - sR}\right)ds \\
    & \leq \int_0^{+\infty}\text{Tr}\left(e^{-s||\Sigma_1 X_1||^2 P_1}e^{-sR}\right)ds \\
    \end{align*}
    $$

    Or, on a $e^{-s||\Sigma_1 X_1||^2 P_1} = I + (e^{-s||\Sigma_1 X_1||^2} - 1)P_1$, donc,
    $$
    \begin{align*}
    \text{Tr}\left(e^{-s||\Sigma_1 X_1||^2 P_1}e^{-sR}\right) & = \text{Tr}\left(e^{-sR} + (e^{-s||\Sigma_1 X_1||^2} - 1)P_1e^{-sR}\right) \\
    & =\text{Tr}\left(e^{-sR}\right) + (e^{-s||\Sigma_1 X_1||^2} - 1)\text{Tr}\left(P_1e^{-sR}\right) \\
    & \leq e^{-s||\Sigma_1 X_1||^2} \text{Tr}\left(e^{-sR}\right)
    \end{align*}
    $$

    En itérant le processus, on peut peut-être arriver à quelque chose.
Connectez-vous ou Inscrivez-vous pour répondre.