Transformation d'une matrice de corrélation

Bonjour
Je cherche à montrer le résultat suivant (qui j'espère n'est pas faux !).

Soit $\Sigma$ une matrice symétrique définie positive avec des $1$ sur la diagonale (= une matrice de corrélation en statistiques).
Soit $A$ une matrice inversible.
Si $\Omega:=A\Sigma A^t$ a des $1$ sur sa diagonale, alors
$$
\Omega=Id\quad \text{ou}\quad \Omega=\Sigma

$$ (ce qui correspond au cas particulier $A=Id$ et $A=chol(\Sigma)$)

Dit autrement, je pense que la transformation $A\Sigma A^t$ d'une matrice de corrélation ne peut être égale à une matrice de corrélation, sauf cas triviaux.
Pensez-vous que cette proposition est vrai et auriez-vous une idée pour la prouver ?

Réponses

  • C'est faux...Exemple $$\Sigma=\left[\begin{array}{cc}1&1/2\\1/2&1\end{array}\right],\qquad A=\frac{1}{\sqrt{3}}\left[\begin{array}{cc}1&1\\1&1\end{array}\right].$$
  • Votre A n'est pas inversible.
  • Je me trompe peut-être mais ça me semblerait surprenant. Si on a un vecteur gaussien où toutes les normales ont une variance de 1 et des covariances plus ou moins quelconques, je ne vois pas pourquoi une transformation linéaire du vecteur donnerait forcément des gaussiennes indépendantes.
    D'autant que c'est trivialement faux pour A = Id.

    Edit : désolé j'ai dit une bêtise, je n'avais pas vu la condition de diagonale valant 1. Mais ça ne change rien pour A = Id donc j'y crois moyen.

    Edit 2 : OK, le message de départ a été modifié, je me disais bien aussi !

    Edit 3 : avec l'énoncé complet et édité je propose $A = \frac{1}{\sqrt{7}}\begin{pmatrix} 1 & 2 \\ 2 & 1 \end{pmatrix}$ et $ \Sigma = \begin{pmatrix} 1 & 0.5 \\ 0.5 & 1 \end{pmatrix}$. J'ai beau être fatigué de tête ça semble marcher.
  • Oui moi aussi j'ai fait une erreur dans mon message original, je voulais dire $\Omega=Id$ ou $\Omega=\Sigma$ (j'ai fait la correction), ce qui correspond au cas $A=Id$

    Ca voudrait dire que si on prend un vecteur gaussien dont chaque coordonnée a une variance égale à $1$ et qu'on en fait une transformation linéaire, la seule façon de préserver cette variance marginale à $1$ est : ou de ne pas les transformer ($A=id$), ou de les rendre indépendants ($A=chol(\Sigma)$).

    Je suis d'accord que ça ne tombe pas sous le sens et je ne serais pas trop étonné si ce n'était pas vrai, mais j'y crois quand même un peu !
  • Désolé pour le temps de réponse, ça marche en effet, je vais pouvoir arrêter de chercher à prouver un résultat qui n'est pas vrai, merci beaucoup !

    Pour situer un peu le contexte, je partais d'un produit $\Gamma\Sigma\Gamma^t$ qui correspondait à la variance d'un vecteur gaussien et ma question était de savoir s'il y avait des contraintes sur $\Sigma$ (elle même matrice de variance d'un autre vecteur gaussien ($z\sim\mathcal{N}(0,\Sigma),\ y=\Gamma z,\ var(y)=\Gamma\Sigma\Gamma^t$)) qui faisaient que les éléments de ce produit étaient identifiables.

    Sans contrainte il ne le sont pas puisqu'on peut introduire une matrice $A$ inversible de cette façon :
    $$
    \underbrace{\Gamma A^{-1}}_{\tilde{\Gamma}}\underbrace{A\Sigma A^t}_{\tilde{\Sigma}}\underbrace{A^{-t}\Gamma^t}_{= \tilde{\Gamma}^t}.
    $$ Je cherchais donc à voir s'il y avait un sous-ensemble de $\mathcal{S}_q^{++}$ tel que la fonction :
    $$
    \begin{array}{cccl} F: & \mathcal{M}_{pq}\times \mathcal{S}_q^{++}&\longrightarrow& \mathcal{M}_q \\
    & (\Gamma,\Sigma)&\longmapsto& \Gamma\Sigma\Gamma^t
    \end{array}\hspace{1cm}\text{était injective}.
    $$ J'espérais que ce sous-ensemble était les matrices symétriques définies positives avec des $1$ sur la diagonale (ie les matrices de corrélation), mais ce n'est manifestement pas le cas...
Connectez-vous ou Inscrivez-vous pour répondre.