Équation matricielle
Bonjour,
Je cherche à déterminer les solutions de l'équation matricielle suivante, où $M$ est la matrice inconnue, carrée, symétrique, de taille $n\geq 2$:
$$\sum_{J\subseteq [1,n]} (M-2I_J)^{-1}=0.$$
Dans cette équation, $[1,n]$ désigne l'ensemble des entiers compris entre $1$ et $n$ et, pour $J\subseteq [1,n]$, $I_J$ est la matrice diagonale dont la diagonale est l'indicatrice de $J$.
Une solution évidente est la matrice identité. Est-ce la seule solution ? Je précise que par solution, j'entends toute matrice symétrique $M$ pour laquelle $M-I_J$ est inversible pour tout $J\subseteq [1,n]$ et vérifiant l'équation ci-dessus.
Merci par avance pour tout commentaire ou toute idée !
Victor
Je cherche à déterminer les solutions de l'équation matricielle suivante, où $M$ est la matrice inconnue, carrée, symétrique, de taille $n\geq 2$:
$$\sum_{J\subseteq [1,n]} (M-2I_J)^{-1}=0.$$
Dans cette équation, $[1,n]$ désigne l'ensemble des entiers compris entre $1$ et $n$ et, pour $J\subseteq [1,n]$, $I_J$ est la matrice diagonale dont la diagonale est l'indicatrice de $J$.
Une solution évidente est la matrice identité. Est-ce la seule solution ? Je précise que par solution, j'entends toute matrice symétrique $M$ pour laquelle $M-I_J$ est inversible pour tout $J\subseteq [1,n]$ et vérifiant l'équation ci-dessus.
Merci par avance pour tout commentaire ou toute idée !
Victor
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
tu peux l'écrire
$M=ODO^t$
O orthogonale
D diagonale
Merci pour le commentaire. Comment cela aide-t-il ? La matrice $O^tI_JO$ est bien compliquée, du coup je ne sais pas si cela simplifie le problème...
J'ai bien vérifié les calculs pour $n=2$ et la conjecture est vraie. Mais pour $n=3$, les calculs deviennent vraiment très longs...
Je parviens à démontrer que si $M$ est une solution, alors tous ses éléments diagonaux doivent valoir $1$. En effet, pré-multiplions l'équation par $2I-M$ et post-multiplions-la par $M$, où $I$ est la matrice identité. On obtient
$$2^{n-1}M=\sum_{J\subseteq [1,n]} I_{\bar J}(M-2I_J)^{-1}M$$
et il est facile de voir que le $i$-ème coefficient diagonal du membre de droite est égal a $2^{n-1}$ (le $i$-ème coefficient diagonal d'un terme de la somme de droite est ou bien $0$, ou bien $1$).
A présent, il faudrait donc montrer que tous les coefficients non diagonaux de $M$ sont nuls.
Une autre remarque à laquelle j'ai pensé est que si une solution $M$ est diagonale par blocs, alors chacun de ses blocs diagonaux doit être solution de la même équation pour un plus petit $n$. Aussi, sans perte de généralité, peut-on supposer que $M$ est irréductible (i.e., que $M$ n'est pas diagonale par blocs à une permutation de ses lignes et colonnes près).
Quelle(s) propriété(s) utile(s) des matrices irréductibles pourrai(en)t être intéressantes ?
Soit $X=(X_1,\ldots,X_n)$ des va iid de meme loi $\Pr(X_i=\pm 1)=1/2$ et soit $S_X=\mathrm{diag}(X_1,\ldots,X_n).$ Soit $Z$ une matrice $(n,n )$ symetrique de diagonale nulle telle que $(S_X+Z)^{-1}$ existe pour toutes valeurs de $X.$ Montrons que $\mathbb{E}((S_X+Z)^{-1})=0$ entraine $Z=0.$ On procede par recurrence. C'est trivial pour $n=1.$ Si c'est vrai pour $n$ notons $(X_1,\ldots,X_n,X_{n+1})=(X,X_{n+1})$ et $$Z_{n+1}=\left[\begin{array}{cc}Z&C\\C^*&0\end{array}\right]$$ avec $C\in \mathbb{R}^n.$ Posons pour simplifier
$$V=(S_X+Z)^{-1}C,\ a=(X_{n+1}-C^*(S_X+Z)^{-1}C)^{-1}=(X_{n+1}-\langle V,C\rangle)^{-1}.$$
- Donc
$$ S_{(X,X_{n+1})}+Z_{n+1}= \left[\begin{array}{cc}S_X+Z&C\\C^*&X_{n+1}\end{array}\right]=\left[\begin{array}{cc}I_n&0\\V^*&1\end{array}\right]\left[\begin{array}{cc}S_X+Z&0\\0&a^{-1}\end{array}\right]\left[\begin{array}{cc}I_n&V\\0&1\end{array}\right]$$ Et donc
$$ (S_{(X,X_{n+1})}+Z_{n+1})^{-1}=\left[\begin{array}{cc}I_n&-V\\0&1\end{array}\right]\left[\begin{array}{cc}(S_X+Z)^{-1}&0\\0&a\end{array}\right]\left[\begin{array}{cc}I_n&0\\-V^*&1\end{array}\right]=\left[\begin{array}{cc}(S_X+Z)^{-1}-aVV^*&-aV\\-aV^*&a\end{array}\right]$$ Donc $$0=\mathbb{E}(aV)=\mathbb{E}\frac{V}{X_{n+1}-\langle V,C\rangle}=\mathbb{E}\frac{2V\langle V,C\rangle}{\langle V,C\rangle^2-1}.$$Donc en multipliant scalairement par $C$ on a $\mathbb{E}\frac{2\langle V,C\rangle^2}{\langle V,C\rangle^2-1}=0$ ce qui entraine $\langle V,C\rangle=0$ presque surement. Donc $a=1/X_{n+1}.$ Donc $\mathbb{E}(aVV^*)=0.$ Donc $\mathbb{E}(S_X+Z)^{-1}=0.$ Donc $Z=0$ par hypothese de recurrence. Donc $C^*S_X^{-1}C=0$ presque surement, c'est a dire
$c_1^2X_1+\cdots+c_n^2X_n=0$ presque surement. Petit raisonnement simple, et on en deduit que $C=0. $ La recurrence est etendue.
J'ai une question quant a l'une des dernières étapes du raisonnement. Comment l’égalité $\mathbb E\left[ \frac{\langle V,C\rangle^2}{\langle V,C\rangle^2-1}\right]=0$ implique-t-elle la nullité presque sure de $\langle V,C\rangle$ ?
Merci encore !
Victor
quelle est l'origine de cette équation ?
Merci,
Guy
En fait, le problème initial était de montrer que la fonction que vous mentionnez, P., n'a qu'un seul point critique.
Bien cordialement,
Victor
J'ai une version un peu plus générale du problème, pour laquelle je pense que la solution est aussi unique.
Soit $\mu>0$. On considère l'équation matricielle suivante : $$
\sum_{J\subseteq [1,N]}\mu^{|J|}(M-I_J)^{-1}=0.
$$ Est-il vrai que la seule solution de cette équation est la matrice diagonale $\displaystyle{M=\frac{1}{\mu+1}I}$ ?
P., cela étendrait votre raisonnement au cas où les $X_i$ sont i.i.d., mais avec une probabilité $1/(\mu+1)$ de valoir $1$.
Merci !
Soit $X_1,\ldots,X_n$ iid telles que $E(1/X_1)=0.$ Soit $S_X=\mathrm{diag}(X_1.\ldots,X_n)$ et $Z$ une matrice symetrique telle que $(S_X+Z)^{-1}$ existe presque surement. Alors $$\mathbb{E}((S_X+Z)^{-1})=0\Leftrightarrow Z=0$$
Ta remarque est intéressante, et elle est vraie (a mon avis) si on suppose uniquement que les $X_i$ sont indépendantes, pas nécessairement de même loi.
Je fais remonter la discussion, car je n'ai toujours fait aucun progrès sur la question. Pour rebondir sur la remarque de P., peut-être peut-on montrer la chose suivante.
Soit $M$ une matrice aléatoire, symétrique et inversible presque surement, telle que $\mathbb E[M^{-1}]=0$. Alors, pour toute matrice symétrique $Z$ telle que $M+Z$ est inversible presque surement,
$$\mathbb E[(M+Z)^{-1}]=0 \Rightarrow Z=0.$$
Merci,
Victor
Je ne sais pas traiter le cas ou $C$ n'est pas contenu dans $P_d.$