Équation matricielle

Bonjour,

Je cherche à déterminer les solutions de l'équation matricielle suivante, où $M$ est la matrice inconnue, carrée, symétrique, de taille $n\geq 2$:
$$\sum_{J\subseteq [1,n]} (M-2I_J)^{-1}=0.$$
Dans cette équation, $[1,n]$ désigne l'ensemble des entiers compris entre $1$ et $n$ et, pour $J\subseteq [1,n]$, $I_J$ est la matrice diagonale dont la diagonale est l'indicatrice de $J$.

Une solution évidente est la matrice identité. Est-ce la seule solution ? Je précise que par solution, j'entends toute matrice symétrique $M$ pour laquelle $M-I_J$ est inversible pour tout $J\subseteq [1,n]$ et vérifiant l'équation ci-dessus.

Merci par avance pour tout commentaire ou toute idée !

Victor

Réponses

  • bonjour
    M est la matrice symétrique
    Du coup si elle existe et qu'elle soit réelle
    tu peux l'écrire
    $M=ODO^t$
    O orthogonale
    D diagonale
  • Bonjour Fluorhydrique !
    Merci pour le commentaire. Comment cela aide-t-il ? La matrice $O^tI_JO$ est bien compliquée, du coup je ne sais pas si cela simplifie le problème...
  • Il est clair que $M=I_n$ si $M$ est diagonale. Pour le cas $n=2$ je pense qu'on peut montrer que la conjecture est vraie en procedant ainsi: On parametre $M$ par $M=[a+b,b;b,c+b]$ et on pose $p=ac$ et $s=a+c$ Les 3 equations obtenues sont de la forme $s^2=A(p)=B(p)=C(p)$ et n'ont de solution que si $b=0$ ce qui ramene au cas diagonal. Mais les calculs sont bien longs.
  • Bonjour P.,

    J'ai bien vérifié les calculs pour $n=2$ et la conjecture est vraie. Mais pour $n=3$, les calculs deviennent vraiment très longs...

    Je parviens à démontrer que si $M$ est une solution, alors tous ses éléments diagonaux doivent valoir $1$. En effet, pré-multiplions l'équation par $2I-M$ et post-multiplions-la par $M$, où $I$ est la matrice identité. On obtient
    $$2^{n-1}M=\sum_{J\subseteq [1,n]} I_{\bar J}(M-2I_J)^{-1}M$$
    et il est facile de voir que le $i$-ème coefficient diagonal du membre de droite est égal a $2^{n-1}$ (le $i$-ème coefficient diagonal d'un terme de la somme de droite est ou bien $0$, ou bien $1$).

    A présent, il faudrait donc montrer que tous les coefficients non diagonaux de $M$ sont nuls.
  • Bonjour,

    Une autre remarque à laquelle j'ai pensé est que si une solution $M$ est diagonale par blocs, alors chacun de ses blocs diagonaux doit être solution de la même équation pour un plus petit $n$. Aussi, sans perte de généralité, peut-on supposer que $M$ est irréductible (i.e., que $M$ n'est pas diagonale par blocs à une permutation de ses lignes et colonnes près).

    Quelle(s) propriété(s) utile(s) des matrices irréductibles pourrai(en)t être intéressantes ?
  • Cher Victor , je continue ta preuve mais en posant $Z=I-M$ et en utilisant ce que tu as montre, cad que la diagonale de $M$ est formee de 1.




    Soit $X=(X_1,\ldots,X_n)$ des va iid de meme loi $\Pr(X_i=\pm 1)=1/2$ et soit $S_X=\mathrm{diag}(X_1,\ldots,X_n).$ Soit $Z$ une matrice $(n,n )$ symetrique de diagonale nulle telle que $(S_X+Z)^{-1}$ existe pour toutes valeurs de $X.$ Montrons que $\mathbb{E}((S_X+Z)^{-1})=0$ entraine $Z=0.$ On procede par recurrence. C'est trivial pour $n=1.$ Si c'est vrai pour $n$ notons $(X_1,\ldots,X_n,X_{n+1})=(X,X_{n+1})$ et $$Z_{n+1}=\left[\begin{array}{cc}Z&C\\C^*&0\end{array}\right]$$ avec $C\in \mathbb{R}^n.$ Posons pour simplifier
    $$V=(S_X+Z)^{-1}C,\ a=(X_{n+1}-C^*(S_X+Z)^{-1}C)^{-1}=(X_{n+1}-\langle V,C\rangle)^{-1}.$$
    - Donc
    $$ S_{(X,X_{n+1})}+Z_{n+1}= \left[\begin{array}{cc}S_X+Z&C\\C^*&X_{n+1}\end{array}\right]=\left[\begin{array}{cc}I_n&0\\V^*&1\end{array}\right]\left[\begin{array}{cc}S_X+Z&0\\0&a^{-1}\end{array}\right]\left[\begin{array}{cc}I_n&V\\0&1\end{array}\right]$$ Et donc
    $$ (S_{(X,X_{n+1})}+Z_{n+1})^{-1}=\left[\begin{array}{cc}I_n&-V\\0&1\end{array}\right]\left[\begin{array}{cc}(S_X+Z)^{-1}&0\\0&a\end{array}\right]\left[\begin{array}{cc}I_n&0\\-V^*&1\end{array}\right]=\left[\begin{array}{cc}(S_X+Z)^{-1}-aVV^*&-aV\\-aV^*&a\end{array}\right]$$ Donc $$0=\mathbb{E}(aV)=\mathbb{E}\frac{V}{X_{n+1}-\langle V,C\rangle}=\mathbb{E}\frac{2V\langle V,C\rangle}{\langle V,C\rangle^2-1}.$$Donc en multipliant scalairement par $C$ on a $\mathbb{E}\frac{2\langle V,C\rangle^2}{\langle V,C\rangle^2-1}=0$ ce qui entraine $\langle V,C\rangle=0$ presque surement. Donc $a=1/X_{n+1}.$ Donc $\mathbb{E}(aVV^*)=0.$ Donc $\mathbb{E}(S_X+Z)^{-1}=0.$ Donc $Z=0$ par hypothese de recurrence. Donc $C^*S_X^{-1}C=0$ presque surement, c'est a dire
    $c_1^2X_1+\cdots+c_n^2X_n=0$ presque surement. Petit raisonnement simple, et on en deduit que $C=0. $ La recurrence est etendue.
  • Bonjour P., et merci pour ton message !

    J'ai une question quant a l'une des dernières étapes du raisonnement. Comment l’égalité $\mathbb E\left[ \frac{\langle V,C\rangle^2}{\langle V,C\rangle^2-1}\right]=0$ implique-t-elle la nullité presque sure de $\langle V,C\rangle$ ?

    Merci encore !

    Victor
  • Bonjour,
    quelle est l'origine de cette équation ?
    Merci,
    Guy
  • Je me suis trompe en effet. Il faut encore reflechir.
  • Plutot dur, ce probleme. Une autre idee serait de montrer que $$Z\mapsto \log\prod_X\det(S_X+Z)^2$$ a un extremum seulement en $Z=0$ (car sa differentielle est $\sum_X(S_X+Z)^{-1}$)
  • Bonjour Laborieux et P.,

    En fait, le problème initial était de montrer que la fonction que vous mentionnez, P., n'a qu'un seul point critique.

    Bien cordialement,

    Victor
  • Bonjour

    J'ai une version un peu plus générale du problème, pour laquelle je pense que la solution est aussi unique.
    Soit $\mu>0$. On considère l'équation matricielle suivante : $$
    \sum_{J\subseteq [1,N]}\mu^{|J|}(M-I_J)^{-1}=0.
    $$ Est-il vrai que la seule solution de cette équation est la matrice diagonale $\displaystyle{M=\frac{1}{\mu+1}I}$ ?
    P., cela étendrait votre raisonnement au cas où les $X_i$ sont i.i.d., mais avec une probabilité $1/(\mu+1)$ de valoir $1$.

    Merci !
  • Ce que tu dis est vrai pour $n=2$ et c'est toujours aussi penible a montrer...On peut se demander si plus generalement on aurait le resultat suivant

    Soit $X_1,\ldots,X_n$ iid telles que $E(1/X_1)=0.$ Soit $S_X=\mathrm{diag}(X_1.\ldots,X_n)$ et $Z$ une matrice symetrique telle que $(S_X+Z)^{-1}$ existe presque surement. Alors $$\mathbb{E}((S_X+Z)^{-1})=0\Leftrightarrow Z=0$$
  • Bonjour P., et merci de t'intéresser à mon problème !

    Ta remarque est intéressante, et elle est vraie (a mon avis) si on suppose uniquement que les $X_i$ sont indépendantes, pas nécessairement de même loi.
  • PS: cette formulation me fait penser à la notion de statistique complète...
  • Bonjour,

    Je fais remonter la discussion, car je n'ai toujours fait aucun progrès sur la question. Pour rebondir sur la remarque de P., peut-être peut-on montrer la chose suivante.

    Soit $M$ une matrice aléatoire, symétrique et inversible presque surement, telle que $\mathbb E[M^{-1}]=0$. Alors, pour toute matrice symétrique $Z$ telle que $M+Z$ est inversible presque surement,
    $$\mathbb E[(M+Z)^{-1}]=0 \Rightarrow Z=0.$$


    Merci,
    Victor
  • Soit $S_d$ les matrices symetriques reelles et $P_d\subset S_d$ les matrices definies positives. Alors la differentielle de la fonction reelle sur $P_d$ qui est $f(X)=-\log \det X$ est $H\mapsto -\mathrm{trace} HX^{-1}$ et sa hessienne est $$(H,K)\mapsto \mathrm{trace} HX^{-1}KX^{-1}$$ ce qui fait que $f$ est strictement convexe sur $P_d.$ Ensuite, je suppose que le support convexe $C$ de la matrice aleatoire $M$ est contenu dans $P_d$ et je note $D=\{Z\in S_d; C+Z\in P_d\}$ qui est un ouvert convexe de $S_d.$ Considerons la fonction sur $D$ definie par $g(Z)=\mathbb{E}(f(M+Z)).$ Elle est strictement convexe et de differentielle $H\mapsto -\mathrm{trace} H\mathbb{E}((M+Z)^{-1})$ dont le minimum s'il existe est unique. Mais la differentielle s'annule en $Z=0$ car $\mathbb{E}((M)^{-1})=0$. Donc $\mathbb{E}((M+Z)^{-1})=0$ implique $Z=0.$


    Je ne sais pas traiter le cas ou $C$ n'est pas contenu dans $P_d.$
  • Moi non plus... Et pourtant, je suis sur que la conjecture de depart est juste !
Connectez-vous ou Inscrivez-vous pour répondre.