Matrice aléatoire définie positive

Si $V$ est une telle matrice et si les espérances existent, c'est stimulant de montrer que $\mathbb{E}(V^{-1})-[\mathbb{E}(V)]^{-1}$ est semi-définie positive. Cela généralise l’inégalité suivante, valable pour des nombres $v_1,\ldots,v_n>0:$ $$\frac{n}{v_1+\cdots+v_n}\leq \frac{1}{n}\Big[\frac{1}{v_1}+\cdots+\frac{1}{v_n}\Big]$$

Réponses

  • Est-ce que ca n'est pas une application directe de Jensen?
  • Heu...pour moi Jensen c'est un convexe $C$, une fonction reelle $f$ convexe definie sur $C$, une va $X$ a valeurs dans $C$ et enfin
    $$f(\mathbb{E}(X)\leq \mathbb{E}(f(X)).$$ Tu penses sans doute a $C$ cone des matrices definies positives. Mais quel est $f$? $f(x)=x^{-1}$ n'est pas reelle. Qu'est ce qu'une fonction convexe dont les valeurs ne sont pas reelles?
  • Salut P. $V$ est quoi? ces composantes sont réelles positives ? Et l$\mathbb{E}(V)$ c'est définit comment?

    L'aléatoire oublié ...

    Edit
  • Bonjour P,

    En se limitant aux eaux douces des probabilités discrètes, et donc en édulcorant un peu le problème, il s'agit de prouver que:
    Si $V_1,V_2,...V_N$ sont des matrices de $\mathcal S_n^{++}(\R)$, et si $p_1,p_2...p_N$ sont des réels strictement positifs dont la somme est égale à $1$, alors: la matrice $ M=:\displaystyle{ \sum_{i=1}^N p_iV_i^{-1} - \Big(\sum_{i=1}^N p_i V_i\big)^{-1}}$ est dans $\mathcal S_n^+(\R)$..

    1)On prouve d'abord que si $A ,B \in \mathcal S_n^{++}(\R)$ et si $\alpha,\:\beta>0,\:\alpha + \beta = 1$, alors: $\alpha A^{-1} + \beta B^{-1} - \Big( \alpha A +\beta B \Big)^{-1} \in \mathcal S_n^+(\R)$ . On atteint ce résultat en diagonalisant $A$ et $B$ dans une même base et en utilisant l'inégalité $\dfrac{\alpha}x +\dfrac{\beta}y \geq\dfrac{1}{\alpha x+ \beta y}$, valable pour tous $x,y >0$.

    2). On achève la preuve avec un raisonnement par récurrence sur $N$; c'est vrai pour $N=1$ et $N=2$.
    Soit donc $N>2$; Notons $\alpha = p_N,\: \beta = \displaystyle {\sum_{i=1}^{N-1}p_i,\: \:q_i =\frac{p_i}{\beta},\:\: B=\sum_{i=1}^{N-1}q_iV_i}.$
    L'hypothèse de récurrence entraine que :$\displaystyle{ \sum_ {i=1}^{N-1} q_iV_i ^{-1} =\Delta+ B^{-1}}$ où la matrice $\Delta \in \mathcal S_n^+(\R)$ .
    Il vient: $M = \beta \big( \Delta + B^{-1}\big) +\alpha V_N^{-1} - \big(\beta B + \alpha V_N)^{-1} = \Big(\alpha V_N^{-1}+\beta B^{-1} - (\alpha V_N + \beta B)^{-1}\Big) +\beta \Delta. $http://www.les-mathematiques.net/phorum/profile.php?34,21999
    $B,\:V_N \in \mathcal S_n^{++}(\R)$, $\alpha,\beta>0$, $\alpha + \beta =1$, donc le 1) entraine que la matrice qui figure entre les grandes parenthèses de l'égalité précédente est semi-définie positive, puis que $M$ l'est également.
    Peut-être cela donne-t-il un axe de démonstration pour un cadre plus général.
    Amicalement,
  • @P. Les matrices considérées sont-elles symétriques ?
  • Oh! vieille querelle. Il est entendu de nos jours que definie positive sous entend symetrique.
  • Merci Lou pour ta demonstration. J'ai un ami qui demontre l'inegalite par un joli tour de force : en prouvant que $$(\mathbb{E}(V))^{-1}\leq I(V)\leq \mathbb{E}(V^{-1})$$ lorsque $I(V)$ est l'information de Fisher pour le modele de translation $(P(dv -\theta))$ (hum, quand on ecrit $A\leq B$ pour des matrices symetriques, c'est pour dire que $B-A$ est semi definie positive). .
    Cela conduit a reflechir a une demonstration du resultat plus modeste $\mathbb{E}(V))^{-1}\leq \mathbb{E}(V^{-1}).$ Soit $ M=\mathbb{E}(V)$ et $X=M^{-1/2}VM^{-1/2}.$ Alors $\mathbb{E}(X)=I_n$ et
    $$M^{1/2}\left(\mathbb{E}(V^{-1}) -(\mathbb{E}(V) )^{-1} \right) M^{1/2}=M^{1/2}\mathbb{E}(V^{-1})M^{1/2}-I_n= \mathbb{E}(X^{-1})-I_n=\mathbb{E}((X^{-1/2}-X^{1/2})^2)\geq 0.$$ Mais cela vaut la peine aussi de comprendre la suggestion d'amk, qui propose d'utiliser Jensen. Je suppose que si $f$ est une fonction convexe et $V$ est une matrice symetrique, alors $f(V)$ est finalement bien definie en transformant les valeurs propres. M'enfin, ce n'est pas tres clair et il est tard.
  • @P. : une fonction convexe est une fonction vérifiant $f(tx+(1-t)y)\leq tf(x)+(1-t)f(y)$ pour tout $t\in[0;1]$, ça tu sais déjà. Maintenant sur les matrices symétriques on peut mettre la relation d'ordre (partiel) $A\leq B$ ssi $B-A$ est symétrique positive.

    Ici cela revient à montrer que $A\mapsto (Ax,x)$ (EDIT : je voulais en fait parler de $A\mapsto (A^{-1}x,x)$) est convexe sur $S_n^{++}(\mathbf R)$ pour tout $x\in \mathbf R^n$. J'ai l'impression que ça doit être vrai. je n'ai pas regardé si Jensen s'adapte bien à cette relation d'ordre par contre.
  • $A\mapsto \langle Ax,x\rangle$ est certainement convexe puisque lineaire. Est ce que tu dis que $A\mapsto \langle f(A)x,x\rangle$ est convexe quand $f$ l'est? Ca a l'air vrai en effet.
  • Il manquait un $ {}^{-1}$ dans mon message, j'ai corrigé... Ce que je voulais dire était que montrer la convexité d'une fonction $f : X \to \mathbf S_n(\mathbf R)$ revient à montrer la convexité de toutes les fonctions $x \mapsto (f(x)u,u)$ où $u\in \mathbf R^n$.

    Pour la fonctions qui nous intéresse ici (l'inverse d'une matrice) je ne sais pas si on a convexité, j'ai réfléchi 2 minutes, je n'ai pas eu d'idée sur comment partir et j'ai abandonné.
  • Si je comprend bien certaines suggestions de ce fil, on voudrait la chose suivante : on se donne un convexe $C$ dans l'espace $S_n$ des matrices reelles symetriques et une fonction convexe $f: C\mapsto \R.$ Si $V\in S_n$ on decompose $V =U^{-1}\mathrm{diag}(v_1.\ldots,v_n)U$ avec $U$ orthogonale et on definit
    $$f(V)=U^{-1}\mathrm{diag}(f(v_1).\ldots,f(v_n))U$$ dont on demontre que cela ne depend pas de la decomposition choisie. Si $V$ est aleatoire, idealement l'inegalite de Jensen devrait dire que pour tout $x\in \R^n$ on a
    $$\mathbb{E}(x^tf(V)x)-x^t\mathbb{E}(f(V))x\geq 0.$$ Mais, franchement, je ne vois pas pourquoi la fonction reelle $V\mapsto g(V)=x^tf(V)x$ serait convexe.
  • Prenons par exemple les matrices (22) definies positives $V=[a,b;b,c]$ de determinant $D=ac-b^2$, et $x=(0,1).$ Alors $g(a,b,c)=x^tV^{-1}x=a/D$ n'est pas convexe puisque le determinant de son jacobien est proportionnel a $-D$ (avec Mathematica...)
Connectez-vous ou Inscrivez-vous pour répondre.