Matrice définie positive

Une question qui me passe par la tête :
Est-il vrai qu'une matrice réelle $A \in \mathcal{M}_n(\mathbb{R}) $ définie positive avec $x^TAx \ge \lambda |x|^2$ pour tout vecteur réel $x $ et $\lambda ^n >0$ a un determinant plus grand que $\lambda$ ?

Si $A$ est symétrique c'est oui. Mais sinon je ne vois pas comment on fait ...

Edit. La puissance du $\lambda$.

Réponses

  • Tu es sûr que ce n'est pas $\lambda^n$ avec $n$ la taille de la matrice ?

    Peut-être en commençant par orthonormaliser une base ?
  • Oui effectivement c'est $\lambda ^{dimension}$.
  • Ok, je me lance. Sous l'égide bienveillante de Schmidt, on peut construire une base $(u_1,\ldots, u_n)$ de vecteurs-colonne qui soit orthogonale vis-à-vis de $A$ et formée de vecteurs de norme euclidienne inférieure égale à $1$. La matrice $P$ dont les $u_i$ sont les colonnes vérifie donc $P^* A P = \text{diag}(\lambda_1,\ldots,\lambda_n)$, avec $\lambda_i = {}^t u_i A u_i \geq \lambda$, et de plus $\det(P)\leq 1$ grâce à l'inégalité de Hadamard. Et normalement là c'est bon.
  • Effectivement ça à l'air bien, tu as reussi à trouver un paliatif à la diagonalisation ^^ merci !
  • Je ne suis pas sûr qu'invoquer l'inégalité de Hadamard ne fasse pas un peu double emploi avec l'orthogonalisation, mais ce n'est pas trop mon domaine !
  • Je ne suis pas sûr de comprendre « définie positive » si on parle d'une matrice qui n'est pas symétrique, ni de savoir appliquer le procédé d'orthogonalisation dans ce cas. (M'enfin, c'est mon problème, hein !)
  • La forme quadratique associée n'a pas besoin d'être symétrique pour exister ni pour être définie positive.
  • Une base orthogonale, c'est $\langle v_i,v_j\rangle=0$ pour tout $(i,j)$ ? Le procédé de Gram-Schmidt donne quelque chose dans ce cas ? À chaque étape, on a a priori deux équations pour chaque inconnue (partant d'une base $(u_1,u_2,\dots)$, on pose $v_n=u_n+\sum_{k=1}^{n-1}\lambda_kv_k$ et il faut assurer $\langle v_n,v_k\rangle=0=\langle v_k,v_n\rangle$ pour tout $1\le k\le n-1$) : c'est clair que ça existe ?

    Ou bien faut-il seulement imposer $\langle v_i,v_j\rangle=0$ pour tout $(i,j)$ avec $i<j$ ?
  • Ah, bonne objection ! Mais je pense que l'argument tient quand même, car en supposant $(u_i)$ "semi-orthogonale", la matrice $P^* A P$ sera triangulaire supérieure, donc son déterminant sera quand même le produit des $\langle u_i, u_i\rangle$.
  • Il n'y a plus qu'à... (Dans la première ligne de mon message précédent, lire « pour $(i,j)$ avec $i\ne j$ ».)
  • De grosse bourdes je dis seulement Cordialement


    La question serait elle $\det (A)>{\lambda}^n$ tel que définie dans le post initiale? si oui la réponse trivialement juste.

    Deuxièmement une matrice réelle définie positive i.e. $x^TAx>0$ pour tout $x$ vecteur réel est nécessairement symétrique.


    $P^*AP$ n'est jamais triangulaire sauf si diagonale ($P$ orthogonale).

    Edit $A$ est supposée symétrique dans ce poste.
  • Donc par exemple, la matrice $\begin{pmatrix}1 & 2 \\ 0 & 1\end{pmatrix}$ est symétrique ? J'avoue ne pas tout comprendre à ce que tu racontes. Ensuite la matrice $P$ dont je parle n'est pas orthogonale pour le produit scalaire usuel, mais "semi-orthogonale" pour la forme bilinéaire issue de $A$.
  • Elle n'est pas Définie positive (c'est un résultat...)
  • Ouh là, oui ! N'importe quoi.
  • Aussi, les vecteurs propres d'une matrice sym. sont orthogonaux pour le produit scalaire usuel (dim. finie)
  • Ne trouvant pas comment établir ton résultat ("une forme bilinéaire définie positive est nécessairement symétrique"), je relance de la matrice $\begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix}$.
  • Mois je connais le résultat si $A$ matrice complexe définie positive i.e $x^*Ax>0$ pour tout vecteur complexe alors $A$ est hermitienne. La preuve n'est pas du tout longue mais pas triviale.

    Pour le cas réel je crois que c'est vrai.
  • Évidemment il y en a des matrices réelles définies positives mais non symétriques. Le cas complexe est différent (les vecteurs peuvent être complexes).

    Maintenant on se questionne sur la dite question car $A$ aura des valeurs propres complexes sans contrôle.
  • Si $\vert x\vert$ désigne bien, comme je l'imagine, la norme euclidienne d'un vecteur colonne $x$, un indication possible est la suivante. Que peut-on dire de $\mu\in {\mathbb R}$ s'il existe un vecteur non nul $x$ tel que $Ax=\mu x$ ?

    Edit : j'ai mal lu l'énoncé... Si $A$ est symétrique, on conclut en regardant effectivement les valeurs propres. Si $A$ est quelconque, il faut observer que l'hypothèse sur $A$ ne porte que sur sa partie symétrique. Il faut donc comparer ${\rm det}(S)$ et ${\rm det}(S+A)$, pour $S$ symétrique définie positive et $A$ antisymétrique, pour conclure (à un contre exemple ou une démonstration).
  • "Il faut" : "Il suffit", plutôt ;-) Je ne suis pas sûr que faire comme cela ou par orthogonalisation d'une base revienne complètement au même.
  • @Tonm : pour ton résultat sur le "caractère hermitien automatique", il me semble qu'il suffit même que $x^* A\,x\in\mathbb{R}$ pour tout $x$ (sans condition de signe) pour que $A$ soit hermitienne. Je me trompe ?
  • Oui, on peut prouver cela...
Connectez-vous ou Inscrivez-vous pour répondre.