matrices de Gram

Bonjour,

$F=(e_i) \in E^k$ avec $i \in [1;k]$, une famille d'un espace euclidien $E$ dont le produit scalaire est $(\cdot\mid\cdot)$ et $G=((e_i\mid e_j))$ avec $i,j \in [1;k]^2$.
On m'a préalablement fait montrer que $Sp(G) \in \mathbb R_+$ et que pour $D \in M_k(\mathbb R)$ une matrice diagonale strictement positive et pour tout $X \in \mathbb R^k$ $$^tXDX=0 \Rightarrow X=0$$ On demande de prouver que si $G \in GL_k(\mathbb R)$ alors $F$ est libre.

Comment faire ?
Je sais que si $G \in GL_k(\mathbb R)$ et de plus que $G$ est diagonalisable car symétrique, il existe une matrice diagonale $D$ strictement positive telle que $G=PDP^{-1}$ avec $P$ la matrice de passage de la base d'écriture de $G$ dans celle d'écriture de $D$.
Est-ce un bon départ ? Comment montrer que $F=(e_i) \in E^k$ est libre ?

Réponses

  • Oui, c'est un bon départ. Je suis tenté de dire (en suivant ta direction) : considère une relation $0=\alpha_1 e_1 + \cdots + \alpha_ke_k$ dans $E$ puis pose $X=(\alpha_1, \ldots, \alpha_k)$, et enfin calcule $X^*GX$. Ensuite, applique ton critère aux $e_i'=Pe_i$ (en remarquant que $e_1, \ldots, e_k$ est libre si et seulement si $e_1', \ldots, e_k'$ l'est).
  • Plus généralement, le rang d'une famille de vecteurs d'un espace euclidien est égal au rang de la matrice de Gram de cette famille.
    Le mieux est de considérer la matrice de cette famille dans une base orthonormale de l'espace.
    La raison en est que le rang d'une matrice carrée réelle $A$ est égal au rang de la matrice $A^{\mathbf{T}}A$ .
  • Je signale une propriete peu connue des matrices de Gram quand leurs seules valeurs propres sont zero ou un. Soit $E$ un espace euclidien de dimension $q$, soit $(v_1,\ldots,v_q)$ une suite de vecteurs de $E$, soit $F$ le sous espace vectoriel de $E$
    qu'ils engendrent et soit $p\in L(E)$ la projection orthogonale de
    $E$ sur $F.$ Alors il existe une bon $e=(e_1,\ldots,e_q)$ de $E$
    telle que $p(e_i)=v_i$ pour $i=1,\ldots,q$ si et seulement si la
    matrice de Gram $A=(\langle v_i,v_j\rangle )_{1\leq i,j\leq q}$ a ses valeurs
    propres dans $\{0,1\}.$ De plus, la multiplicite de $1$ est la
    dimension de $F.$
  • 1) Je vous remercie pour vos messages mais je n'arrive toujours pas à prouver que si $G=\big((e_i\mid e_j)\big)$ est inversible alors $F=(e_i) \in E^k$ est libre en utilisant ${}^t\!XDX=0 \Rightarrow X=0.$

    En partant de $0=\alpha_1 e_1 + \cdots + \alpha_ke_k$ alors forcément $X=(\alpha_1, \ldots, \alpha_k)$ est nul ? Est-ce bon de faire cela car $X=(\alpha_1, \ldots, \alpha_k)$ est l'expression de $X$ dans $F$ mais on ne sait pas que c'est une base (on veut montrer que $F$ est libre) ?
    Comment arriver à une expression de la forme ${}^t\!XDX=0$ avec $X=(\alpha_1, \ldots, \alpha_k)$ ?

    2) Si je ne me trompe pas, $G$ est la matrice d'une forme bilinéaire.
    Si $G$ est diagonalisable (donc $\det(G)$ non nul) alors $G$ s'écrit $G= {}^t\!PDP$ avec $D$ la matrice diagonale et $P$ la matrice de passage de la base de l'écriture de $G$ dans celle de l'écriture de $D$.
    Mais on n'a pas $G=PDP^{-1}$ comme pour les applications linéaires ? Juste ?
  • Bonjour

    Si la combinaison linéaire \(\sum_{i=1}^k \alpha_i e_i\) est nulle, alors : \[G \begin{pmatrix} \alpha_1 \\ \vdots \\ \alpha_k \end{pmatrix} = 0\] et tu substitues dans cette relation l'expression de \(G\) en fonction de \(D\).
  • Comment as-tu montré que les valeurs propres de $G $ sont positives ?
  • Peut-être que te passer de ce que tu as déjà fait est une solution pour résoudre ton problème (je ne me souviens pas que dans Akhiezer et Glazman, Theory of Linear Operators in Hilbert Space, ils s'embarquent dans des considérations de diagonalisation pour expédier la matrice de Gram).
  • Conformément à la norme en vigueur, je note $M^{\mathbf{T}}$ la matrice transposée d'une matrice $M$.

    Soit $E$ un espace euclidien de dimension $n$, soit $\mathcal F=(u_1,u_2,...,u_n)$ une famille de vecteurs de $E$, soit $g_{i,j}=(u_i|u_j)$ et soit la matrice $G=(g_{i,j})$, qui est la matrice de Gram de la famille $\mathcal F$. C'est une matrice réelle symétrique.

    Soit $\mathcal B=(\epsilon_1,\epsilon_2,...,\epsilon_n)$ une base orthonormale de $E$, soit $A=(a_{i,j})$ la matrice de la famille $\mathcal F$ dans la base $\mathcal B$.
    Un simple calcul montre que : $G=A^{\mathbf{T}}A$.

    Soit $\lambda $ une valeur propre de $G=A^{\mathbf{T}}A$, forcément réelle, et soit un vecteur propre associé $X \in \mathbb R^n= \mathcal M_{n,1}(\mathbb R)$, en sorte que : $X \neq 0$ et $A^{\mathbf{T}}AX=\lambda X$, d'où : $||AX||^2= \lambda ||X||^2$, et par suite $\lambda \geq 0$, ce qui prouve que $G$ est une matrice symétrique réelle positive.

    Si $Y \in \ker A$, autrement dit si $Y \in \mathbb R^n$ et si $AY=0$, il est clair que $Y \in \ker A^{\mathbf{T}}A$.
    Réciproquement, si $Y \in \ker A^{\mathbf{T}}A$, alors $A^{\mathbf{T}}AY=0$, d'où : $||AY||^2= 0$, qui équivaut à : $Y \in \ker A$.
    On a ainsi prouvé que $ \ker A^{\mathbf{T}}A= \ker A$, d'où il suit que les matrices $A$ et $G=A^{\mathbf{T}}A$ ont le même rang, qui est le rang de la famille $\mathcal F$.

    Bonne soirée.
    Fr. Ch.
    11/01/2018
  • Exo mis en forme à partir du bouquin de Akhiezer et Glazman, Theory of Linear Operators in Hilbert Space (2nd ed., Pitman, 1981).
    Gram.pdf 152.1K
  • Oserai-je dire que je trouve ma solution plus simple ?
  • Et la mienne plus élémentaire (pas de valeur propre, que les propriétés élémentaires du déterminant, du produit scalaire et de la projection orthogonale).
  • @ Eric
    Parmi les propriétés de la matrice de Gram, il y a le fait que c'est une matrice réelle symétrique positive. Il n'est pas possible d'établir, ni même déjà d'évoquer, cette propriété sans référence aux valeurs propres. Peut-être ton exercice est-il conçu pour Math. Sup.

    Pour démontrer l'égalité du rang de la famille de vecteurs $\mathcal F$ et du rang de sa matrice de Gram $G$, ma démonstration convient aussi puisqu'elle n'utilise que le produit scalaire canonique dans $\mathbb R^n$.

    Je n'ai pas signalé que le déterminant de la matrice de Gram est positif ou nul, car dans mon propos ceci découlait immédiatement du caractère positif de cette matrice. Mais si l'on veut se passer de cet argument, ceci découle immédiatement aussi de l'égalité $G=A^{\mathbf{T}}A$, qui est très simple à établir.

    Cette égalité montre aussi immédiatement que $G$ est inversible si et seulement si $A $ est inversible, ce qui équivaut au fait que la famille de vecteurs $\mathcal F$ est libre, et ceci répond au questionnement initial, sans passer par des détours bizarres.

    Ton exercice donne une propriété du déterminant de Gram que je n'ai pas abordée, c'est l'expression de la distance d'un vecteur à un sous-espace. C'est une propriété importante et intéressante, et pour l'établir, ma démonstration est insuffisante. Il faut les arguments à caractère pourrait-on dire géométrique que tu emploies. C'est curieux d'aller chercher ça dans un livre sur les espaces de Hilbert, le cadre euclidien suffit.

    Bonne journée.
    Fr. Ch.
  • En fait, dans le bouquin cité (que je n'ai pas sous la main), il traite la matrice de la matrice de Gram dans le cadre d'un produit hermitien, et pas seulement d'un produit scalaire (si je me souviens bien).

    Sinon, il y a un critère de Sylvester https://fr.wikipedia.org/wiki/Matrice_définie_positive#Critère_de_Sylvester qui, combiné avec la positivité des déterminants de Gram, implique que la matrice de Gram est définie positive (mais je veux bien reconnaitre que l'on n'est plus dans les choses élémentaires).

    [Activation du lien. AD]
  • Bonne idée le critère de Sylvester, je pense qu'on doit le trouver dans des annales d'oraux de concours, je l'avais mis dans mes feuilles d'exos quand j'enseignais en Math. Spé., il y a dans les vingt ans.
    Bonne soirée.
    Fr. Ch.
  • Bonjour
    Voilà ma résolution.
    On suppose que $G \in GL_k(\mathbb R)$, on veut montrer que $\mathcal F = (e_i)$ avec $i \in [1,k]$ est libre.
    On sait que $G$ est diagonalisable et inversible. De plus ses valeurs propres sont positives mais puisque $G$ est inversible ses valeurs propres ne peuvent pas être nulles donc, elles sont strictement positives.
    Il existe donc $P \in GL_k(\mathbb R)$ et une matrice $D \in M_k(\mathbb R)$ diagonale strictement positive tel que ${}^t\!PDP=G$
    Soit $X = (x_1 \dots x_k) \in \mathbb R^k$ (colonne)
    On suppose $x_1 e_1+ \dots + x_k e_k=0$
    Sachant que ${}^t\!XGX=\,<x_1 e_1+ \dots + x_k e_k | x_1 e_1+ \dots + x_k e_k>$
    Alors ${}^t\!XGX=0$
    et ${}^t\!X{\,}^t\!PDPX=0$, ${~}^t\!(PX)D(PX)=0$
    soit $X'=PX=0$ d'après plus haut
    Donc $X=P^{-1}X'=P^{-1}0= 0$
    et $X = (x_1 \dots x_k) = (0 \dots 0) $
    Donc si $x_1 e_1+ \dots + x_k e_k=0$ alors $x_1 = \dots = x_k=0$
    Donc $\mathcal F = (e_i)$ est libre
  • Bonjour,

    1) Est-ce que mon précédent raisonnement est bon pour montrer que $\mathcal F = (e_i)$ est libre sachant que $G \in GL_k(\mathbb R)$? notamment, je me demande si $^tP=P^{-1}$ dans ce cas.

    2) Sachant maintenant que $G=((e_i\mid e_j)) \in GL_k(\mathbb R)$ si et seulement si $\mathcal F = (e_i)$ (famille de $E$) est libre.

    En supposant que $\mathcal F = (e_i)$ (famille de $E$) est libre, en prenant la notation $G=((e_i\mid e_j))=G(e_1,\dots , e_k)$

    J'ai réussi à montrer que pour $x \in \mathcal F^{\perp}$
    $\det(G(x,e_1,\dots , e_k)) = ||x||^2 \times \det(G(e_1,\dots , e_k))$

    On me demande d'en déduire que pour tout $x \in E$

    $d(x,\mathcal F)^2=\dfrac{\det(G(x,e_1,\dots , e_k)) }{\det(G(e_1,\dots , e_k))}$

    Je sais que $d(x,\mathcal F)=||x- p(x)||$ avec $p$ un projecteur orthogonal sur $\mathcal F$. et je sais aussi que $x- p(x) \in \mathcal F^{\perp}$ mais je ne vois pas comment trouver la relation ci-dessus car dans celle-ci on a $x \in E$.

    Merci
  • Fait des combinaisons linéaires des lignes (par exemple ) bien choisies... pour faire apparaître cette fameuse projection orthogonale sur $\mathcal{F}.$
  • 1) Est-ce que mon précédent raisonnement est bon pour montrer que $\mathcal F = (e_i)$ est libre sachant que $G \in GL_k(\mathbb R)$? notamment, je me demande si $^tP=P^{-1}$ dans ce cas.

    2)
    Sachant que $x \in \mathcal F^{\perp}$
    $\det(G(x,e_1,\dots , e_k)) = ||x||^2 \times \det(G(e_1,\dots , e_k))$

    et que pour tout $x \in E$, $x- p(x) \in \mathcal F^{\perp}$,

    je peux déjà écrire $\det(G(x- p(x) ,e_1,\dots , e_k)) = ||x- p(x) ||^2 \times \det(G(e_1,\dots , e_k))$

    est-ce qu'une combinaison de ligne et colonne permet d'aboutir à
    $\det(G(x ,e_1,\dots , e_k)) = ||x- p(x) ||^2 \times \det(G(e_1,\dots , e_k))$?

    En clair, il faut montrer que $\det(G(x,e_1,\dots , e_k)) = \det(G(x- p(x) ,e_1,\dots , e_k)) $ pour $x \in E$ est-ce faisable? merci
  • Je crois avoir trouvé ma réponse ici : http://www.klubprepa.fr/Site/Document/ChargementDocument.aspx?IdDocument=3656
    En fait , $\det(G(x,e_1,\dots , e_k)) = \det(G(x- p(x) ,e_1,\dots , e_k)) $ car $\det(G(x- p(x) ,e_1,\dots , e_k)) = \det(G(x ,e_1,\dots , e_k)) - \det(G( p(x) ,e_1,\dots , e_k)) $
    Puis $\det(G(p(x) ,e_1,\dots , e_k))=0 $ car ses vecteurs sont liés
    donc $\det(G(x ,e_1,\dots , e_k)) = ||x- p(x) ||^2 \times \det(G(e_1,\dots , e_k))$
    par contre si quelqu'un pouvait m'indiquer si cela est bon :
    On suppose que $G \in GL_k(\mathbb R)$, on veut montrer que $\mathcal F = (e_i)$ avec $i \in [1,k]$ est libre.
    On sait que $G$ est diagonalisable et inversible. De plus ses valeurs propres sont positives mais puisque $G$ est inversible ses valeurs propres ne peuvent pas être nulles donc, elles sont strictement positives.
    Il existe donc $P \in GL_k(\mathbb R)$ et une matrice $D \in M_k(\mathbb R)$ diagonale strictement positive tel que ${}^t\!PDP=G$
    Soit $X = (x_1 \dots x_k) \in \mathbb R^k$ (colonne)
    On suppose $x_1 e_1+ \dots + x_k e_k=0$
    Sachant que ${}^t\!XGX=\,<x_1 e_1+ \dots + x_k e_k | x_1 e_1+ \dots + x_k e_k>$
    Alors ${}^t\!XGX=0$
    et ${}^t\!X{\,}^t\!PDPX=0$, ${~}^t\!(PX)D(PX)=0$
    soit $X'=PX=0$ d'après plus haut
    Donc $X=P^{-1}X'=P^{-1}0= 0$
    et $X = (x_1 \dots x_k) = (0 \dots 0) $
    Donc si $x_1 e_1+ \dots + x_k e_k=0$ alors $x_1 = \dots = x_k=0$
    Donc $\mathcal F = (e_i)$ est libre.
  • Je me demande si tu as seulement pris la peine de lire ce que Chaurien et moi-même avons posté.
  • @Eric
    Pour répondre à quelle question tu me suggère de voir ce que Chaurien et toi ont écrit?

    Parce que je dois utiliser que pour $D \in M_k(\mathbb R)$ une matrice diagonale strictement positive et pour tout $X \in \mathbb R^k$ $${}^t\!XDX=0 \Rightarrow X=0$$ pour montrer que $\mathcal F = (e_i)$ est libre et je ne le vois dans aucun de vos posts.
  • Y a t'il un mathématicien sur le forum pour vérifier mon raisonnement? :

    On suppose que $G \in GL_k(\mathbb R)$, on veut montrer que $\mathcal F = (e_i)$ avec $i \in [1,k]$ est libre.
    On sait que $G$ est diagonalisable et inversible. De plus ses valeurs propres sont positives mais puisque $G$ est inversible ses valeurs propres ne peuvent pas être nulles donc, elles sont strictement positives.
    Il existe donc $P \in GL_k(\mathbb R)$ et une matrice $D \in M_k(\mathbb R)$ diagonale strictement positive tel que ${}^t\!PDP=G$
    Soit $X = (x_1 \dots x_k) \in \mathbb R^k$ (colonne)
    On suppose $x_1 e_1+ \dots + x_k e_k=0$
    Sachant que ${}^t\!XGX=\,<x_1 e_1+ \dots + x_k e_k | x_1 e_1+ \dots + x_k e_k>$
    Alors ${}^t\!XGX=0$
    et ${}^t\!X{\,}^t\!PDPX=0$, ${~}^t\!(PX)D(PX)=0$
    soit $X'=PX=0$ d'après plus haut
    Donc $X=P^{-1}X'=P^{-1}0= 0$
    et $X = (x_1 \dots x_k) = (0 \dots 0) $
    Donc si $x_1 e_1+ \dots + x_k e_k=0$ alors $x_1 = \dots = x_k=0$
    Donc $\mathcal F = (e_i)$ est libre.
Connectez-vous ou Inscrivez-vous pour répondre.