Supplémentaire orthogonal, sans Gram-Schmidt

Bonjour,

Peut-on démontrer que si $F$ est un sev d'un espace euclidien $E$, on a $E=F\oplus F^{\bot}$, sans utiliser Gram-Schmidt ?

(l'idée est de d'abord voir ce résultat, pour pouvoir parler de projection orthogonale, et aborder Gram-Schmidt dans un second temps)

La démo classique commence par "soit une base orthonormée de E", mais l'existence d'une telle base est une conséquence de Gram-Schmidt.

Merci d'avance pour vos réponses !

Florent

Réponses

  • Oui, oui, on peut.
    Je ne sais pas par contre quel est le plus efficace pour le faire. Instinctivement je passerais par la chose suivante : on prend une base $e_1,..., e_n$ de $F$ et on regarde $f_i := \langle e_i, - \rangle$.

    On montre alors que $F^\bot$ est le noyau de $f: E\to \mathbb R^n, x\mapsto (f_i(x))_i$, et on montre que cette application est surjective
  • Merci à vous deux !

    Maxtimax : c'est vrai, mais comment on montre que $f$ est surjective ?

    Side : ça ne revient pas à démontrer le théorème qui dit que toute matrice symétrique est orthodiagonalisable ?
  • @side : je cherchais une méthode élémentaire, sans parler de diagonalisation des matrices symétriques par exemple. OK pour la 2e méthode !

    Pendant ce temps, j'avais fini par conclure à l'aire de la méthode de Maxtimax. Est-ce que ce qui suit vous semble correct ?

    - on prend une base $B$ de $E$ adaptée à $F$ $(e_1,...,ep,e_{p+1},...,e_n)$, et on considère l'application$f:x\in E\mapsto (<x|e_1>,...,<x|e_p>,0,...,0)\in\R^n$.
    - en remarquant que $Ker f=F^\bot$, le théorème du rang nous assure qu'il suffit de montrer que $dim(Im f)=dim(F)=p$.
    Pour ça, on va démontrer que $Im f$ est l'ensemble des $n$-uplets du type $(y_1,...,y_p,0,...,0)$.
    L'inclusion directe est triviale, et pour l'autre sens, on fixe $y$ un $n$-uplet de ce type, on cherche $x\in E$ tel que $f(x)=y$, ce qui donne un système dont la forme matricielle est $AX=Y$, où $X$ et $Y$ sont les matrices coordonnées de $x$ et $y$ dans $B$, et où $A$ est la matrice du produit scalaire dans cette base. La matrice $A$ est inversible (si elle ne l'était pas, on aurait un vecteur non nul $Z$ tel que $AZ=0$, et donc $^tZAZ=0$, ce qui contredit la définie-positivité du produit scalaire).
  • Bof bof. Parler de sous-espaces propres pour fabriquer une base orthonormée me paraît une hérésie.
    Fabriquer une base orthogonale pour une forme quadratique sur un espace de dimension finie sur n'importe quel corps de caractéristique différente de $2$, ça se fait par l'algorithme de décomposition en carrés de Monsieur Gauss, en éliminant une à une les variables par application de la technique "compléter le carré" (quand tout se passe bien).
    Regardons ce qui se passe avec l'algorithme de Gauss pour une forme quadratique définie positive sur un espace vectoriel réel de dimension $n$, de matrice $S$. On peut prendre tous les coefficients des carrés des $n$ formes linéaires égaux à $1$ et on a fabriqué une matrice triangulaire supérieure $U$, à diagonale strictement positive, telle que $S= U^{\mathsf T}U$ (les lignes de $U$ sont formées des coefficients des formes linéaires). Comment trouve-t-on la base orthonormale antéduale de la base de formes linéaires ? Tout simplement en inversant $U$ pour avoir la matrice de passage à la base orthonormale. On a alors $U^{-\mathsf T}SU^{-1}=I_n$. La matrice $U^{-1}$ est triangulaire supérieure à diagonale strictement positive : c'est Gram-Shmidt !!
    Finalement, Gauss et Gram-Schmidt, même combat !
  • Tu te trompes, ce n'est absolument pas la même chose !

    PS. Je développe un petit peu : considérons l'équation d'une quadrique centrée à l'origine d'équation $q=1$. Diagonaliser la matrice de $q$ en b.o.n., c'est trouver les axes principaux de la quadrique. Appliquer l'algorithme de Gauss à $q$, c'est juste trouver une base orthogonale pour $q$, dans laquelle l'équation de la quadrique s'écrit $\sum c_ix_i^2=1$. L'algorithme de Gauss se passe entièrement dans le corps des coefficients de $q$, pas la diagonalisation en b.o.n..
  • Si $E$ est de dimension $n$ et $F$ un sev de dimension $p$. On commence par vérifier que $F$ et son orthogonal sont en somme directe, on en déduit que $\dim(F^\perp)\leqslant n-p$.

    Si $(e_1,\ldots,e_p)$ est une base de $F$ alors le noyau de l'application linéaire $f\colon E\to \mathbb R^p$ définie par $f(x)=(<x\mid e_1>,\ldots,<x\mid e_p>)$ est exactement $F^\perp$. Or le rang de $f$ est au plus $p$, donc le théorème du rang montre que $\dim(F^\perp)=\dim(\ker(f))=\dim(E)-\mathrm{rg}(f) \geqslant n-p$, et donc $\dim(F^\perp)=n-p$.
  • Cette dernière démo est diablement efficace.

    J'étends le problème initial : si on suppose maintenant que $E$ est de dimension infinie, mais que $F$ est de dimension finie, peut-on toujours s'en sortir sans Gram-Schmidt ?
  • Soit $M$ symétrique à coefficients rationnels. Gauss te dit qu'il existe une matrice inversible $U$ à coefficients rationnels telle que $U^{\mathsf T} M U$ soit diagonale. Si tu demandes en plus que $U$ soit orthogonale, tu ne la trouveras pas (en général) à coefficients rationnels.

    As tu compris que ton affirmation
    c'est la même chose : diagonaliser une matrice symétrique en bon et algorithme de Gauss.
    est complètement fausse ? Les deux théorèmes sont de nature différente.

    Tu ne vois pas la différence, pour une ellipse, entre trouver les axes principaux (il y a unicité) et trouver une paire de diamètres conjugués (il y en a une infinité) ? Le premier problème revient à la diagonalisation, le deuxième à la décomposition en carrés.
  • J'étends le problème initial : si on suppose maintenant que E est de dimension infinie, mais que F est de dimension finie, peut-on toujours s'en sortir sans Gram-Schmidt ?
    C'est une conséquence du résultat pour $E$ de dimension finie. On a toujours $F$ et $F^{\perp}$ d'intersection réduite à $\{0\}$. Pour voir que tout vecteur $x\in E$ se décompose en somme d'un vecteur dans $F$ et d'un vecteur dans $F^{\perp}$, on peut se restreindre à $F+\mathbb R x$.
  • Hérésie dans le sens « marteau pour écraser une mouche » peut-être ?
  • Si $E$ est de dimension infinie et si $F$ est un sev de dimension finie $p$, alors on vérifie (recurrence sur $p$ et en utilisant le résultat établi précédemment ) que $F$ possède au moins une bon $(e_1,\ldots,e_p)$. Pour tout vecteur $x$ de $E$ il suffit alors de remarquer que $y=x-\sum_{i=1}^p <x\mid e_i>e_i$ est un vecteur qui est dans l'orthogonal de $F$.
  • De mon point de vue, le pivot de Gauss est un bien plus gros marteau que le théorème spectral.

    De ton point de vue, qu'est-ce qui est le plus facile à faire ?
    1) Décomposer en carrés $x^2-6xy+8xz+y^2-10yz+3z^2$
    2) Diagonaliser en b.o.n. la matrice symétrique
    $$\pmatrix{1&-3&4\\-3&1&-5\\4&-5&3}$$
  • D'accord, si on suit ta logique, l'utilisation de la soustraction pour résoudre $a+x=b$ (inconnue $x$) est un super gros marteau ! (:D
    Par ailleurs, tu persistes à confondre pivot de Gauss et décomposition en carrés de Gauss. D'accord, il y a pas mal de parenté, mais ce n'est tout de même pas la même chose.
  • En effet, c’est une « réduction de Gauss ».
    GaBuZoMeu l’a dit, on « complète le carré ».

    En gros, la réduction de Gauss est une réduction juste affine des formes quadratiques, non ?
    Elle ne distingue pas les ellipses par exemple si je ne dis pas de bêtise.
    Elle « ne donne que » la signature (Sylvester).
  • Je n'ai pas tout suivi mais puisque Florent a demandé au moins à un endroit, voilà comment j'aurais complété "ma" solution (à vous de voir si c'est "pareil" ou pas que le reste) : pour montrer que $f$ est surjective on peut supposer au contraire que son image est incluse dans un hyperplan, auquel cas les formes $f_i$ satisfont l'équation de cet hyperplan, il en est donc de même des $e_i$ : absurde. Donc $f$ est surjective
  • @Maxtimax $ F \times F^\perp \to F+F^\perp \subset E$ est injectif puisque $F \cap F^\perp = \{0\}$.

    Soit $v \in E, \not \in F \oplus F^\perp $, comme ta fonction $f$ est surjective il existe $x \in F$ tel que $f(x) =f(v)$ donc $f(v-x)=0$ donc $v-x \in \ker(f)= F^\perp$ et $v = x +(v-x) \in F \oplus F^\perp$.

    Donc $F \times F^\perp \to E$ est surjective et $E = F \oplus F^\perp $

    C'est comme ça que tu comptes utiliser $f$ ? Ou tu fais un truc avec les dimensions, ou ?
  • @reuns : tu peux aussi faire comme ça; moi je pensais initalement à faire un truc de dimensions (théorème du rang : par surjectivité on connait le rang donc la dimension du noyau, qui est $F^\bot$, et donc on sait quelle est la dimension de $F\oplus F^\bot$
  • On a les résultats généraux suivants; le cas des produits scalaires réels et espaces euclidiens en est un cas particulier.

    Soit $K$ un corps, $E$ un $K$-espace vectoriel, $\varphi:E^2\to K$ une forme bilinéaire symétrique (*).
    Dans la suite, $q(x)$ abrégera $\varphi(x,x)$.

    1°) Soit $v\in E$ tel que $q(v)\neq 0$. Alors $E$ est la somme directe de $Kv$ et de l'orthogonal $Kv^{\perp \varphi}$ de $Kv$ pour $\varphi$.
    En effet, pour tout $u\in Kv \cap Kv^{\perp \varphi}$, on a $u=\lambda v$ pour un certain $\lambda\in K$ et si $\varphi(u,v)=0=\lambda \varphi(v,v)$ alors $\lambda=0$ puisque par hypothèse $q(v)=\varphi(v,v) \neq 0$ et donc $u=0$.
    Soit maintenant $x\in E$. Alors $x = x - \frac{\varphi(x,v)}{q(v)}v + \frac{\varphi(x,v)}{q(v)}v$, et $x - \frac{\varphi(x,v)}{q(v)}v \in Kv^{\perp \varphi}$ (car $\varphi \left ( x - \frac{\varphi(x,v)}{q(v)}v , v \right ) = \varphi(x,v) - \frac{\varphi(x,v)}{q(v)}q(v) = 0$) et donc $x\in Kv + Kv^{\perp \varphi}$.

    En fait on constate que les applications $Pv: x \mapsto \frac{\varphi(x,v)}{q(v)}v$ et $Q_v: x \mapsto x - \frac{\varphi(x,v)}{q(v)}v$ sont respectivement les projections orthogonales sur $Kv$ et $Kv^{\perp \varphi}$ et que pour que de telles applications existent, il suffit que $\varphi(v,v) \neq 0$.

    2°) Si $K$ est de caracéristique différente de $2$, tout espace vectoriel de dimension finie sur $K$ muni d'une forme bilinéaire symétrique admet une base orthogonale pour cette forme.
    Par récurrence large sur la dimension: soit $(E,\varphi)$ un tel couple. On note à nouveau $q:x\mapsto \varphi(x,x)$.
    -Si $q$ est identiquement nul, $\varphi$ aussi car pour tous $x,y$, $\varphi(x,y)=\frac{1}{2}\left ( q(x+y) - q(x) - q(y)\right )$. Dans ce cas une base quelconque de $E$ est orthogonale et il en existe.
    -Sinon, il existe $v \in E$ tel que $q(v)\neq 0$. D'après 1°), $E$ est somme directe de $Kv$ et de son orthogonal $Kv^{\perp \varphi}$. Par hypothèse de récurrence, comme $dim \left (Kv^{\perp \varphi} \right ) < dim(E)$, il existe une base orthogonale $(w_1,w_2,w_3...)$ sur $Kv^{\perp \varphi}$. Par construction, $(v,w_1,w_2,w_3...)$ est une base orthogonale de $E$.

    3°) Les notations et hypothèses sont celles de 1°). Soit $F\subseteq E$ un sous-espace vectoriel de dimension finie tel que la restriction de $\varphi$ à $F$ est non dégénérée (i.e. pour tout $z\in F$, si pour tout $y\in F$, $\varphi(z,y)=0$ alors $z=0$). Alors $F$ est le supplémentaire de son orthogonal $F^{\perp \varphi}$ pour $\varphi$.
    On considère d'après 2°), une base $(v_1,...,v_n)$ orthogonale de $F$ pour la restriction à $F$ de $\varphi$. Il n'existe aucun $k\in \{1,...,n\}$ tel que $q(v_k)=0$ sans quoi, on aurait pour tout $x\in F$ ($x=\sum_{i=1}^n \alpha_i v_i$ dans cette base), $\varphi(v_k,x)=\sum_{i=1}^n \alpha_i \varphi(v_k,v_i)=0$ et donc $v_k=0$ (non dégérescence) ce qui est impossible (base). Un calcul similaire montre que tout vecteur $u\in E$ tel que pour tout $i\in \{1,...,n\}$, $\varphi(u,v_i)=0$ est orthogonal à $F$.
    Le reste de la preuve est similaire à ce qui est fait en 1°):
    -Pour tout $y\in E$, si $y\in F \cap F^{\perp \varphi}$ alors, $y=\sum_{i=1}^n \beta_i v_i$, et pour tout $j$, $0=\varphi(y,v_j)= \beta_j \varphi(v_j,v_j)$ avec $\varphi(v_j,v_j) \neq 0$ et donc $\beta_j =0$ et donc $y=0$.
    Pour tout $x\in E$, $x= x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i + \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i$ et on peut vérifier que pour tout $j\in \{1,...,n\}$, $\varphi \left (x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i,v_j \right ) = \varphi (x,v_j )- \frac{\varphi (x,v_j)}{q(v_j)} q(v_j) = 0$ et donc que $x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i \in F^{\perp \varphi}$.

    [size=x-small](*) c'est le cadre usuel. Pas envie de parler d'orthogonal à gauche et à droite. [/size]
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
Connectez-vous ou Inscrivez-vous pour répondre.