Supplémentaire orthogonal, sans Gram-Schmidt
dans Algèbre
Bonjour,
Peut-on démontrer que si $F$ est un sev d'un espace euclidien $E$, on a $E=F\oplus F^{\bot}$, sans utiliser Gram-Schmidt ?
(l'idée est de d'abord voir ce résultat, pour pouvoir parler de projection orthogonale, et aborder Gram-Schmidt dans un second temps)
La démo classique commence par "soit une base orthonormée de E", mais l'existence d'une telle base est une conséquence de Gram-Schmidt.
Merci d'avance pour vos réponses !
Florent
Peut-on démontrer que si $F$ est un sev d'un espace euclidien $E$, on a $E=F\oplus F^{\bot}$, sans utiliser Gram-Schmidt ?
(l'idée est de d'abord voir ce résultat, pour pouvoir parler de projection orthogonale, et aborder Gram-Schmidt dans un second temps)
La démo classique commence par "soit une base orthonormée de E", mais l'existence d'une telle base est une conséquence de Gram-Schmidt.
Merci d'avance pour vos réponses !
Florent
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Je ne sais pas par contre quel est le plus efficace pour le faire. Instinctivement je passerais par la chose suivante : on prend une base $e_1,..., e_n$ de $F$ et on regarde $f_i := \langle e_i, - \rangle$.
On montre alors que $F^\bot$ est le noyau de $f: E\to \mathbb R^n, x\mapsto (f_i(x))_i$, et on montre que cette application est surjective
Maxtimax : c'est vrai, mais comment on montre que $f$ est surjective ?
Side : ça ne revient pas à démontrer le théorème qui dit que toute matrice symétrique est orthodiagonalisable ?
Pendant ce temps, j'avais fini par conclure à l'aire de la méthode de Maxtimax. Est-ce que ce qui suit vous semble correct ?
- on prend une base $B$ de $E$ adaptée à $F$ $(e_1,...,ep,e_{p+1},...,e_n)$, et on considère l'application$f:x\in E\mapsto (<x|e_1>,...,<x|e_p>,0,...,0)\in\R^n$.
- en remarquant que $Ker f=F^\bot$, le théorème du rang nous assure qu'il suffit de montrer que $dim(Im f)=dim(F)=p$.
Pour ça, on va démontrer que $Im f$ est l'ensemble des $n$-uplets du type $(y_1,...,y_p,0,...,0)$.
L'inclusion directe est triviale, et pour l'autre sens, on fixe $y$ un $n$-uplet de ce type, on cherche $x\in E$ tel que $f(x)=y$, ce qui donne un système dont la forme matricielle est $AX=Y$, où $X$ et $Y$ sont les matrices coordonnées de $x$ et $y$ dans $B$, et où $A$ est la matrice du produit scalaire dans cette base. La matrice $A$ est inversible (si elle ne l'était pas, on aurait un vecteur non nul $Z$ tel que $AZ=0$, et donc $^tZAZ=0$, ce qui contredit la définie-positivité du produit scalaire).
Fabriquer une base orthogonale pour une forme quadratique sur un espace de dimension finie sur n'importe quel corps de caractéristique différente de $2$, ça se fait par l'algorithme de décomposition en carrés de Monsieur Gauss, en éliminant une à une les variables par application de la technique "compléter le carré" (quand tout se passe bien).
Regardons ce qui se passe avec l'algorithme de Gauss pour une forme quadratique définie positive sur un espace vectoriel réel de dimension $n$, de matrice $S$. On peut prendre tous les coefficients des carrés des $n$ formes linéaires égaux à $1$ et on a fabriqué une matrice triangulaire supérieure $U$, à diagonale strictement positive, telle que $S= U^{\mathsf T}U$ (les lignes de $U$ sont formées des coefficients des formes linéaires). Comment trouve-t-on la base orthonormale antéduale de la base de formes linéaires ? Tout simplement en inversant $U$ pour avoir la matrice de passage à la base orthonormale. On a alors $U^{-\mathsf T}SU^{-1}=I_n$. La matrice $U^{-1}$ est triangulaire supérieure à diagonale strictement positive : c'est Gram-Shmidt !!
Finalement, Gauss et Gram-Schmidt, même combat !
PS. Je développe un petit peu : considérons l'équation d'une quadrique centrée à l'origine d'équation $q=1$. Diagonaliser la matrice de $q$ en b.o.n., c'est trouver les axes principaux de la quadrique. Appliquer l'algorithme de Gauss à $q$, c'est juste trouver une base orthogonale pour $q$, dans laquelle l'équation de la quadrique s'écrit $\sum c_ix_i^2=1$. L'algorithme de Gauss se passe entièrement dans le corps des coefficients de $q$, pas la diagonalisation en b.o.n..
Si $(e_1,\ldots,e_p)$ est une base de $F$ alors le noyau de l'application linéaire $f\colon E\to \mathbb R^p$ définie par $f(x)=(<x\mid e_1>,\ldots,<x\mid e_p>)$ est exactement $F^\perp$. Or le rang de $f$ est au plus $p$, donc le théorème du rang montre que $\dim(F^\perp)=\dim(\ker(f))=\dim(E)-\mathrm{rg}(f) \geqslant n-p$, et donc $\dim(F^\perp)=n-p$.
J'étends le problème initial : si on suppose maintenant que $E$ est de dimension infinie, mais que $F$ est de dimension finie, peut-on toujours s'en sortir sans Gram-Schmidt ?
As tu compris que ton affirmation est complètement fausse ? Les deux théorèmes sont de nature différente.
Tu ne vois pas la différence, pour une ellipse, entre trouver les axes principaux (il y a unicité) et trouver une paire de diamètres conjugués (il y en a une infinité) ? Le premier problème revient à la diagonalisation, le deuxième à la décomposition en carrés.
De ton point de vue, qu'est-ce qui est le plus facile à faire ?
1) Décomposer en carrés $x^2-6xy+8xz+y^2-10yz+3z^2$
2) Diagonaliser en b.o.n. la matrice symétrique
$$\pmatrix{1&-3&4\\-3&1&-5\\4&-5&3}$$
Par ailleurs, tu persistes à confondre pivot de Gauss et décomposition en carrés de Gauss. D'accord, il y a pas mal de parenté, mais ce n'est tout de même pas la même chose.
GaBuZoMeu l’a dit, on « complète le carré ».
En gros, la réduction de Gauss est une réduction juste affine des formes quadratiques, non ?
Elle ne distingue pas les ellipses par exemple si je ne dis pas de bêtise.
Elle « ne donne que » la signature (Sylvester).
Soit $v \in E, \not \in F \oplus F^\perp $, comme ta fonction $f$ est surjective il existe $x \in F$ tel que $f(x) =f(v)$ donc $f(v-x)=0$ donc $v-x \in \ker(f)= F^\perp$ et $v = x +(v-x) \in F \oplus F^\perp$.
Donc $F \times F^\perp \to E$ est surjective et $E = F \oplus F^\perp $
C'est comme ça que tu comptes utiliser $f$ ? Ou tu fais un truc avec les dimensions, ou ?
Soit $K$ un corps, $E$ un $K$-espace vectoriel, $\varphi:E^2\to K$ une forme bilinéaire symétrique (*).
Dans la suite, $q(x)$ abrégera $\varphi(x,x)$.
1°) Soit $v\in E$ tel que $q(v)\neq 0$. Alors $E$ est la somme directe de $Kv$ et de l'orthogonal $Kv^{\perp \varphi}$ de $Kv$ pour $\varphi$.
En effet, pour tout $u\in Kv \cap Kv^{\perp \varphi}$, on a $u=\lambda v$ pour un certain $\lambda\in K$ et si $\varphi(u,v)=0=\lambda \varphi(v,v)$ alors $\lambda=0$ puisque par hypothèse $q(v)=\varphi(v,v) \neq 0$ et donc $u=0$.
Soit maintenant $x\in E$. Alors $x = x - \frac{\varphi(x,v)}{q(v)}v + \frac{\varphi(x,v)}{q(v)}v$, et $x - \frac{\varphi(x,v)}{q(v)}v \in Kv^{\perp \varphi}$ (car $\varphi \left ( x - \frac{\varphi(x,v)}{q(v)}v , v \right ) = \varphi(x,v) - \frac{\varphi(x,v)}{q(v)}q(v) = 0$) et donc $x\in Kv + Kv^{\perp \varphi}$.
En fait on constate que les applications $Pv: x \mapsto \frac{\varphi(x,v)}{q(v)}v$ et $Q_v: x \mapsto x - \frac{\varphi(x,v)}{q(v)}v$ sont respectivement les projections orthogonales sur $Kv$ et $Kv^{\perp \varphi}$ et que pour que de telles applications existent, il suffit que $\varphi(v,v) \neq 0$.
2°) Si $K$ est de caracéristique différente de $2$, tout espace vectoriel de dimension finie sur $K$ muni d'une forme bilinéaire symétrique admet une base orthogonale pour cette forme.
Par récurrence large sur la dimension: soit $(E,\varphi)$ un tel couple. On note à nouveau $q:x\mapsto \varphi(x,x)$.
-Si $q$ est identiquement nul, $\varphi$ aussi car pour tous $x,y$, $\varphi(x,y)=\frac{1}{2}\left ( q(x+y) - q(x) - q(y)\right )$. Dans ce cas une base quelconque de $E$ est orthogonale et il en existe.
-Sinon, il existe $v \in E$ tel que $q(v)\neq 0$. D'après 1°), $E$ est somme directe de $Kv$ et de son orthogonal $Kv^{\perp \varphi}$. Par hypothèse de récurrence, comme $dim \left (Kv^{\perp \varphi} \right ) < dim(E)$, il existe une base orthogonale $(w_1,w_2,w_3...)$ sur $Kv^{\perp \varphi}$. Par construction, $(v,w_1,w_2,w_3...)$ est une base orthogonale de $E$.
3°) Les notations et hypothèses sont celles de 1°). Soit $F\subseteq E$ un sous-espace vectoriel de dimension finie tel que la restriction de $\varphi$ à $F$ est non dégénérée (i.e. pour tout $z\in F$, si pour tout $y\in F$, $\varphi(z,y)=0$ alors $z=0$). Alors $F$ est le supplémentaire de son orthogonal $F^{\perp \varphi}$ pour $\varphi$.
On considère d'après 2°), une base $(v_1,...,v_n)$ orthogonale de $F$ pour la restriction à $F$ de $\varphi$. Il n'existe aucun $k\in \{1,...,n\}$ tel que $q(v_k)=0$ sans quoi, on aurait pour tout $x\in F$ ($x=\sum_{i=1}^n \alpha_i v_i$ dans cette base), $\varphi(v_k,x)=\sum_{i=1}^n \alpha_i \varphi(v_k,v_i)=0$ et donc $v_k=0$ (non dégérescence) ce qui est impossible (base). Un calcul similaire montre que tout vecteur $u\in E$ tel que pour tout $i\in \{1,...,n\}$, $\varphi(u,v_i)=0$ est orthogonal à $F$.
Le reste de la preuve est similaire à ce qui est fait en 1°):
-Pour tout $y\in E$, si $y\in F \cap F^{\perp \varphi}$ alors, $y=\sum_{i=1}^n \beta_i v_i$, et pour tout $j$, $0=\varphi(y,v_j)= \beta_j \varphi(v_j,v_j)$ avec $\varphi(v_j,v_j) \neq 0$ et donc $\beta_j =0$ et donc $y=0$.
Pour tout $x\in E$, $x= x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i + \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i$ et on peut vérifier que pour tout $j\in \{1,...,n\}$, $\varphi \left (x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i,v_j \right ) = \varphi (x,v_j )- \frac{\varphi (x,v_j)}{q(v_j)} q(v_j) = 0$ et donc que $x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i \in F^{\perp \varphi}$.
[size=x-small](*) c'est le cadre usuel. Pas envie de parler d'orthogonal à gauche et à droite. [/size]