Pensez à lire la Charte avant de poster !

$\newcommand{\K}{\mathbf K}$


Les-Mathematiques.net - Cours de mathématiques supérieures
 Les-Mathematiques.net - Cours de mathématiques universitaires - Forum - Cours à télécharger

A lire
Deug/Prépa
Licence
Agrégation
A télécharger
Télécharger
192 personne(s) sur le site en ce moment
E. Cartan
A lire
Articles
Math/Infos
Récréation
A télécharger
Télécharger
Théorème de Cantor-Bernstein
Théo. Sylow
Théo. Ascoli
Théo. Baire
Loi forte grd nbre
Nains magiques
 
 
 
 
 

Supplémentaire orthogonal, sans Gram-Schmidt

Envoyé par Florent H. 
Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Bonjour,

Peut-on démontrer que si $F$ est un sev d'un espace euclidien $E$, on a $E=F\oplus F^{\bot}$, sans utiliser Gram-Schmidt ?

(l'idée est de d'abord voir ce résultat, pour pouvoir parler de projection orthogonale, et aborder Gram-Schmidt dans un second temps)

La démo classique commence par "soit une base orthonormée de E", mais l'existence d'une telle base est une conséquence de Gram-Schmidt.

Merci d'avance pour vos réponses !

Florent
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Oui, oui, on peut.
Je ne sais pas par contre quel est le plus efficace pour le faire. Instinctivement je passerais par la chose suivante : on prend une base $e_1,..., e_n$ de $F$ et on regarde $f_i := \langle e_i, - \rangle$.

On montre alors que $F^\bot$ est le noyau de $f: E\to \mathbb R^n, x\mapsto (f_i(x))_i$, et on montre que cette application est surjective

"Mathematics, rightly viewed, possesses not only truth, but supreme beauty"-Russell
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Bonjour,

Existence d'une base orthonormée

On raisonne par récurrence sur la dimension de l'espace.
On choisit une base de $E$.
La matrice dans cette base de la forme quadratique associée au produit scalaire euclidien est symétrique dans n'importe quelle base. Si elle est scalaire, on normalise les vecteurs de la base et on a fini.
Si elle n'est pas scalaire, on vérifie que les sous-espaces propres sont orthogonaux puis on utilise l'hypothèse de récurrence aux sous-espaces propres qui héritent d'un produit scalaire (on vérifie que la restriction d'un produit scalaire euclidien sur un sous-espace munit le sous-espace d'une structure euclidienne) et on construit ainsi une base orthonormée.

Après vous reprenez votre manuel...Soit une base orthonormée...



Edité 1 fois. La dernière correction date de il y a deux mois et a été effectuée par side.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Merci à vous deux !

Maxtimax : c'est vrai, mais comment on montre que $f$ est surjective ?

Side : ça ne revient pas à démontrer le théorème qui dit que toute matrice symétrique est orthodiagonalisable ?
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Si au passage on le redémontre mais on utilise quand même qu'elle est diagonalisable. Mais on n'utilise pas de G-S.

Sinon méthode de Maxtimax : en considérant une base de $F$, l'orthogonal s'écrit comme l'intersection de $p=dim F$ hyperplans, on démontre que l'intersection est de dimension au plus $n-p$ et donc la dimension du bi orthogonal est au plus $p$.
Puis on montre que la somme est directe et que $F$ est inclu dans son bi orthogonal et on conclut.


Si on sait que $G=E$ ssi son orthogonal est nul alors on peut considérer $G=F+F^{\bot} $ et calculer son orthogonal pour monter qu'il est nul.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
@side : je cherchais une méthode élémentaire, sans parler de diagonalisation des matrices symétriques par exemple. OK pour la 2e méthode !

Pendant ce temps, j'avais fini par conclure à l'aire de la méthode de Maxtimax. Est-ce que ce qui suit vous semble correct ?

- on prend une base $B$ de $E$ adaptée à $F$ $(e_1,...,ep,e_{p+1},...,e_n)$, et on considère l'application$f:x\in E\mapsto (<x|e_1>,...,<x|e_p>,0,...,0)\in\R^n$.
- en remarquant que $Ker f=F^\bot$, le théorème du rang nous assure qu'il suffit de montrer que $dim(Im f)=dim(F)=p$.
Pour ça, on va démontrer que $Im f$ est l'ensemble des $n$-uplets du type $(y_1,...,y_p,0,...,0)$.
L'inclusion directe est triviale, et pour l'autre sens, on fixe $y$ un $n$-uplet de ce type, on cherche $x\in E$ tel que $f(x)=y$, ce qui donne un système dont la forme matricielle est $AX=Y$, où $X$ et $Y$ sont les matrices coordonnées de $x$ et $y$ dans $B$, et où $A$ est la matrice du produit scalaire dans cette base. La matrice $A$ est inversible (si elle ne l'était pas, on aurait un vecteur non nul $Z$ tel que $AZ=0$, et donc $^tZAZ=0$, ce qui contredit la définie-positivité du produit scalaire).
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Bof bof. Parler de sous-espaces propres pour fabriquer une base orthonormée me paraît une hérésie.
Fabriquer une base orthogonale pour une forme quadratique sur un espace de dimension finie sur n'importe quel corps de caractéristique différente de $2$, ça se fait par l'algorithme de décomposition en carrés de Monsieur Gauss, en éliminant une à une les variables par application de la technique "compléter le carré" (quand tout se passe bien).
Regardons ce qui se passe avec l'algorithme de Gauss pour une forme quadratique définie positive sur un espace vectoriel réel de dimension $n$, de matrice $S$. On peut prendre tous les coefficients des carrés des $n$ formes linéaires égaux à $1$ et on a fabriqué une matrice triangulaire supérieure $U$, à diagonale strictement positive, telle que $S= U^{\mathsf T}U$ (les lignes de $U$ sont formées des coefficients des formes linéaires). Comment trouve-t-on la base orthonormale antéduale de la base de formes linéaires ? Tout simplement en inversant $U$ pour avoir la matrice de passage à la base orthonormale. On a alors $U^{-\mathsf T}SU^{-1}=I_n$. La matrice $U^{-1}$ est triangulaire supérieure à diagonale strictement positive : c'est Gram-Shmidt !!
Finalement, Gauss et Gram-Schmidt, même combat !
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Ben non
c'est la même chose : diagonaliser une matrice symétrique en bon et algorithme de Gauss.
(y a un lien très simple entre matrice symétrique et forme quadratique)



Edité 1 fois. La derni&egrave;re correction date de il y a deux mois et a &eacute;t&eacute; effectu&eacute;e par side.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Tu te trompes, ce n'est absolument pas la même chose !

PS. Je développe un petit peu : considérons l'équation d'une quadrique centrée à l'origine d'équation $q=1$. Diagonaliser la matrice de $q$ en b.o.n., c'est trouver les axes principaux de la quadrique. Appliquer l'algorithme de Gauss à $q$, c'est juste trouver une base orthogonale pour $q$, dans laquelle l'équation de la quadrique s'écrit $\sum c_ix_i^2=1$. L'algorithme de Gauss se passe entièrement dans le corps des coefficients de $q$, pas la diagonalisation en b.o.n..



Edité 1 fois. La derni&egrave;re correction date de il y a deux mois et a &eacute;t&eacute; effectu&eacute;e par GaBuZoMeu.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Si $E$ est de dimension $n$ et $F$ un sev de dimension $p$. On commence par vérifier que $F$ et son orthogonal sont en somme directe, on en déduit que $\dim(F^\perp)\leqslant n-p$.

Si $(e_1,\ldots,e_p)$ est une base de $F$ alors le noyau de l'application linéaire $f\colon E\to \mathbb R^p$ définie par $f(x)=(<x\mid e_1>,\ldots,<x\mid e_p>)$ est exactement $F^\perp$. Or le rang de $f$ est au plus $p$, donc le théorème du rang montre que $\dim(F^\perp)=\dim(\ker(f))=\dim(E)-\mathrm{rg}(f) \geqslant n-p$, et donc $\dim(F^\perp)=n-p$.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Cette dernière démo est diablement efficace.

J'étends le problème initial : si on suppose maintenant que $E$ est de dimension infinie, mais que $F$ est de dimension finie, peut-on toujours s'en sortir sans Gram-Schmidt ?
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
@gabuzomeu

Je ne comprends rien à l'explication (not le corps des coefficients)
Soit $M$ symétrique.
Quand on utilise le théorème spectral, le résultat de la réduction est : il existe $P$ orthogonale telle que $P^{-1}MP=D$
Quand on utilise l'algorithme de Gauss, le résultat de la réduction (si on snobe tout l'aspect algorithmique, qui présente un intérêt en soi bien sûr) : il existe $Q$ inversible telle que $Q^{*}MQ=D'$ (*pour transposée)

Ce sont donc 2 théorèmes de réduction des matrices symétriques.
pourquoi l'un serait une hérésie et pas l'autre.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Soit $M$ symétrique à coefficients rationnels. Gauss te dit qu'il existe une matrice inversible $U$ à coefficients rationnels telle que $U^{\mathsf T} M U$ soit diagonale. Si tu demandes en plus que $U$ soit orthogonale, tu ne la trouveras pas (en général) à coefficients rationnels.

As tu compris que ton affirmation
Citation

c'est la même chose : diagonaliser une matrice symétrique en bon et algorithme de Gauss.
est complètement fausse ? Les deux théorèmes sont de nature différente.

Tu ne vois pas la différence, pour une ellipse, entre trouver les axes principaux (il y a unicité) et trouver une paire de diamètres conjugués (il y en a une infinité) ? Le premier problème revient à la diagonalisation, le deuxième à la décomposition en carrés.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Citation

J'étends le problème initial : si on suppose maintenant que E est de dimension infinie, mais que F est de dimension finie, peut-on toujours s'en sortir sans Gram-Schmidt ?
C'est une conséquence du résultat pour $E$ de dimension finie. On a toujours $F$ et $F^{\perp}$ d'intersection réduite à $\{0\}$. Pour voir que tout vecteur $x\in E$ se décompose en somme d'un vecteur dans $F$ et d'un vecteur dans $F^{\perp}$, on peut se restreindre à $F+\mathbb R x$.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Si on ne veut toujours pas utiliser de bon, il faudrait essayer de construire la projection orthogonale sur $F$ avec la distance euclidienne.
C'est-à-dire, si $y$ réalise $\inf d(x, F) $ (donc il faut montrer l'existence, avec un argument de compacité) il est unique (de mémoire ça se fait avec l'identité du parallélogramme), puis montrer que l'application qui a $x$ associé $p_F(x)=y$ est linéaire, puis montrer que $p_F(x) $ est orthogonal à $x-p_F(x)$.

Je n'ai pas fait ce parcours. Mais de mémoire, c'est le schéma de démonstration utilisé pour démontrer ce résultat dans un espace de Hilbert.


@Gabuzomeu
Oui je vois bien la différence.
Mais je vois aussi que ça n'est pas une hérésie.
Je pensais que c'était qualifié d'hérésie car peut être se cachait un argument circulaire ou une erreur de démonstration : par ex. pour démontrer le théorème spectral se cachait quelque part le théorème d'existence de base orthonormée.
Je comprends que c'est juste une affaire de goût.

NB : afin de ne pas être mal compris, je précise que j'apprécie le temps et les commentaires pertinents pour clarifier la différence entre ces 2 résultats qui donnent une illustration géométrique très éclairante de ce qui se passe, et très facile à mémoriser.
Et je pense que tes commentaires sont utilies (s'ils sont lus) par tout ''forumeur algèbriste'' car on ne trouve jamais dans les livres d'explication comparative sur ces 2 théorèmes de réduction.
Dom
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Hérésie dans le sens « marteau pour écraser une mouche » peut-être ?
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Si $E$ est de dimension infinie et si $F$ est un sev de dimension finie $p$, alors on vérifie (recurrence sur $p$ et en utilisant le résultat établi précédemment ) que $F$ possède au moins une bon $(e_1,\ldots,e_p)$. Pour tout vecteur $x$ de $E$ il suffit alors de remarquer que $y=x-\sum_{i=1}^p <x\mid e_i>e_i$ est un vecteur qui est dans l'orthogonal de $F$.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Merci Dom mais ça n'aide pas et ça tourne en rond.
De mon point de vue, le pivot de Gauss est un bien plus gros marteau que le théorème spectral.
Là aussi, chacun peut avoir son avis et ça ne sert à rien de disserter.



Edité 1 fois. La derni&egrave;re correction date de il y a deux mois et a &eacute;t&eacute; effectu&eacute;e par side.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Citation

De mon point de vue, le pivot de Gauss est un bien plus gros marteau que le théorème spectral.

De ton point de vue, qu'est-ce qui est le plus facile à faire ?
1) Décomposer en carrés $x^2-6xy+8xz+y^2-10yz+3z^2$
2) Diagonaliser en b.o.n. la matrice symétrique
$$\pmatrix{1&-3&4\\-3&1&-5\\4&-5&3}$$
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
@Gabuzomeu
Il est plus facile mettre en œuvre le pivot de Gauss.

Ça confirme donc ma citation : cet algorithme est un si '' gros marteau'' qu'il donne non seulement un résultat d'existence d'une réduction mais fournit un algorithme efficace pour expliciter cette réduction.

La définition ci-dessous
Quand on peut faire des choses facilement (ou pas) c'est qu'on a des outils puissants.
A l'extrême quand on ne peut presque rien dire (là aussi à l'extrême pour grossir le trait, : hypothèse de Riemann, conjecture des périodes) c'est que les outils dont on dispose ne sont pas puissants.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
D'accord, si on suit ta logique, l'utilisation de la soustraction pour résoudre $a+x=b$ (inconnue $x$) est un super gros marteau ! smiling bouncing smiley
Par ailleurs, tu persistes à confondre pivot de Gauss et décomposition en carrés de Gauss. D'accord, il y a pas mal de parenté, mais ce n'est tout de même pas la même chose.
Dom
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
En effet, c’est une « réduction de Gauss ».
GaBuZoMeu l’a dit, on « complète le carré ».

En gros, la réduction de Gauss est une réduction juste affine des formes quadratiques, non ?
Elle ne distingue pas les ellipses par exemple si je ne dis pas de bêtise.
Elle « ne donne que » la signature (Sylvester).



Edité 1 fois. La derni&egrave;re correction date de il y a deux mois et a &eacute;t&eacute; effectu&eacute;e par AD.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
Je n'ai pas tout suivi mais puisque Florent a demandé au moins à un endroit, voilà comment j'aurais complété "ma" solution (à vous de voir si c'est "pareil" ou pas que le reste) : pour montrer que $f$ est surjective on peut supposer au contraire que son image est incluse dans un hyperplan, auquel cas les formes $f_i$ satisfont l'équation de cet hyperplan, il en est donc de même des $e_i$ : absurde. Donc $f$ est surjective

"Mathematics, rightly viewed, possesses not only truth, but supreme beauty"-Russell
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
@Maxtimax $ F \times F^\perp \to F+F^\perp \subset E$ est injectif puisque $F \cap F^\perp = \{0\}$.

Soit $v \in E, \not \in F \oplus F^\perp $, comme ta fonction $f$ est surjective il existe $x \in F$ tel que $f(x) =f(v)$ donc $f(v-x)=0$ donc $v-x \in \ker(f)= F^\perp$ et $v = x +(v-x) \in F \oplus F^\perp$.

Donc $F \times F^\perp \to E$ est surjective et $E = F \oplus F^\perp $

C'est comme ça que tu comptes utiliser $f$ ? Ou tu fais un truc avec les dimensions, ou ?



Edité 1 fois. La derni&egrave;re correction date de il y a deux mois et a &eacute;t&eacute; effectu&eacute;e par reuns.
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
@reuns : tu peux aussi faire comme ça; moi je pensais initalement à faire un truc de dimensions (théorème du rang : par surjectivité on connait le rang donc la dimension du noyau, qui est $F^\bot$, et donc on sait quelle est la dimension de $F\oplus F^\bot$

"Mathematics, rightly viewed, possesses not only truth, but supreme beauty"-Russell
Re: Supplémentaire orthogonal, sans Gram-Schmidt
il y a deux mois
On a les résultats généraux suivants; le cas des produits scalaires réels et espaces euclidiens en est un cas particulier.

Soit $K$ un corps, $E$ un $K$-espace vectoriel, $\varphi:E^2\to K$ une forme bilinéaire symétrique (*).
Dans la suite, $q(x)$ abrégera $\varphi(x,x)$.

1°) Soit $v\in E$ tel que $q(v)\neq 0$. Alors $E$ est la somme directe de $Kv$ et de l'orthogonal $Kv^{\perp \varphi}$ de $Kv$ pour $\varphi$.
En effet, pour tout $u\in Kv \cap Kv^{\perp \varphi}$, on a $u=\lambda v$ pour un certain $\lambda\in K$ et si $\varphi(u,v)=0=\lambda \varphi(v,v)$ alors $\lambda=0$ puisque par hypothèse $q(v)=\varphi(v,v) \neq 0$ et donc $u=0$.
Soit maintenant $x\in E$. Alors $x = x - \frac{\varphi(x,v)}{q(v)}v + \frac{\varphi(x,v)}{q(v)}v$, et $x - \frac{\varphi(x,v)}{q(v)}v \in Kv^{\perp \varphi}$ (car $\varphi \left ( x - \frac{\varphi(x,v)}{q(v)}v , v \right ) = \varphi(x,v) - \frac{\varphi(x,v)}{q(v)}q(v) = 0$) et donc $x\in Kv + Kv^{\perp \varphi}$.

En fait on constate que les applications $Pv: x \mapsto \frac{\varphi(x,v)}{q(v)}v$ et $Q_v: x \mapsto x - \frac{\varphi(x,v)}{q(v)}v$ sont respectivement les projections orthogonales sur $Kv$ et $Kv^{\perp \varphi}$ et que pour que de telles applications existent, il suffit que $\varphi(v,v) \neq 0$.

2°) Si $K$ est de caracéristique différente de $2$, tout espace vectoriel de dimension finie sur $K$ muni d'une forme bilinéaire symétrique admet une base orthogonale pour cette forme.
Par récurrence large sur la dimension: soit $(E,\varphi)$ un tel couple. On note à nouveau $q:x\mapsto \varphi(x,x)$.
-Si $q$ est identiquement nul, $\varphi$ aussi car pour tous $x,y$, $\varphi(x,y)=\frac{1}{2}\left ( q(x+y) - q(x) - q(y)\right )$. Dans ce cas une base quelconque de $E$ est orthogonale et il en existe.
-Sinon, il existe $v \in E$ tel que $q(v)\neq 0$. D'après 1°), $E$ est somme directe de $Kv$ et de son orthogonal $Kv^{\perp \varphi}$. Par hypothèse de récurrence, comme $dim \left (Kv^{\perp \varphi} \right ) < dim(E)$, il existe une base orthogonale $(w_1,w_2,w_3...)$ sur $Kv^{\perp \varphi}$. Par construction, $(v,w_1,w_2,w_3...)$ est une base orthogonale de $E$.

3°) Les notations et hypothèses sont celles de 1°). Soit $F\subseteq E$ un sous-espace vectoriel de dimension finie tel que la restriction de $\varphi$ à $F$ est non dégénérée (i.e. pour tout $z\in F$, si pour tout $y\in F$, $\varphi(z,y)=0$ alors $z=0$). Alors $F$ est le supplémentaire de son orthogonal $F^{\perp \varphi}$ pour $\varphi$.
On considère d'après 2°), une base $(v_1,...,v_n)$ orthogonale de $F$ pour la restriction à $F$ de $\varphi$. Il n'existe aucun $k\in \{1,...,n\}$ tel que $q(v_k)=0$ sans quoi, on aurait pour tout $x\in F$ ($x=\sum_{i=1}^n \alpha_i v_i$ dans cette base), $\varphi(v_k,x)=\sum_{i=1}^n \alpha_i \varphi(v_k,v_i)=0$ et donc $v_k=0$ (non dégérescence) ce qui est impossible (base). Un calcul similaire montre que tout vecteur $u\in E$ tel que pour tout $i\in \{1,...,n\}$, $\varphi(u,v_i)=0$ est orthogonal à $F$.
Le reste de la preuve est similaire à ce qui est fait en 1°):
-Pour tout $y\in E$, si $y\in F \cap F^{\perp \varphi}$ alors, $y=\sum_{i=1}^n \beta_i v_i$, et pour tout $j$, $0=\varphi(y,v_j)= \beta_j \varphi(v_j,v_j)$ avec $\varphi(v_j,v_j) \neq 0$ et donc $\beta_j =0$ et donc $y=0$.
Pour tout $x\in E$, $x= x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i + \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i$ et on peut vérifier que pour tout $j\in \{1,...,n\}$, $\varphi \left (x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i,v_j \right ) = \varphi (x,v_j )- \frac{\varphi (x,v_j)}{q(v_j)} q(v_j) = 0$ et donc que $x - \sum_{i=1}^n \frac{\varphi(x,v_i)}{q(v_i)} v_i \in F^{\perp \varphi}$.

(*) c'est le cadre usuel. Pas envie de parler d'orthogonal à gauche et à droite.



Edité 3 fois. La derni&egrave;re correction date de il y a deux mois et a &eacute;t&eacute; effectu&eacute;e par Foys.
Seuls les utilisateurs enregistrés peuvent poster des messages dans ce forum.

Cliquer ici pour vous connecter

Liste des forums - Statistiques du forum

Total
Discussions: 137 360, Messages: 1 329 719, Utilisateurs: 24 412.
Notre dernier utilisateur inscrit Rita09.


Ce forum
Discussions: 17 310, Messages: 167 872.

 

 
©Emmanuel Vieillard Baron 01-01-2001
Adresse Mail:

Inscription
Désinscription

Actuellement 16057 abonnés
Qu'est-ce que c'est ?
Taper le mot à rechercher

Mode d'emploi
En vrac

Faites connaître Les-Mathematiques.net à un ami
Curiosités
Participer
Latex et autres....
Collaborateurs
Forum

Nous contacter

Le vote Linux

WWW IMS
Cut the knot
Mac Tutor History...
Number, constant,...
Plouffe's inverter
The Prime page