Clarifications sur l'orthogonalité

Je me replonge un peu dans les histoires d'orthogonalité. C'est vraiment le "point noir" de mon cours d'algèbre linéaire, tout le reste ça va. Même dans mon livre, j'ai du mal à comprendre certaines choses, vu comment c'est présenté.

Alors. La situation de départ, c'est deux espaces vectoriels $E$ et $F$ (de dimensions quelconques) sur un corps commutatif $K$ quelconque, et une forme bilinéaire quelconque $\varphi : E \times F \longrightarrow K$.

Si $x \in E$ et $y \in F$, on écrit $x \bot y$ quand $\varphi(x,y)=0$.

Si $A \subseteq E$ resp. si $B \subseteq F$, on définit $A^{\bot} := \{y \in F \mid \forall x \in A : x \bot y\}$ resp. $B^{\bot} := \{x \in E \mid \forall y \in B : x \bot y\}$.

Ensuite : toujours si $A \subseteq E$ et $B \subseteq F$, on dit que "$B$ est orthogonal à $A$" lorsque $B \subseteq A^{\bot}$. Cependant, on ne note $A \bot B$ que quand $E=F$, $\varphi$ est symétrique ou antisymétrique, et $A$ et $B$ sont des sous-espaces vectoriels de $E$ qui sont en somme directe et orthogonaux (sachant que dans ce cas, il est impossible que l'un soit orthogonal à l'autre sans que l'autre soit également orthogonal à l'un).

Première question : n'y a-t-il, dans le cas général, aucune autre notation "standard" pour "$B$ est orthogonal à $A$" que la notation $B \subseteq A^{\bot}$ ? Avez-vous déjà rencontré des auteurs qui écrivent ça $A \bot B$ ? Moi, il me semble que oui :-S mais mon cerveau essaie d'oublier mes années étudiantes...

Deuxième question : y a-t-il une différence entre $B \subseteq A^{\bot}$ et $A \subseteq B^{\bot}$ ? Pour moi, les deux signifient : $\forall x \in A$, $\forall y \in B$ : $x \bot y$. Je commence à m'embrouiller car mon livre fait une remarque : quand $E=F$, on peut avoir $x \bot y$ sans avoir $y \bot x$. Du coup, je veux savoir s'il y a une différence entre "$A$ est orthogonal à $B$", "$B$ est orthogonal à $A$" et "$A$ et $B$ sont orthogonaux" dans le cas général.

Merci.
«1

Réponses

  • Je vais suivre ce fil avec intérêt.

    Une remarque : de mémoire, dans mon cours, on avait deux notations pour distinguer l’orthogonal d’une partie de E et l’orthogonal d’une partie de F.
  • Dans un cadre général, que signifie $y\perp x$ ? On voudrait que ce soit $\varphi(y,x)=0$ mais $\varphi$ n'est a priori pas définie sur $F\times E$. Alors ?

    Si $E=F$, cela a un sens. Si on ne suppose pas que $\varphi$ soit symétrique ou antisymétrique, alors il n'y a pas équivalence entre $\varphi(x,y)=0$ et $\varphi(y,x)=0$. Prenant par exemple, sur $\R^2$, identifié aux matrices réelles $2\times1$, \[\varphi(x,y)=x^{\mathsf{T}}Ay\quad \text{où}\ A=\begin{pmatrix}1&1\\0&1\end{pmatrix},\] on a $\varphi(e_1,e_2)=1$ et $\varphi(e_2,e_1)=0$ (avec $e_1=\begin{pmatrix}1&0\end{pmatrix}^{\mathsf{T}}$ et $e_2=\begin{pmatrix}0&1\end{pmatrix}^{\mathsf{T}}$).
  • Tout ça, je suis d'accord.

    Mais : si $E \neq F$, peut-on avoir $A$ orthogonal à $B$ sans que $B$ soit orthogonal à $A$ ?
  • En effet, ma réponse est hors sujet.
  • Elle sera en-sujet quand on aura clarifié le cas $E \neq F$, qui est moins confus (je trouve) puisque $\varphi$ ne peut pas avoir de type de symétrie quand $E \neq F$.
  • La réponse n'est pas hors-sujet du tout.

    En fait il vaudrait mieux avoir deux notations : $A^\bot$ et $^\bot B$. Dans ce cas-là, $B\subset A^\bot \iff A\subset ^\bot B$ et la question ne se pose pas.

    On pourrait parler d'orthogonalité "à droite" ou "à gauche" pour clarifier etc.
    Mais du coup la question "peut-on avoir $A$ orthogonal à $B$ sans l'inverse" ne se poserait pas ici, puisque "$A$ est orthogonal à gauche à $B$ si et seulement $B$ est orthogonal à droite à $A$".

    La notion d'orthogonalité, sans préciser de "sens", est un peu bizarre si la forme n'est pas (anti)symétrique et sur $E$.
  • C'est ce qu'ils font dans mon bouquin, ça ne prête pas à confusion tant que $E \neq F$, mais justement, dès qu'on va prendre $E=F$ ça devient compliqué. Alors autant changer de notation pour le cas général, moi ça me va très bien.
  • Je vais adapter un exemple de mon bouquin : on prend $E=F=\mathbb{R}^2$ dont on note la base $\big((1;0),(0;1)\big)$, on regarde $\varphi : \big((x_1,x_2);(y_1,y_2) \big) \longmapsto x_1 y_2$ et on regarde "l'orthogonal de $\mathbb{R}(1;0)$".

    $\big(\mathbb{R}(1;0)\big)^{\bot} = \{(y_1,y_2) \in \mathbb{R}^2 \mid \forall x \in \mathbb{R} : xy_2=0 \} = \mathbb{R}(1;0)$

    ${}^{\bot}\big(\mathbb{R}(1;0)\big) = \{(x_1,x_2) \in \mathbb{R}^2 \mid \forall x \in \mathbb{R} : 0x_1=0 \} = \mathbb{R}^2$
  • Pourquoi ça devient compliqué si $E=F $ ? Je ne vois pas ce qui est problématique, vu que comme ton exemple le montre, les deux notions d'orthogonalité sont différentes.
  • Oui, alors, même quand $E=F$, même si $\varphi$ est bilinéaire quelconque, l'équivalence $B \subseteq A^{\bot} \Longleftrightarrow A \subseteq {}^{\bot}B$ tient toujours.

    La question que je me pose, c'est si/quand $B \subseteq A^{\bot} \Longleftrightarrow A \subseteq B^{\bot}$ est vraie. EDIT : pour clarifier, je veux savoir quand je dois faire attention aux notations ambigües de mon bouquin, et quand je peux être tranquille.
  • Si $E=F$ :

    $B^{\bot} = \{y \in E \mid \forall x \in B : \varphi(x,y)=0\}$

    ${}^{\bot}B = \{x \in E \mid \forall y \in B : \varphi(x,y)=0\}$

    Donc quand $\varphi$ est symétrique/antisymétrique, on a $B^{\bot} = {}^{\bot}B$.
  • Oui pour ta première phrase.

    Pour la seconde, elle n'a de sens que si $E=F$ (j'imagine que tu en as conscience). Dans ce cas on est rarement confronté à la question (on regarde plus souvent des trucs (anti)symétriques); mais j'avoue que je ne sais pas y répondre, je sais pas s'il y a une caractérisation sympa.

    De tête c'est équivalent à $\forall x,\forall y, \varphi(x,y) = 0\iff \varphi(y,x) = 0$. Mais a priori il n'y a pas de raison que ça implique la symétrie ou l'antisymétrie. (par exemple tu prends $\varphi$ symétrique sur $E$, $\psi$ antisymétrique sur $F$, et ensuite tu étends orthogonalement à $E\oplus F$, alors la forme que tu obtiens n'est ni symétrique ni antisymétrique, mais pourtant elle satisfait la propriété)
  • Bonjour.

    Si $\varphi$ était vraiment quelconque, on pourrait prendre $\varphi=0$. Et alors ???


    Cordialement, Pierre.
  • Maxtimax : Oui, la deuxième équivalence n'a de sens que si $E=F$, mais ça ne veut pas dire qu'elle est vraie tout le temps dès que $E=F$, c'est pour ça que je posais la question. Heureusement, dès que $\varphi$ est symétrique/antisymétrique, elle est vraie, donc je devrais pouvoir utiliser le cours de mon bouquin sans devoir prendre de pincettes à chaque phrase.

    Pour trouver une caractérisation complète des formes bilinéaires sur $E$ qui vérifient la deuxième équivalence, effectivement, c'est une autre paire de manches. Mais en fin de compte, je n'en ai pas besoin, donc inutile de se torturer à en chercher une (sauf si vous avez vraiment envie :-D).

    J'aurai probablement d'autres questions sur le thème de l'orthogonalité prochainement.
  • Bon, alors, la suite : les groupes orthogonaux. Voyons voir si ce que je crois savoir est vrai :

    Pour un corps $K$ donné, un $K$-espace vectoriel $E$ donné, et une forme quadratique $q$ sur $E$ donnée, $O(E,q)$ est l'ensemble des éléments $f \in GL(E)$ tels que $q \circ f = q$. A toute forme quadratique correspond une unique forme bilinéaire symétrique, la forme dite "polaire".

    Lorsque $E=K^n$, on dispose d'une forme quadratique "standard" $\overline{q}(x_1,...,x_n) = \displaystyle \sum_{k=1}^n x_k^2$. Le groupe $O(K^n, \overline{q})$ est en général noté $O_n(K)$.
    Les groupes orthogonaux sur un espace de dimension finie sont toujours isomorphes à celui-là.
    Ils sont aussi isomorphes aux groupes de matrices orthogonales, dont je ne veux pas parler tout de suite.

    Je sais aussi que si $K$ est de caractéristique $2$, il y a des problèmes, mais je ne sais pas lesquels ni pourquoi. Quelqu'un peut m'expliquer ? J'ai du mal à voir quel est le problème avec les $2x=0$ quand on s'intéresse à des carrés...
  • Attention le passage forme quadratique $\rightarrow$ forme polaire nécessite d'être en caractéristique différente de $2$ puisqu'on divise par $2$ pour la définir.

    Et dans ton message on dirait que tu ignores qu'il existe d'autres formes quadratiques non équivalentes à celle que tu appelles standard, et qui ont notamment des groupes orthogonaux différents.

    Par exemple dans $\mathbb R^n$, une forme quadratique est déterminée par son rang et sa signature. En particulier, les formes quadratique $x \mapsto \sum_{k=1}^n x_i^2$ et $x \mapsto \sum_{k=1}^{n-1} x_i^2 - x_n^2$ ne sont pas équivalentes, et définissent des groupes orthogonaux distincts ($O_n(\mathbb R)$ ou $O(n)$ et $O(n-1, 1)$).
  • Salut Homo Topi,
    Si $(e_i)$ est une base d'un $K$-ev $E$ de dimension finie et $q$ est une forme quadratique sur $E$, alors la seule forme bilinéaire symétrique qui induit $q$ est telle que $b(e_i,e_j)=\frac12(q(e_i+e_j)-q(e_i)-q(e_j))$ (par analyse-synthèse). Donc en caractéristique $2$ on a un problème.
  • Comme dit je savais qu'il y a un problème avec la caractéristique $2$, je ne savais juste pas lequel.

    Et : donc il est faux de dire que tous les groupes orthogonaux en dimension finie sont isomorphes à celui que j'ai appelé "standard", c'est bien ça ?

    EDIT : je sais bien qu'il y a une classification des formes quadratiques. Mais dans mes cours, il n'est fait aucun retour sur les groupes orthogonaux après. Donc en principe, à isomorphisme près, il y a "un groupe orthogonal par signature", c'est ça ?
  • Si tu veux, tu peux regarder les deux derniers chapitres du cours d'algèbre 1 (L3) d'Antoine Ducros à l'ENS. Je trouve qu'il est de bonne qualité. Il part sans prérequis sur les forums quadratiques et démontre des choses intéressantes comme la décomposition non dégénérée $\oplus$ totalement isotrope, la décomposition anisotrope $\oplus$ plans hyperboliques, classification des formes quadratiques réelles, classification des formes quadratiques sur un corps fini, etc.
  • ([ Digression par rapport à une remarque de HT]

    De manière plus générale, tu dis "quel est le problème avec $2x=0$ puisqu'on s'intéresse à des carrés ?" - la raison "plus profonde" et qui revient à d'autres endroits que celle-là, notamment pour résoudre des équations du second degré, est que si tu dérives le polynôme $X^2$ tu obtiens $2X = 0$ en caractéristique $2$.
    Ou encore, vu autrement (mais c'est le même phénomène), $(x+y)^2 = x^2+2xy+y^2 = x^2+y^2$. Donc la caractéristique $2$ a un gros rapport avec les carrés ! Au même titre que si tu t'intéresses à des machins mis à la puissance $p$, il faudra faire gaffe à la caractéristique $p$ (c'est là que tu risques de trouver des problèmes de séparabilité en théorie de Galois, de lissité en géométrie algébrique, ...)

    [fin de la digression] )
  • @Homo Topi : soit $K$ un corps de caractéristique différente de $2$. Deux formes quadratiques $q$ et $q'$ sur $K^n$ sont dites équivalentes lorsqu'il existe un automorphisme de $K^n$ tel que $q'=q \circ f$. Autrement dit, $GL(K^n)$ agit sur l'ensemble des formes quadratiques via la formule ci-dessus. Deux formes quadratiques sont équivalentes lorsqu'elles sont dans la même orbite.

    Un résultat facile et standard de théorie des groupes te dit que les stabilisateurs de deux éléments d'une même orbite sont conjugués (on aurait pu le vérifier à la main, c'est vraiment immédiat). Dans ce contexte, le stabilisateur de $q$ n'est rien d'autre que le groupe orthogonal associé à $q$, souvent noté $O(q)$. Tout ça pour dire que deux formes quadratiques équivalentes ont des groupes orthogonaux conjugués dans $GL(K^n)$, en particulier isomorphes.

    Tu devrais lire l'excellent Histoires hédonistes de groupes et de géométrie de Philippe Caldero et Jérôme Germoni pour développer ce genre d'idées, c'est vraiment un must.
  • Je sais que $(x+y)^p = x^p + y^p$ en caractéristique $p$, mais je ne voyais pas en quoi ça posait problème avec la définition de formes quadratiques... bon, ça pose problème pour leur associer une forme polaire, donc toute la théorie de l'orthogonalité tombe à l'eau, et ça c'est sûr que c'est un problème.

    J'ai retrouvé dans mon livre une notion de formes quadratiques équivalentes : deux formes quadratiques $q$ et $q'$ sur $E$ sont équivalentes quand il existe $u \in GL(E)$ tel que $q'=q\circ u$.

    La question immédiate à se poser, et qui est sans réponse dans mon cours, est : y a-t-il équivalence entre $O(E,q) \simeq O(E,q')$ et "$q$ et $q'$ sont équivalentes" ?

    EDIT : Poirot m'a répondu pendant que j'écrivais ça.
  • @Homo Topi : En tant que groupes abstraits, il pourrait se passer des trucs rigolos (tu sais que $\mathbb{R}$ et $\mathbb{R}^2$ sont isomorphes en tant que groupes ?). En tant que groupes topologiques, je miserai un petit peu d'argent dessus.
  • J'ai entendu 2-3 fois que $(\mathbb{R},+)$ et $(\mathbb{R}^2,+)$ sont isomorphes (et $(\mathbb{C},+)$ aussi, j'imagine), mais je ne sais pas le démontrer.
  • @GA : Je crois que me souvenir qu'une classification est faite dans le Caldero-Germoni cité plus haut à l'aide de décomposition polaire et autres joyeusetés. Je vais essayer de mettre la main dessus.
  • @Homo Topi : Ben ce sont des $\mathbb{Q}$-espaces vectoriels. De quelle dimension sont-ils (tu aimes l'axiome du choix :-D ?) ?
  • @Homo Topi : c'est une histoire d'axiome du choix encore une fois :-D

    Bon c'est clair $(\mathbb R^2, +)$ et $(\mathbb C, +)$ sont isomorphes. Pour $\mathbb R$ et $\mathbb R^2$, on prend une $\mathbb Q$-base dans les deux cas, et on montre que ces $\mathbb Q$-bases ont même cardinal. À partir d'une bijection entre ces $\mathbb Q$-bases on construit facilement un isomorphisme de $\mathbb Q$-espaces vectoriels, et en particulier un isomorphisme de groupes.
  • L'axiome du choix... ça dépend. Je m'en suis servi pour comprendre les démonstrations de quelques résultats intéressants (théorème de la base incomplète en dimension infinie, je dois encore bosser une preuve du théorème de Krull, existence d'une mesure de Haar sur les groupes localement compacts - bien qu'apparemment ça marche sans AC...) mais je n'irais pas jusqu'à dire que je suis à l'aise avec.

    Pour en revenir au sujet : d'après Poirot, deux formes quadratiques $q$ et $q'$ équivalentes donnent des groupes orthogonaux $O(E,q)$ et $O(E,q')$ isomorphes. La réciproque est fausse ?
  • La réciproque est complètement fausse : tu prends $q(x) = \sum_i x_i^2$ et $q'(x)=-\sum_i x_i^2$ sur $\mathbb R^n$ par exemple. Il est clair que $q\circ f = q$ si et seulement si $q'\circ f = q'$ donc $O(\mathbb R^n, q) = O(\mathbb R^n,q')$ en tant que sous-groupes de $GL(\mathbb R^n)$, pour autant il n'y aura jamais de $u$ tel que $q\circ u = q'$ (le terme de droite a des valeurs négatives, celui de gauche des valeurs positives)
  • Je n'ai pas la réponse, mais a priori ce n'est pas une question facile. Distinguer à isomorphisme près des groupes non dénombrables ce n'est pas toujours facile, d'autant que des bizarreries peuvent se produire comme avec les $\mathbb R^n$, il est souvent plus facile et plus naturel de les distinguer en tant que groupes topologiques, ou groupes de Lie, ou groupes algébriques par exemple.
  • J'ai bien compris la question et je voulais dire que je ne savais pas et que je pensais que ce n'était pas évident que ce soit vrai, si, quand tu écris "isomorphes" tu entends "isomorphes en tant que groupes abstraits", mais que par contre j'y croyais si par "isomorphes" tu entends "isomorphes en tant que groupes topologiques". En effet, la dimension réelle n'est déjà pas "capturée" par la structure de groupe abstrait de $\mathbb{R}$ et donc ça ne m'étonnerait pas que pour les groupes orthogonaux, il puisse y avoir des isomorphismes quand même.
  • @Maxtimax : tout bêtement :-D Plus généralement on doit avoir $O(p,q)$ isomorphe à $O(q,p)$.

    Mais qu'en est-il du cas général ?
  • Oups, bon ben Maxtimax, tu me ridiculises un peu, sur ce coup-là :-D !
  • Le débat avance tout seul ici :-D

    Bon : d'après ce que Maxtimax vient de dire, on peut avoir deux groupes orthogonaux isomorphes ("juste" en tant que groupes) sans que les formes quadratiques soient équivalentes, du coup c'est effectivement intéressant de voir pour quelle structure il y a équivalence entre l'équivalence des formes quadratiques et l'isomorphisme de structure. J'ai d'abord posé la question en pensant juste à un isomorphisme "purement algébrique" de groupes, parce qu'au vu des questions que je me pose, ça ne me paraissait pas malin de m'aventurer directement dans des trucs compliqués. Mais s'il y a une réponse dans les trucs compliqués, c'est tout de même intéressant.
  • Ben, là, l'isomorphisme de Maxtimax est tout ce que tu veux, vu que c'est l'identité !
  • Poirot : j'avoue que je ne connais pas le cas général, même sur $\mathbb R$. On a effectivement $O(p,q) = O(q,p)$, et il me semble que si on s'intéresse à la structure topologique/différentiable (c'est équivalent pour des groupes de Lie), on peut récupérer $\{p,q\}$ à partir de $O(p,q)$, mais j'avoue que je ne sais plus comment (c'est possible qu'on puisse même le récupérer à partir juste de la variété, sans mot dire sur la structure de groupe, mais là vraiment je m'avance sur une zone que je ne connais pas)

    Déjà on peut distinguer $O(n)$ du reste : il est compact, alors que $O(p,q)$ ne l'est pas dès que $p,q>0$.


    En tant que groupes abstraits....
  • Ben oui, c'est l'identité, mais ses deux formes quadratiques ne sont pas équivalentes, justement.

    Je pose ma question plus précisément, c'est peut-être ça le problème : existe-t-il une structure telle que la proposition suivante soit vraie ?

    $q$ et $q'$ sont équivalentes $\Longleftrightarrow$ il existe un isomorphisme de [structures] $\varphi : O(E,q) \longrightarrow O(E,q')$


    Si on remplace [structures] par "groupes", l'exemple de Maxtimax nous dit que c'est faux, il y a un sens qui ne marche pas. Mais peut-être que pour "groupes topologiques", ça marche ?
  • Ben, si l'identité est un morphisme pour [structure], alors la réponse est non. Si tu veux "éliminer" le contre-exemple de Maxtimax, tu peux élargir la condition d'équivalence comme ça : $q$ et $q'$ sont équivalentes s'il existe $\lambda \in \mathbb{R}^*$ et $u \in GL(E)$ tel que $q' \circ u = \lambda \cdot q$ et là, la réponse n'est pas écrite dans ce fil pour l'instant.

    EDIT : Poirot et moi, on a dit : "oulalalala mais groupes abstraits ça pourrait être compliqué" et Max a dit "ben déjà il y a un plus gros problème que la rigidité de la structure parce que ces deux formes quadratiques non équivalentes ont le même groupe orthogonal".
  • HT : ce que Georges voulait dire par rapport à l'identité, c'est que c'est évidemment un isomorphisme de groupes de Lie, donc en particulier si ta structure ne consiste pas en "rajouter la donnée de $q$ à mon groupe", il y a peu de chances que ça marche (toutes les structures "héritées" de $GL(\mathbb R^n)$ seront les mêmes !)
  • D'accord.

    Ces histoires vont un peu vite pour moi, parce que dans mes cours, il n'y a pas grand-chose. Il y a des théorèmes sur les formes quadratiques (dont les histoires de classification) mais pas vraiment de lien avec les groupes orthogonaux "quelconques", le seul qui est vraiment étudié en détail est le groupe orthogonal que j'ai qualifié de "standard".

    Mais oui du coup la question de savoir à quelle condition exactement deux groupes orthogonaux sont isomorphes ou pas en tant que groupes abstraits/topologiques/de Lie, il va falloir réfléchir un peu, et c'est peut-être un peu trop pour moi en ce moment.
  • (à rajouter qu'on a été particulièrement sympa pour le moment puisqu'on a considéré que des formes quadratiques non dégénérées :-D mais à la limite ça je pense qu'on peut s'en sortir puisqu'une équivalence doit préserver la partie totalement isotrope, et que ça doit faire sortir un $GL_n$ qui doit être repérable à l'oeil nu sur le groupe - mais même ça je suis pas entièrement sûr... en fait je crois qu'avec un argument de diagonalisation on doit pouvoir déjà retrouver la taille de l'espace sur lequel est défini la forme... )
  • Dans le Caldero-Germoni, on donne un homéomorphisme $$O(p,q) \simeq O(p) \times O(q) \times \mathbb R^{pq},$$ obtenu en utilisant la décomposition polaire.
  • Poirot : j'imagine que si tu insistes sur homéomorphisme, c'est qu'il n'y a pas d'isomorphisme de groupes ?

    Je n'ai pas le temps d'y réfléchir là tout de suite (j'y reviendrai ce soir) mais il me semble que cet homéo suffit, en fait on doit pouvoir montrer qu'on peut retrouver $p,q$ à partir du type d'homotopie de $O(p)\times O(q)$ (mais je ne suis pas sûr, d'où le fait que j'y reviendrai)
  • Effectivement il s'agit seulement d'un homéomorphisme, pas d'un isomorphisme de groupes (topologiques) (et bien sûr on prend $p \neq 0, q \neq 0$). Ils en déduisent par contre un isomorphisme $$O(p,q) \simeq SO_0(p, q) \rtimes (\mathbb Z/2\mathbb Z)^2,$$ où $$SO_0(p,q) = \{\begin{pmatrix}A&B\\C&D\end{pmatrix} \in SO(p,q) \mid A \in \text{GL}_p(\mathbb R^+)\}$$ est la composante connexe de l'identité, en utilisant le fait qu'il y a quatre composantes connexes.
  • Je reviens ici avec tout un truc qui m'énerve.

    Il y a un paquet de termes que j'ai l'impression d'avoir appris sans y voir très clair : similitudes, isométries, automorphismes orthogonaux/unitaires, etc.

    Rappels pour moi : un espace euclidien, c'est un espace vectoriel réel $E$, de dimension finie, muni d'un produit scalaire quelconque $\langle \cdot \mid \cdot \rangle$. La "norme euclidienne" $\| \cdot \|$ et la "distance euclidienne" d'un espace euclidien sont ceux dérivés de son produit scalaire, pas forcément ceux associés au produit scalaire "standard".

    Alors :

    Une similitude (vectorielle), c'est ça : une application linéaire $\varphi : E \longrightarrow E$, pour laquelle il existe $\alpha > 0$ tel que $\langle \varphi(u) \mid \varphi(v) \rangle = \alpha \langle u \mid v \rangle$ pour tous vecteurs $u$ et $v$ de $E$. Il y a plusieurs autres caractérisations importantes dans le lien.

    Une isométrie (vectorielle), c'est une similitude vectorielle avec $\alpha=1$. Donc c'est un endomorphisme linéaire qui conserve les longueurs.

    A ce stade, j'ai déjà une petite question... on peut définir ça formellement dans n'importe quel espace préhilbertien réel, donc pourquoi cantonner la définition à la dimension finie ? Justement, parce que j'ai trouvé ça :

    Une transformation unitaire est une application linéaire bijective $\phi : E \longrightarrow F$ entre deux espaces préhilbertiens (de dimension quelconque sur $\mathbb{R}$ ou sur $\mathbb{C}$, donc) telle que $\langle \phi(u) \mid \phi(v) \rangle_F = \langle u \mid v \rangle_E$ pour tous vecteurs $u$ et $v$ de $E$. D'après cet article, ce sont des isométries vectorielles, donc il faudrait étendre la définition des similitudes et isométries vectorielles aux espaces préhilbertiens quelconques (et avec un espace de départ et d'arrivée potentiellement différents, aussi).

    Quand une transformation unitaire a le même espace de départ et d'arrivée, on appelle ça aussi un opérateur unitaire (langage de l'analyse fonctionnelle) ou un automorphisme orthogonal. Cependant, dans cet article, ils réservent le nom "automorphisme orthogonal" aux espaces préhilbertiens réels et parlent d'automorphisme unitaire dans le cas complexe.


    Donc j'aimerais savoir si on peut :
    - définir les similitudes vectorielles entre deux espaces préhilbertiens réels potentiellement différents et de dimensions quelconques. Pour le cas complexe, la clause "$\alpha > 0$" semble poser problème
    - faire de même avec les isométries vectorielles

    Dans ce cas-là, on aurait :
    "transformation unitaire" : entre deux espaces préhilbertiens de dimensions quelconques, peu importe que le corps de base soit $\mathbb{R}$ ou $\mathbb{C}$
    "automorphisme orthogonal" : quand l'espace de départ et d'arrivée sont les mêmes, et qu'on est dans le cas réel
    "automorphisme unitaire" : idem mais pour le cas complexe
    ...et "isométrie vectorielle" on oublie, BORDEL. :-X

    Bref aidez-moi à comprendre qu'est-ce qui est quoi.
  • Tu te prends trop le chou, il y a juste plusieurs manières de nommer les mêmes objets. L'usage veut que le mot "unitaire" soit réservé à un contexte purement complexe, donc pour des automorphismes préservant une forme hermitienne.
  • Je ne trouve pas que je me "prends trop le chou".

    J'ai besoin d'un cours précis, avec des notions précises, sinon je m'y perds parce que j'associe les propriétés des objets à leur non, mécaniquement. Si ce n'est pas écrit que ce sont deux noms pour la même chose, je vais croire que ce sont des objets différents, et souvent ce n'est pas écrit.

    Du coup, le groupe orthogonal d'un espace est-il bien le groupe des automorphismes orthogonaux, et le groupe unitaire est-il bien le groupe des automorphismes unitaires ? Je ne le sais honnêtement pas !
  • Bah oui c'est dans le nom !
  • ...mais pas dans les définitions dans mes bouquins, justement ! Sinon je ne demanderais pas de clarifications...
  • D'ailleurs, l'article Wikipédia "groupe orthogonal" ne mentionne pas le terme "automorphisme orthogonal" ailleurs que dans les articles connexes, idem pour le groupe unitaire.

    Ce n'est pas normal d'avoir besoin de ces petites choses-là ?
Connectez-vous ou Inscrivez-vous pour répondre.