Endomorphisme antisymétrique

Bonjour
J'ai un exercice dont le but est de prouver que
PROPRIETE 1 :
la matrice de tout endomorphisme antisymétrique d'un espace euclidien E (l'ensemble de tous ces endomorphismes est noté A(E)) s'écrit sous la forme d'une matrice diagonale en blocs dans une base orthonormé. Avec éventuellement les premiers blocs de la diagonale qui sont nuls puis les autres de la forme $$A_i=\begin{pmatrix}
0 & a_i \\
-a_i & 0
\end{pmatrix}
$$ J'ai réussi à répondre à toutes les questions préliminaires :
1) Montrer que $u \in A(E)$ si et seulement si la matrice de $u$ dans une base orthonormée est antisymétrique (RESOLU)
2)
a) Montrer que $Sp(u) \subset \{0\}$ (RESOLU)
b) Montrer que $(I-u)$ est inversible et que $r=(I+u)(I-u)^{-1}$ est une rotation de $E$ (RESOLU)
c) Montrer que $r+I$ est inversible et donner son inverse en fonction de $u$ puis montrer que $u=(r-I)(r+I)^{-1}$. (RESOLU)
d) Pour $$R_{\theta}=\begin{pmatrix}
\cos(\theta) & -\sin(\theta) \\
\sin(\theta) & \cos(\theta)
\end{pmatrix}
$$ Montrer que $R_{\theta} + I_2 =2\cos(\theta/2)R_{\theta/2}$
puis une relation analogue avec $R_{\theta} - I_2$
On demande l'expression de $A_{\theta}=(R_{\theta} - I_2)(R_{\theta} + I_2)^{-1}$ en fonction de $\tan(\theta/2)$ (RESOLU)

C'est la dernière question qui me pose problème :
e) Conclure

Autrement dit, il faut utiliser tout ce qui vient d'être fait pour prouver la PROPRIETE 1.
Merci de votre aide.

Réponses

  • Que sais-tu des endomorphismes orthogonaux sur un espace euclidien ? Ne connais-tu pas une forme normale qui met ensemble des blocs diagonaux de taille $1$ ou $2$ ? La seule petite difficulté, c'est de montrer qu'il n'y a pas de bloc de taille $1$ et de valeur propre $-1$ dans la matrice réduite de $r$, mais tu as dû la résoudre en 2b (« rotation », ça veut bien dire endomorphisme orthogonal de déterminant $1$ ?). À partir de là, tu peux travailler par blocs en utilisant 2c et 2d.

    NB : une faute de frappe dans l'énoncé de 2c à la fin (trop de $r$, pas de $u$).
  • 1) @Math Coss c'était en effet $u$ à la place de $r$ dans le 2)c)

    Dans le 2)c), on nous a fait prouver que la matrice $A$ associé à $u$ s'écrit forcément sous la forme $A=(R-I)(R+I)^{-1}$ avec $R$ une rotation de $E$

    $R_{\theta}=\begin{pmatrix}

    \cos(\theta) & -\sin(\theta) \\

    \sin(\theta) & \cos(\theta)

    \end{pmatrix}$

    est l'expression de la matrice d'une rotation dans un espace vectoriel de dimension 2

    J'ai montré que $A_{\theta}=(R_{\theta} - I_2)(R_{\theta} + I_2)^{-1}$ donnait bien une matrice antisymétrique.

    Mais pourquoi on n'aurait pas pu raisonner de la même manière avec une rotation dans un espace vectoriel de dimension 3?

    En ce qui concerne la construction d'une matrice dans une base orthonormale, je sais que le coefficient $a_{ij}=<u(e_j);e_i>$ mais après pour trouver la matrice bloc diagonale, je ne vois pas.

    2) le déterminant d'une matrice de rotation est soit $1$ ou $-1$, non?

    3) dans le même devoir, j'ai une suite de polynome $(T_n)_{n \in \mathbb N}$ de $R[X]$ tel que $T_0=1$ et $T_1=X$ et pour tout $n$, $T_{n+2}=2XT_{n+1}-T_n$.

    J'ai réussi à montrer que $T_n(cos(\theta))=cos(n \theta)$ avec $\theta $ réel mais je n'arrive pas à prouver que $T_n$ est l'unique polynôme à vérifier cette relation. c'est un détail qui me dérange, comment faire?

    4) Est-ce que lorsqu'une famille orthogonale est de taille infinie, elle est forcément une base de l'espace vectoriel de dimension infinie d'où elle est issue?

    5) Ensuite j'ai une famille orthogonale $(T_n)$ de $R[X]$ (donc une base de $R[X]$?) qui est la même que en 3)

    J'ai prouvé en dérivant deux fois $T_n(cos(\theta))=cos(n \theta)$ en fonction de $\theta$ que $\phi(T_n)(cos(\theta))=n^2T_n(cos(\theta))$ avec $\phi : P -> (X^2-1)P'' + XP'$.
    Est-ce que je peux conclure que $(T_n)$ est une base orthogonale de $R[X]$ dont les vecteur sont vecteurs propres de $\phi$?

    Le doute que j'ai est que cela n'est vérifié qu'avec la variable $cos(\theta)$ et non pour tout $X \in \mathbb R$ ...
  • 1) On aurait pu mais ça n'aurait pas été utile.

    L'argument de la dernière question (l'as-tu obtenu depuis ?), c'est le suivant. Par le théorème de réduction des endomorphismes orthogonaux, il existe une base de l'espace dans laquelle la matrice de $r$ est diagonale par blocs, où les blocs sont de la forme $\begin{pmatrix}1\end{pmatrix}$, $\begin{pmatrix}-1\end{pmatrix}$ ou $R_\theta$ pour $\theta\in\R$. Comme le déterminant de $r$ vaut $1$ et que le déterminant des blocs $\begin{pmatrix}1\end{pmatrix}$ et $R_\theta$ vaut $1$, il y a un nombre pair $s=2t$ de blocs égaux à $\begin{pmatrix}-1\end{pmatrix}$, que l'on peut regrouper deux par deux pour former $t$ blocs $R_\pi$. Autrement dit, quand $r$ provient d'un endomorphisme antisymétrique $u$, la matrice de $r$ est, dans une base convenable, diagonale par blocs de la forme $\begin{pmatrix}1\end{pmatrix}$ et $R_\theta$ ($\theta\in\R$). Pour conclure, il suffit de constater que l'inverse d'une matrice diagonale par blocs se calcule... par blocs et d'appliquer 2d) à chaque bloc ($2\times2$).

    2) Oui.

    3) S'il existe deux polynômes $T_n$ et $U_n$ tels que $T_n(\cos\theta)=U_n(\cos\theta)$ pour tout réel $\theta$, alors le polynôme $T_n-U_n$ a une infinité de racines (tous les éléments de $[-1,1]$) et donc...

    4) Si $(T_0,T_1,T_2,\dots)$ est une base orthonormée, est-ce que $(T_1,T_2,\dots)$ a des chances d'en être une ?

    5) Même réponse : même dans $\R[X]$, une famille orthogonale n'a pas de raison d'être une base. En revanche, une famille orthogonale échelonnée qui a un polynôme par degré (sans trou), oui.

    5-bis) Comme en 3), le polynôme $\phi(T_n)-n^2T_n$ admet une infinité de racines donc il est nul.
  • 1) Je comprends mieux avec ces explications sauf le regroupement des $(-1)$.
    Mais si je résume, lorsque une rotation est formée à partir d'un endomorphisme $u$ antisymétrique, sa matrice $R$ dans une certaine base orthonormée est avec $(1)$ ou $R_\theta$ en diagonale.
    Par la suite, le calcul matriciel de $u=(r-I)(r+I)^{-1}$ donnera $0$ où il y avait des $1$ dans $R$ et donnera $A_\theta$ où il y avait des $R_\theta$ dans $R$.

    2) merci

    3) merci

    4) 5) Je comprends que l'on ne peut pas généraliser.
    Néanmoins, dans mon cas si $(T_k)$ avec $k$ allant de $0$ à $n \in \mathbb N$ est une famille orthogonale donc libre de $R_n[X]$ alors c'est une base puisque elle possède $n+1$ éléments.
    Si l'on prouve cela pour tout $n \in \mathbb N$ alors $(T_n)_{n \in N}$ est bien une base de $R[X]$ ?

    5) bis) $\phi(T_n)-n^2T_n$ admet une infinité de racines mais juste sur $[-1;1]$. Cela suffit ?

    6) On me demande d'utiliser le théorème de Weierstrass pour prouver que $(\frac{T_n}{||T_n||})$ pour tout entier $n$ est une suite totale de vecteur de l'espace vectoriel des fonctions continues sur $[-1;1]$. Déjà est-ce que ce théorème fonctionne pour toute norme d'un espace euclidien ? Puis comment faire ? (Je pense qu'il faut utiliser le fait que $(\frac{T_n}{||T_n||})$ est une base orthonormée...)
  • 1) Quitte à permuter les vecteurs, on peut changer l'ordre des blocs librement, n'est-ce pas. Une rotation (je comprends « endomorphisme orthogonal de déterminant $1$ ») admet donc une base dans laquelle la matrice est $\mathrm{diag}(1,\dots,1,\underbrace{-1,\dots,-1}_{s\ \text{blocs}},R_{\theta_1},\dots,R_{\theta_m})$ (ici, $s$ est donc le nombre de $-1$). Deux ingrédients :
    • Le déterminant vaut $1$ et c'est le produit des déterminants des blocs diagonaux donc c'est $1=(-1)^s$ donc $s$ est pair.
    • Constat : $\begin{pmatrix}-1&0\\0&-1\end{pmatrix}=R_{\pi}$ (matrice d'une rotation du plan d'angle $\pi$).
    Par conséquent, dans la base précédente, la matrice de $r$ s'écrit $\mathrm{diag}(1,\dots,1,\underbrace{R_\pi,\dots,R_\pi}_{\frac{s}2\ \text{blocs}},R_{\theta_1},\dots,R_{\theta_m})$.

    4) et 5) Oui, dans ce cas, oui — la famille est échelonnée et on a un polynôme de chaque degré. Démonstration possible : elle est libre car orthogonale et elle engendre $\R[X]$ parce que tout polynôme $P$ de $\R[X]$ a un degré fini, disons $n$, et que $P\in\mathrm{Vect}(T_0,\dots,T_n)$ puisque $(T_0,\dots,T_n)$ est une base de $\R_n[X]$.

    5-bis) Le seul polynôme qui a une infinité de racines, c'est le polynôme nul ! Donc si un polynôme admet tout élément de $[-1,1]$ comme racine, il admet tout réel comme racine. Donc oui, cela suffit.

    6) Je ne suis pas sûr de comprendre la question « pour toute norme d'un espace euclidien ». Ici, ce qui se passe, c'est que $(T_n)$ est une base orthonormée de l'espace pré-hilbertien $\R[X]$ et qu'on s'intéresse à une propriété de cette famille $(T_n)$ dans un espace strictement plus gros : ce n'est pas complètement universel comme situation. Pour en mesurer le degré de « généricité », il faudrait faire de l'analyse fonctionnelle – plus tard, sans moi...

    Ce qu'on appelle généralement « théorème de Weierstrass », c'est le fait que toute fonction continue sur un segment peut être approché de façon uniforme par un polynôme. Autrement dit, étant donnée $f:[-1,1]\to\R$ continue, pour tout $\let\eps=\varepsilon\eps>0$, il existe $P\in\R[X]$ tel que $\|f-P\|_\infty\le\eps$, où $\|g\|_\infty=\sup_{x\in[-1,1]}|g(x)|$. C'est bien ça pour toi ?

    Bref, on se donne $f$ continue sur $[-1,1]$ et on veut montrer que la suite des projections orthogonales $P_n$ de $f$ sur $\R_n[X]$ converge vers $f$ au sens de la norme euclidienne. Deux ingrédients pour le faire :
    • pour $g$ continue, $\int_{-1}^1|g|\le2\|g\|_\infty$ ;
    • le fait que pour $P$ polynôme de degré $\le n$, $\|f-P_n\|_2\le \|f-P\|_2$ (car $P_n$ est la projection orthogonale de $f$ sur $\R_n[X]$, elle minimise la distance de $f$ à $\R_n[X]$).
    Hardi !
  • 1) Ok. De toute manière, que la matrice de rotation $R$ ait des $(1)$ ou des $(-1)$ en diagonale, le calcul matriciel de $u=(r-I)(r+I)^{-1}$ donnera forcément des $0$ où il y avait des $(1)$ en diagonale et où il y avait des $(-1)$ en diagonale que le nombre de $(1)$ et de $(-1)$ soit pair ou impair, non ?
    Par contre, quelle est la règle qui dit qu'une matrice de rotation $R$ peut s'écrire d'une telle manière dans une base spécifique ? Et est-ce que cette base est nécessairement orthogonale ?

    4) et 5) merci.

    5-bis) merci.

    6) $(T_n)$ est une base orthogonale de $R[X]$ donc $(\frac{T_n}{||T_n||})$ est une base orthonormale de $R[X]$.

    Dans mon cas, la norme est celle associée au produit scalaire $\displaystyle <f,g>\,=\int_{-1}^{1}\frac{f(t)g(t)}{\sqrt(1-t^2)}dt$
    C'est bien cette version du théorème de Weierstrass.

    Si on peut l'appliquer avec cette norme, alors toute fonction continue sur $[-1;1]$ peut être approchée par une fonction polynôme et puisque $(\frac{T_n}{||T_n||})$ est une base orthonormée de $R[X]$ alors $(\frac{T_n}{||T_n||})$ est une suite totale de l'espace vectoriel des fonctions continues sur $[-1;1]$. Est-ce l'idée ? Manque-t-il des choses ?
  • 1a) Si on laisse un $-1$ qui traîne, c'est embêtant parce que $r+\mathrm{id}$ n'est pas inversible et le calcul de $(r-\mathrm{id})(r+\mathrm{id})^{-1}$ n'est pas possible. Ceci suggère qu'il faut traiter les $R_\pi$ à part d'ailleurs...

    Ou plutôt, il faut montrer avant cela que $-1$ ne peut pas être une valeur propre d'une matrice $r$ de la forme $(\mathrm{id}+u)(\mathrm{id}-u)^{-1}$ avec $u$ antisymétrique. En effet, si pour un vecteur $v$ on a $r(v)=-v$, alors $(\mathrm{id}+u)(v)=-(\mathrm{id}-u)(v)$ donc $2v=0$. Bref, cette histoire de valeur propre $-1$ qu'on traîne depuis des jours est complètement inutile !

    b) Pour réduire à cette forme un endomorphisme orthogonal $r$, c'est le même raisonnement que pour les endomorphismes symétrique (ou normaux, cf. plus bas). Deux clés :
    1. Si un sous-espace $F$ est stable par $r^{-1}$, alors $F^\perp$ est stable par $r$.
    2. Il existe une droite ou un plan stable par $r^{-1}$ dans $E$ (si $\dim E\ge1$).
    Démonstrations :
    1. Soient $v\in F$ et $w\in F^\perp$. On a : $\langle v,r(w)\rangle=\langle r^{-1}(v),w\rangle=0$ car $r^{-1}(v)\in F$ et $w\in F^\perp$.
    2. Le polynôme caractéristique de $r^{-1}$ admet un facteur irréductible de degré $1$ ou $2$, disons $p\in\R[X]$. Mais alors, si $0\ne v\in \ker p(r^{-1})$, l'espace engendré par $(v,r {-1}(v))$ est de dimension $1$ ou $2$ et il est stable par $r^{-1}$ (si $\deg p=1$ alors $v$ est un vecteur propre et c'est clair ; si $\deg p=2$ alors l'égalité $p(r^{-1})(v)=0$ permet d'exprimer $r^{-1}\bigl(r^{-1}(v)\bigr)$ est une combinaison linéaire de $v$ et $r^{-1}(v)$).
    On montre par récurrence sur $n$ que pour tout espace euclidient $E$ de dimension $n$ et tout endomorphisme orthogonal $r$, il existe une base orthonormée de $E$ telle que [...].

    C'est clair si $\dim E=1$ et standard si $\dim E=2$. Soit $n\ge3$, supposons la propriété vraie pour tout espace de dimension $\le n-1$. Fixons $E$ euclidien de dimension $n$ et $r$ orthogonal. On commence par trouver une droite ou un plan $F$ de $E$ stable par $r$, alors $F^\perp$ est stable par $r$. On invoque l'hypothèse de récurrence pour $\dim F$ et pour $\dim F^\perp$, ce qui donne deux bases orthonormées dans lesquelles la matrice de l'endomorphisme induit par $u$ est [...]. La juxtaposition de ces deux bases est une base de $E$ qui convient.

    NB : Un endomorphisme est normal s'il commute avec son adjoint : $rr^*=r^*r$. Pour un endomorphisme symétrique $r$ (resp. orthogonaux), l'adjoint est $r$ (resp. $r^{-1}$). Pour la réduction des endomorphismes normaux, il suffit de reprendre l'argument précédent avec $r^*$ au lieu de $r^{-1}$.

    6) Oui, c'est l'idée. Dans mon message précédent, je me suis trompé de norme (ce n'est pas malin pour quelqu'un qui l'a vue plein de fois, celle-ci !). Il faut remplacer $\mathrm{d}x$ par $\frac{\mathrm{d}x}{\sqrt{1-x^2}}$ et changer la constante $2$ par $\int_{-1}^1\frac{\mathrm{d}x}{\sqrt{1-x^2}}$ (ou son carré, ou sa racine ?). Enfin, le point clé, c'est une inégalité de la forme $\|g\|_{infty}\le C\|g\|_2$ où $\|\cdot\|_2$ est la norme euclidienne associée au produit scalaire que tu as écrit.
Connectez-vous ou Inscrivez-vous pour répondre.