Réduite de Jordan

Bonjour
En fait, j'ai plein de questions à poser autour de la réduite de Jordan.
1) Existe-t-il un "algorithme" (une méthode pratique), pour déterminer une base de Jordan ? (Pour construire la matrice de passage bien sûr).
2) "La taille du plus grand bloc de Jordan associé à une valeur propre = la multiplicité de cette vp dans le polynôme minimal". Comment interpréter ce résultat et comment le démontrer ?
3) "La suite des noyaux itérés est stationnaire à partir d'un certain rang h". Existe-t-il un moyen pour déterminer cet h ?

Je vous remercie d'avance.

Réponses

  • 1) Ça dépend de ce que l'on veut dire. Le problème initial pour une matrice quelconque consiste à factoriser le polynôme caractéristique, ce que l'on ne sait faire en général, disons avec des coefficients réels ou complexes, que de façon approximative.

    Pour une matrice nilpotente, à quoi on se ramène une fois le problème précédent résolu, une méthode est esquissée ici. On peut s'y prendre directement (sans faire appel à une forme linéaire), voir « les livres ».

    2) C'est faux. Exemple : pour la matrice identité (ou nulle), tous les blocs sont de taille $1$ mais la multiplicité est $n$ (qui est en général $>1$).

    3) Eh bien... Dans la mesure où on sait résoudre des systèmes, on sait calculer la dimension de noyaux donc on peut regarder quand deux dimensions successives sont égales.
    Si on dispose d'une base de Jordan pour une matrice $A$, la taille $h$ du plus grand bloc associé à la valeur propre $0$ est le plus petit entier tel que $\dim\ker A^h=\dim\ker A^{h+1}$.
  • Math Coss écrivait:
    > 2) C'est faux. Exemple : pour la matrice identité
    > (ou nulle), tous les blocs sont de taille $1$ mais
    > la multiplicité est $n$ (qui est en général
    > $>1$).
    >
    Je précise qu'il s'agit de la multiplicité dans le polynôme minimal et non pas la multiplicité algébrique.
  • Math Coss écrivait:
    > 1) Ça dépend de ce que l'on veut dire. Le
    > problème initial pour une matrice quelconque
    > consiste à factoriser le polynôme
    > caractéristique, ce que l'on ne sait faire en
    > général, disons avec des coefficients réels ou
    > complexes, que de façon approximative.
    >
    Peut-on utiliser la suite des noyaux itérés pour former la base de Jordan:
    - On part d'un vecteur propre v associé à la valeur propre k ( v appartient à Ker(A-kI))
    - En suite, on choisit un vecteur w appartenat à Ker(A-kI)^2-Ker(A-kI), c-à-d:
    (A-kI)w=v.
    - En continuant cette démarche, on construit une base de l'espace caractéristique associé à K.
    - La base de Jordan sera la réunion de toutes les bases des espaces caractéristiques.
  • Non, ça ne suffit pas.
    $\newcommand{\Id}{\rm Id}$

    Voici la méthode :
    pour tout $\lambda\in{\rm Sp}_K(u)$, on construit un tableau à $r_\lambda$ étages formé de vecteurs de $E$ comme suit. Pour toute valeur propre $\lambda$, on calcule $\ker\bigl((u-\lambda\Id_E),\ker\bigl((u-\lambda\Id_E)^2\bigr),\ldots, \ker\bigl((u-\lambda\Id_E)^{r_\lambda}\bigr).$ Ici, $r_\lambda$ est la plus petite puissance telle que $\ker\bigl((u-\lambda\Id_E)^{r_\lambda}\bigr)$ soit de dimension $m_\lambda,$ où $m_\lambda$ est la multiplicité de $\lambda$ dans le polynôme caractéristique. De plus manière équivalente, $r_\lambda$ est la multiplicité de $\lambda$ dans le polynôme minimal.

    On choisit tout d'abord des vecteurs formant une base d'un supplémentaire de $\ker\bigl((u-\lambda\Id_E)^{r_\lambda-1}\bigr)$ dans $\ker\bigl((u-\lambda\Id_E)^{r_\lambda}\bigr)$, et on les dispose en ligne au dernier étage.
    On applique ensuite $u-\lambda\Id_E$ à ces vecteurs, et on complète cette nouvelle famille en une base d'un supplémentaire de $\ker\bigl((u-\lambda\Id_E)^{r_\lambda-2}\bigr)$ dans $\ker\bigl((u-\lambda\Id_E)^{r_\lambda-1}\bigr)$, que l'on dispose à l'étage du dessous. On répète le procédé jusqu'à obtenir une base de $\ker(u-\lambda\Id_E)$ que l'on dispose au rez-de-chaussée.
    On renumérote ensuite les vecteurs en commençant par parcourir la colonne la plus à droite de bas en haut, puis en recommençant le procédé avec la colonne voisine de gauche, jusqu'à épuisement des colonnes. On recolle alors toutes les familles de vecteurs obtenues ainsi pour chaque valeur propre, et on obtient une base de Jordan de $u$.
  • Pour la multiplicité, je n'ai pas lu assez attentivement, désolé, et j'ai répondu à côté.

    Pour le montrer, il suffit de calculer les puissance d'un bloc de Jordan nilpotent. Étant donné le bloc $J_d$ de taille $d\times d$, la puissance $k$-ième de $J_d$ est la matrice dont tous les coefficients sont nuls sauf ceux de la $k$-ième surdiagonale (les indices $(i,j)$ tels que $j-i=k$). Pour $k\le d-1$, il y a au moins un coefficient non nul ; pour $k\ge d$, un coefficient non nul serait sur une colonne d'indice $j\ge k+1>d$, pas possible en taille $d\times d$. Donc le polynôme minimal de $J_d$ est $X^d$. Variante plus savante : $J_d$ est la matrice compagnon du polynôme $X^d$ et le polynôme minimal d'une matrice compagnon est son polynôme caractéristique.

    Interprétation ? En voici une. Restons avec les matrices nilpotentes, au moins un moment. La taille des blocs de Jordan décrit les invariants de similitude de la matrice (un bloc de taille $d$ donne un invariant égal à $X^d$). Ce résultat exprime que polynôme minimal est le plus grand invariant de similitude (et le polynôme caractéristique est le produit de tous).

    Si on a plusieurs valeurs propres, il faut « recoller les blocs de Jordan » « par tailles décroissantes » pour reconstruire les invariants de similitude à partir de la décomposition de Jordan mais le résultat reste vrai : le dernier invariant de similitude est le polynôme minimal.

    Mais bon, les invariants de similitudes renvoient plutôt à la décomposition de Frobenius qu'à celle de Jordan, les idées ne coïncident pas à part pour les matrices nilpotentes.
  • killersmile38 écrivait : http://www.les-mathematiques.net/phorum/read.php?3,1578444,1578522#msg-1578522
    [Inutile de recopier l'avant dernier message. Un lien suffit. AD]

    Et cet algorithme (cité à la quatrième page de la pièce jointe), qu'en pensez-vous ?
  • Math Coss écrivait : http://www.les-mathematiques.net/phorum/read.php?3,1578444,1578540#msg-1578540
    [Inutile de recopier l'avant dernier message. Un lien suffit. AD]

    Merci pour toutes les réponses et les informations que vous m'avez fournies. Une dernière question:
    Pour des matrices de tailles petites (<6), est-ce que la connaissance du polynôme minimal et la multiplicité géométrique suffisent pour déterminer la forme de Jordan ? (puisque dans tous les exemples que auxquels j'ai été confronté, je suis toujours parvenu à déterminer la réduite de Jordan en déterminant le polynôme minimal et la multiplicité géométrique pour chacune des valeurs propres).
  • Voyons. Le cas où on a le plus d'ambiguïtés possible, c'est quand il n'y a qu'une valeur propre, disons $0$... Le polynôme caractéristique n'apprend rien, c'est $X^{\dim}$. Le polynôme minimal donne la taille du plus grand bloc et la multiplicité géométrique, c'est-à-dire la dimension du noyau, donne le nombre de blocs. Écrivons toutes les partitions de $5$ et vérifions qu'il n'y a pas deux partitions ayant le même nombre de parts et la même plus grande part.
    \[\underbrace{5}_{1\ \text{p.}}=\underbrace{4+1=3+2}_{2\ \text{parts}} =\underbrace{3+1+1=2+2+1}_{3\ \text{parts}}=\underbrace{2+1+1+1}_{4\ \text{parts}} =\underbrace{1+1+1+1+1}_{5\ \text{parts}}.\]
    C'est encore vrai en dimension $6$, on peut distinguer par leur plus grande part les partitions qui ont le même nombre de parts :
    \begin{align*}6&=\underbrace{5+1=4+2=3+3}_{2\ \text{parts}}
    =\underbrace{4+1+1=3+2+1=2+2+2}_{3\ \text{parts}}\\
    &=\underbrace{3+1+1+1=2+2+1+1}_{4\ \text{parts}}
    =\underbrace{2+1+1+1+1}_{5\ \text{parts}}
    =\underbrace{1+1+1+1+1+1}_{6\ \text{parts}}.\end{align*}
    En revanche, en dimension $7$, on a les partitions $3+3+1=3+2+2$ qui définissent des matrices ayant même polynôme minimal $X^3$ et même dimension du noyau égale à $3$.
  • Math Coss
    Une dernière question s'il vous plaît :
    Comment on montre que le nombre de blocs de Jordan relatifs à une valeur propre est exactement la multiplicité géométrique de cette vp. Merci infiniment.
  • Il n'y a qu'à compter. La dimension du noyau (espace propre) d'un bloc de Jordan $J_d$ (ou $J_d(\lambda)$) vaut $1$. Si l'espace se découpe en somme directe de sous-espaces stables, la dimension du noyau est la somme des dimensions des noyaux des restrictions.

    Plus prosaïquement, il n'y a qu'à regarder une matrice nilpotente diagonale par blocs de Jordan : toutes les colonnes non nulles sont linéairement indépendantes puisque les coefficients non nuls sont sur des lignes différentes. Il n'y a qu'à compter les colonnes nulles : il y en a une par bloc.

    Pour la notation, $J_d=J_d(0)$ et $J_d(\lambda)$ est la matrice de taille $d\times d$ suivante :
    \[\let\l=\lambda J_d(\lambda)=\begin{pmatrix}\l&1&0&\cdots&0\\0&\ddots&\ddots&\ddots&\vdots\\
    \vdots&\ddots&\ddots&\ddots&0\\\vdots&&\ddots&\ddots&1\\0&\cdots&\cdots&0&\l\end{pmatrix}.\]
  • Réponse à Daniel.fr : le prétendu "algorithme" décrit dans la pièce jointe n'en est pas un.
    La méthode citée par killersmile38 est en revanche correcte et tout à fait classique.

    Alternativement, il y a une autre méthode expliquée dans mon article paru dans la dernière livraison de la RMS "Sur la réduction des endomorphismes localement nilpotents".
    En deux mots : on construit pour tout entier $k \geq 1$ un supplémentaire de $\mathrm{im} u + \ker u^{k-1}$ dans $\mathrm{im} u +\ker u^k$, on prend une base d'un tel supplémentaire : les vecteurs ainsi obtenus, ainsi que tous les itérés non nuls par $u$, vont permettre de construire des blocs de Jordan de taille $k$, et on peut démontrer qu'en juxtaposant toutes les familles ainsi trouvées (lorsque $k$ prend toutes les valeurs de $1$ à l'indice de nilpotence de $u$) on obtient une base de l'espace de départ.
  • dSP écrivait:
    > Réponse à Daniel.fr : le prétendu "algorithme" décrit dans la pièce jointe n'en est pas un.
    > La méthode citée par killersmile38 est en revanche correcte et tout à fait classique.

    Je crois que les choses deviennent de plus en plus claires pour moi.
    1) Pour une valeur propre k, l'entier h pour lequel la suite des noyaux itérés devient stationnaire n'est autre que la multiplicité de cette valeur propre dans le polynôme minimal.
    2) En lisant à plusieurs reprises les deux méthodes (la méthode décrite dans la pièce jointe et celle donnée par Mr. Killlersmile38), j'ai constaté que dans la première, on construit la base en montant (on part de vecteurs linéairement indépendants de l'espace propre et on essaye de les compléter en une base par des vecteurs de la suite des noyaux itérés- on s'arrête là où la suite stationne), alors que pour la méthode de Killersmille, la construction se fait en descendant (on part de l'espace où la suite stationne puis on descend).
    Pourriez-vous me dire ce qui ne va pas dans la méthode décrite dans la pièce jointe ?
    Merci d'avance :-)
  • Ce qui ne va pas c'est que ce n'est pas une méthode :
    l'auteur ne décrit absolument pas ce qu'il convient de faire une fois
    trouvé (par chance ?) un vecteur dont l'indice de nilpotence local
    coïncide avec l'indice de nilpotence de $u$.
  • Bonjour,
    désolé les matheux, mais je suis revenu pour solliciter votre aide:
    1) Concernant la suite des sauts des dimensions des noyaux itérés, j'aimerais savoir pourquoi elle décroit. Ces sauts de dimensions, est-ce qu'ils ont une interprétation matricielle?
  • @daniel.fr
    Un endomorphisme $u$ d'un espace vectoriel induit par passage aux quotients une INJECTION :
    $$
    \overline u : \ker u^{i+1} /\ker u^i \hookrightarrow \ker u^i / \ker u^{i-1}
    $$
    Je te laisse vérifier cela. Et en principe, cela doit faire ton bonheur. Oui, non ?
  • Il y a aussi l'algorithme amusant de Pittelkow-Runckel pour déterminer une base de "jordanisation"

    lien: http://www.math.bas.bg/serdica/1981/1981-348-353.pdf
  • désolé pour ce retard,
    vous voulez dire que les supplémentaires des noyaux itérés qu'on choisit pour construire une base pour l'espace caractéristique sont des espaces quotient?
  • @daniel.fr
    Tu as posé une question sur la décroissance de la suite des sauts des dimensions des noyaux itérés (d'un endomorphisme nilpotent $u$). Cela fait beaucoup de ``de'', j'en conviens. Et je t"ai répondu sur ce point là. Si tu montres que $\overline u$ est injectif (cf mon post pour la notation), tu obtiendras le fait que la dimension de l'espace de départ de $\overline u$ est inférieur ou égal à la dimension de son espace d'arrivée. I.e. tu obtiendras :
    $$
    \dim \ker u^{i+1} - \dim \ker u^ i \le \dim \ker u^i - \dim \ker u^{i-1}
    $$
    C'est bien ce que tu voulais, non ?
  • $\dim\ker u^{i+1}-\dim\ker u^i$ est la dimension du supplémentaire de $\ker u^i$ dans $\ker u^{i+1}$, ce supplémentaire est exactement l'espace quotient $\ker u^{i+1}/\ker u^i$, n'est-ce pas ?
  • @daniel.fr
    Tu parles ``du'' supplémentaire. Un supplémentaire n'est pas unique. Il faut donc dire $\dim \ker u^{i+1} - \dim \ker u^i$ est la dimension de n'importe quel supplémentaire de $\ker u^i$ dans $\ker u^{i+1}$. Et un tel supplémentaire n'est pas le quotient $\ker u^{i+1} /\ker u^i$ : ces deux espaces ne peuvent pas être comparés au sens de l'égalité. Ce qui est vrai, c'est qu'en notant $\pi_i$ la projection canonique :
    $$
    \pi_i : \ker u^{i+1} \twoheadrightarrow \ker u^{i+1} / \ker u^i
    $$
    alors la restriction de $\pi_i$ à n'importe quel supplémentaire $S_i$ de $\ker u^i$ dans $\ker u^{i+1}$ induit un isomorphisme de $S_i$ sur $\ker u^{i+1} / \ker u^i$, ce qui fait (bis) que :
    $$
    \dim S_i = \dim (\ker u^{i+1} / \ker u^i) = \dim \ker u^{i+1} - \dim\ker u^i
    $$
  • Merci pour la clarification.
  • Je suis de retour les matheux,
    dans l’exemple cité dans la pièce jointe, je n'arrive pas à comprendre pourquoi l'auteur démontre que les vecteurs e4 et e6 sont générateurs d'un supplémentaire de l'espace ker(A-2I) dans ker(A-2I)^2 ( la génération découle de l’indépendance linéaire à mon avis, car {e4, e6} est libre dans ce supplémentaire qui est de dimension 2) . Merci d'avance71354
  • Il prétend démontrer que $(e_4,e_6)$ est libre modulo $Ker(A-2I)$ : il oublie de signaler
    toutefois que $e_4$ et $e_6$ sont bien des vecteurs de $Ker(A-2I)^2$. Comme il a démontré que $Ker(A-2I)^2/Ker(A-2I)$ est de dimension 2, cela lui permet de conclure.
  • En fait, l'auteur s'appuie sur un contre-exemple pour justifier sa démarche:
    Les vecteurs u=(1,0,0,0,0,0) et v=(0,1,0,0,0,0,0) appartiennent à $ Ker(A-2I)^2/Ker(A-2I) $ alors que vect<{u,v}>$ \cap $ker(A-2I) $\neq${0} ( l'intersection de l'espace engendré par u et v avec ker(A-2I) contient autres vecteurs que le vecteurs nul).
  • En tous cas, tout cela n'est pas très algorithmique...
  • Salut,
    concernant l'unicité de la réduite Jordan; elle est unique à "permutation des blocs de Jordan près". Peut-on permuter même les blocs qui correspondent à la même valeur propre? à titre d'exemple:
    les matrices $\left( \begin{array}{cccc} 1 & 1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right)$ et $\left( \begin{array}{cccc} 1 & 0 & 0 \\ 0 & 1 & 1 \\ 0 & 0 & 1 \end{array} \right)$
    sont -en quelque sorte- la même réduite de Jordan d'une matrice M?
  • Oui absolument.
  • En termes de tableaux de Young, cela veut dire que la lecture du tableau se fait de gauche à droite au lieu de lire de droite à gauche? c'est ça?
  • J'aimerais savoir si la connaissance de la suite des noyaux itérés ( la connaissance de la dimension de chaque noyau de la suite) suffit pour former la réduite de Jordan?
  • La dimension des sous-espaces $\ker(u-\lambda id_E)^k, k\geq 1$ pour toute valeur propre $\lambda$ suffit, oui.
  • Pour revenir un peu en arrière, sais-tu trouver un changement de base qui réponde à cette question ? Vois-tu pourquoi les dimensions des noyaux itérés caractérisent la taille des blocs de Jordan ?
  • vous voulez dire les différences des dimensions?
  • Concernant le changement de base, je ne vois aucun changement; mais je vois plutôt un changement de l'ordre des vecteurs dans une même base.
  • La donnée de la suite des dimensions $\bigl(\dim\ker(u-\lambda\mathrm{id}_E)^k\bigr)_{k\in\N}$ détermine la suite des différences $\bigl(\dim\ker(u-\lambda\mathrm{id}_E)^k-\dim\ker(u-\lambda\mathrm{id}_E)^{k-1}\bigr)_{k\in\N}$ et donc si la deuxième détermine quelque chose, la première aussi. (On convient que $\dim(u-\lambda\mathrm{id}_E)^{-1}=0$.)


    Les bases $\mathbf{e}=(e_1,e_2,e_3)$ et $\mathbf{e}'=(e_2,e_3,e_1)$ sont deux bases différentes. Elles ne sont pas « la même base avec un ordre des vecteurs différent ».

    Une base tient compte de l'ordre ; changer l'ordre, c'est changer la base. Plus formellement, une base d'un espace vectoriel $E$ de dimension $n$ est une application $\mathbf{e}$ de $\{1,\dots,n\}$ vers $E$. Changer l'ordre des vecteurs, c'est remplacer $\mathbf{e}$ par $\mathbf{e}\circ\sigma$, où $\sigma$ est une bijection de $\{1,\dots,n\}$ dans lui-même. (Dans l'exemple ci-dessus, la première base est décrite par $\mathbf{e}(1)=e_1$, $\mathbf{e}(2)=e_2$, $\mathbf{e}(3)=e_3$ ; la seconde est obtenue en composant par $\sigma$ définie par $\sigma(1)=2$, $\sigma(2)=3$, $\sigma(3)=1$, ce qui donne $\mathbf{e}'(1)=\mathbf{e}(\sigma(1))=\mathbf{e}(2)=e_2$, etc.

    Ainsi, s'autoriser à modifier « l'ordre des vecteurs », c'est comme dire que cosinus et sinus sont la même fonction, au motif que si on compose $\cos$ par la bijection $\sigma:\R\to\R$, $x\mapsto x-\frac\pi2$, on trouve la fonction $\sin$.
  • Merci pour cette dernière remarque.
  • Ce que je n'arrive pas à avaler jusqu'à maintenant c'est la construction d'une base de l'espace $G_r=\ker(M-\lambda I_n)^r\setminus \ker(M-\lambda I_n)^{r-1}$ ($r$ est l'indice de la matrice $M-\lambda I_n$).
    Si $G_r$ est de dimension $k$ par exemple, faut-il se contenter de choisir $k$ vecteurs linéairement indépendants de $G_r$ ? (puisque $G_r$ est de dimension $k$). La réponse est non, d'après ce qu'on m'avait dit (il faut montrer que les combinaisons linéaires de ces $k$ vecteurs ne sont pas dans $\ker(M-\lambda I_n)^{r-1}$). Mais est-ce que cela ne contredit pas le fait qu'une famille libre de $k$ vecteurs d'un espace de dimension $k$ est génératrice ?!
  • Attention, je pense que tu voulais écrire $G_r \simeq \ker(M-\lambda I_n)^r / \ker(M-\lambda I_n)^{r-1}$ (un supplémentaire de $\ker(M-\lambda I_n)^{r-1}$ dans $\ker(M-\lambda I_n)^{r}$) et pas $G_r=\ker(M-\lambda I_n)^r\setminus \ker(M-\lambda I_n)^{r-1}$, qui n'est pas un espace vectoriel.

    Par définition de $G_r$ (si c'est la bonne), les éléments non nuls de $G_r$ ne sont pas dans $\ker(M-\lambda I_n)^{r-1}$ donc il n'y a aucun problème en prenant $k$ vecteurs linéairement indépendants de $G_r$, ils ne seront pas dans $\ker(M-\lambda I_n)^{r-1}$.
Connectez-vous ou Inscrivez-vous pour répondre.