Trace endomorphisme nilpotent

OShine
Modifié (May 2022) dans Algèbre
Bonjour
Montrer qu'un endomorphisme $u$ est nilpotent si et seulement si il vérifie $Tr(u^k)=0$ pour tout $k \in [|1,n|]$.
Je ne comprends pas les deux passages encadrés du corrigé.
Si $n=1$, pourquoi un endomorphisme de trace nulle serait nilpotent ?
La matrice dans la base adaptée je n'ai pas compris. D'où sort le $B^k$ ? Pourquoi il y a des $0$ en dessous de l'étoile ?122270

Réponses

  • si n = 1, tu as une matrice 1x1.
    Donc si sa trace est nulle ...
  • Très jolie démonstration ! Je ne connaissais pas cette astuce !
  • xxxxx

    Pour comprendre pourquoi il y a un bloc de 0 en dessous de * faire l'exercice du lien ci-dessus.
     
  • OShine a écrit:
    pourquoi un endomorphisme de trace nulle serait nilpotent ?

    Il n'y a aucune raison, mais comme ce n'est pas ce qu'il y a à montrer, ce n'est pas bien grave...
  • Dans le cas n=1, si :-)
  • Ne joue pas sur les mots, c'est très grave qu'OShine ne se rende pas compte des absurdités qu'il écrit.
  • OShine écrivait : http://www.les-mathematiques.net/phorum/read.php?3,2245980,2245980#msg-2245980
    [Inutile de recopier le message initial. Un lien suffit. AD]

    Comprends ce qu'est une base adaptée puis comprends ce qu'est Im(u). La réponse à tes questions te semblera tout de suite plus évidente.
  • @Marsup
    On apprend des choses tous les jours :-D

    @Ronan
    Ok merci.

    @Bd2017
    Ok j'ai compris cette fois (tu)

    Posons $Im(u)= Vect(e_1, \cdots, e_p)$ avec $p<n$ et on complète la famille libre $(e_1, \cdots, e_p)$ en une base $B=(e_1,e_2, \cdots, e_n)$ de $E$ d'après le théorème de la base incomplète.

    $Im(u)$ est stable par $u$ donc $u(e_1), \cdots, u(e_p) \in Im u$ d'où les $0$ en-dessous du $B^k$

    Les éléments $u(e_{p+1}, \cdots, u(e_n)$ sont dans l'image de $u$ par définition, ils sont donc dans $ Vect(e_1, \cdots, e_p)$ d'où la matrice $Mat_B(u)=\begin{pmatrix}
    B & *\\
    O & O
    \end{pmatrix}$

    On calcule $Mat_B(u) ^2=\begin{pmatrix}
    B & *\\
    O & O
    \end{pmatrix} \begin{pmatrix}
    B & *\\
    O & O
    \end{pmatrix}=\begin{pmatrix}
    B^2 & *\\
    O & O
    \end{pmatrix}$

    Par récurrence immédiate $\boxed{ \forall k \in \N \ Mat_B(u^k) = \begin{pmatrix}
    B^k & *\\
    O & O
    \end{pmatrix}}$
  • Lemme a écrit:
    Si $P$ est un polynôme annulateur d'un endomorphisme dont toutes les puissances ont trace nulle, alors $P(0) = 0$.

    Ensuite, pour la nilpotence, on peut faire une démonstration par récurrence sur le degré du polynôme minimal $\pi_u$.

    Pour $\deg(\pi_u) = 1$, on doit donc avoir $u=0$, donc nilpotent.

    Pour l'hérédité, $im(u)$ est stable par $u$. Pour $v = u_{| im(u)}$ (l'endomorphisme $u$ restreint à $im(u)$, on a $\pi_{v} | \frac{\pi_u}{X}$, de degré inférieur.
    Par hypothèse de récurrence $v$ est donc nilpotent, donc $u$ aussi. (tu)

    Très joli ; je me coucherai moins bête ce soir.
  • Poirot a raison mais l'énoncé est imprécis, il n'est pas mentionné que $n$ désigne la dimension de $E$...
  • On peut même remplacer le $*$ par une matrice nulle non?
  • Amédé
    Pas du tout, par exemple, un endomorphisme envoyant $x\in R^n$ sur $(1,0,\ldots,0)$ pour $n\geq2$.

    [Inutile de reproduire le message précédent. AD]
  • Oshine a écrit:
    Et alors ? Quand tu lis un énoncé, tu ne te demandes pas ce que peut être ce $n$ qui apparait de nul part, pas présenté pas introduit, rien du tout ?
    Tu rejettes la faute sur ton livre alors que tu n'as juste pas fait l'effort de comprendre chaque morceau de l'énoncé. Du coup, tu vas sur la correction et là, tu ne tiltes toujours pas ce que peut être ce $n$.
    Alors qu'il te suffisait de poster l'énoncé et de dire "je ne sais pas d'où sort ce $n$ mais je suppose qu'on est en dimension finie (car sinon la trace n'existe pas) et que c'est la dimension de l'espace" mais non, même pas.

    Donc le jour de l'oral, si on te laisse 30 minutes pour réfléchir à l'exo, quand tu arrives devant le jury, tu vas dire "je ne savais pas ce qu'était $n$ donc je n'ai pas compris l'énoncé, donc je n'ai rien fait" ? Parce que les autres candidats, eux, vont sûrement dire : "l'énoncé était imprécis car $n$ n'est pas introduit mais je suppose que c'est la dimension de E" puis poursuivre leurs pistes de solutions. Toi, tu fermes complètement la discussion et tu prends le risque de sérieusement vexer le jury d'emblée. C'est vraiment la pire attitude à avoir un jour aussi crucial de ta vie.
    De manière générale, faire remarquer les erreurs d'énoncé est plutôt valorisé. Mais faire l'autruche et prendre ce prétexte pour ne rien faire sera au contraire fortement pénalisé.
  • Je ne comprends pas la tout fin. En quoi le fait que montrer $u^{r+1}=0$ termine la récurrence ?

    La propriété à démontrer c'est $H(n)$ : si pour tout $k \in [|1,n|]$ on a : $Tr(u^k)=0$ alors $u$ est nilpotent.

    En supposons $H(n-1)$ vraie, il faut montrer que $Tr(u^n)=0$ implique que $u$ est nilpotent. Mais ce n'est pas ce que démontre le corrigé :-S122280
    rec.png 466.8K
  • Effectivement, on voit difficilement le rapport entre "$u$ est nilpotent" et "$u^{r+1} = 0$" ! 8-)
  • Voici ma tentative sans récurrence.
    Edit: Erreur d'inattention à la toute première ligne, c'est le spectre sur K (que l'on suppose algèbriquement clos) et pas sur C.
    Autre erreur: c'est $\dim F \chi_{u_F(0)}$ à la place de $n \chi_{u_F(0)}$, du coup la caractéristique nulle est nécessaire pour cette démo.122284
  • Bonjour
    Si on est sur $\C$, soit $P$ le polynôme caractéristique.
    $P(x)=\prod_{i=1} ^n(x-x_i)=x^n+\sum_{k=n-1}^0 a_k x ^k. $

    Puisque $0=tr(u^k)=\sum_{i=1}^n x_i^k,\ k=1,\ldots,n$ alors $a_k=0,\ k=0,\ldots,n $ (d'après les relations de Newton).

    On a donc $P(x)=x^n$ et donc $u^n=0$ (par C.H).
     
  • @Poirot
    Oui je me suis perdu dans la récurrence, merci.

    @Lee Sin
    Tu vas un peu vite. D'où sort la première ligne ?
    Ensuite je ne comprends pas quand tu passes à la trace du polynôme caractéristique, ni d'où sort le $n \chi_u (0)$
  • L'énonce ne dit pas qu'on est sur $\C$.

    @Bd2017 t'es sérieux ?
    On se sais pas si $u$ est diagonalisable alors pourquoi tu prends un polynôme caractéristique scindé à racines simples ?

    Si c'était aussi facile les auteurs du livre ne se fatigueraient pas à faire une page de rédaction.

    Il me semble qu'il y a une deuxième méthode qui utilise Vandermonde.
  • Si tu utilises des ouvrages de prépas, c'est sur R ou C, et toute matrice réelle est aussi complexe.
    Dans un corps quelconque, même chose, on se place sur la clôture algébrique, mais il me semble que l'hypothèse de caractéristique nulle est nécessaire.
  • Oui je suis sérieux.

    1. D'une part l'énoncé ne précise pas le corps alors c'est logique de prendre
    $K=\C$

    2. Si tu penses que la démonstration que tu as recopiée tient la route quelque soit le corps $\K$ revoie ta copie.

    3. Si tu penses que l'écriture de P(x) telle que je l'ai faite implique que u est diagonalisable, et bien, apprend à lire et ne me fait pas dire ce que je n'ai pas dit.


    4. Quant à la remarque "si les auteurs .....bla bla" c'est de l'ordre de l'enfantillage.
     
  • @OS: Pour la première ligne, c'est très classique, écrire le polynôme caractéristique sous sa forme factorisée, puis appliquer le lemme des noyaux.
    Pour la ligne avec la trace, on a pour tout polynôme P de degré inférieur ou égal à n $tr(P(u)) = nP(0)$ par linéarité de la trace (décompose P dans la base canonique pour voir)
  • @Raoul.S
    Je ne comprends pas sa première ligne, pourquoi le polynôme caractéristique serait scindé à racines simples ?
    Le reste j'ai essayé mais je n'y comprends rien à son raisonnement, il va trop vite.

    @Bd2017
    Dans le cours de MP on se restreint à $\K=\R$ ou $\C$. Il n'y a pas de théorie des corps ou de caractéristique d'un corps.

    @Lee sin
    Ok pour la ligne 1 et le lemme des noyau mais du coup c'est $E=$ et pas $\K^n$. Même si tout espace vectoriel de dimension $n$ est isomorphe à $\K^n$...

    Le reste j'ai du mal : pourquoi $\chi_(u_F ^k)= \chi(u ^k)$ ?

    Je n'ai pas réussi à démontrer le $Tr(P(u))=n P(0)$
  • Lee sin a écrit:
    Dans un corps quelconque, même chose, on se place sur la clôture algébrique, mais il me semble que l'hypothèse de caractéristique nulle est nécessaire.

    Oui, si $V$ est un $\mathbb{F}_2$ espace de rang pair, alors l'identité est de trace nulle.
  • Pour la ligne 1 j'aurais écrire $A$ à la place de $u$ (j'ai fait un peu vite et il y a des coquilles mineures), dans ce cas c'est bien $\K^n$ et pas $E$ : je travaille avec la matrice, pas l'endomorphisme, le noyau d'une matrice carrée de taille $n$ à coefficients dans $\K$ est un sous-espace vectoriel de $\K^n$. L'intérêt de passer par la matrice est que l'on peut parler de valeurs propres complexes (ou plus généralement dans une extension de corps), alors que parler de valeurs propres complexes d'un endomorphisme défini sur un espace vectoriel réel, ça n'a pas de sens !
    Pour l'égalité $tr(u^k)= tr(u_F^k)$, écris la matrice de $u$ dans une base adaptée à la décomposition que j'ai établie par le lemme des noyaux.
    Enfin, écris $P=\sum a_k X^k$ et calcule $tr(P(u))$, tous les termes où il y a un $u^k$ avec $k$ plus grand que $1$ disparaissent, et il ne reste que le terme constant (qui vaut $P(0)$).
  • @Lee sin

    Ok pour la trace, la matrice est diagonale par blocs et je vois de tête sans rien écrire. Pour la suite ce n'était pas compliqué en effet :

    $P(X)= \displaystyle\sum_{k=0}^n a_k X^k$ donc $P(u)= \displaystyle\sum_{k=0}^n a_k u^k$

    Par linéarité de la trace $Tr(P(u))= \displaystyle\sum_{k=1}^n a_k Tr(u^k)+ a_0 Tr(I_d)= 0 + n a_0= n P(0)$
  • bd a écrit:
    Si on est sur $\C$, soit $P$ le polynôme caractéristique $P(x)=\prod_{i=1} ^n(x-x_i)$
    OS a écrit:
    Je ne comprends pas sa première ligne, pourquoi le polynôme caractéristique serait scindé à racines simples ?
    Tu lis des choses que tu es tout seul à lire. C'est un peu comme si tu étais fou.
    Pourquoi tu ne fais pas juste l'effort de regarder pourquoi $(X-1)^2$ par exemple se décompose comme le suggère bd ?

    Pour info, sa preuve est certes très courte, mais cache de la technicité et des résultats derrière (relation de Newton, CH, lemme des noyaux et peut-être encore d'autres ingrédients..). Donc elle n'est pas magique. La preuve de ton bouquin est plus artisanale et se recycle bien car beaucoup de résultats d'algèbre linéaire se démontre par récurrence sur la dimension de l'espace.
    Avec le théorème de Liouville, on démontre en 2 lignes "d'Alembert-Gauss" typiquement. D'où la réflexion à avoir quand tu démontres quelque chose de la puissance des outils que tu utilises, tu n'as rien sans rien.
    Et tu es du genre à dériver $x \mapsto \frac{x}{x+1}$ pour l'étudier, c'est juste plus de technicité pour moins de réflexion et quand tu arrives à devoir réfléchir car la technicité dont tu disposes ne suffit plus, tu es bloqué.
    Donc les déterminants de matrice de taille 1... Enfin, tes élèves savent inverser un nombre non nul j'espère... Bref, tu appliques des méthodes bidons de bouquin de taupin sans réfléchir parce que tu dois avoir la liste des 50 caractérisations d'inversibilité d'une matrice quelque part dans le cours et comme les maths c'est fait pour les robots et les ordis après tout, s'il fallait réfléchir et avoir des idées, ça se saurait depuis le temps !
  • Alexique si je maitrise les techniques bourrins de taupin je serai content.

    Les preuves astucieuses, je verrai quand je maitriserai les fondamentaux, ce qui est loin d'être le cas.

    La preuve du livre fat utiliser des outils importants à connaître : base adaptée, endomorphisme induit, récurrence.

    @Bd2017 n'est pas en apprentissage. Il a déjà atteint son niveau. Donc lui peut chercher des preuves plus jolies et moins évidentes.
  • OS, il n'y a rien à redire à la démonstration de bd !
    Ceci dit, pour le fun et la culture, je te propose une alternative que je détaille, utilisant Vandermonde que tu dois connaître :

    On se plonge dans $\mathbb{C}$ et on montre que la seule valeur propre possible de $u$ est $0$ :

    le polynôme caractéristique de $u$ est de la forme $\chi\left(X\right)=\prod_{1\leq i\leq d}\left(X-\lambda_{i}\right)^{\gamma_{i}}$,
    avec $\gamma_{i}\geq1$ (et $\sum_{1\leq i\leq d}\gamma_{i}=n$), et les $\lambda_{i}$ complexes deux à deux distincts.

    On en déduit (on travaille dans $\mathbb{C}$) que pour tout entier $k\geq1$, $Tr\left(u^{k}\right)=\sum_{1\leq i\leq d}\gamma_{i}\lambda_{i}^{k}$.
    Par hypothèse, $Tr\left(u^{k}\right)=0$.
    Il suit que la matrice $\left(\begin{array}{ccc}
    \lambda_{1} & \cdots & \lambda_{1}^{d}\\
    \vdots & & \vdots\\
    \lambda_{d} & \cdots & \lambda_{d}^{d}
    \end{array}\right)$ n'est pas inversible. Or (Van Der Monde), son déterminant est $\prod_{1\leq i\leq d}\lambda_{i}.\prod_{1\leq i<j\leq d}\left(\lambda_{j}-\lambda_{i}\right)$.

    On a donc par exemple $\lambda_{d}=0$.

    Si $d\geq2$, alors on observe que la matrice "restante" $\left(\begin{array}{ccc}
    \lambda_{1} & \cdots & \lambda_{1}^{d-1}\\
    \vdots & & \vdots\\
    \lambda_{d-1} & \cdots & \lambda_{d-1}^{d-1}
    \end{array}\right)$ n'est pas inversible pour les mêmes raisons; or son déterminant est $\prod_{1\leq i\leq d-1}\lambda_{i}.\prod_{1\leq i<j\leq d-1}\left(\lambda_{j}-\lambda_{i}\right)$, qui lui ne peut pas être nul.

    Ainsi, $d=1$, et $\lambda_{1}=0$.
    .
  • Là c'est encore mieux !
     
  • @Zig
    Je n'ai pas compris pourquoi la matrice n'est pas inversible.

    Et à la fin, je n'ai pas compris le cas $d \geq 2$ pourquoi le déterminant est non nul et pourquoi $d=1$
  • ça ne change rien, mais j'aurais mieux fait d'écrire la matrice sous la forme : $\left(\begin{array}{ccc}
    \lambda_{1} & \cdots & \lambda_{d}\\
    \vdots & & \vdots\\
    \lambda_{1}^{d} & \cdots & \lambda_{d}^{d}
    \end{array}\right)$ :

    On a $\left(\begin{array}{ccc}
    \lambda_{1} & \cdots & \lambda_{d}\\
    \vdots & & \vdots\\
    \lambda_{1}^{d} & \cdots & \lambda_{d}^{d}
    \end{array}\right)\left(\begin{array}{c}
    \gamma_{1}\\
    \vdots\\
    \gamma_{d}
    \end{array}\right)=\left(\begin{array}{c}
    0\\
    \vdots\\
    0
    \end{array}\right)$, et le vecteur $\left(\begin{array}{c}
    \gamma_{1}\\
    \vdots\\
    \gamma_{d}
    \end{array}\right)$ n'est pas nul...

    Le déterminant $\prod_{1\leq i\leq d-1}\lambda_{i}.\prod_{1\leq i<j\leq d-1}\left(\lambda_{j}-\lambda_{i}\right)$
    ne peut pas être nul car les $\lambda_{i}$ sont deux à deux distincts et que $\lambda_{d}=0$.
  • D'accord merci. Cette fois-ci j'ai compris la logique du raisonnement :

    On utilise le résultat de cours suivant :

    Un système de Cramer admet l'unique solution $(0, \cdots, 0)$ si et seulement si le déterminant du système est non nul.

    Les $\gamma_i$ sont des entiers plus grands que $1$ donc aucun n'est nul.

    C'est vrai que Vandermonde est très utile en algèbre, je l'ai souvent croisé dans des corrigés d'épreuves d'algèbre linéaire (sujets Centrale ).
  • Cramer si tu veux... ou simplement la non injectivité, i.e. le noyau n'est pas réduit à 0, ce qui en dimension finie équivaut à la non bijectivité.
    .
  • D'accord merci.
  • Ou combinaison linéaire nulle => colonnes liées => rang <d... Plein de façons de le voir, Cramer bof... Par définition, un système est de Cramer si la matrice est inversible et ici, ce n'est pas le cas.
  • Non injectivité ça me parle mais je n'avais pas vu la combinaison linéaire des colonnes.
    J'utilise le résultat suivant.122462
    1.png 635.8K
Connectez-vous ou Inscrivez-vous pour répondre.