Bonsoir, deux minuscules contributions : l'ensemble des f qui vérifient la propriété est un sous-espace vectoriel de L(Mn(C)) de dimension < n^4 .
Pour exploiter f(X)X=Xf(X), on a (f(X)X)p = f(X)pXp=Xpf(X)p
et aussi que f(X) et X stabilisent mutuellement image et sous-espaces propres de l'autre, ont au moins un vecteur propre commun.
$\def\diag{\text{Diag}}$Il me semble que $f(\diag(\lambda_i)) = \diag(\mu_i)$ pour les $\lambda_i$ 2 à 2 distincts + de la linéarité doit donner, par densité-continuité, la stabilité des matrices diagonales. Les $\mu_i$ dépendent linéairement des $\lambda_j$.
Et évidemment, cette remarque doit être indépendante de la base de diagonalisation choisie.
@marsup : J’avais pensé à quelques choses du même genre : si $C\in\mathcal{M}_n(\C)$ est une matrice cyclique, alors $f(C)$ est un polynôme en $C$. Cependant, je n’ai pas encore trouvé si on peut continuer après ou si c’est une impasse.
J'ai fait les calculs pour $n=2$ en regardant les matrices élémentaires $E_{i,j}$ ainsi que les matrices $E_{i,j}+E_{k,l}$. On trouve que les $f$ qui conviennent sont toutes de la forme $f(M) = \lambda M + \Lambda(M)I_n$, avec $\lambda\in \C$ et $\Lambda \in \mathcal{M}_n(\C)^*$. Et réciproquement, ces dernières conviennent (vérification immédiate).
Si on suppose que $f$ est de cette forme, est-il possible de trouver la valeur de $\lambda$ (définie ci-dessus) en l'exprimant uniquement à l'aide de $f$, de matrices élémentaires et éventuellement de la fonction trace ?
Cela permettrait dans une synthèse de définir $\lambda$ et la fonction $\Lambda$ puis de montrer que $f$ est de la forme voulue par diagonalisation (et densité).
Je note $E_{ij}$ les matrices élémentaires et ${}^t M$ la transposée d'une matrice $M$. Un endomorphisme quelconque de ${\mathcal M}(n,\C )$ s'écrit de façon unique :
$$
(*) \hskip1cm f(X)=\sum_{k,l,u,v} \lambda_{k,l,u,v} {\rm Tr}({}^t E_{k,l} X) E_{u,v}
$$
pour $n^4$ constantes $\lambda_{k,l,u,v}$. Il me semble (à vérifier !) que $f$ est de la forme proposée par Guego si, et seulement si :
-- pour $u\not= v$, $\lambda_{k,l,u,v}=0$, dès que $u\not= k$ ou $v\not= l$,
-- pour $u=v$, $\lambda_{k,l,u,u}$ ne dépend pas de $u$.
De sorte qu'il suffirait de partir (*) et d'écrire toutes les conditions $E_{ij}f(E_{ij})=f(E_{ij})E_{ij}$, $i$, $j=1,...,n$.
Paul : Je ne doute pas que ta méthode fonctionne. C'est d'ailleurs la même que celle proposée par 20100N.
D'ailleurs, il est évident qu'un endomorphisme de $M_n(\C)$ peut s'écrire sous cette forme et fort probable que les contraintes suffisent à prouver que l'endomorphisme est de la forme suggérée par Guego.
Mon souhait était de trouver une méthode moins "élémentaire".
L'ensemble des matrices semblables à une matrice-compagnon est dense et, pour une matrice $M$ dans cet ensemble, $f(M)\in\C_n[M]$, ce qui doit restreindre singulièrement le champ des possibles, d'autant plus que la linéarité est peu copine avec les polynômes.
Mince : je n'avais lu que certains messages ; je vois que l'idée a déjà été lancée deux fois. Vite, Optic 2000:-(
J'ai quelques timides avancées mais, comme dirait un de nos plus brillants forumeurs, je n'ai pas démontré la conjecture de Hodge en un jour.
1) On peut polariser l'identité $f(M)M=Mf(M)$ ; cela donne $[f(M),N]=[M,f(N)]$ pour toute paire de matrices. En particulier, avec $N=Id$, on voit que $f(Id)\in{\rm Vect}(Id)$.
2) On peut écrire $f\big(\exp(tM)N\big)\,\exp(tM)N=\exp(tM)N\,f\big(\exp(tM)N\big)$, dériver et faire $t=0$ ; cela donne (curieusement, presque le même résultat, mais un peu moins bon) :
\[[f(MN),N]=[MN,f(N)].
\] En choisissant $M=N^k$, on voit que $f$ envoie $\C[N]$ dans le commutant ${\mathfrak z}(N)$ pour tout $N$.
Puisqu'il me semble raisonnable que $f$ soit de la forme proposée par Guego, je vais, quand j'en aurai le loisir, étudier les éléments propres de $f$ ou rêver que $f^2$ s'exprime simplement en fonction de l'identité de $\cal L\,({\mathfrak M}_n(\C))$ et de $f$.
Tes histoires de crochet me donnent une idée pour une autre piste.
On peut considérer l'ensemble
\[F=\{f\in\mathcal{L}(M_n(\C))\mid \forall X\in M_n (\C),\ f(X)X=Xf(X)\}.
\] Il est facile de vérifier les points suivants :
$F$ est un sous-espace vectoriel de $\mathcal{L}(M_n(\C))$
$\mathrm{Id}_{M_n(\C)}\in F$
pour tout $\varphi \in\mathcal{L}(M_n(\C),\C)$, l'application $S_\varphi:X\mapsto \varphi(X)I_n$ est dans $F$.
Ainsi $F$ est de dimension supérieure ou égale à $n^2+1$.
Si on considère à présent le crochet de Lie usuel sur $M_n(\C)$ : $[M,N]=MN-NM$ et la représentation adjointe : $\mathrm{ad}:M\mapsto(N\mapsto [M,N])$, on peut définir une application $\Phi$ de $\mathcal{L}(M_n(\C))$ dans $\mathcal{L}(M_n(\C),\mathcal{L}(M_n(\C)))$ par
\[\Phi(f)=\left(M\mapsto\mathrm{ad}(f(M))-\mathrm{ad}(M)\circ f\right)
\] On vérifie aisément que $\Phi$ est linéaire et d'après le point 1) de john-john, $F=\ker(\Phi)$.
Puisque $\mathcal{L}(M_n(\C))$ est de dimension $(n^2)^2$, il suffirait alors de prouver que $\mathrm{rg}(\Phi)\geq n^4-(n^2+1)$ pour conclure...
Bon, en l'écrivant, je me rends compte que ce n'est pas si trivial... mais c'est beau !
Avec les notations de bisam, $F$ est même une sous-algèbre parce que, si $f,g\in F$, alors $f(g(M))$ commute avec $M$ pour toute matrice cyclique et donc avec toute matrice grâce à un argument de densité.
$\newcommand{\gl}{\mathfrak{gl}}\newcommand{\sl}{\mathfrak{sl}}\newcommand{\gg}{\mathfrak{g}}\DeclareMathOperator{\id}{id}$Je crois qu'on cherche à montrer que toute application linéaire $\varphi: \sl_n\to \sl_n$ satisfaisant
$$
\forall x, y,\quad [\varphi(x), y] = [x,\varphi(y)]\tag*{($\star$)}
$$ est proportionnelle à l'identité.
Ça doit être vrai non seulement pour $\sl_n$, mais aussi pour toute algèbre de Lie simple complexe, au moins en dimension finie.
Pas trouvé d'argument court.
oui, cela revient à cela si l'on montre que $f$ laisse stable le noyau de la trace ; cela fait partie des questions que je m'étais posées, mais je cherchais dans d'autres directions pour l'instant.
$\newcommand{\gl}{\mathfrak{gl}}\newcommand{\sl}{\mathfrak{sl}}\newcommand{\gg}{\mathfrak{g}}\DeclareMathOperator{\id}{id}$Une application satisfaisant l'indentité du fil ne laisse pas nécessairement stable le noyau de la trace.
Ce que je voulais dire c'est que si on tient compte du fait que $\gl_n$ se décompose en $\sl_n\oplus \C 1_n$ (en tant qu'algèbre de Lie), une application linéaire $\varphi:\gl_n\to\gl_n$ a naturellement 4 composantes. La composante $\C 1_n\to \sl_n$ est nulle (car $\varphi$ doit préserver le centre), les composantes vers le centre $\sl_n\to \C 1_n$ et $\C 1_n\to \C 1_n$ sont libres, et il ne reste plus qu'à déterminer la composante $\sl_n\to\sl_n$.
1) Il est clair que tout endomorphisme de la forme $f_{\lambda,\varphi}(X)=\lambda X+\varphi(X) I$ convient, où $\varphi$ est une forme linéaire et $\lambda$ une constante.
2) Si $X$ est diagonalisable avec des valeurs propres distinctes, alors $f(X)$ commute avec $X$ donc est un polynôme en $X$.
3) Par densité, $f(X)$ est un polynôme en $X$ pour tout $X$ (le polynôme dépend de $X$).
4) Soient $E_{ij}$ les matrices élémentaires, alors il existe des constantes $\lambda_{ij}$ et $\mu_{ij}$ telles que $f(E_{ij})=\lambda_{ij}E_{ij}+\mu_{ij}I$.
5) Soit $\varphi$ la forme linéaire telle que $\varphi(E_{ij})=\mu_{ij}$ pour tous $i,j$. En retranchant $f_{0,\varphi}$ on peut supposer que $\mu_{ij}=0$.
6) En écrivant que $f(E_{ii}+E_{ij})$ commute avec $E_{ii}+E_{ij}$ on trouve que $\lambda_{ii}=\lambda_{ij}$. De même on a $\lambda_{jj}=\lambda_{ij}$.
7) Soit $\lambda$ la valeur commune des $\lambda_{ij}$, alors $f(E_{ij})=\lambda E_{ij}$ pour tous $i,j$ donc par linéarité on a $f(X)=\lambda X$ pour tout $X$.
bisam : C'est relativement facile d'exprimer $\lambda$ et $\Lambda$ "intrinsèquement" : pour $\lambda$, tu peux regarder $f(I_n)$ et $Tr(f)$, tu auras un système à deux inconnues et deux équations, qui te permet d'obtenir la valeur de $\lambda$ et de $\Lambda(I_n)$ en termes de $f(I_n)$ et $Tr(f)$; et pour $\Lambda$ tu peux alors considérer $Tr\circ f$ (et non pas $Tr(f)$ !!) qui te permet de récupérer $\Lambda$ en soustrayant $\lambda Tr$ et divisant par $n$.
Je ne sais pas si ça te permet d'avancer, mais en tout cas tu peux les exprimer (sans faire tout plein de calculs)
JLT : comment tu obtiens ton point 3) ? Enfin vu que le polynôme bouge beaucoup je vois mal comment tu le contrôles pour pouvoir écrire $\lim_n P_n(X_n)$ comme $P(\lim_n X_n)$
$\newcommand{\gl}{\mathfrak{gl}}\newcommand{\sl}{\mathfrak{sl}}\newcommand{\gg}{\mathfrak{g}}\DeclareMathOperator{\id}{id}$Un argument qui évite celui de densité, mais c'est un peu longuet:
Soit $\gg=\sl_n$. Toute application linéaire $\varphi: \gg\to \gg$ satisfaisant
$$
\forall x, y,\quad [\varphi(x), y] = [x,\varphi(y)]\tag*{($\star$)}
$$
est proportionnelle à l'identité.
$\bullet$ A) Si $\ker\varphi\neq 0$, alors $\varphi=0$.
On peut utiliser le fait que $\sl_n$ est simple, ce qui implique:
- elle admet une forme bilinéaire $\langle-,-\rangle: \gg\otimes \gg\to \gg$ symétrique ($\langle x,y\rangle = \langle y,x\rangle$), invariante ($\langle [x,y], z\rangle = \langle x,[y,z]\rangle$)) et non-dégénérée.
En combinant la propriété d'invariance de $\langle-,-\rangle$ et la propriété de $\varphi$ ($\star$), on obtient $\langle \varphi(x), [y,z]\rangle = \langle x, [\varphi (y),z]\rangle$, et donc (si $\varphi(x)=0$)
$$
[\gg, \ker(\varphi)] \subseteq [\gg, \mathrm{im} (\varphi)]^\perp
$$
- Pour tout $x\neq 0$, $[\gg,x]=\gg$ (la représentation adjointe est irréductible).
Edit: FAUX, l'idéal engendré par $x$ n'est pas $[\gg, x]$, cf le message de Pea plus bas.
Par conséquent, si $\ker(\varphi)\neq 0$, alors $\gg\subseteq [\gg, \mathrm{im} (\varphi)]^\perp$, soit $[\gg, \mathrm{im} (\varphi)]=0$, et donc $\varphi=0$.
$\bullet$ Ensuite, on peut exploiter les faits que:
(1) $\gg=\sl_n$ est graduée:
$$
\gg=\bigoplus_\alpha \gg_\alpha, \quad [\gg_\alpha, \gg_\beta]\subseteq \gg_{\alpha+\beta}
$$
(J'évite volontairement d'expliciter les notations, car si on commence on n'en finit pas. Ce sont les mêmes que celles de wikipedia.)
$\gg_0$ est l'ensemble des matrices diagonales (de trace nulle), et un point important est que, pour $\alpha\neq 0$, chaque $\gg_\alpha$ non nul a dimension exactement $1$ (un $\alpha$ pour chaque matrice élémentaire hors-diagonale).
Donc une application linéaire $\varphi: \gg\to \gg$ se décompose en somme de fonctions homogènes pour la graduation de $\gg$, ie $\varphi=\sum_\lambda \varphi_\lambda$, avec $\varphi_\lambda(\gg_\alpha)\subseteq \gg_{\alpha+\lambda}$.
(2) L'équation du fil est homogène, ce qui n'est pas évident sous la forme originale, mais l'est sous la forme polarisée donnée par john_john ($\star$).
Par conséquent, $\varphi= \sum_\lambda \varphi_\lambda$ satisfait l'équation si et seulement si chacune de ses composantes homogènes la satisfait.
(3) Une composante homogène de degré $\lambda\neq 0$ a nécessairement un noyau non nul (car il existe forcément une racine $\alpha$ telle que $\alpha+\lambda$ ne soit pas racine, et donc $\varphi_\lambda(\gg_\alpha)=0$). Par le point A), $\varphi_\lambda = 0$.
(4) (Edit: mieux) La composante homogène de degré 0 préserve chaque $\gg_\alpha$. Si $\alpha\neq 0$ est une racine, $\gg_\alpha$ est de dimension $1$, donc $\varphi$ agit comme une multiple de l'identité dans chaque $\gg_\alpha$ autre que $\gg_0$. Il suit qu'il existe $k\in \C$ telle que $\varphi-k\,\id_\gg$ a un noyau non nul, et satisfait toujours ($\star$). Donc, toujours par A), $\varphi-k\id=0$.
Ton point (A) entraîne ce qu'on veut. En effet si $\varphi$ est un endomorphisme de ${\mathfrak sl}_n$ qui satisfait l'hypothèse, il possède une certaine valeur propre $\lambda$. L'endomorphisme $\varphi -\lambda{\rm id}$ satisfait la même hypothèse et a un noyau non nul. Il est donc nul par (A).
N.B. 1) La forme linéaire symétrique non dégénérée est tout-à-fait explicite pour ${\mathfrak sl}_n$ : c'est $\langle X,Y\rangle ={\rm Tr}(XY)$, $X$, $Y\in {\rm sl}_n$.
2) Il me semble que ta démonstration se généralise au cas d'une algèbre de Lie complexe simple $\mathfrak g$. On aura toujours que $\mathfrak g$ est un $\mathfrak g$-module simple, et pour la forme bilinéaire symétrique, on peut prendre la forme de Killing.
Rajout : on a bien que (A) entraîne le résultat. Mais la preuve de (A) est problématique.
Ok, je viens de comprendre le sens de ta remarque. J'ai d'abord cru qu'elle voulait dire "ce qu'on veut, y compris n'importe quoi".
Effectivement, il n'y a pas besoin de point !!! J'ai oublié qu'une application linéaire sur $\C$ a toujours un vecteur propre Merci de me le rappeler; ça raccourcit considérablement la preuve.
La preuve de (A) est bizarre. Je verrais plutôt la chose suivante. Si $Y$ est non nul dans le noyau et $X\in {\mathfrak sl}_n$, on a $\langle \varphi (X), [Y,{\mathfrak sl}_n ]\rangle =\{ 0\}$. Par simplicité de ${\mathfrak sl}_n$, on a $[Y,{\mathfrak sl}_n ]={\mathfrak sl}_n$. Donc l'image de $\varphi$ est orthogonale à ${\mathfrak sl}_n$, donc nulle.
Il est clair que cet argument se généralise à toute algèbre de Lie simple complexe.
Effectivement, en combinant les identités pour $\langle -,-\rangle$ et $\varphi$, on obtient tout un tas d'identités entre les deux, et j'ai donné une qui ne sert à rien, ou plutot j'ai donné la mauvaise indication (lire "si $\varphi(y)=0$" au lieu de "si $\varphi(x)=0$") Mal recopié mon texte
Concernant le fait de considérer une algèbre de Lie simple quelconque, j'ai pris des notations générales précisément pour cette raison, cf ce message.
Merci, Maxtimax. Effectivement, je n'avais pas pensé à prendre la trace de l'endomorphisme $f$... mais finalement, je n'arrive pas à conclure.
Mon idée était de prouver que $f$ était annulée par un polynôme de degré 2, de la forme $(X-\lambda)(X-(\lambda+\Lambda(I_n))$, mais je ne vois pas du tout comment arriver à cela.
Finalement, l'élémentaire n'était peut-être pas si mal :)o
$\newcommand{\im}{\operatorname{im}}$Une idée. Supposons que $\ker(\varphi)\neq 0$. On veut alors montrer que $\varphi=0$. Soit $x\in \ker(\varphi)$ alors $\im(\varphi)$ est inclus dans le centralisateur $C(x)$ de $x$ dans $sl_n(\mathbb{C})$. J'affirme qu'il suffit de montrer l'existence d'un $y\in sl_n(\mathbb{C})$ de sorte que $C(y)\cap C(x)=0$. En effet, si un tel $y$ existe alors $\varphi(y)\in C(y)$ (car $[\varphi(y),y]=0$) et $\varphi(y)\in C(x)$ (car $\im(\varphi)\subset C(x)$) donc $\varphi(y)\in C(x)\cap C(y)=0$ c'est-à-dire $y\in \ker(\varphi)$ et cela implique $\im(\varphi)\subset C(x)\cap C(y)=0$. Pour trouver un tel $y$, il suffit je crois de choisir une base $e_1,\ldots,e_n$ dans laquelle la matrice de $x$ a toutes ses entrées non nulles puis de choisir un élément $y\in sl_n$ qui est dans cette base diagonal à valeurs propres distinctes.
Je rédigerai ceci demain, mais il me semble avoir démontré le point 3) de JLT, en montrant que $f$, lorsqu'il stabilise $sl_n$, stabilise le commutant de toute matrice de trace nulle et donc aussi son bicommutant, ce qui entraîne le résultat.
Je signale que la preuve que j'ai donnée ci-dessus semble pouvoir s'adapter au cas plus général d'une algèbre de Lie simple $\mathfrak{g}$ à condition de répondre par l'affirmative à la question suivante (ce que je ne sais pas faire mais le problème me semble intéressant): est-ce que pour tout $x\in \mathfrak{g}$ non nul il existe $y\in \mathfrak{g}$ tel que $C(x)\cap C(y)=0$ (où, comme précédemment, $C(x)$ et $C(y)$ désignent les centralisateurs de $x$ et $y$ respectivement).
$\newcommand{\tr}{{\rm tr}}\newcommand{\sl}{\mathfrak{sl}_n}$ Le lemme de Pea est très intéressant à étudier aussi, ne serait-ce que parce qu'il donnerait une preuve élémentaire du résultat attendu, alors qu'il n'est pas évident que le bicommutant d'un endomorphisme $v$ n'est autre que $\C[v]$ --- quoique ce soit un résultat classique---. J'avais confié cette autre étude à mon cerveau gauche, mais l'hémisphère droit a dégainé le premier B-). Alors, voici :
Soit $\varphi$ un endomorphisme de $\sl$ satisfaisant notre équation fonctionnelle ; puisque $(f,g)\mapsto\tr(fg)$ est non dégénérée sur $\sl$, il existe un adjoint~$\varphi^*$ de $\varphi$. Soit $a,\,b$ dans $\sl$ ; écrivons $b$ sous la forme $[u,v]$, avec $(u,v)$ dans $\sl$. Nous avons la suite d'identités
\[
\tr(a\cdot\varphi^*(b))=\tr(\varphi(a)\cdot[u,v])=\tr([\varphi(a),u]\cdot v)=\tr([a,\varphi(u)]\cdot v)=\tr(a\cdot[\varphi(u),v])
\] Donc, $\varphi^*([u,v])=[\varphi(u),v]$ ; puisque, en outre, $\varphi^*(0)=0^{{\bf\ulcorner reference\ needed\urcorner}}$, on en déduit que $uv=vu\Longrightarrow\varphi(u)v=v\varphi(u)$. Donc, $\varphi$ laisse stable le commutant de $v$ et donc aussi son bicommutant : si $u$ commute avec tout $w$ commutant avec $v$, alors $\varphi(u)$ commute avec tout $w$ commutant avec $v$.
Où mon cerveau gauche en est-il:-S ? Si l'on triangule supérieurement la matrice de $u$, on doit pouvoir construire $v$ tel que $C(u)\cap C(v)={\rm Vect}(I_n)$ en choisissant pour la matrice de $v$ une matrice triangulaire inférieure, par exemple un bloc de Jordan plein, mais inférieur (pourquoi cela ? C'est afin que le commutant de $v$ soit de la dimension la plus petite possible puisque, dans $\mathfrak{gl}_n$, celle de $C(u)$ peut aller jusqu'à $(n-1)^2+1$ ; la somme des deux ne doit pas dépasser $n^2$).
Je précise, mais cela a déjà dû être écrit, que l'on peut toujours supposer que $\varphi$ stabilise $\sl$, quitte à soustraire d'une application $u\mapsto\ell(u)Id$, où $\ell$ est une forme linéaire bien choisie.
Finalement, la propriété de Pea est vraie également, du moins dans $\mathfrak{gl}_n$ : si $u_0$ n'est pas une homothétie, il existe $v$ tel que $C(u_0)\cap C(v)=\{0\}$.
En effet, on écrit $u_0=d+n$, avec $d$ diagonalisable, $n$ nilpotent, tous les deux dans $\C[u_0]$ ; puisque $C(u_0)\subset C(d)$, il suffit de construire $v$ tel que $C(d)\cap C(v)=\{0\}$. Pour cela, dans une matrice qui diagonalise $d$ selon le drapeau des sous-espaces propres (càd avec les éventuelles valeurs propres égales regroupées sur la diagonale), il suffit de prendre pour la matrice de $v$ le bloc de Jordan plein (inférieur).
Remarque à l'intention des administrateurs : j'ai dû taper $\C[u_0]$ car, en lisant $\C crochet u$, votre analyseur syntaxique voit la balise de soulignement. C'est ballot...
:-X :-X:-X : ça ne marche pas lorsque $d$ est une homothétie (et seulement dans ce cas). Y'a kék chose qui cloch' la-d'dans ; j'y retourne immédiat'ment
merci Math Coss ; je me voyais interdire la notation $\C[ u]$ jusqu'à la fin de mes jours... Economie de moyens et sauvegarde des claviers : une espace avant le $u$ suffit
Je soumets à votre sagacité la preuve du "fait" suivant :
Soit $\mathfrak g$ une algèbre de Lie complexe simple. Alors tout endomorphisme $f$ vérifiant
$$
(*) \hskip1cm [f(X),Y]=[X,f(Y)], \ X,\ Y\in {\mathfrak g}
$$ est une homothétie.
On fixe une sous-algèbre de Cartan $\mathfrak t$ de $\mathfrak g$ et on note $\Phi$ le système de racines de $\mathfrak t$ dans $\mathfrak g$, $\Delta \subset \Phi$ une base. Rappelons qu'on a la somme directe
$$
{\mathfrak g}={\mathfrak t}\oplus \bigoplus_{\alpha\in \Phi} {\mathfrak g}_\alpha,
$$ où ${\mathfrak g}_{\alpha}$ est le sous-espace radiciel des $X\in {\mathfrak g}$ vérifiant $[T,X]=\alpha (T)X$, $T\in \mathfrak t$. Chaque sous-espace radiciel ${\mathfrak g}_\alpha$ est une droite et on en fixe un générateur $X_\alpha$.
Le sous-ensemble ${\mathfrak t}^{\rm reg}$ formé des éléments réguliers est dense dans ${\mathfrak t}$. De plus puisque pour tout $X\in \mathfrak g$, $X$ et $f(X)$ commutent, il s'ensuit que $f$ envoie ${\mathfrak t}^{\rm reg}$ dans $\mathfrak t$. Par densité et continuité de $f$, $f$ stabilise $\mathfrak t$. On notera $f^*$ l'endomorphisme transposé induit par $f$ dans le dual ${\mathfrak t }^* \supset \Phi$.
Soit $\alpha\in \Phi$. Alors pour tout $T\in \mathfrak t$, on a $[T,f(X_\alpha )]=[f(T),X_\alpha ]$, ce qui s'écrit $[T,f(X_\alpha )]=f^*\alpha (T)X_\alpha$, $T\in \mathfrak t$. Il s'ensuit que $f(X_\alpha )$ est de la forme $T_\alpha + \lambda_\alpha X_\alpha$, pour un $T_\alpha \in \mathfrak t$ et $\lambda_\alpha \in \C$. En effet, on peut écrire $f(X_\alpha )=T_\alpha +\sum_{\beta\in \Phi} \lambda_{\beta} X_\beta$, pour un $T_\alpha\in \mathfrak t$ et des complexes $\lambda_\beta$. On obtient la condition $\sum_{\beta} \beta (T) \lambda_\beta X_\beta \in \C X_\alpha$, pour tout $T\in \mathfrak t$, ce qui donne ce qu'on veut.
$$ Rappelons que $[X_\alpha ,X_\beta ]$ est nul si $\alpha +\beta$ n'est pas une racine, et vit dans ${\mathfrak g}_{\alpha +\beta}$ sinon. Il s'ensuit que $\beta (t_\alpha )$ est nul quelque soit $\beta\in \Phi$. Puisque $\Phi$ engendre ${\mathfrak t}^*$, on a $t_\alpha =0$. Nous avons donc prouvé que $f(X_\alpha )=\lambda_\alpha X_\alpha$.
Pour $T\in \mathfrak t$ et $\alpha \in \Phi$, la relation $[f(T),X_\alpha ]=[T,f(X_\alpha )]$ s'écrit $f^*\alpha (T)= \lambda_\alpha (T)$. On a donc $f^* \alpha = \lambda_\alpha \alpha$, pour toute racine $\alpha$.
On remarque que $\lambda_\alpha =\lambda_\beta$ pour deux racines $\alpha$ et $\beta$ telles que $\alpha +\beta$ est une racine. Considérons le graphe $\Gamma$ de sommet $\Delta$ et tel que deux sommets $\alpha$ et $\beta$ définissent une arêtes si et seulement si $\alpha +\beta$ est une racine. Ce graphe est connexe car, l'algèbre de Lie étant simple, son diagramme de Dynkin est connexe. On en déduit que $\lambda_\alpha$ ne dépend pas de $\alpha \in \Delta$. Notons ce complexe $\lambda$.
Puisque $\Delta$ est une base de ${\mathfrak t}^*$, on en déduit que $f$ est l'homothétie de rapport $\lambda$ sur $\mathfrak t$. En écrivant à nouveau que, pour toute racine $\alpha$ et tout $T\in \mathfrak t$, on a $[f(T),X_\alpha ]=[T,f(X_\alpha )]$, on obtient $\lambda_\alpha =\lambda$, de sorte que $f$ est bien l'homothétie de rapport $\lambda$ sur $\mathfrak g$ tout entier. C.Q.F.D.
N.B. Cette démonstration s'adapte aisément pour montrer que si ${\mathfrak g} ={\mathfrak g}_1 \times \cdots \times {\mathfrak g}_r$ est une algèbre de Lie semisimple complexe (où les ${\mathfrak g}_i$ sont simples) et $f$ un endomorphisme de $\mathfrak g$ vérifiant (*), alors $f$ s'écrit $\lambda_1 {\rm id}_{{\mathfrak g}_1} \times \cdots\times \lambda_r {\rm id}_{{\mathfrak g}_r}$, pour des scalaires $\lambda_1,\ldots,\lambda_r$.
Réponses
Je vais réfléchir à ce problème : il a l’air bien sympathique.
Pour exploiter f(X)X=Xf(X), on a (f(X)X)p = f(X)pXp=Xpf(X)p
et aussi que f(X) et X stabilisent mutuellement image et sous-espaces propres de l'autre, ont au moins un vecteur propre commun.
Et évidemment, cette remarque doit être indépendante de la base de diagonalisation choisie.
f(Ei,j) commute avec Ei,j donne quelques coefficients nuls et une structure par blocs de f(Ei,j)
Peut être qu'en écrivant que :
f(Ea,b+Ec,d) commute avec Ea,b+Ec,d puis en développant avec la linéarité l'identification donnera-t-elle assez de coef nuls .
Cela permettrait dans une synthèse de définir $\lambda$ et la fonction $\Lambda$ puis de montrer que $f$ est de la forme voulue par diagonalisation (et densité).
Je note $E_{ij}$ les matrices élémentaires et ${}^t M$ la transposée d'une matrice $M$. Un endomorphisme quelconque de ${\mathcal M}(n,\C )$ s'écrit de façon unique :
$$
(*) \hskip1cm f(X)=\sum_{k,l,u,v} \lambda_{k,l,u,v} {\rm Tr}({}^t E_{k,l} X) E_{u,v}
$$
pour $n^4$ constantes $\lambda_{k,l,u,v}$. Il me semble (à vérifier !) que $f$ est de la forme proposée par Guego si, et seulement si :
-- pour $u\not= v$, $\lambda_{k,l,u,v}=0$, dès que $u\not= k$ ou $v\not= l$,
-- pour $u=v$, $\lambda_{k,l,u,u}$ ne dépend pas de $u$.
De sorte qu'il suffirait de partir (*) et d'écrire toutes les conditions $E_{ij}f(E_{ij})=f(E_{ij})E_{ij}$, $i$, $j=1,...,n$.
D'ailleurs, il est évident qu'un endomorphisme de $M_n(\C)$ peut s'écrire sous cette forme et fort probable que les contraintes suffisent à prouver que l'endomorphisme est de la forme suggérée par Guego.
Mon souhait était de trouver une méthode moins "élémentaire".
Oui, moi aussi. J'ai cherché sans succès.
Mince : je n'avais lu que certains messages ; je vois que l'idée a déjà été lancée deux fois. Vite, Optic 2000:-(
1) On peut polariser l'identité $f(M)M=Mf(M)$ ; cela donne $[f(M),N]=[M,f(N)]$ pour toute paire de matrices. En particulier, avec $N=Id$, on voit que $f(Id)\in{\rm Vect}(Id)$.
2) On peut écrire $f\big(\exp(tM)N\big)\,\exp(tM)N=\exp(tM)N\,f\big(\exp(tM)N\big)$, dériver et faire $t=0$ ; cela donne (curieusement, presque le même résultat, mais un peu moins bon) :
\[[f(MN),N]=[MN,f(N)].
\] En choisissant $M=N^k$, on voit que $f$ envoie $\C[N]$ dans le commutant ${\mathfrak z}(N)$ pour tout $N$.
Puisqu'il me semble raisonnable que $f$ soit de la forme proposée par Guego, je vais, quand j'en aurai le loisir, étudier les éléments propres de $f$ ou rêver que $f^2$ s'exprime simplement en fonction de l'identité de $\cal L\,({\mathfrak M}_n(\C))$ et de $f$.
On peut considérer l'ensemble
\[F=\{f\in\mathcal{L}(M_n(\C))\mid \forall X\in M_n (\C),\ f(X)X=Xf(X)\}.
\] Il est facile de vérifier les points suivants :
- $F$ est un sous-espace vectoriel de $\mathcal{L}(M_n(\C))$
- $\mathrm{Id}_{M_n(\C)}\in F$
- pour tout $\varphi \in\mathcal{L}(M_n(\C),\C)$, l'application $S_\varphi:X\mapsto \varphi(X)I_n$ est dans $F$.
Ainsi $F$ est de dimension supérieure ou égale à $n^2+1$.Si on considère à présent le crochet de Lie usuel sur $M_n(\C)$ : $[M,N]=MN-NM$ et la représentation adjointe : $\mathrm{ad}:M\mapsto(N\mapsto [M,N])$, on peut définir une application $\Phi$ de $\mathcal{L}(M_n(\C))$ dans $\mathcal{L}(M_n(\C),\mathcal{L}(M_n(\C)))$ par
\[\Phi(f)=\left(M\mapsto\mathrm{ad}(f(M))-\mathrm{ad}(M)\circ f\right)
\] On vérifie aisément que $\Phi$ est linéaire et d'après le point 1) de john-john, $F=\ker(\Phi)$.
Puisque $\mathcal{L}(M_n(\C))$ est de dimension $(n^2)^2$, il suffirait alors de prouver que $\mathrm{rg}(\Phi)\geq n^4-(n^2+1)$ pour conclure...
Bon, en l'écrivant, je me rends compte que ce n'est pas si trivial... mais c'est beau !
$$
\forall x, y,\quad [\varphi(x), y] = [x,\varphi(y)]\tag*{($\star$)}
$$ est proportionnelle à l'identité.
Ça doit être vrai non seulement pour $\sl_n$, mais aussi pour toute algèbre de Lie simple complexe, au moins en dimension finie.
Pas trouvé d'argument court.
oui, cela revient à cela si l'on montre que $f$ laisse stable le noyau de la trace ; cela fait partie des questions que je m'étais posées, mais je cherchais dans d'autres directions pour l'instant.
Ce que je voulais dire c'est que si on tient compte du fait que $\gl_n$ se décompose en $\sl_n\oplus \C 1_n$ (en tant qu'algèbre de Lie), une application linéaire $\varphi:\gl_n\to\gl_n$ a naturellement 4 composantes. La composante $\C 1_n\to \sl_n$ est nulle (car $\varphi$ doit préserver le centre), les composantes vers le centre $\sl_n\to \C 1_n$ et $\C 1_n\to \C 1_n$ sont libres, et il ne reste plus qu'à déterminer la composante $\sl_n\to\sl_n$.
1) Il est clair que tout endomorphisme de la forme $f_{\lambda,\varphi}(X)=\lambda X+\varphi(X) I$ convient, où $\varphi$ est une forme linéaire et $\lambda$ une constante.
2) Si $X$ est diagonalisable avec des valeurs propres distinctes, alors $f(X)$ commute avec $X$ donc est un polynôme en $X$.
3) Par densité, $f(X)$ est un polynôme en $X$ pour tout $X$ (le polynôme dépend de $X$).
4) Soient $E_{ij}$ les matrices élémentaires, alors il existe des constantes $\lambda_{ij}$ et $\mu_{ij}$ telles que $f(E_{ij})=\lambda_{ij}E_{ij}+\mu_{ij}I$.
5) Soit $\varphi$ la forme linéaire telle que $\varphi(E_{ij})=\mu_{ij}$ pour tous $i,j$. En retranchant $f_{0,\varphi}$ on peut supposer que $\mu_{ij}=0$.
6) En écrivant que $f(E_{ii}+E_{ij})$ commute avec $E_{ii}+E_{ij}$ on trouve que $\lambda_{ii}=\lambda_{ij}$. De même on a $\lambda_{jj}=\lambda_{ij}$.
7) Soit $\lambda$ la valeur commune des $\lambda_{ij}$, alors $f(E_{ij})=\lambda E_{ij}$ pour tous $i,j$ donc par linéarité on a $f(X)=\lambda X$ pour tout $X$.
Je ne sais pas si ça te permet d'avancer, mais en tout cas tu peux les exprimer (sans faire tout plein de calculs)
Soit $\gg=\sl_n$. Toute application linéaire $\varphi: \gg\to \gg$ satisfaisant
$$
\forall x, y,\quad [\varphi(x), y] = [x,\varphi(y)]\tag*{($\star$)}
$$
est proportionnelle à l'identité.
$\bullet$ A) Si $\ker\varphi\neq 0$, alors $\varphi=0$.
On peut utiliser le fait que $\sl_n$ est simple, ce qui implique:
- elle admet une forme bilinéaire $\langle-,-\rangle: \gg\otimes \gg\to \gg$ symétrique ($\langle x,y\rangle = \langle y,x\rangle$), invariante ($\langle [x,y], z\rangle = \langle x,[y,z]\rangle$)) et non-dégénérée.
En combinant la propriété d'invariance de $\langle-,-\rangle$ et la propriété de $\varphi$ ($\star$), on obtient $\langle \varphi(x), [y,z]\rangle = \langle x, [\varphi (y),z]\rangle$, et donc (si $\varphi(x)=0$)
$$
[\gg, \ker(\varphi)] \subseteq [\gg, \mathrm{im} (\varphi)]^\perp
$$
- Pour tout $x\neq 0$, $[\gg,x]=\gg$ (la représentation adjointe est irréductible).
Edit: FAUX, l'idéal engendré par $x$ n'est pas $[\gg, x]$, cf le message de Pea plus bas.
Par conséquent, si $\ker(\varphi)\neq 0$, alors $\gg\subseteq [\gg, \mathrm{im} (\varphi)]^\perp$, soit $[\gg, \mathrm{im} (\varphi)]=0$, et donc $\varphi=0$.
$\bullet$ Ensuite, on peut exploiter les faits que:
(1) $\gg=\sl_n$ est graduée:
$$
\gg=\bigoplus_\alpha \gg_\alpha, \quad [\gg_\alpha, \gg_\beta]\subseteq \gg_{\alpha+\beta}
$$
(J'évite volontairement d'expliciter les notations, car si on commence on n'en finit pas. Ce sont les mêmes que celles de wikipedia.)
$\gg_0$ est l'ensemble des matrices diagonales (de trace nulle), et un point important est que, pour $\alpha\neq 0$, chaque $\gg_\alpha$ non nul a dimension exactement $1$ (un $\alpha$ pour chaque matrice élémentaire hors-diagonale).
Donc une application linéaire $\varphi: \gg\to \gg$ se décompose en somme de fonctions homogènes pour la graduation de $\gg$, ie $\varphi=\sum_\lambda \varphi_\lambda$, avec $\varphi_\lambda(\gg_\alpha)\subseteq \gg_{\alpha+\lambda}$.
(2) L'équation du fil est homogène, ce qui n'est pas évident sous la forme originale, mais l'est sous la forme polarisée donnée par john_john ($\star$).
Par conséquent, $\varphi= \sum_\lambda \varphi_\lambda$ satisfait l'équation si et seulement si chacune de ses composantes homogènes la satisfait.
(3) Une composante homogène de degré $\lambda\neq 0$ a nécessairement un noyau non nul (car il existe forcément une racine $\alpha$ telle que $\alpha+\lambda$ ne soit pas racine, et donc $\varphi_\lambda(\gg_\alpha)=0$). Par le point A), $\varphi_\lambda = 0$.
(4) (Edit: mieux) La composante homogène de degré 0 préserve chaque $\gg_\alpha$. Si $\alpha\neq 0$ est une racine, $\gg_\alpha$ est de dimension $1$, donc $\varphi$ agit comme une multiple de l'identité dans chaque $\gg_\alpha$ autre que $\gg_0$. Il suit qu'il existe $k\in \C$ telle que $\varphi-k\,\id_\gg$ a un noyau non nul, et satisfait toujours ($\star$). Donc, toujours par A), $\varphi-k\id=0$.
Ton point (A) entraîne ce qu'on veut. En effet si $\varphi$ est un endomorphisme de ${\mathfrak sl}_n$ qui satisfait l'hypothèse, il possède une certaine valeur propre $\lambda$. L'endomorphisme $\varphi -\lambda{\rm id}$ satisfait la même hypothèse et a un noyau non nul. Il est donc nul par (A).
N.B. 1) La forme linéaire symétrique non dégénérée est tout-à-fait explicite pour ${\mathfrak sl}_n$ : c'est $\langle X,Y\rangle ={\rm Tr}(XY)$, $X$, $Y\in {\rm sl}_n$.
2) Il me semble que ta démonstration se généralise au cas d'une algèbre de Lie complexe simple $\mathfrak g$. On aura toujours que $\mathfrak g$ est un $\mathfrak g$-module simple, et pour la forme bilinéaire symétrique, on peut prendre la forme de Killing.
Rajout : on a bien que (A) entraîne le résultat. Mais la preuve de (A) est problématique.
Effectivement, il n'y a pas besoin de point !!! J'ai oublié qu'une application linéaire sur $\C$ a toujours un vecteur propre Merci de me le rappeler; ça raccourcit considérablement la preuve.
La preuve de (A) est bizarre. Je verrais plutôt la chose suivante. Si $Y$ est non nul dans le noyau et $X\in {\mathfrak sl}_n$, on a $\langle \varphi (X), [Y,{\mathfrak sl}_n ]\rangle =\{ 0\}$. Par simplicité de ${\mathfrak sl}_n$, on a $[Y,{\mathfrak sl}_n ]={\mathfrak sl}_n$. Donc l'image de $\varphi$ est orthogonale à ${\mathfrak sl}_n$, donc nulle.
Il est clair que cet argument se généralise à toute algèbre de Lie simple complexe.
Mais c'est toi qui a fait tout le travail !!
Edit : cette preuve est fausse.
Concernant le fait de considérer une algèbre de Lie simple quelconque, j'ai pris des notations générales précisément pour cette raison, cf ce message.
Mon idée était de prouver que $f$ était annulée par un polynôme de degré 2, de la forme $(X-\lambda)(X-(\lambda+\Lambda(I_n))$, mais je ne vois pas du tout comment arriver à cela.
Finalement, l'élémentaire n'était peut-être pas si mal :)o
Soit $\varphi$ un endomorphisme de $\sl$ satisfaisant notre équation fonctionnelle ; puisque $(f,g)\mapsto\tr(fg)$ est non dégénérée sur $\sl$, il existe un adjoint~$\varphi^*$ de $\varphi$. Soit $a,\,b$ dans $\sl$ ; écrivons $b$ sous la forme $[u,v]$, avec $(u,v)$ dans $\sl$. Nous avons la suite d'identités
\[
\tr(a\cdot\varphi^*(b))=\tr(\varphi(a)\cdot[u,v])=\tr([\varphi(a),u]\cdot v)=\tr([a,\varphi(u)]\cdot v)=\tr(a\cdot[\varphi(u),v])
\] Donc, $\varphi^*([u,v])=[\varphi(u),v]$ ; puisque, en outre, $\varphi^*(0)=0^{{\bf\ulcorner reference\ needed\urcorner}}$, on en déduit que $uv=vu\Longrightarrow\varphi(u)v=v\varphi(u)$. Donc, $\varphi$ laisse stable le commutant de $v$ et donc aussi son bicommutant : si $u$ commute avec tout $w$ commutant avec $v$, alors $\varphi(u)$ commute avec tout $w$ commutant avec $v$.
Où mon cerveau gauche en est-il:-S ? Si l'on triangule supérieurement la matrice de $u$, on doit pouvoir construire $v$ tel que $C(u)\cap C(v)={\rm Vect}(I_n)$ en choisissant pour la matrice de $v$ une matrice triangulaire inférieure, par exemple un bloc de Jordan plein, mais inférieur (pourquoi cela ? C'est afin que le commutant de $v$ soit de la dimension la plus petite possible puisque, dans $\mathfrak{gl}_n$, celle de $C(u)$ peut aller jusqu'à $(n-1)^2+1$ ; la somme des deux ne doit pas dépasser $n^2$).
En effet, on écrit $u_0=d+n$, avec $d$ diagonalisable, $n$ nilpotent, tous les deux dans $\C[u_0]$ ; puisque $C(u_0)\subset C(d)$, il suffit de construire $v$ tel que $C(d)\cap C(v)=\{0\}$. Pour cela, dans une matrice qui diagonalise $d$ selon le drapeau des sous-espaces propres (càd avec les éventuelles valeurs propres égales regroupées sur la diagonale), il suffit de prendre pour la matrice de $v$ le bloc de Jordan plein (inférieur).
Remarque à l'intention des administrateurs : j'ai dû taper $\C[u_0]$ car, en lisant $\C crochet u$, votre analyseur syntaxique voit la balise de soulignement. C'est ballot...
:-X :-X:-X : ça ne marche pas lorsque $d$ est une homothétie (et seulement dans ce cas). Y'a kék chose qui cloch' la-d'dans ; j'y retourne immédiat'ment
Soit $\mathfrak g$ une algèbre de Lie complexe simple. Alors tout endomorphisme $f$ vérifiant
$$
(*) \hskip1cm [f(X),Y]=[X,f(Y)], \ X,\ Y\in {\mathfrak g}
$$ est une homothétie.
On fixe une sous-algèbre de Cartan $\mathfrak t$ de $\mathfrak g$ et on note $\Phi$ le système de racines de $\mathfrak t$ dans $\mathfrak g$, $\Delta \subset \Phi$ une base. Rappelons qu'on a la somme directe
$$
{\mathfrak g}={\mathfrak t}\oplus \bigoplus_{\alpha\in \Phi} {\mathfrak g}_\alpha,
$$ où ${\mathfrak g}_{\alpha}$ est le sous-espace radiciel des $X\in {\mathfrak g}$ vérifiant $[T,X]=\alpha (T)X$, $T\in \mathfrak t$. Chaque sous-espace radiciel ${\mathfrak g}_\alpha$ est une droite et on en fixe un générateur $X_\alpha$.
Le sous-ensemble ${\mathfrak t}^{\rm reg}$ formé des éléments réguliers est dense dans ${\mathfrak t}$. De plus puisque pour tout $X\in \mathfrak g$, $X$ et $f(X)$ commutent, il s'ensuit que $f$ envoie ${\mathfrak t}^{\rm reg}$ dans $\mathfrak t$. Par densité et continuité de $f$, $f$ stabilise $\mathfrak t$. On notera $f^*$ l'endomorphisme transposé induit par $f$ dans le dual ${\mathfrak t }^* \supset \Phi$.
Soit $\alpha\in \Phi$. Alors pour tout $T\in \mathfrak t$, on a $[T,f(X_\alpha )]=[f(T),X_\alpha ]$, ce qui s'écrit $[T,f(X_\alpha )]=f^*\alpha (T)X_\alpha$, $T\in \mathfrak t$. Il s'ensuit que $f(X_\alpha )$ est de la forme $T_\alpha + \lambda_\alpha X_\alpha$, pour un $T_\alpha \in \mathfrak t$ et $\lambda_\alpha \in \C$. En effet, on peut écrire $f(X_\alpha )=T_\alpha +\sum_{\beta\in \Phi} \lambda_{\beta} X_\beta$, pour un $T_\alpha\in \mathfrak t$ et des complexes $\lambda_\beta$. On obtient la condition $\sum_{\beta} \beta (T) \lambda_\beta X_\beta \in \C X_\alpha$, pour tout $T\in \mathfrak t$, ce qui donne ce qu'on veut.
A présent, écrivons la relation $[f(X_\alpha ),X_\beta ] = [X_\alpha ,f(X_\beta )]$, $\alpha$, $\beta \in \Phi$. Cela donne
$$
\beta (T_\alpha )X_\beta +\lambda_\alpha [X_\alpha ,X_\beta ] = -\alpha (T_\beta )X_\alpha +\lambda_\beta [X_\alpha ,X_\beta ].
$$ Rappelons que $[X_\alpha ,X_\beta ]$ est nul si $\alpha +\beta$ n'est pas une racine, et vit dans ${\mathfrak g}_{\alpha +\beta}$ sinon. Il s'ensuit que $\beta (t_\alpha )$ est nul quelque soit $\beta\in \Phi$. Puisque $\Phi$ engendre ${\mathfrak t}^*$, on a $t_\alpha =0$.
Nous avons donc prouvé que $f(X_\alpha )=\lambda_\alpha X_\alpha$.
Pour $T\in \mathfrak t$ et $\alpha \in \Phi$, la relation $[f(T),X_\alpha ]=[T,f(X_\alpha )]$ s'écrit $f^*\alpha (T)= \lambda_\alpha (T)$. On a donc $f^* \alpha = \lambda_\alpha \alpha$, pour toute racine $\alpha$.
On remarque que $\lambda_\alpha =\lambda_\beta$ pour deux racines $\alpha$ et $\beta$ telles que $\alpha +\beta$ est une racine. Considérons le graphe $\Gamma$ de sommet $\Delta$ et tel que deux sommets $\alpha$ et $\beta$ définissent une arêtes si et seulement si $\alpha +\beta$ est une racine. Ce graphe est connexe car, l'algèbre de Lie étant simple, son diagramme de Dynkin est connexe. On en déduit que $\lambda_\alpha$ ne dépend pas de $\alpha \in \Delta$. Notons ce complexe $\lambda$.
Puisque $\Delta$ est une base de ${\mathfrak t}^*$, on en déduit que $f$ est l'homothétie de rapport $\lambda$ sur $\mathfrak t$. En écrivant à nouveau que, pour toute racine $\alpha$ et tout $T\in \mathfrak t$, on a $[f(T),X_\alpha ]=[T,f(X_\alpha )]$, on obtient $\lambda_\alpha =\lambda$, de sorte que $f$ est bien l'homothétie de rapport $\lambda$ sur $\mathfrak g$ tout entier. C.Q.F.D.
N.B. Cette démonstration s'adapte aisément pour montrer que si ${\mathfrak g} ={\mathfrak g}_1 \times \cdots \times {\mathfrak g}_r$ est une algèbre de Lie semisimple complexe (où les ${\mathfrak g}_i$ sont simples) et $f$ un endomorphisme de $\mathfrak g$ vérifiant (*), alors $f$ s'écrit $\lambda_1 {\rm id}_{{\mathfrak g}_1} \times \cdots\times \lambda_r {\rm id}_{{\mathfrak g}_r}$, pour des scalaires $\lambda_1,\ldots,\lambda_r$.