CNS $\mathcal L(E)$ anneau commutatif
Bonjour,
Après cette belle finale, une petite question sûrement facile mais sur laquelle je bloque. Soit $E$ un $\mathbb K$-espace vectoriel. Sans utiliser l'approche matricielle, j'aimerais montrer cette équivalence que je pense vraie :
1) $\mathcal L(E)$ est commutatif (en tant qu'anneau pour $\circ$)
2) $\text{dim}(E)\in\{0,1\}$
J'ai montré que 1) $\implies$ 2) par contraposée. Le cas $(\text{dim}(E)=0)\implies$ 1) est trivial. Il me reste à montrer que $(\text{dim}(E)=1)\implies$ 1).
Supposons que $\text{dim}(E)=1$. Il existe $x\in E,x\neq 0_E$ tel que $E=\mathbb K x$. Soit $(f,g)\in\mathcal L(E)^2$ et $t\in E$.
Je n'arrive pas à montrer que $(f\circ g)(t)=(g\circ f)(t)$
Il existe $(\lambda,\mu)\in\mathbb K^2$ tel que $f(t)=\lambda x$ et $g(t)=\mu x$, mais même avec ça je ne parviens pas à conclure.
Après cette belle finale, une petite question sûrement facile mais sur laquelle je bloque. Soit $E$ un $\mathbb K$-espace vectoriel. Sans utiliser l'approche matricielle, j'aimerais montrer cette équivalence que je pense vraie :
1) $\mathcal L(E)$ est commutatif (en tant qu'anneau pour $\circ$)
2) $\text{dim}(E)\in\{0,1\}$
J'ai montré que 1) $\implies$ 2) par contraposée. Le cas $(\text{dim}(E)=0)\implies$ 1) est trivial. Il me reste à montrer que $(\text{dim}(E)=1)\implies$ 1).
Supposons que $\text{dim}(E)=1$. Il existe $x\in E,x\neq 0_E$ tel que $E=\mathbb K x$. Soit $(f,g)\in\mathcal L(E)^2$ et $t\in E$.
Je n'arrive pas à montrer que $(f\circ g)(t)=(g\circ f)(t)$
Il existe $(\lambda,\mu)\in\mathbb K^2$ tel que $f(t)=\lambda x$ et $g(t)=\mu x$, mais même avec ça je ne parviens pas à conclure.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
NB : tu es sur la voie avec ton début de raisonnement ; exprime $t$ en fonction de $x$.
Soit $f\in\mathcal L(\mathbb K x)$ avec $x\neq 0_E$. Pour tout $u\in \mathbb K x, \exists\lambda_u \in\mathbb K, f(u)=\lambda_u x$.
Soit $(u,v)\in (\mathbb K x)^2$. Il s'agit de montrer que $\lambda_u=\lambda_v$. Si $u=0_E$ alors $f(u)=0_E=\lambda_u x$ donc on peut choisir $\lambda_u=\lambda_v$. Même chose si $v=0_E$. Supposons donc $u\neq 0$ et $v\neq 0$. Il existe $\mu\in\mathbb K, \mu\neq 0$ tel que $u=\mu v$. D'où $f(u)=\lambda_u x=\mu\lambda_v x$ donc $\mu (\lambda_v-\lambda_u)x=0$ donc $\lambda_u=\lambda_v$.
1) $\implies$ 2) est trivial.
2) $\implies$ 1). Supposons 2). Soit $(u,v)\in E^2$. Si $(u,v)$ est liée alors c'est la même démonstration que précédemment. Supposons $(u,v)$ libre. On a $f(u+v)=\lambda_{u+v}(u+v)=\lambda_u u+\lambda_v v$ donc $(\lambda_{u+v} -\lambda_u)u+(\lambda_{u+v}-\lambda_v)v=0_E$ donc par $\lambda_{u+v}=\lambda_u=\lambda_v$ par liberté.
Quid de la réciproque ?
Un indice à l'édition : Les matrices ne sont qu'un moyen économique de représenter les applications linéaires. Cette représentation est possible parce que toute application linéaire $f$ est entièrement et uniquement déterminée par les images par $f$ des vecteurs d'une base. Muni de ce résultat, la réciproque ne devrait guère résister, avec ou sans l'habillage matriciel.
Seconde édition : j'avais lu trop vite le premier message dans lequel tu indiques ne pas avoir eu de problème avec ce sens.