Caractérisation ${\rm tr}(A)=0$

Bonsoir, puis-je avoir de l’aide pour la dernière question svp ? Évidemment pour le sens direct.
Juste une indication.
Merci.103920
«1

Réponses

  • $\def\diag{\mathrm{diag}}$Tu peux te ramener au cas où la diagonale de $A$ est nulle d’après ta seconde question. Ensuite, il me semble que tu peux t’en sortir en prenant $U=\diag(1,\ldots,n)$ et en étudiant l’application $V\mapsto UV-VU$.
  • Question au gens spécialisés concernant ce sujet :
    est-ce qu'il n'y a pas un résultat plus fort disant que U et V sont de traces nulles ?!
  • @Twisted_Fate: Si $A=UV-VU$ alors pour tout $\lambda \in \C$, $A=(U-\lambda I_n) V - V(U-\lambda I_n)$.

    @Attien: la question 3 se résout à l'aide de la 2 et d'une récurrence sur la dimension:
    étant donnés $n\in \N\backslash \{0\}$, $x\in M_{n,1}(\C)$, $\mathbf y\in M_{1,n}(\C)$, $A,B\in M_{n-1,n-1} (\C)$ et $\lambda,\mu \in \C$, posons (matrices définies par blocs)$$
    U:= \begin{pmatrix} \lambda & \mathbf y \\ x & A \end{pmatrix} \text{ et } V:= \begin{pmatrix} \mu & \mathbf y \\ x & B \end{pmatrix}
    $$ Que vaut $UV-VU$ ?
    $\C$ peut être remplacé par un corps infini quelconque.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • J'ai édité mon message et ai mis l'indication de solution en blanc (ne la regarder qu'après s'être réellement acharné), je pense que cet exo est très bien pour s'entraîner à la prise d'initiative et au bricolage en maths. Ce sont les qualités dont les élèves qui n'ont plus de problème avec le langage mathématique ont le plus besoin et ce - dans un contexte de préparation aux concours- loin devant l'apprentissage par coeur de centaines de solutions d'exos (la probabilité de tomber sur un exo qu'on connaît déjà reste faible de toute façon).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Bonjour
    En travaillant sur l’exercice d’Attien, je suis tombé sur une difficulté.
    J’ai deux espaces vectoriels :
    1 - $\{ (U,V)\in \mathcal{M}_n (R)^2\mid UV=VU\}$
    2- $\{ U \in \mathcal{M}_n (R) \mid \forall V \in \mathcal{M}_n (R) ,\ UV=VU\}$

    Je connais la dimension du second, c’est $1$. J’ai l’impression que la dimension du premier est $n^2+1$.
    Et pour le prouver, j’essaie justement de décomposer le premier en somme directe ou en produit direct pour faire apparaître $n^2$, qui est en fait la dimension du commutant d’une homothétie. J’ai l’esprit embrouillé et j’ai du mal à avancer.
    En fait, j’essaie d’adapter la piste de MrJ mais je pense qu’il faut plutôt utiliser l’application
    $ \mathcal{M}_n (R)^2 \to \{ M\in \mathcal{M}_n (R) \mid tr(M)=0\} ,\ (U,V) \mapsto UV-VU$, car l’application proposée par MrJ ne peut pas fonctionner.
    On a en effet que la dimension du commutant de toute matrice est au moins égal à $n$, donc l’application de MrJ ne sera surjective pour aucun $U$ mais l’application précédente définie sur $ \mathcal{M}_n (R)^2$ l’est, il me semble, non ?
    Merci.
  • Le premier ensemble (que je note $C$) n'est pas un espace vectoriel. Il n'est pas stable par addition.
    Si on prend deux matrices $M$ et $N$ qui ne commutent pas alors $(M-I_n,I_n)\in C$ et $(I_n,N-I_n)\in C$ mais leur somme $(M,N)$ n'est pas dans $C$.
  • Benh comme ça c’est plié....:-D
    Merci bisam.

    Question subsidiaire: j’ai un peu honte, est-ce que c’est normal de passer des heures à chercher sans avoir vu une erreur grossière dès le début(ici, qu’un sous-ensemble n’est pas un espace vectoriel...)?
  • Qu'est-ce qui te fait dire que l'ensemble des couples de matrices qui commutent est un sous-espace vectoriel ? Si $U=V$, ou plus généralement $U=\alpha V$ avec $\alpha$ scalaire, on a évidemment $UV=VU$. Prenons par exemple \[U_1=\frac12V_1=\begin{pmatrix}0&1\\0&0\end{pmatrix},\quad U_2=V_2=\begin{pmatrix}0&0\\1&0\end{pmatrix},\] on a bien $[U_1,V_1]=0=[U_2,V_2]$ mais $[U_1+U_2,V_1+V_2]=[U_1,V_2]+[U_2,V_1]=-[U_1,V_2]\ne0$.

    PS : Tiens, je suis un peu en retard...
  • Merci Math Coss, c’est quand même très enrichissant pour moi! Merci !!
  • Merci @foys, demain je vais travailler à fond sur l’exercice :-D
  • C'est ce que j'ai fait au lit hier soir (ça m'a endormi presto d'ailleurs :-D )

    Ne pas lire la suite si voulez chercher (je la mets en encre claire). Des erreurs de ma part sont possibles.

    1/ L'espace $A$ des matrices dont tous les coefs diag sont nuls est de dimension $n^2-n$

    2/ Suivant l'indication de MrJ (sans elle combien mois aurais-je mis? :-D ) , avec $D:=\diag(1,2,3,..,n)$, l'ap linéaire : $$

    M\mapsto MD-DM

    $$ a un noyau égal à l'ensemble des matrices diagonales de dimension $n$, donc une image de dimension $n^2-n$ incluse dans $A$, donc C'EST $A$.

    3/ Il suit que tout élément de $A$ peut s'écrire $XD-DX$.

    4/ Trace nulle => semblable à matrice dans $A$ résulte de la mise sous forme (je crois qu'on dit comme ça) Kroneckerienne, mais on peut aussi, me semble-t-il le voir en prenant un $u$ tel que $f(u)$ n'est pas colinéaire à $u$, puis prendre un supplémentaire $S$ de $Vect(u,f(u))$ et adapter une de ses bases (via récurrence).
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Bonjour @cc

    Je n’ai pas regardé ta solution et je cherche encore.
    Mais l’application de MrJ $ \mathcal{M}_n (R) \to \{ M\in \mathcal{M}_n (R) \mid tr(M)=0\} ,\ V \mapsto UV-VU$ est surjective si et seulement si:
    $n^2-\dim C(U)=n^2-1$ (*) d’après le théorème du rang, où $C(U)$ est le commutant de $U$. Or ce commutant est de dimension $\geq n$ donc
    (*) n’est pas possible.
    Non?
  • MrJ propose un truc dans un contexte bien précis qui est l'exercice sur fond bleu ciel. (Je veux pas trop te mettre sur la voie :-D )
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Oui c’est bien dans ce cadre que j’ai écrit ce qui précède.
    La dernière question demande de montrer qu’il existe un choix de $U$ pour lequel l’application de MrJ soit surjective, ou alors j’interprète mal?
  • Tu interprètes mal, tu intervertis $\forall \exists $ en $\exists \forall$.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Pour être plus précis, tu as les deux énoncés (sans préjuger de leur vérité) suivants:

    1/ il existe $A$ pour tout $B$ il existe $k,C: B = AC-CA + kI$

    2/ pour tout $B$ il existe $A$, il existe $k,C: B = AC-CA + kI$

    (Le cas de la trace nulle, anecdotique, s'associe avec le choix $k=0$).
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • D’accord, donc c’est le (2) et c’est alors la surjectivité de $ \mathcal{M}_n (R)^2 \to \{ M\in \mathcal{M}_n (R) \mid tr(M)=0\} ,\ (U,V) \mapsto UV-VU$ qu’il faut établir.
  • Exactement!
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Mais j’ai un problème, j’ai l’impression que le noyau est :
    $\{ (U,V)\in \mathcal{M}_n (R)^2\mid UV=VU\}$, mais je sais que c’est faux( cf. bisam et MC et surtout que le noyau est bien un sev).
    J’ai encore un problème de logique cc. Je n’arrive pas à décrire le noyau correctement.
  • Mais tu n'as pas à strictement parler de "noyau" pour une application comme ça ;-) qui n'est pas linéaire. J'ai juste répondu à ta question.

    Je te redis que l'EXO TOUT ENTIER de départ file des indications PRECIEUSES. Et MrJ apporte THE SUPER MATRICE qui rend l'exercice facile.

    T'en dire pluss consisterait à te filer la correction.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Je peux témoigner personnellement par exemple que SANS l'indication de MrJ, j'aurais mis des dizaines d'heures à faire l'exo. J'ignore si d'autres idées marchent.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Concernant le fait qu'une matrice de trace nulle soit nécessairement semblable à une matrice dont la diagonale est nulle, s'il y a des amateurs de raisonnements à base de matrices génériques (oui, je sais, je sors l'artillerie lourde pour écraser une mouche et alors ?):

    Si on note $G$ la matrice carrée générique (à coefficients dans $R=\mathbb{Z}\left[\left(x_{i,j}\right)_{\left(i,j\right)\in n^{2}}\right]$), $\chi$ son polynôme caractéristique et $k$ un corps de décomposition de $\chi$, alors $G$ est semblable sur $k$ à la matrice $C$ compagnon de $\chi$ (car sinon ce serait faux pour certaines instanciations de $G$ pour lesquelles on sait que c'est vrai). Donc $G$ est semblable à une matrice dont toute la diagonale est nulle sauf éventuellement le dernier élément de cette diagonale qui vaut justement $\text{Tr}\left(G\right)$. Par unicité dans la décomposition de Frobenius, si elles sont semblables sur $k$ elle sont semblables sur $\text{Frac}(R)$.

    Peut-on conclure pour la matrice $A$ à coefficients complexes ?
  • @feru : On fixe $U=D=\mathrm{diag}(1,2,\dots,n)$ et on considère l'application de $\mathcal{M}_n(\C)$ dans lui-même $\phi_U:V\to UV-VU$. Cette application est bravement linéaire.

    @cc : Oui, c'est possible. En dimension $2$, si $U=\big(\begin{smallmatrix}1/2&0\\0&-1/2\end{smallmatrix}\big)$ et $V=\big(\begin{smallmatrix}0&1\\0&0\end{smallmatrix}\big)$, on a $UV-VU=V$. On voit bien comment écrire n'importe quelle matrice élémentaire $E_{i,j}$ avec $i\ne j$ sous la forme $UV-VU$ et donc n'importe quelle matrice à diagonale nulle comme combinaison linéaire de matrices de cette forme.

    Pour comprendre un peu que l'indication de MrJ n'est pas une astuce diabolique sortie de nulle part, regardons un peu l'application $\phi_U$ pour une matrice $U$ « générale », donc diagonalisable avec des valeurs propres distinctes. Quitte à changer de base, on peut supposer que $U$ est diagonale, disons $U=\mathrm{diag}(d_1,\dots,d_n)$. Alors $V\mapsto UV$ consiste à multiplier les lignes de $V$ par les $d_i$ et $V\mapsto VU$ fait de même avec les colonnes. La matrice élémentaire $E_{i,j}$ est donc un vecteur propre de $\phi_U$ ayant pour valeur propre $d_i-d_j$. Si tous les $d_i$ sont distincts, ce qui est le cas de la matrice de MrJ, le noyau de $\phi_U$ est de dimension minimale $n$. Autrement dit, la propriété utile de la matrice de MrJ, qui pourtant semble très spéciale, c'est d'être très quelconque...
  • Merci Match Coss!

    Bon sinon, dommage que tu aies filé la correction à féru qui ne la demandait pas (je l'avais mise en jaune de toute façon, il y avait accès "s'il voulait").

    Après s'il ne t'a pas encore lu et qu'il me lit avant dans les présentes phrases, il aura le choix entre se retenir ou pas.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • @Math Coss ,bonsoir je n’ai pas regardé ta correction parce que je n’ai pas encore eu le temps de chercher l’exercice ( à cause de ma démarche consulaire). Mais peux-tu cacher ta correction stp ? Le temps de nous permettre de chercher convenablement :-D.
  • Petite remarque: il ne faut pas oublier que l'énoncé "génial" ou "fascinant", je ne sais comment dire que nous apprend cet exercice de Central, c'est que TOUTE MATRICE $M$ est telle qu'il existe $U,V,k$ avec $UV-VU + kJ$, où $k$ est un scalaire et $J$ la matrice identité de bonne dimenstion (j'ai vraiment du mal à trouver cool d'écrire $I_n$, comme fait l'académisme, mais c'est personnel).
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • $\def\Im{\mathrm{im\,}}\def\tr{\mathrm{tr\,}}$Bonjour à tous, j'ai pu débuter mes recherches concernant l'exercice avec l'indication donnée par @Mjr.
    Voici ce que j'ai fait.

    D'après 2, on va considérer l'ensemble $G=\{A=(a_{i,j})_{1\leq i,j \leq n} \in M_{n}(C)\mid a_{i,j}=0 ,\ \forall (i,j) \in \N^{2},\text{ où } i=j \}$ et $$

    \begin{array}{ccccl}
    \varphi_{U} & : & M_{n}(C) & \longrightarrow & M_{n}(C) \\
    & & V & \longmapsto & \varphi_{U}(V)=UV-VU .
    \end{array}

    $$ Je vais montrer que : $\Im(\varphi_{U})=G$
    Étant en dimension finie, je vais établir cette égalité en utilisant des arguments de dimension.

    1- On constate que l'espace vectoriel $G$ est un sous-espace vectoriel de $M_{n}(C)$ engendré par les matrices élémentaires $E_{i,j}$ où $i\neq j$.
    Cette famille de vecteurs est libre car toute sous-famille d'une famille libre est libre, donc forme une base de $G$.
    On en déduit que la dimension de $G$ est $n^{2}-n$

    2- L'application $\varphi_{U}$ est clairement linéaire par opérations sur l'espace des matrices carrées.
    $\star$ Détermination de la dimension de $\Im(\varphi_{U})$.
    Ramenons-nous à de celle de $\ker(\varphi_{U})$.
    On a $\ker(\varphi_{U})=C(U),$ où $C (U)=\{V \in M_{n}(C) \mid UV=VU \}$.
    Comme $U$ est une matrice diagonalisable, on sait que $\dim(C(U))=n$ donc $\dim(\ker(\varphi_{U}))=n$.
    D'après le théorème du rang, on en déduit que $\dim(\Im(\varphi_{U}))=n^{2}-n$

    3- Comme $\tr(\varphi_{U}(V))=0$, cela implique que $\Im(\varphi_{U}) \subset G.\qquad(*)$
    De plus, 1 et 2 assure que $\dim(G)=\dim(\Im(\varphi_{U}).\qquad\qquad\quad(**)$.

    De $(*)$ et $(**)$, on en déduit l'égalité voulue.
    Ce qui prouve que $A=\varphi_{U}(V)$ càd $A=UV-VU$.
  • C'est ok mais attention c'est vraiment très mal rédigé au niveau des quantifications de $A, U$ et $V$ !
  • Tu aurais pu not[large]er[/large] une fois pour toute $D$, par exemple, la matrice que tu sous-entends être $U$ (ie celle de MrJ).

    Remarque: il y a aussi à prouver que trace nulle => simil avec diag nulle (je le fais car il y a eu je crois une intervention qui évoquait le flingage de cette partie à coups de pistolets lazer) :

    Le cas des homothéties étant simple, tu peux supposer avoir une base $e$ de $E$ où $f(e_1)=e_2$. Dans cette base la matrice de $f$ a sa première colonne égale à $(0,1,0,0,0,..,0)$. Par récurrence (ou récursivité informatique :-D ) tu ne changes pas $e_1$, mais changent $(e_2,..,e_n)$ en $(u_2,..,u_n)$ de sorte que la nouvelle matrice marche, celle dans la base $(e_1,u_2,..,u_n)$

    (il n'y a rien à faire, sauf erreur, c'est automatique vu qu'on se fiche des coefficients de la première ligne du moment que le premier est nul). .
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Attien écrivait :
    > Comme $U$ est une matrice diagonalisable, on sait que $\dim(C(U))=n$ donc [...]

    La matrice nulle est diagonalisable pourtant son commutant a pour dimension $n^2$.
    Par contre le commutant a au moins la dimension (à savoir $n$) de l'espace des matrices diagonales puisqu'il le contient. Et cette minoration suffit pour majorer la dimension de l'image par $\phi$ contenant les matrices de diagonale nulle.

    PS à Christophe C
    Les pistolets lasers peuvent amuser les maîtres Jedi. Ils ne servent d'ailleurs qu'à ça dans la pratique mais c'est déjà pas mal.
  • Ok @Poirot , je suis sur mon téléphone, mais je vais réécrire ce qu’on me demande afin de bien résoudre l’exercice.
  • Attien bonjour ! (sans jeu de mots)
  • @troisqua , je ne comprends pas la dernière phrase de ton message me concernant.
  • Ah, tiens ! Bonjour Attien
    D'ailleurs rebonjour même :)
  • @Math Coss, peux-tu rendre lisible ton explication concernant l’idée de @Mjr :-D
  • Bonsoir ou Bonjour @Poirot (en fonction de l'heure à laquelle tu regardes mon message).

    On me demande de montrer que pour toute matrice $A \in M_{n}(C)$ (vérifiant les hypothèses de la question 2) , $\exists (U,V) \in (M_{n}(C))^{2}, A=UV-VU$.

    Voici comment j'interprète du point de vue de la logique:

    On veut montrer que $\forall A \in M_{n}(C), P(A): \exists (U,V) \in (M_{n}(C))^{2}, A=UV-VU$ est vraie.

    On peut réécrire la proposition $P(A)$ de la manière suivante:

    $\exists U \in M_{n}(C) ,\exists V\in M_{n}(C)$ telle que $A=UV-VU$.

    Donc la proposition revient à : $\forall A \in M_{n}(C)$,$\exists U \in M_{n}(C) ,\exists V\in M_{n}(C)$ telle que $A=UV-VU$.

    Ma rédaction:

    Soit $A \in M_{n}(C)$

    Posons $U=\diag(1,\ldots,n)$ (Merci à @Mjr d'avoir fait l'analyse au brouillon pour moi :-D), on peut même généraliser avec $U=\diag(\lambda_{1},\ldots,\lambda_{n})$ où les coefficients diagonaux sont deux à deux distincts.

    Montrons qu'il existe $V \in M_{n}(C)$, telle que $A=UV-VU$.

    Ici maintenant, je peux remettre tout ce que j'avais fait dans mon poste où j'avais rédigé un peu.

    J'espère que la rédaction est bonne maintenant :-S
  • C'est mieux en rajoutant ces choses au bon endroit ;-)
  • D'accord @Poirot merci :-), mais stp, peux-tu m'expliquer un peu l'idée de @Mjr...?
    Pourquoi le choix d'une matrice $U$ diagonalisable dont les valeurs propres sont distinctes deux à deux.
  • Rédaction finale

    Soit $A \in M_{n}(C)$

    Posons $U=\diag(1,\ldots,n)$ (Merci à @Mjr d'avoir fait l'analyse au brouillon pour moi :-D), on peut même généraliser avec $U=\diag(\lambda_{1},\ldots,\lambda_{n})$ où les coefficients diagonaux sont deux à deux distincts.

    Montrons qu'il existe $V \in M_{n}(C)$, telle que $A=UV-VU$.
    D'après 2, on va considérer l'ensemble $G=\{A=(a_{i,j})_{1\leq i,j \leq n} \in M_{n}(C)\mid a_{i,j}=0 ,\ \forall (i,j) \in \N^{2},\text{ où } i=j \}$ et $$

    \begin{array}{ccccl}
    \varphi_{U} & : & M_{n}(C) & \longrightarrow & M_{n}(C) \\
    & & V & \longmapsto & \varphi_{U}(V)=UV-VU .
    \end{array}

    $$ Je vais montrer que : $\Im(\varphi_{U})=G$
    Étant en dimension finie, je vais établir cette égalité en utilisant des arguments de dimension.

    1- On constate que l'espace vectoriel $G$ est un sous-espace vectoriel de $M_{n}(C)$ engendré par les matrices élémentaires $E_{i,j}$ où $i\neq j$.
    Cette famille de vecteurs est libre car toute sous-famille d'une famille libre est libre, donc forme une base de $G$.
    On en déduit que la dimension de $G$ est $n^{2}-n$

    2- L'application $\varphi_{U}$ est clairement linéaire par opérations sur l'espace des matrices carrées.
    $\star$ Détermination de la dimension de $\Im(\varphi_{U})$.
    Ramenons-nous à de celle de $\ker(\varphi_{U})$.
    On a $\ker(\varphi_{U})=C(U),$ où $C (U)=\{V \in M_{n}(C) \mid UV=VU \}$.
    Comme $U$ est une matrice diagonalisable dont les valeurs propres sont deux à deux distinctes(Merci à @troisqua de me rappeler la rigueur en mathématiques :-D, on sait que $\dim(C(U))=n$ donc $\dim(\ker(\varphi_{U}))=n$.
    D'après le théorème du rang, on en déduit que $\dim(\Im(\varphi_{U}))=n^{2}-n$

    3- Comme $tr(\varphi_{U}(V))=0$, cela implique que $\Im(\varphi_{U}) \subset G.\qquad(*)$
    De plus, 1 et 2 assure que $\dim(G)=\dim(\Im(\varphi_{U}).\qquad\qquad\quad(**)$.

    De $(*)$ et $(**)$, on en déduit l'égalité voulue.
    Ce qui prouve que $A=\varphi_{U}(V)$ càd $A=UV-VU$.

    on conclut que $\forall A \in M_{n}(C), \exists (U,V) \in (M_{n}(C))^{2}, A=UV-VU$.
  • Bonjour Attien,

    Tu as écrit:
    > On va considérer l'ensemble $G=\{A=(a_{i,j})_{1\leq i,j \leq n} \in M_{n}(C)\mid a_{i,j}=0 ,\ \forall (i,j) \in \N^{2},\text{ où } i=j \}$

    Ne serait-il pas plus simple et lisible d'écrire \[
    G=\left\{ A\in M_{n}\left(\mathbb{C}\right)|\forall i\in\left\{ 1,\dots,n\right\} ,A_{i,i}=0\right\}
    \]
    ou encore mieux: $G$ est l'ensemble des matrices de $M_{n}\left(\mathbb{C}\right)$ dont la diagonale est nulle ?

    Tu as écrit:
    > Comme $U$ est une matrice diagonalisable, on sait que $\dim(C(U))=n$ donc $\dim(\ker(\varphi_{U}))=n$.

    Comme je te l'ai déjà dit (m'as-tu lu ?), cette argumentation est fausse. La matrice nulle est diagonalisable et pourtant son commutant a pour dimension $n^2>n$ pour $n>1$.

    Tu as écrit :
    > Comme $tr(\varphi_{U}(V))=0$, cela implique que $\Im(\varphi_{U}) \subset G.\qquad(*)$

    C'est l'utilisation précise du fait que $U=D$ est diagonale (pas juste "diagonalisable" et encore moins de trace nulle) qui permet de montrer cette inclusion. Il manque la rédaction du bon argument à cet endroit.

    Je m'arrête là pour l'instant dans la lecture de ta rédaction. Il y a encore du travail à fournir mais c'est mieux.
  • Bonjour @troisqua , je suis parfaitement d’accord avec toi concernant la dimension du commutant qui est supérieure ou égale à $n$ . Mais dans mon cas , la matrice $U$ n’est pas nulle non? Du coup pourquoi rendre compliqué si on peut faire simple ? C’est juste que dans mon cas les ordres de multiplicités sont tous égaux à 1 :-D .
  • Concernant la trace , je n’ai pas voulu écrire totalement le raisonnement... le fait que $U$ soit diagonale permet de mener à bien le raisonnement non ? :-)
  • Tu as écrit:
    > Bonjour @troisqua , je suis parfaitement d’accord avec toi concernant la dimension du commutant qui est supérieure ou égale à $n$ . Mais dans mon cas , la matrice $U$ n’est pas nulle non?

    La matrice $I_n$ n'est pas nulle non plus et son commutant est pourtant de dimension $n^2$. Tu n'as effectivement pas compris un point de cours et je suis simplement en train d'essayer de faire en sorte que tu t'en rendes compte. De plus ton argumentation est fausse et en persistant tu viens de rajouter une erreur de logique par dessus.

    En gros tu écris que le commutant d'une matrice diagonalisable est de dimension $n$ et c'est faux. C'est tout.

    Tu as écrit:
    >Concernant la trace , je n’ai pas voulu écrire totalement le raisonnement... le fait que U soit diagonale permet de mener à bien le raisonnement non ?

    Non, absolument pas. Il faut des contraintes supplémentaires sur $U$ (pas juste "diagonale"). Et tu es passé de ce point crucial. Il y a beaucoup de boulot à cet endroit.

    Si tu veux un corrigé pour que tu comprennes que tu es encore assez loin du Graal, je t'en joins un possible (détaillé et adapté à ton niveau je pense). Ne le lis pas de suite, mais essaye d'abord de refaire ton raisonnement pour le 3) dans le détail.
  • Bonjour.
    Concernant la dimension du commutant, es-tu d'accord avec moi qu'on a ce résultat avec les hypothèses en rouge? je crois que je me trouve dans le même cas avec la nature de $U$

    Pour le deuxième point, je vais relire ton message à tête reposé si je rentre ce soir.104144
    ok.PNG 46.8K
  • Bonjour @troisqua.
    Il est mieux que je comprenne une fois pour toute ce qui manque à mon raisonnement de mon troisième point.

    On a bien pour $U$ fixé et $V \in M_{n}(C)$ que $\varphi_{U}(V)=UV-VU$ qui est une matrice carrée.

    On constate que la trace de $B=\varphi_{U}(V)=UV-VU$ est nulle, d'après la question $2$ , on peut en déduit que $B$ est semblable à une matrice dont tous les éléments de la diagonale sont nuls.
    Cette matrice est donc élément de $G$, où est mon erreur dans mon raisonnement stp?
  • Dans tous tes premiers messages tu as écrit "comme $U$ est diagonalisable, son commutant est de dimension $n$". Ce qui est faux. Après avoir sous-entendu que seule la matrice nulle pouvait poser problème, et que je te parle de $I_n$, tu rajoutes finalement l'argument "valeurs propres de multiplicité 1" en sortant ton cours, je suis content que tu aies compris ma remarque :).

    De plus il est à mon avis maladroit de sortir ce gros résultat sur le commutant ici. Il suffit de dire que le noyau de ton application contient l'ev des matrices diagonales de dimension $n$ (surtout que tu n'as pas besoin d'une égalité sur la dimension de ton noyau mais juste une minoration pour majorer celle de l'image)
  • $G$ c'est l'ev des matrices de diagonale nulle et non pas des matrices semblables à une matrice de diagonale nulle ce qui rend la question à résoudre bien moins triviale. Donc ton $B$ n'a aucune raison d'être dans $G$.
  • Ah oui je vois le problème, mais du coup l'indication sur $U$ donnée par @Mjr permet de montrer que les coefficients diagonaux de $B$ sont nuls, n'est-ce pas?
  • Tu me parles d'un $B$ qui est défini comme étant $\phi_U(V)$ mais tu ne définis pas $V$ ! Comment veux-tu en déduire quoi que ce soit sur $B$ ? Tu n'as pas compris le raisonnement proposé par plusieurs intervenants qui t'ont aidé. Il faut que tu comprennes qu'on cherche à écrire une matrice de diagonale nulle comme étant de la forme $UV-VU$ pour un certain $V$ dont on cherche à prouver l'existence. Toi tu cherches à montrer qu'une matrice a une diagonale nulle donc tu raisonnes à l'envers.

    Si on revient à ta rédaction "finale" (toujours éviter cet adjectif quand on rédige :-) ) : plusieurs remarques, ton $U$ n'est pas seulement "diagonalisable" comme tu le dis à chaque fois. $U$ est une matrice diagonale (donc son commutant contient les matrices diagonales (dont l'ev est de dimension $n$)). Pas la peine d'aller chercher un marteau piqueur dans ton cours pour écraser une mouche.

    Ton 3. (*) dans ta rédaction est à revoir complètement. Si je t'expliquais pourquoi alors je ne ferais que répéter ce que je t'ai rédigé dans mon corrigé (que j'ai passé du temps à rédiger pour que, justement, tu le comprennes).
  • Bonsoir à tous.

    @troisqua, j'ai lu attentivement le pdf concernant surtout la question 3, merci d'avoir pris ton temps pour le rédiger.
    Mais il y a deux parties qui m'embrouillent un peu surtout la ligne soulignée en rouge.
    Pourquoi il suffit de montrer que $A'$ est un commutateur pour conclure que $A$ l'est.
    Pour l'encadré, je veux juste connaître l'idée qui t'a poussée à poser cette matrice $C$, je n'aurais pas eu cette idée.

    Merci d'avance.104244
Connectez-vous ou Inscrivez-vous pour répondre.