Une réciproque

Bonjour,

Je suis tombé un jour sur l'exercice suivant :

Soient $A$ et $B$ dans $\mathcal M_n(\R)$.
On suppose que $A^2+B^2=\sqrt 3\, (AB-BA)$ et que $AB-BA$ est inversible.
Montrer que $n$ est un multiple de $6$.

La correction est en fichier joint. Je me suis posé la question de la réciproque : est-ce que pour $n=6$, il existe des matrices $A$ et $B$ vérifiant cela ? Je n'ai pas d'idée... Merci d'avance pour les vôtres !

Michal

Réponses

  • Bonjour @michal,

    Voici une série de solutions, et non pas toutes les solutions.

    On raisonne comme suit :
    $A^2 + B^2 = \sqrt{3} (AB-BA)$ n'est pas évidente à résoudre car la condition $AB-BA$ inversible exclut les solutions les plus évidentes.

    Donc on se débarrasse de la condition ! C'est un raisonnement de physicien : si on n'aime pas quelque chose, on n'en mange pas !

    Il est alors facile de résoudre : $A^2 + B^2 = \sqrt{3} (AB-BA)$ sans autre condition. Par exemple, $B = x A$ où $x$ est dans $\R.$ On calcule $AB-BA = x (A^2 - A^2) = O$ et $A^2+B^2 = (1+x^2) A^2.$ L'équation est satisfaite si $A^2 = O.$ Il suffit que $A$ soit l'une des racines carrées de la matrice nulle.

    Quel est le rapport avec la choucroute ?

    On choisit $A$ matrice d'ordre $6$ par bloc. Les blocs sont d'ordre $2$. Soit $a, b, c$ des matrices d'ordre $2$ et $A=diag(a,b,c).$ De même, $B = diag(d,e,f).$

    On calcule $AB=diag(ad, be,cf)$ et $BA = diag(da, eb, fc)$. Et donc $AB-BA = diag(ad-da, be-eb, cf-fc).$
    On calcule $A^2 = diag(a^2, b^2, c^2)$ et $B^2 = diag(d^2, e^2, f^2)$.

    L'équation est satisfaite quand $A^2+B^2 = diag(a^2 + d^2, b^2 + e^2, c^2+f^2) = \sqrt{3} (AB-BA) = \sqrt{3} diag(ad-da, be-eb, cf-fc).$

    Cette équation est satisfaite quand :
    $a^2 + d^2 = \sqrt{3} (ad-da)$
    $b^2 + e^2 = \sqrt{3} (be-eb)$
    $c^2+f^2 = \sqrt{3} (cf-fc)$

    Et on connaît des solutions ! Par exemple, $d=x a$, $e=y b$ avec $x, y$ dans $\R$ et $a^2 = b^2 = O_2.$

    Mais pour $c$ et $f$ on ne peut pas choisir cette forme de solution car alors on aurait $AB-BA=O_6$ qui ne serait pas inversible.

    On peut choisir $f=I_2$ et alors $cf-fc=O_2$ et il faut $c^2 + I_2 = 0$. Par exemple : $c = \begin{pmatrix} 1& -2 \\ 1 &-1 \end{pmatrix}.$
    Modifié : non, j'ai pris une forme que redonne $AB-BA = O_6$, il faut une autre solution pour $c$ et $f$. J'y travaille. C'est impossible car on a démontré que la dimension doit être $6$ et on a une dimension de $2$.
  • Bonjour,

    Je pense avoir démontré que la seule solution de l'équation :
    $\displaystyle A^2 + B^2 = \sqrt{3} (AB-BA)$ avec $A$ et $B$ dans $\displaystyle M_6(\R)$ et $\displaystyle AB-BA$ inversible est $\displaystyle A=B=O_6$, la matrice nulle d'ordre $6$. Or ces solutions sont exclues car sinon $AB-BA= O_6$ n'est pas inversible.

    Pour $A$ et $B$ solutions on peut former les matrices $\displaystyle X = A+iB$ et $\displaystyle A-iB = \bar{X}$. On a alors : $\displaystyle A = {X + \bar{X} \over 2} = \Re(X)$ et $\displaystyle B = {X - \bar{X} \over 2i} = \Im(X).$

    On calcule facilement : $\displaystyle A^2 + B^2 = {X \bar{X} + \bar{X}X \over 2}$ puis $\displaystyle AB = \frac{1}{4i} (X^2 - \bar{X}^2 - X \bar{X}+ \bar{X}X)$ et $\displaystyle BA = \frac{1}{4i} (X^2 - \bar{X}^2 + X \bar{X}- \bar{X}X)$ et alors : $\displaystyle AB-BA = \frac{1}{2i} (-X\bar{X} +\bar{X} X )$

    L'équation s'écrit donc : $\displaystyle {X \bar{X} + \bar{X}X \over 2} = \sqrt{3} \frac{1}{2i} (-X\bar{X} +\bar{X} X )$ où encore $\displaystyle X \bar{X} = -j \bar{X}X$ avec $\displaystyle j = e^{i\frac{2\pi}{3}}.$

    Modifié : SI $X$ est diagonale. Dans la base des vecteurs propres on a : $\displaystyle X=diag(x_1, \cdots, x_6)$, mais alors $\displaystyle X\bar{X} = diag(x_1, \cdots, x_6)diag(\bar{x_1}, \cdots, \bar{x_6}) = diag(|x_1|^2, \cdots, |x_6|^2) = \bar{X} X.$ Ceci donne donc $\displaystyle (1+j) diag(|x_1|^2, \cdots, |x_6|^2) = O_6$ qui implique nécessairement $\displaystyle x_k = 0$ pour tout $k$ de $1$ à $6$, et alors $\displaystyle X=O_6$ donc $\displaystyle A=B=O_6.$ C'est absurde. Donc $X$ n'est pas diagonale.
  • Bonsoir,

    La propriété du fil original a été démontrée.
    Par contre, j'aimerais bien qu'on me donne sa réciproque explicitement.
    En effet, il y a une confusion je pense sur le vocabulaire utilisé.

    Aussi, j'apprécie le travail de YvesM mais je m'interroge : on annonce $AB-BA$ inversible et (après résolution) $A=B=0$.
    Étonnant.
    Ne doit-on pas conclure qu'il n'y aurait alors aucune solution ?
  • Je ne me prononce pas sur le reste du message mais voici une belle erreur :
    YvesM a écrit:
    $X$ est dans $\mathcal{M}_6(\C)$ et est donc diagonalisable.
  • Bonjour,

    @Jer anonyme : La nuit portant conseil, j'ai effectivement trouvé une erreur. Toute matrice carrée dans $\C$ n'est pas diagonalisable ! Donc ma démonstration est fausse. Je vais l'indiquer en modifiant le message.

    @Dom : Pardon de ne pas écrire explicitement, je trouvais (mais c'est faux) qu'il n'y a pas de solution.

    Je pense avoir démontré :
    - Si $X=A-iB$, $X$ n'est pas diagonale.
    - $A, B$ ne sont pas diagonales par bloc avec $2$ blocs d'ordre $3$, ou $3$ blocs d'ordre $2$.
    - La relation $X \overline{X} = -j \overline{X}X$ permet d'écrire les éléments propres de $\overline{X}$ en fonction des éléments propres de $X$ ...

    J'aimerais vraiment trouver les solutions. Ce problème est atypique car on travaille rarement en dimension $6$. Toute aide est la bien venue !
  • Ok. Difficile de m'y plonger sérieusement et honnêtement je ne sais pas si j'ai les bons outils.
    Peut-être que la trigonalisation peut porter quand même ses fruits.
  • Ma (piètre) contribution n'est pas très générale* mais j'envoie quand même :

    Ce qu'apporte la trigonalisation : (je me place avec $n$ quelconque)
    Si les matrices $A$ et $B$ sont trigonalisables dans une même base* et si les valeurs propres des deux matrices sont toutes réelles*, alors je note respectivement $S$ et $T$ les matrices triangulaires pour travailler.
    La relation $\displaystyle A^2 + B^2 = \sqrt{3} (AB-BA)$ entraîne que les éléments diagonaux de $S$ et de $T$ sont tous nuls.
    Et donc que $TS - ST$ ne peut pas être inversible.

    On doit donc chercher, dans le cas "co-trigonalisable" des matrices à valeurs propres non toutes réelles et toutes non nulles (edit).
    edit : on montre que si elles sont co-trigonalisables alors $TS-ST$ ne peut pas être inversible.
    On doit chercher des solutions dans le cas non co-trigonalisables.

    N'utilisant pas $n$ dans $6\mathbb Z$, je ne pense pas y arriver.
    A ce sujet , si on raisonne pas bloc, j'ai le sentiment que ça ne peut pas marcher comme si raisonner par bloc entraînerait que ça "marche" pour des $n$ non multiples de 6. Mais ce n'est qu'une vague intuition.
  • Je trouve plutôt : $\displaystyle X \bar{X} = -j^2 \bar{X}X$. On cherche les solutions $X$ de cette équation qui sont inversibles.

    Après j'ai quelques idées, mais sans les faire aboutir. D'abord $-j^2$ est une racine 6-ème primitive de 1, c'est-à-dire qu'elle engendre $\mathbb U_6$. Les valeurs propres de $AB$ sont les mêmes que celles de $BA$ (résultat classique) donc celles de $X \bar{X}$ sont les mêmes que celles de $\bar{X}X$. Alors, si $\lambda$ est valeur propre de $\bar{X}X$, alors $-j^2 \lambda$ est valeur propre de $-j^2 \bar{X}X$ donc de $X \bar{X}$ donc de $\bar{X}X$. Ainsi
    $$
    \forall \omega \in \mathbb{U}_6,\quad \omega\lambda \in \mathrm{Sp}(\bar{X}X)
    $$
    Puisque $X$ est supposée inversible, $\bar{X}X$ l'est aussi. Si on prend $\lambda$ une valeur propre de $\bar{X}X$, elle est non nulle et alors les $\omega\lambda$ où $\omega \in \mathbb U_6$ sont valeurs propres de $\bar{X}X$, qui est donc diagonalisable car admet 6 valeurs propres distinctes.

    On pourrait donc par exemple chercher $X$ telle que $\bar{X}X=Diag(1, -1, j, j^2, -j, -j^2)$, mais je ne sais pas si c'est plus simple.
  • Un tel $X$ n'existe pas: $\det(\bar{X}X)=\vert \det(X)\vert^2$ est un réel positif . Mais le déterminant de la matrice diagonale de droite, i.e. le produit des éléments de $\mathbb{U}_6$, a le mauvais goût de faire $-1.$
  • En fait, dans le cas général, si $\lambda$ est une valeur propre de $\bar{X}X$, son déterminant est $-\lambda^6$.

    On veut donc que $-\lambda^6 >0$. Ceci implique que $\lambda$ soit de la forme $\lambda=r\zeta_{12}\omega_0$ et $r>0$, où $\omega_0$ est une racine $6$-ième de l'unité et $\zeta_{12}=e^{i\pi/6}$.

    Autrement dit, les valeurs propres de $\bar{X}X$ sont en fait de la forme $r\zeta_{12}\omega,$ lorsque $\omega$ parcourt $\mathbb{U}_6$ (la mutliplication par $\omega_0$ dans $\mathbb{U}_6$ est bijective).

    Il vaut mieux donc chercher $X$ telle que $\bar{X}X=\zeta_{12}Diag(1, -1, j, j^2, -j, -j^2)$.
  • Bonjour,

    Je calcule : $\displaystyle X \bar{X} = -j \bar{X} X.$

    Si on est d'accord avec $\displaystyle X = {A+iB \over 2}$ par définition et alors l'équation qui définit le problème se traduit par $\displaystyle {X \bar{X} + \bar{X}X \over 2} = \sqrt{3} \frac{1}{2i} (-X\bar{X} +\bar{X} X ).$

    On a $\displaystyle X \bar{X} (\frac12 + \frac{\sqrt{3}}{2i}) = \bar{X} X (-\frac12 + \frac{\sqrt{3}}{2i}).$ Puis $\displaystyle \frac12 + \frac{\sqrt{3}}{2i} = \frac12 -i \frac{\sqrt{3}}{2} = -j$ et $\displaystyle -\frac12 + \frac{\sqrt{3}}{2i} = -\frac12 -i \frac{\sqrt{3}}{2} = j^2.$ Et alors : $\displaystyle X \bar{X} = -j \bar{X} X.$

    Confirmes-tu ?

    $X$ n'est pas nécessairement inversible :
    Tu écris, puisque $X$ est supposée inversible. Non, ce n'est pas le cas. Seule $AB-BA$ et donc $A^2+B^2$ sont inversibles. Et ces matrices mènent à $X \bar{X} \pm \bar{X} X$ inversibles, mais on ne sait rien de $X$ et $\bar{X}$, non ?

    Si on peut en déduire que $X$ ou même que $\displaystyle X \bar{X}$ sont inversibles, je veux bien voir le raisonnement.

    La relation $\displaystyle X \bar{X} = -j \bar{X} X$ implique que $tr(X \bar{X}) = 0.$ Si on calcule le déterminant, on trouve $|\det(X)|^2 = (-j)^6 |\det(X)|^2$, relation vraie, mais qui n'apporte pas grand chose.

    $X$ n'est pas diagonalisable :
    J'ai démontré que si $X$ est diagonalisable, avec des valeurs propres quelconques, alors $X=O_6$ car la somme des modules des valeurs propres est nulle (et ne peut être nulle que si chacune des valeurs propres est nulle), car $tr(X \bar{X}) = 0.$ Et $X=O_6$ implique $A=B=O_6$ qui est exclut car sinon $AB-BA=O_6$ n'est pas inversible.
  • YvesM a écrit:
    J'ai démontré que si $X$ est diagonalisable, avec des valeurs propres quelconques, alors $X=O_6$.

    En fait, non : tu as utilisé le fait que si $X$ est diagonalisable, alors $\bar X$ l'est aussi dans la même base, ce qui est faux : dans notre situation, $X$ et $\bar X$ ne commutent pas (c'est tout le sel) donc elles n'ont pas de base commune de vecteurs propres.
  • Poursuivons l'approche d'YvesM consistant à chercher $X=A+iB$ telle que $X\bar{X}=-j\bar{X}X$, en la reformulant :
    \[X\bar{X}X^{-1}=-j\bar{X}.\]
    D'une part, la conjugaison par $X$ permute les espaces propres (ou caractéristiques) de $\bar{X}$ en passant d'une valeur propre $\lambda$ à une autre, $-j\lambda$. Cela permet de regrouper les espaces caractéristiques par $6$ qui ont la même dimension et implique la divisibilité par $6$ de la dimension globale -- ça me semble plus compréhensible que la correction proposée.

    D'autre part, pour chercher un exemple en dimension $6$, on voit que $\bar{X}$, qui a un spectre stable par multiplication par $-j$, est diagonalisable (car $-j$ est d'ordre $6$ dans $\mathbf{C}^*$). Pour la matrice $\mathrm{diag}(1,-j,j^2,-1,j,-j^2)$, le produit par $-j$ est implémenté par la permutation circulaire des coefficients diagonaux. Autrement dit :
    \[CDC^{-1}=-jD\quad\text{avec}\ C=\left(\begin{array}{rrrrrr}
    0 & 1 & 0 & 0 & 0 & 0 \\
    0 & 0 & 1 & 0 & 0 & 0 \\
    0 & 0 & 0 & 1 & 0 & 0 \\
    0 & 0 & 0 & 0 & 1 & 0 \\
    0 & 0 & 0 & 0 & 0 & 1 \\
    1 & 0 & 0 & 0 & 0 & 0
    \end{array}\right)\ \text{et}\ D=\left(\begin{array}{rrrrrr}
    1 & 0 & 0 & 0 & 0 & 0 \\
    0 & -j & 0 & 0 & 0 & 0 \\
    0 & 0 & -j - 1 & 0 & 0 & 0 \\
    0 & 0 & 0 & -1 & 0 & 0 \\
    0 & 0 & 0 & 0 & j & 0 \\
    0 & 0 & 0 & 0 & 0 & j + 1
    \end{array}\right).\]
    Or, amusant, $C$ et $D$ sont semblables... Si $P$ est une matrice de Vandermonde convenable, plus précisément
    \[P=\left(\begin{array}{rrrrrr}
    1 & 1 & 1 & 1 & 1 & 1 \\
    1 & -j & -j - 1 & -1 & j & j + 1 \\
    1 & -j - 1 & j & 1 & -j - 1 & j \\
    1 & -1 & 1 & -1 & 1 & -1 \\
    1 & j & -j - 1 & 1 & j & -j - 1 \\
    1 & j + 1 & j & -1 & -j - 1 & -j
    \end{array}\right),\]
    on a :
    \[C=PDP^{-1}.\]

    Il nous suffirait donc de trouver $Q$ inversible complexe telle que
    \[X=QCQ^{-1}\quad\text{et}\quad \bar{X}=QDQ^{-1}.\]
    Sauf erreur, c'est impliqué par
    \[\bar{Q}P=Q,\]
    équation dont il n'est pas évident qu'il existe une solution.
  • @michal: je trouve bien comme YvesM, donc mes deux messages n'ont plus lieu d'être.
  • @Jer: est-ce que $P\bar{P}=I_6$ ? j'ai la flemme de faire les calculs.
  • Non mais presque : $P\bar P=6I_6$. Mais on peut diviser $P$ par ce qu'on veut pour réaliser cette condition.

    (En l'état, $P$ est la table de caractères de $\Z/6\Z$, les colonnes sont deux à deux orthogonales mais leur norme est $6$.)
  • OK, alors je crois que je sais comment finir. En fait, l'égalité recherchée équivaut à $\bar{Q}P=QU$, où $U$ commute à $D$.

    Prenons $U=\sqrt{6}I_6$. Posons $R=\frac{1}{\sqrt{6}}P$. On cherche donc $Q$ telle que $R=\bar{Q}^{-1}Q$.

    Or, $R\bar{R}=I_6$. Le théorème de Hilbert 90 pour $GL_6(\C)$ dit que $Q$ existe.

    Pour choper un $Q$ explicite, on fait comme ça (flemme de faire les calculs):

    On calcule une $\R$-base du $\R$-espace vectoriel $E=\{V\in \C^6\mid R\bar{V}=V\}$. La théorie nous dit alors que $\dim_\R(E)=6$ et que cette base est aussi une $\C$-base de $\C^6$.

    On forme la matrice $T$ dont les colonnes sont les vecteurs de cette base. Alors, $Q=\bar{T}^{-1}$ convient.

    Tout ça, c'est de la cohomologie galoisienne déguisée ;-)

    J'ai vraiment pas envie de me taper les calculs, même avec Mapeul, mais on peut calculer $T$, puis $Q$, puis un $X$ qui convient, et enfin $A$ et $B$. Je suis curieux de voir la tête des $A$ et $B$ en question. Jer, si t'as envie...
  • Bonjour,

    @Jer anonyme : Tu dis que je n'ai pas démontré que : si $X$ est diagonalisable alors $X=O_6$. Mais $\bar{X}$ est simplement la matrice conjuguée de $X$. Donc si $X$ est diagonalisable, on peut exprimer $X$ dans la base de vecteurs propres (de $X$) et on a $X=diag(x_1, \cdots, x_6)$ et alors par conjugaison on a $\bar{X} = diag(\bar{x_1}, \cdots, \bar{x_6})$ et alors $X \bar{X} = diag(|x_1|^2, \cdots, |x_6|^2)$ et la trace est alors $\sum_{k=1}^6 |x_k|^2 = 0$ d'où $X=O_6$. Non ?
    Ton argument que $\bar{X}$ ne commute pas avec $X$ (qui est vrai) ne change pas que si $X$ est diagonale dans une base, alors $\bar{X}$ est diagonale dans cette même base, non ? Si c'est faux, je ne comprends rien, et ça m'inquiète beaucoup :-S

    Il faut que je bosse vos réponses et indications. Les formes de $C$, $D$ et $P$ ne sont pas évidentes...
  • @YvesM: tu confonds diagonale et diagonalisable. Si $X=PDP^{-1}$, alors $\bar{X}=\bar{P}\bar{D}\bar{P}^{-1}.$

    Tu vois bien que $X\bar{X}$ n'est a priori pas semblable à $D\bar{D}$.
  • @YvesM : Il n'y a pas à s'inquiéter ! Le problème vient de ce que la matrice de passage $P$ de $X$ à une matrice diagonale $D$ n'est en général pas réelle : du coup, de $X=PDP^{-1}$ on ne peut pas déduire que $\bar X=P\bar DP^{-1}$ (mais bien sûr, on a bien : $\bar X=\bar P\bar D\bar P^{-1}$).

    @Greg : je soupçonnais bien du Hilbert 90 mais je n'en connais que la version scalaire (shame on me?). Enfin, à part peut-être quelques confusions possibles entre $Q$ et $\bar Q$ dans ton affaire, ça débouche : pour
    \[X=\begin{pmatrix}
    \dfrac{1}{2} & \dfrac{i}{2} & \dfrac{1}{2} & -\dfrac{i}{2} & 0 & 0 \\
    -\dfrac{i}{2} & \dfrac{1}{2} & \dfrac{i}{2} & \dfrac{1}{2} & 0 & 0 \\
    0 & 0 & \dfrac{1+i\sqrt3}{4} & \dfrac{-\sqrt{3}+i}{4} & \dfrac{1}{2} & -\dfrac{i}{2} \\
    0 & 0 & \dfrac{\sqrt{3}-i}{4} & \dfrac{1+i\sqrt{3}}{4} & \dfrac{i}{2} & \dfrac{1}{2} \\
    \dfrac{1+i\sqrt2}{2} & \dfrac{-\sqrt2-i}{2} & \dfrac{1-\sqrt6-i\sqrt3}{2} & \dfrac{-\sqrt3-\bigl(1+\sqrt{6}\bigr)i}{2} & \dfrac{-3-i\bigl(2\sqrt2+\sqrt3\bigr)}{4}& \dfrac{2\sqrt2-3\sqrt3+i}{4}\\
    \dfrac{-\sqrt2+i}{2} & \dfrac{1-i\sqrt2}{2} & \dfrac{\sqrt3+\bigl(1-\sqrt{6}\bigr)i}{2} & \dfrac{1+\sqrt6-i\sqrt3}{2} &\dfrac{2\sqrt2+3\sqrt3-i}{4} & \dfrac{-3+i\bigl(2\sqrt2-\sqrt3\bigr)}{4}\end{pmatrix}\]
    on a :
    \[X\bar X=-j\bar XX.\]
  • J'ai pas la même matrice, parce que je suppose que je n'ai pas pris la même base de $E$ que toi.


    Il suffit ensuite de calculer $A=Re(X)$ et $B=Im(X)$ pour trouver des candidats.
  • Pas étonnant. J'ai calculé avec Sage, voici la feuille de calcul : il faut la renommer en une_reciproque.sws pour l'incorporer à un notebook.
  • Perso, j'obtiens
    $$A=\left( \begin{array}{cccccc} \dfrac{1}{6}\sqrt{6}-\dfrac{1}{2}&-\dfrac{1}{6}
    \sqrt{6}+\dfrac{1}{2}&\dfrac{1}{6}\sqrt {3}&\dfrac{1}{6}\sqrt {3}&-\dfrac{1}{6}\sqrt {3}+\dfrac{1}{2}\sqrt {2}&-\dfrac{1}{6}\sqrt {3}\cr \dfrac{1}{2}+\dfrac{1}{6}\sqrt {6}&\dfrac{1}{3}\sqrt{6}+\dfrac{1}{4}&\dfrac{1}{2}\sqrt {2}+\dfrac{1}{6}\sqrt {3}&\dfrac{1}{6}\sqrt {3}&\dfrac{1}{3}\sqrt {3}&{\dfrac {7}{12}}\sqrt {3}
    \cr 0&0&-\dfrac{1}{4}\sqrt{6}+\dfrac{1}{2}&-\dfrac{1}{2}+\dfrac{1}{4}\sqrt{6}&0&-\dfrac{1}{2} \cr 0&0&0&-\dfrac{1}{2}&\dfrac{1}{2}&0
    \cr -\dfrac{1}{4}\sqrt {2}&-\dfrac{1}{4}\sqrt {3}+\dfrac{1}{4}\sqrt {2}&-\dfrac{1}{4}&-\dfrac{1}{4}&-
    \dfrac{1}{4}\sqrt{6}&\dfrac{3}{4} \cr 0&-\dfrac{1}{4}\sqrt {3}&\dfrac{1}{2}&0&0&\dfrac{1}{4}\end{array} \right)$$


    $$B=\left( \begin{array}{cccccc} 0&0&0&-\dfrac{1}{2}&-\dfrac{1}{2}&0\cr 0
    &-\dfrac{1}{4}\sqrt{3}&-\dfrac{1}{2}&0&0&\dfrac{1}{4}\cr -\dfrac{1}{2}-\dfrac{1}{6}\sqrt{6}
    &\dfrac{1}{2}-\dfrac{1}{3}\sqrt{6}&-\dfrac{1}{4}\sqrt {2}+\dfrac{1}{3}\sqrt {3}&\dfrac{1}{4}\sqrt {2}-\dfrac{1}{6}\sqrt {3}&\dfrac{1}{2}\sqrt {2}-\dfrac{1}{3}\sqrt {3}&\dfrac{1}{2}\sqrt
    {2}-\dfrac{1}{3}\sqrt {3}\cr \dfrac{1}{2}+\dfrac{1}{6}
    \sqrt{6}&-\dfrac{1}{6}\sqrt{6}+\dfrac{1}{2}&\dfrac{1}{6}\sqrt {3}&\dfrac{1}{6}\sqrt {3}&-\dfrac{1}{6}\sqrt{3
    }+\dfrac{1}{2}\sqrt {2}&-\dfrac{1}{6}\sqrt {3}\cr\dfrac{1}{12}\sqrt {6}&\dfrac{3}{4}-\dfrac{1}{12}\sqrt{6}&\dfrac{1}{12}\sqrt {3}&\dfrac{1}{12}\sqrt {3}
    &\dfrac{1}{4}\sqrt {2}-\dfrac{1}{3}\sqrt {3}&-\dfrac{1}{12}\sqrt {3}\cr
    \dfrac{1}{2}+\dfrac{1}{6}\sqrt{6}&\dfrac{1}{3}\sqrt{6}-\dfrac{1}{4}&\dfrac{1}{2}\sqrt {2}+\dfrac{1}{6}\sqrt {3}&\dfrac{1}{6}\sqrt {3}&\dfrac{1}{3}\sqrt {3}&\dfrac{1}{12}\sqrt {3}
    \end{array} \right).$$
  • Heu...et ça "marche" alors ?
    (Compliqué de faire le copié collé dans un logiciel en ligne (sur tablette) :-/.
  • Bonjour,

    Mazette !

    J'arrive à suivre le raisonnement, mais je tire mon chapeau à @Jer anonyme pour les matrices $C$, $D$ et surtout $P$...(tu), et @GreginGre pour la résolution par ce fameux théorème de Hilbert 90 (tu).
    Heureusement que le calcul symbolique est à disposition ! Sans algèbre, peu ou aucune chance de trouver la bonne forme de $A$ et $B$.

    Voilà un autre problème résolu dont la solution n'est pas immédiate.
  • oui oui, j'ai vérifié les calculs. Sauf erreur de recopie, mes matrices marchent...et celles obtenues à partir du $X$ de Jer marchent aussi.
  • Je doutais d'avoir les outils ;-).
    Qu'aurait-on fait de la propriété si l'on avait prouvé l'inexistence d'un tel couple de matrices ?
    Ouf !

    Merci bien pour cette leçon d'algèbre que je comprendrai peut-être un jour ;-)
  • Merci ! Je n'ai pas le temps de regarder la solution en détail et je reviendrai sans doute avec des questions !
  • Allez, je donne la démo de Hilbert 90. Au passage, tout marche pareil si on remplace $\C/\R$ par une extension quadratique et la conjugaison par l'unique $K$-automorphisme non trivial.

    Théorème (Hilbert 90). Soit $R\in GL_n(\C)$ telle que $R\bar{R}=I_n.$ Alors, il existe $T\in GL_n(\C)$ telle que $R=T\bar{T}^{-1}.$


    Démo. Posons $$V=\{v\in\C^n\mid R\bar{v}=v\},$$
    avec des notations évidentes. Alors, $V$ est un $\R$-espace vectoriel.

    Montrons tout d'abord que tout élément de $\C^n$ est combinaison $\C$-linéaire d'éléments de $V$.

    Pour $v\in \C^n$, on pose $$v_1=v+R\bar{v} \ \mbox{ et }v_2=iv-iR\bar{v}.$$
    On a $$R\bar{v}_1=R(\bar{v}+\bar{R}v)=R\bar{v}+R\bar{R}v=v+R\bar{v}=v_1,$$
    et $$R\bar{v}_2=R(-i\bar{v}+i\bar{R}v)=-iR\bar{v}+iR\bar{R}v=iv-iR\bar{v}=v_2,$$
    d'où $v_1,v_2\in V$. Mais alors, on a $$v=\frac{1}{2}v_1-\frac{i}{2}v_2.$$

    En particulier, une famille $\R$-génératrice de $V$ est une famille $\C$-génératrice de $\C^n$.

    Montrons maintenant que tout famille $\R$-libre de $V$ est une famille $\C$-libre de $\C^n$.
    Soit $(v_i)_{i\in I}$ une famille libre de $V$, et soit $(z_i)_{\in I}$ une famille de complexes presque tous nuls tels que $$\sum_{i\in I}z_iv_i=0.$$
    En conjuguant et en appliquant $R$, on obtient $$\sum_{i\in I}\bar{z}_iv_i=0.$$
    On obtient alors
    $$\sum_{i\in I}\frac{z_i+\bar{z_i}}{2}v_i=0 \ \mbox{ et }\sum_{i\in I}\frac{z_i-\bar{z_i}}{2i}v_i=0.$$
    Puisque les $v_i$ sont $\R$-libres, on obtient $$\frac{z_i+\bar{z_i}}{2}=\frac{z_i-\bar{z_i}}{2i}=0 \ \mbox{ pour tout }i\in I.$$
    On en déduit aisément que $z_i=0$ pour tout $i\in I.$

    Il s'ensuit de tout ceci qu'une $\R$-base de $V$ est une $\C$-base de $\C^n$. On a donc $\dim_\R(V)=n$.
    Soit $(v_1,\ldots,v_n)$ une $\R$-base de $V$, et soit $T\in M_n(\C)$ la matrice dont la $j$-ième colonne est $v_j$.
    Comme $(v_1,\ldots,v_n)$ est une $\C$-base de $\C^n$, on a $T\in GL_n(\C)$.
    Comme $R\bar{v}_j=v_j$ pour tout
    $j=1,\ldots,n, $ on a $R\bar{T}=T$, d'où $R=T\bar{T}^{-1}$.

    C'est-y-pas beau ?
  • GreginGre a écrit:
    tout marche pareil si on remplace $C/R$ par une extension quadratique.

    Plus généralement, si $K / \Bbbk$ est une extension cyclique de degré $n$ et si $\sigma$ est un générateur de $\textrm{Gal} (K / \Bbbk)$, alors, pour tout $x \in K \setminus \{0\}$, on a l'équivalence
    $$N_{K / \Bbbk} (x) = 1 \Longleftrightarrow \exists \, y \in K \setminus \{0\}, \ x = \frac{y}{\sigma(y)}.$$
  • Certes, mais là, je parlais de matrices, toi tu parles d'extensions de corps. Ceci dit, Hilbert 90 se généralise aussi à $GL_n(L)$, où $L/K$ est galoisienne, mais il aurait fallu parler de cocycles, et j'avais pas envie...
  • Je rebondissais sur ta mention "d'extension quadratique", que j'ai traduite (à tort ?) comme "corps quadratique".
  • @ GreginGre : Dans la démonstration que tu donnes de Hilbert 90, on prouve que $\C^n=V\oplus iV$. Il me semble que cette formulation peut-être avantageuse, notamment pour voir que $\dim_{\R}(V)=n$.

    Sinon, je ne comprends pas très bien la portée de ce résultat : quel peut-être l'intérêt d'écrire une matrice sous la forme $T\bar T^{-1}$ ? Aurais-tu un exemple d'application de ce théorème (autre que la question que j'ai posée...) ? Est-ce que ce théorème permet aussi d'écrire une matrice sous la forme $T\bar T$ sous certaines conditions ?

    @Jer anonyme : tu parles d'une version scalaire de Hilbert 90. Qu'est-ce que c'est ?

    Merci encore !!!
  • Ça veut dire $n=1$, ce qui revient au théorème énoncé par noix de totos. Dans le cas de l'extension $\C/\R$, c'est assez inintéressant : si $|x|=1$, il existe $y$ non nul tel que $x=\dfrac{y}{\bar{y}}$ (il suffit de diviser l'argument de $x$ par $2$).
  • ça te dit plus que ça: en fait, ça te dit que l'application évidente $V\otimes_\R\C\to \C^n$ est un iso d'espaces vectoriels.

    Quant à la dimension, nul besoin de ta formulation: une base de $\C^n$ a $n$ éléments.

    La version scalaire dont parlait Jer est celle donnée par noix de totos( je soupçonne Jer d'avoir penser au cas $L/K$ quadratique). Dans le cas des complexes, ça te dit juste qu'un complexe de module $1$ s'écrit $z\bar{z}^{-1}$.

    Du coup, la version de Hilbert 90 pour $GL_n$ que je t'ai donnée est une jolie généralisation de ce truc là. Elle se généralise en fait aux extensions $L/K$ galoisiennes finies, mais il faudrait parler de cocycles, et j'ai pas envie.

    Disons que ce qui est caché derrière, c'est ceci: pour toute extension galoisienne $L/K$, $H^1(Gal(L/K), GL_n(L))=1$, où ce $H^1$ est un ensemble de cohomologie que je n'ai pas envie de définir.

    Ce genre de résultat est très utile pour démontrer des choses en cohomologie (réinterprétation de certains $H^1$ en termes de structures algébriques, calculs dans les suites exactes en cohomologie, etc...)

    Après, tu peux me dire :" pourquoi la cohomologie" ? en fait, c'est parce que justement bien souvent, $H^1$ classifie des objets algébriques standards, et la réinterprétation de certaines questions de manière cohomologique permet d'utiliser l'artillerie cohomologique, justement. C'est très utile en algèbre et en théorie des nombres.
  • Bonjour,

    On peut simplifier les calculs en ajustant le paramètre $\alpha$ non nul dans : $\displaystyle A^2+B^2 = \alpha (AB-BA)$ où $A$ et $B$ sont des matrices réelles de taille $n$ et où $\displaystyle AB-BA$ est inversible.

    On reprend la notation $\displaystyle X = A-iB.$ On trouve : $\displaystyle X\bar{X} = - e^{i 2 \arctan \alpha} \bar{X} X.$

    Puis on prend le déterminant de chaque côté est alors, nécessairement, $\displaystyle |\det X|^2 (1-e^{i 2n \arctan \alpha})=0$ et comme $\displaystyle |\det X|^2 = \det X \det \bar{X} \neq 0$ car $\displaystyle AB-BA$ est inversible, alors $\displaystyle n = {k\pi \over \arctan \alpha}$ avec $k$ entier non nul.

    Valeurs particulières :
    Modifié : Pour $\displaystyle \alpha = \frac{1}{\sqrt{3}}$, $n$ multiple de $6$ est $\displaystyle X\bar{X} = -j \bar{X} X.$
    Pour $\displaystyle \alpha = 1$, $n$ multiple de $4$ est $\displaystyle X\bar{X} = - i \bar{X} X.$
    Pour $\displaystyle \alpha = \sqrt{3}$, $n$ multiple de $6$ est $\displaystyle X\bar{X} = - j \bar{X} X.$

    On peut alors mener les calculs sans logiciel formel en dimension $4$.
  • Jolie idée.

    Néanmoins, n'y a-t-il pas un petit problème pour $1/\sqrt3$ ? L'équation $X\bar X=-\bar j\bar XX$ équivaut, modulo la division par $-j$ et le changement de variable $Y=\bar X$, à $-j\bar Y Y=Y\bar Y$ qui impose $n=6$.
  • Revenons au problème de trouver une matrice $X$ telle que $X\overline{X}=-j\overline{X}X$.

    Soit $\omega=e^{i\pi/6}$. On cherche $X$ telle que $\overline{X}X=\omega^2 X\overline{X}$.

    On cherche $X$ sous la forme $CD$ avec $D=\mbox{diag}(1,\omega,\omega^2,\omega^3,\omega^4,\omega^5)$ et $C$ la matrice de permutation telle que $C(e_i)=e_{i-1}$ (où $i$ est un indice modulo 6). On a $CD^2C^{-1}=\omega^2 D^2$ [small][Edit : faute de frappe corrigée][/small], donc $CD^2=\omega^2 D^2C$, ce qui entraîne $D^{-1}CD=\omega^2DCD^{-1}$.

    Or, $\overline{X}X=\omega^2 X\overline{X} \iff C\overline{D}CD=\omega^2 CDC\overline{D} \iff D^{-1}CD=\omega^2DCD^{-1}$, compte tenu de $D^{-1}=\overline{D}$, donc on a bien $X\overline{X}=-j\overline{X}X$.
  • Joli ! (Mais groumph...)
  • Bonjour,

    @Jer anonyme, bien vu, j'ai corrigé. On retrouve $6$. Reste le cas à quatre dimensions... assez pénible.

    @JLT, je vais essayer de résoudre le cas $n=4$ et donc $\alpha =1$ en suivant la méthode que tu proposes.
  • Bonjour,

    La méthode de @JLT marche bien et tous les calculs se font à la main pour $n=4$. J'ai trouvé une typo dans la démonstration, il faut écrire $CD^2C^{-1}=\omega$$^2$$ D^2.$

    Quand on trouve le couple $(A, B)$ solution, il faut faire attention que $(B,A)$ n'est pas solution en raison du commutateur $AB-BA$. En revanche, toutes les solutions s'écrivent $(zA,zB)$ avec $z$ complexe non nul.
  • Bonsoir,

    je pense que l'on peut simplifier un peu la preuve du 90 de Grég : l'application $r$ de $\C^n$ dans lui-même qui à $v$ associe $R\overline{v}$ est semi-linéaire et $r\circ r$ est l'identité (linéaire !) ; si l'on considère $r$ comme endomorphisme de l'e.v. réel $\C^n$, alors $r$ est une symétrie et $V$ en est l'ensemble des invariants. Comme ${\rm i}V$ est l'ensemble des anti-invariants, ils sont en bijection et donc de dimension réelle moitié, càd... $n$, et $\C^n=V\oplus_\R{\rm i}V$.

    Si $(v_{1},...,v_{n})$ est une $\R$--base de $V$, alors $({\rm i}v_{1},...,{\rm i}v_{n})$ est une $\R$--base de ${\rm i}V$ et, puisque $\C^n=V\oplus{\rm i}V$ comme e.v. réel, cela montre bien que $(v_{1},...,v_{n})$ est une $\C$--base de $\C^n$.

    Cordialement, j__j
  • Je crois que j'ai encore plus simple que John, que Grég et que Hilbert : je choisis $t$ complexe de module $1$ tel que $t^2R+I$ inversible et je pose $M=tR+\overline t I$. On a $R\overline M=\overline t I+tR=M$.

    Cdlt, Hicham
Connectez-vous ou Inscrivez-vous pour répondre.