Matrices réelles $4\times 4$
dans Algèbre
Bonjour,
Existe-t-il $e_1,e_2,e_3$, trois matrices carrées réelles de taille $4$ telles que :
1) Pour tout $i$, $e_i^2=-\mathrm{Id}$.
2) Pour tous $i\neq j$, $e_ie_j+e_je_i=0$.
3) $(\mathrm{Id},e_1,e_2,e_3,e_1e_2,e_1e_3,e_2e_3,e_1e_2e_3)$ soit $\R$-libre ?
Remarque : Un tel triplet de matrices existe si on enlève la condition 3).
Existe-t-il $e_1,e_2,e_3$, trois matrices carrées réelles de taille $4$ telles que :
1) Pour tout $i$, $e_i^2=-\mathrm{Id}$.
2) Pour tous $i\neq j$, $e_ie_j+e_je_i=0$.
3) $(\mathrm{Id},e_1,e_2,e_3,e_1e_2,e_1e_3,e_2e_3,e_1e_2e_3)$ soit $\R$-libre ?
Remarque : Un tel triplet de matrices existe si on enlève la condition 3).
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
1 & 0 & 0 & 0 \\
0 & 0 & 0 & -1 \\
0 & 0 & 1 & 0\end{pmatrix}\quad\text{et}\quad\begin{pmatrix}0 & 0 & -1 & 0 \\
0 & 0 & 0 & 1 \\
1 & 0 & 0 & 0 \\
0 & -1 & 0 & 0\end{pmatrix}.\]Les matrices $m$ telles que $me_1+e_1m=0=me_2+e_2m$ sont de la forme \[m=\begin{pmatrix}a & b & -c & -d \\
b & -a & -d & c \\
-c & d & -a & b \\
d & c & b & a\end{pmatrix}\quad\text{et}\quad \\
m^2+\mathrm{id}=\begin{pmatrix}
a^{2} + b^{2} + c^{2} - d^{2} + 1 & -2 \, c d & -2 \, b d & -2 \, a d \\
2 \, c d & a^{2} + b^{2} + c^{2} - d^{2} + 1 & 2 \, a d & -2 \, b d \\
2 \, b d & -2 \, a d & a^{2} + b^{2} + c^{2} - d^{2} + 1 & 2 \, c d \\
2 \, a d & 2 \, b d & -2 \, c d & a^{2} + b^{2} + c^{2} - d^{2} + 1
\end{pmatrix}.\]Si on impose la relation $m^2+\mathrm{id}=0$, on voit grâce au coefficient en haut à gauche que nécessairement $d\ne0$, d'où, en regardant le reste de la première colonne, $a=b=c=0$, puis $d^2=1$. Autrement dit, les seule valeurs possibles pour $e_3$ sont $\pm e_1e_2$. La famille que tu écris ne peut pas être libre.
PS : rectification de la coquille signalée par Gai Requin.
@Gai-Requin. Un truc étrange. Je note (à la Husemoller) $C_3$ l'algèbre de Clifford de la forme quadratique $-(x_1^2 + x_2^2 + x_3^2)$ sur $\R^3$. Elle est notée $C_3^+$ par Isabel Vogt in http://www.mit.edu/~ivogt/VectorFieldsonSpheres.pdf ou Haynes Miller in http://math.mit.edu/~mdono/haynes-notes.pdf.
Ces deux auteurs ont l'air de dire que $C_3$ admet une représentation en dimension 4 : chez le premier auteur, cela figure dans le petit tableau en bas de la page 3 ($a_k$ be the dimension of the minimal representation of $C_k^+$). Chez le second auteur, c'est le tableau au milieu de la page 6, où l'on voit d'ailleurs la même notation $a_k$ et les mêmes valeurs de $a_k$ pour $0 \le k \le 8$, en particulier $a_3 = 4$.
Dire que $C_3$ opère sur $\R^4$ ou que $\R^4$ est un $C_3$-module (ici module et pas modèle), c'est bien la même chose que l'existence des matrices $4 \times 4$ de ton post, non ? Or j'ai une totale confiance en Math Coss, même si je n'ai pas vérifié les détails. Quid ?
Note : chez Husemoller, il y a la table 6.5 page 150. Mais $a_k$ désigne la dimension de $M^0$ où $M = M^0 \oplus M^1$ est un $C_k$-module irréductible (pour $k = 8$, $a_k$ de Husemoller vaut 8 tandis que $a_k$ des auteurs ci-dessus vaut 16). Pour comprendre cette histoire de $\bullet^0$, $\bullet^1$, il faut savoir qu'une algèbre de Clifford $C$ est enrichie d'un machin que l'on qualifie de $\Z/2\Z$-graduation : $C = C^0 \oplus C^1$ : $C^0$ est le sous-ensemble de $C$ constitué des éléments invariants par l'involution de $C$ et $C^1$ ceux qui sont anti-invariants. En haut de la page 5, Miller dit que $C_k$ débarque équipé d'un anti-automorphisme ...etc... Mais il est préférable, pour cette histoire d'involution, de considérer la totale : si $C$ est l'algèbre de Clifford de $(V, q)$, l'application $V \to C$ définie par $v \mapsto -\iota(v)$ se prolonge en une involution $\beta$ de $C$ vérifiant $\beta(\iota(v)) = -\iota(v)$.
Bref, des choses à éclaircir ici.
Sinon, je voulais bien écrire « module » mais je voulais dire « module simple » (sur l'algèbre des quaternions).
Note : la correspondance des notations entre Husemoller et Vogt est :
$$
{C_k}_{\rm\ Husemoller} = {C_k^+}_{\rm Vogt} \qquad\qquad
{C'_k}_{\rm\ Husemoller} = {C_k^-}_{\rm Vogt}
$$
$C_k^+$ car il s'agit de $-(x_1^2 + \cdots + x_k^2)$ et $C_k^-$ car il s'agit de $+(x_1^2 + \cdots + x_k^2)$. Pas vu de $C'_k$ chez Vogt.
@Gai-Requin : du coup, pourquoi voulais tu des matrices $4\times 4$ comme dans ton premier post ?
Une petite coquille : tu as cherché les matrices $m$ telles que $me_1+e_1m=me_2+e_2m=0$.
@Claude :
Magma fournit une représentation de $C_3$ par des matrices $8\times 8$.
On a construit des matrices $4\times 4$ (et MathCoss aussi (tu)) qui satisfont les conditions 1) et 2).
Je me suis donc demandé s'il existait une représentation de $C_3$ par des matrices $4\times 4$.
La réponse est non.
Plus généralement, dans ton sujet de Lyon, la perte de l'indépendance que vous venez d'expliquer t'a fait squeezé la condition 3) tout en étant sûr de pouvoir réaliser 1) et 2) en dimension minimale connue.
Finalement, pour $k$ donné, chercher $V$ de dimension minimale tel qu'il existe un morphisme d'algèbres $C_k\to \mathrm{End}(V)$ n'est pas chose aisée !
On peut trouver [ici] un gros travail d'algèbre effective sur ce problème pour $k\leq 16$.
1. $\H \otimes \H \simeq M_4(\R)$.
2. Le théorème de stabilité qui dit que $C_{k+8} \simeq C_k \otimes M_{16}(\R)$. En particulier si $E$ est un $C_k$-module, alors $E \otimes \R^{16}$ est un $C_{k+8}$-module. Et $E \otimes \R^{16}$, c'est $E^{16}$. Pour les bébés : si on a un système de type $A_k$ sur $E$, on a un système de type $A_{k+8}$ sur $E^{16}$.
3. Ce théorème de stabilité s'obtient de la manière suivante (j'utilise les résultats sur $C_4$ et $C'_4$) :
$$
C_{k+8} \simeq C_{k+4} \otimes C_4 \simeq C_k \otimes C_4 \otimes C_4
$$
Et en utilisant $C_4 \simeq M_2(\H) = M_2(\R) \otimes \H$ :
$$
C_4 \otimes C_4 \simeq M_2(\R) \otimes M_2(\R) \otimes \H \otimes \H \simeq M_2(\R) \otimes M_2(\R) \otimes M_4(\R) \simeq M_{16}(\R)
$$
Je me replonge dans ces produits tensoriels lundi et mardi.
I. On est content (je crois) car on a explicité $C_6 \simeq M_8(\R)$. Mais qu'en est-il en ce qui concerne l'involution de $C_6$ et l'anti-involution de $C_6$ ? Comment cela se transporte-t-il sur $M_8(\R)$ ? Cf le petit truc attaché pour ces involutions (il n'y a pas de notation standard, j'ai noté des conflits de notations entre Husemoller et Miller). On va dire que l'anti-involution c'est celle qui renverse le produit i.e. qui débarque lorsque l'on applique la solution du problème universel d'une algèbre de Clifford à son algèbre opposée. Tandis que l'involution (dite aussi involution principale) c'est celle qui débarque quand on fait intervenir $V \to C(V,q)$ définie par $v \mapsto -\iota(v)$ où $\iota$ est l'injection canonique de $V$ dans son algèbre de Clifford $C(V,q)$. II. Contents aussi du coup ``quand il y en a pour 6, il y en a pour 7''. Mais après tout, c'est peut-être banal ? Je veux dire que si $a_1, a_2, \cdots, a_6$ est de type $A_6$, en notant $a_7$ le produit des $a_i$ (dans l'ordre disons, on n'est pas en commutatif), alors $a_1, a_2, \cdots, a_6,a_7$ est de type $A_7$. Certes, c'est utile. Mais est ce que cela n'est pas plus important de bien verrouiller I ?
III. Et en ce qui concerne $C_8 \simeq M_{16}(\R)$, quelle va être notre attitude ? Note $C_8 \simeq C_4 \otimes_\R C_4$, j'en ai causé hier.
IV. Est ce que je ne suis pas entrain de chercher les e.m.rd.ments ?
J'ai regardé $\H \otimes \H \simeq M_4(\R)$.
Tout d'abord, comme $\H$ est un $\R$-ev de dimension $4$, on peut identifier $\mathrm{End}_{\R}(\H)$ et $M_4(\R)$ via la base $(1,i,j,k)$ de $\H$ par exemple.
On considère ensuite l'application $\R$-bilinéaire $\H\times\H\to\mathrm{End}_{\R}(\H)$, $(a,b)\mapsto(c\mapsto ac\overline b)$.
Par propriété universelle du produit tensoriel, on obtient une application $\R$-linéaire :$$f:\H\otimes \H\to\mathrm{End}_{\R}(\H),\quad a\otimes b\mapsto(c\mapsto ac\overline b).$$De plus, pour tous $a,b,a',b',c\in\H$, on a :$$f(a\otimes b\cdot a'\otimes b')(c)=f(aa'\otimes bb')(c)=aa'c\overline{bb'}=aa'c\overline{b'}\overline b=f(a\otimes b)\circ f(a'\otimes b')(c).$$Donc $f$ est un morphisme de $\R$-algèbres.
Pour conclure, on pourrait être tenté de montrer que $\ker f=\{0\}$ puisque $\dim_{\R}\H \otimes \H=\dim_{\R}\mathrm{End}_{\R}(\H)=16$.
Mais il y a un mais ! C'est que les éléments de $\H \otimes \H$ ne s'écrivent pas tous $a\otimes b$ !!!
Donc, pour vraiment conclure, il suffit de regarder l'action de $f$ sur une base (on en connaît, ouf !) de $\H \otimes \H$...
Mais je n'ai pas calculé les $16$ matrices.
Je ne sais pas toi, mais les représentations linéaires de $\mathbb R$-algèbres me fascinent de plus en plus !
Je pense qu'il y a moins bourrin. Pas encore tout compris. Bien sûr tu connais la base canonique habituelle de $\M_n(A)$ constituée des matrices élémentaires $E_{ij}$. Ici $n=4$ : On va faire la moyenne de 4 matrices $\GaiRequin(h_1,h_2)$ avec $h_1,h_2$ judicieusement choisis si possible pour attraper la base canonique Le jeu consiste à mettre le 1 dans toutes les cases. Cela vaut largement les jeux des PlayStations, non ?
Je reviens sur des choses déjà étudiées, par exemple $C_6 \simeq \M_8(\R)$, et surtout sur l'involution principale et l'anti-involution principale d'une algèbre de Clifford. En ce qui concerne ces deux dernière notions, il nous faut des notations. J'ai consulté la littérature : Bourbaki, Husemoller, O'Meara (Introduction to quadratic forms), Haynes Miller (se méfier) et le bilan, c'est que chaque auteur utilise ses propres notations (parfois vachement faibles) et qu'elles sont en désaccord. J'ai quand même envie d'utiliser $x \mapsto \overline x$ pour noter l'anti-involution d'une algèbre de Clifford $C = C(V,q)$, qui est le seul anti-automorphisme de $C$ égal à l'identité sur $V$ (si j'ai bien compris le point 54.5 page 136 de O'Meara).
0. Je suis en désaccord avec Haynes Miller in http://math.mit.edu/~mdono/haynes-notes.pdf. J'attache bout de pages 4-5. Pas d'accord avec le fait que $\overline {e_i} = -e_i$. Je dis que l'on a $\overline {e_i} = e_i$. Confusion avec l'involution principale ?
1. Je reviens sur $C_6 \simeq \M_8(\R)$. En principe, on est clair sur $C_{k+4} \simeq C_k \otimes C_4$ et $C_4 \simeq \M_2(\H) = \H \otimes \M_2(\R)$ (les produits tensoriels sont pris sur $\R$). Donc, en se souvenant que $C_2 \simeq \H$ :
$$
C_6 \simeq C_2 \otimes C_4 \simeq \H \otimes \H \otimes \M_2(\R) \simeq \M_4(\R) \otimes \M_2(\R) = \M_8(\R)
$$
Les jours difficiles, il faudra se souvenir de cette chaîne de production et ne pas se contenter d'exhiber 6 matrices de $\M_8(\R)$ qui forment une $C_6$-base de Clifford.
2. J'ai passé l'involution principale de $C_6$ en une involution de $\M_8(\R)$. D'après le théorème de Skolem-Noether, c'est un automorphisme intérieur. Et comme c'est une involution, c'est de la la forme $M \mapsto PMP^{-1}$ avec $P^2$ matrice scalaire. Peut-on l'identifier (en étant clair sur l'isomorphisme $C_6 \simeq \M_8(\R)$ que l'on a choisi) ? Exemple dans lequel $E_{ij}$ désigne la base habituelle de $\M_8(\R)$ et M8Bar ce qui correspond sur $\M_8(\R)$ à l'involution principale de $C_6$. Cela risque d'être chaud sans plus d'information.
3. En ce qui concerne l'anti-involution principale passée sur $\M_8(\R)$, disons $M \mapsto \overline M$, en utilisant la transposée et de nouveau Skolem-Noether, on tombe sur le fait $\overline M = Q\, {}^t \kern -2ptM\, Q^{-1}$ avec $Q^2$ scalaire. Ne pas me croire sur parole. 4. A quoi sert tout ce fourbi ? Réponse : à RIEN. Sauf que cela permet de se rendre compte si on est vraiment clair ou pas concernant des choses sur lesquelles on pensait être clair. Par exemple, je dis que Haynes Miller se trompe en écrivant $\overline {e_i} = -e_i$. Moi, je dis que $\overline {e_i} = e_i$. Eh bien, on ne peut pas avoir raison tous les deux. J'accepte de me tromper mais je veux le savoir.
Apparemment, la conjugaison d'une algèbre de Clifford est le produit (commutatif) des deux involutions principales.
C'est donc un anti-automorphisme involutif et, pour tout $i$, on a $\overline{e_i}=-e_i$.
Je rattache un extrait de la doc de magma. Certes, ce n'est pas Bourbaki mais les implémenteurs en connaissent un rayon.
Je fais d'abord agir l'involution principale puis l'anti-automorphisme principal.$$a+ib+cj+dij\mapsto a-ib-cj+dij\mapsto a-ib-cj+dji=a-ib-cj-dij.$$
Et tout va bien dans la cuisine. ;-)
Autre chose : on dispose d'un automorphisme disons $\theta : \M_8(\R) \to \M_8(\R)$ (celui qui correspond à l'involution principale de $C_6$ mais peu importe). Je sais le calculer i.e. je sais déterminer les $\theta(E_{ij})$. Et je crois à Skolem-Noether. Toi aussi, n'est ce pas ? Comment je peux certifier que $\theta$ est un automorphisme intérieur ? En clair : trouver $P \in \M_8(\R)$ inversible $\theta(M) = PMP^{-1}$ ?
Je suis rentré chez moi et j'ai regardé le théorème de Skolem-Noether qui donne notamment les automorphismes des algèbres centrales simples.
J'ai aussi regardé sa mise en pratique dans le cas de l'involution principale de $C_6$.
On cherche $g\in C_6$ inversible tel que, pour tout $i$, $ge_ig^{-1}=-e_i$ ce qui se réécrit $ge_i+e_ig=0$.
Et bien $g=e_1\cdots e_6$ convient.
Reste à représenter les $e_i$ dans $M_8(\mathbb R)$...
Par paresse, pour l'instant, j'ai gardé les 6 matrices de $\M_8(\R)$ que tu avais trouvées (pas n'importe comment) à l'époque où il y avait moins de structurel. Maintenant, c'est plus structurel : les algèbres de Clifford sont là, enrichies de l'involution principale et de l'anti-involution principale ..etc.. Les produits tensoriels sont là pour nous aider ...etc...
L'isomorphisme C6toM8, $C_6 \to \M_8(\R)$ ci-dessous, c'est celui qui réalise $e_i \mapsto $ ta matrice numéro $i$. Et M8PrincipalInvolution, c'est l'involution principale de $C_6$ passée dans $\M_8(\R)$. Et ce qui vient de sortir à l'instant, c'est la matrice $P$ de conjugaison que tu as trouvée. BINGO et bravo.
Tu nous fais un coup analogue pour l'anti-involution principale ? Grosse récompense, promis, juré.
Identifier sous quelle forme ? Peux tu relire le point 3. de http://www.les-mathematiques.net/phorum/read.php?3,1856386,1857682#msg-1857682 ? Le voici
3. En ce qui concerne l'anti-involution principale passée sur $\M_8(\R)$, disons $M \mapsto \overline M$, en utilisant la transposée et de nouveau Skolem-Noether, on tombe sur le fait $\overline M = Q\, {}^t \kern -2ptM\, Q^{-1}$ avec $Q^2$ scalaire.
On a donc $Q$ à trouver. Et figure toi que dans ce bas monde, il y a parfois un peu de justice. Car, devinette, $Q$ on l'a sous la main. Tu l'as sous la main.
Si j'en crois mon calcul, on peut prendre encore $Q=e_1\cdots e_6$.
Soit $f$ un automorphisme de $K$-algèbres de $M_n(K)$.
On note $E_{ij}$ la matrice dont tous les coeffs sont nuls, sauf celui en position $(i,j)$ qui vaut $1$.
La matrice $f(E_{11})$ est une matrice de projection de rang $1$.
On peut donc écrire $f(E_{11})=CD^t$ où $C,D$ sont des vecteurs colonnes non nuls de $K^n$ vérifiant $D^tC=1$.
Pour $j=1,...,n$, on pose $C_j=f(E_{j1}). C$.
On montre alors que si $P$ est la matrice de colonnes $C_1,\ldots,C_n$, alors $P$ est inversible et $f=Int(P)$.
$$
M^* = P M P^{-1}, \qquad\qquad \overline M = P\ {}^t \kern -2ptM\ P^{-1}
$$
Peux tu, sous cette forme, (re)vérifier qu'elles commutent ? Tu vas utiliser une certaine propriété de $P$.
Et la composée de $M \mapsto M^*$ et $M \mapsto \overline M$, the so-called Miller-conjugation (so-called par nous autres), c'est qui ? Et il paraît qu'elle réalise $e_i \mapsto -e_i$. Et donc au niveau matriciel dans $\M_8(\R)$ ? Tiens pour rappel, $a_1, a_2$, les $a_i$ (tes $a_i$) étant celles pour lesquelles $e_i \mapsto a_i$
1. Est ce que nous ne sommes pas en train de mettre $\M_8(\R)$ en $C_6$-Clifford jusqu'au bout des ongles ?
2. Et l'involution principale, l'anti-involution principale d'une algèbre de Clifford, tu les connais depuis quand ?
1. Oui et c'est fascinant !
2. Je n'ai eu le temps de regarder qu'aujourd'hui !
Je transmets tes salutations à Greg. :-)
J'ai vérifié les détails [du message de Greg].
J'apporte une petite précision sur $C$ et $D$.
$f(E_{11})$ est une projection de rang $1$ donc elle est semblable à $E_{11}$.
Les experts de la diagonalisation sauront donc calculer $Q$ tel que $Q^{-1}f(E_{11})Q=E_{11}$.
On a alors :$$f(E_{11})=Q\begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix}\begin{pmatrix}1&0&\cdots&0\end{pmatrix}Q^{-1}.$$Il suffit ensuite de prendre $C=Q\begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix}$ et ${}^tD=\begin{pmatrix}1&0&\cdots&0\end{pmatrix}Q^{-1}$ qui vérifient bien ${}^tCD=1$.
Edit : J'appelle finalement $Q$ cette matrice de passage pour être cohérent avec les notations de Greg et Claude.
Le bouquet final. Comme j'ai $P$ sous la main d'hier, je note $P_{\rm new}$ la matrice fournie par l'algorithme de Greg précisé par Gai-Requin Of course, $P_{\rm new}$ fait autant l'affaire que $P$. Greg, Gai-Requin : 10/10.
Un petit corollaire : soit $f$ un anti-automorphisme de $M_n(K)$.
On sait donc expliciter $P$ inversible telle que, pour tout $M$, ${}^t(f(M))=PMP^{-1}$.
Soit alors $Q:={}^t(P^{-1})$.
On a $f(M)=Q\ {}^t \kern -2ptM\ Q^{-1}$ pour tout $M$.
Une petite expérimentation m'a conduit à penser que l'involution principale de $C$, disons $x \mapsto x^*$ si on a besoin d'une notation, est l'automorphisme intérieur défini par $g = e_1\cdots e_k$ i.e. $x^* = g x g^{-1}$. Remarque : en posant $a_i = q(e_i)$, on a $g^2 = a =_{\rm def} a_1 \cdots a_k$, ce qui prouve que $g$ est bien inversible d'inverse $a^{-1}g$. Et en passant, que $gxg^{-1} = g^{-1}x g$.
Je te pose cette question car tu as fait le job pour $C_6$ et je me demande s'il n'y a pas un tour de main pour éviter trop de calculs. Il suffit de vérifier $e_i^* = g e_i g^{-1}$ i.e. $-e_i = g e_i g^{-1}$. Ou encore : est ce que tu as peiné pour $C_6$ (anti-commutation ..etc...) ?
Note : c'est spécifique à la dimension paire. En tout cas, ce que je raconte ci-dessus est faux en dimension impaire.
Clair ci-dessus ?
EDIT J'ai écrit $g^2 = a =_{\rm def} a_1 \cdots a_k$. Non : $g^2$ vaut $(-1)^{k(k+1) \over 2} a_1 \cdots a_k$ (et ceci quelque soit la parité de $k$). Ce qui ne change rien au reste.
Soit $1\leq i\leq k$ et $\pi=\displaystyle{\prod_{l\neq i}e_l}$.
Alors :$$\begin{eqnarray}ge_i+e_ig&=&(-1)^{k-i}q(e_i)\pi+(-1)^{i-1}q(e_i)\pi\\
&=&\left((-1)^i+(-1)^{i-1}\right)q(e_i)\pi\\
&=&0.\end{eqnarray}
$$ Après quelques recherches, il s'avère que si $V$ est de dimension paire sur $K$, alors l'algèbre de Clifford $C$ est centrale simple sur $K$.
Si $K=\mathbb R$ ou $\mathbb C$ et $V$ de dimension impaire, alors $C$ n'est pas centrale simple sur $K$.
Donc rien d'étonnant au fait qu'il faille supposer $k$ pair.
Note : il paraît que $C_5 \simeq \M_4(\C)$. En tout cas, c'est bien vrai que $2^5 = 2 \times 4^2$, le $2 \times$ car dimension sur $\R$.
J'imagine que tu voudrais expliciter le $\simeq$...
$C_5\simeq C_2\otimes C'_3\simeq\mathbb H\otimes M_2(\mathbb R)\otimes\mathbb C\simeq\mathbb C\otimes M_2(\mathbb H)$.
En voyant les quaternions comme des matrices complexes $2\times 2$ et les éléments de $\mathbb C$ comme les éléments de $\mathbb H$ de la forme $\begin{pmatrix} z&0\\0&\overline z\end{pmatrix}$, on construit dans un premier temps une application $\mathbb R$-bilinéaire $\mathbb C\times M_2(\mathbb H)\to M_4(\mathbb C)$ comme on le pense... puis on passe au produit tensoriel.
Mais j'ai la flemme de regarder si on obtient un morphisme de $\mathbb R$-algèbres.
$$
C_5 \simeq C'_3 \otimes C_2 \simeq M_2(\C) \otimes \H \simeq \C \otimes M_2(\R) \otimes \H
$$
A droite, il y a plusieurs manières de regrouper les produits tensoriels. Par exemple $\C \otimes \H = M_2(\C)$. Et on doit tomber sur $M_4(\C)$. Oublions les algèbres de Clifford. Ceci signifie que l'on a (rappel : produits tensoriels sur $\R$) des isomorphismes de $\R$-algèbres :
$$
\C \otimes M_2(\H) \simeq M_2(\C) \otimes \H \simeq M_2(\C) \otimes M_2(\R) \simeq M_4(\C)
\qquad \text{Après tout, le montrer peut permettre de passer du bon temps ??}
$$
2. Comme $C'_3$ intervenait pour $C_5$, je me suis posé la question : cela signifie quoi $C'_3 \simeq M_2(\C)$ ? J'ai voulu en savoir plus car peut-être que cela cache que la $\R$-algèbre $C'_3$ peut-être munie d'une structure plus ou moins naturelle de $\C$-algèbre ? On va voir que oui et qu'il faut vraiment penser au fait que $M_2(\C)$ est $M_2(\R)$ complexifiée. Je reprends des trucs de base avec une notation $e'_k$ vachement surchargée :
$$
C'_3 \simeq C_1 \otimes C'_2 \qquad \left| \begin {array} {l} e'_1 = 1 \otimes e'_1 \\ e'_2 = 1 \otimes e'_2\\ e'_3 = e_1 \otimes e'_1e'_2 \end{array}\right.
\qquad\qquad
C_1 = \C \text { avec } e_1 = i, \quad C'_2 = M_2(\R) \text { avec } e'_1 = \mat {0}{1}{1}{0}, \quad e'_2 = \mat {1}{0}{0}{-1}
$$
Ce qui installe sur $\C \otimes M_2(\R) = M_2(\C)$ une structure de $C'_3$-algèbre de Clifford via
$$
e'_1 = 1 \otimes e'_1 = e'_1 = \mat {0}{1}{1}{0}, \qquad e'_2 = 1 \otimes e'_2 = e'_2 = \mat {1}{0}{0}{-1}, \qquad
e'_3 = i \otimes e'_1 e'_2 = i \mat {0}{1}{1}{0} \mat {1}{0}{0}{-1} = \mat {0}{-i}{i}{0}
$$
Dans un $C'_3$ abstrait, on aimerait bien trouver un élément de carré $-1$, histoire de coller à $C'_3$ une structure de $\C$-algèbre. Il y en a un qui nous tend les bras : ci-dessus, on voit quelque chose du type $e'_3 = ie'_1e'_2$ : on a plus qu'à prendre $i = e'_3e'_2e'_1$. Pour la paix des âmes, c'est peut-être préférable de poser $i' = e'_3 e'_2 e'_1$, de vérifier que $i'$ est de carré $-1$ (ce qui m'a permis de vérifier que je me suis encore gourré en ce qui concerne un signe dans le carré de $e_1 \cdots e_k$ en général). Et la structure complexe sera $i \cdot x = i'x$.
Bref, en arrêtant la coquetterie de la notation $i'$, on a $C'_3 = M_2 \oplus iM_2$ où $M_2 \simeq M_2(\R)$ est la $\R$-algèbre engendrée par $e'_1, e'_2$ (qui sont bien réelles). On a ainsi la main sur $C'_3$ et on peut se poser la question d'identifier l'involution principale et l'anti-involution principale.
$\bullet$ Involution anti-principale. C'est un $\R$-anti-automorphisme de $M_2(\C)$ qui doit fixer $e'_1, e'_2, e'_3$. On se doute que la conjugaison complexe intervient. Et on finit par tomber sur $M \mapsto \trans{\overline M}$. Ici $\overline M$ est à considérer au sens de la conjugaison complexe.
$\bullet$ Involution principale. Cela a été un peu plus chaud : c'est un $\R$-automorphisme involutif de $M_2(\C)$ qui doit réaliser $e'_k \mapsto -e'_k$. Mais pas un $\C$-automorphisme donc non intérieur. Je passe les détails mais je l'ai composé avec la conjugaison complexe en croisant les doigts : espoir d'obtenir un $\C$-automorphisme de $M_2(\C)$. Et ça l'a fait : en appliquant l'algorithme de Greg/Gai-Requin pour Skolem-Noether je suis tombé sur le fait que :
$$
\text{involution principale } : M \mapsto P \overline M P^{-1} = P^{-1} \overline M P \qquad\qquad P = \mat{0}{1}{-1}{0}
$$
Note : sur n'importe quel anneau de base, dans le cas des matrices $2 \times 2$, l'automorphisme intérieur $M \mapsto P M P^{-1}$, c'est $M \mapsto \trans{\widetilde M} = \widetilde {\trans M}$ où $\widetilde M$ est la co-matrice de $M$.
Bilan : pas mal de choses cachées dans $C'_3 \simeq M_2(\C)$. Et je ne dis pas tout : il a fallu par exemple que je retrouve les 4 matrices élémentaires $E_{ij}$ de $M_2(\C)$ dans $C'_3$:
$$
1 + e'_2 \leftrightarrow 2E_{11}, \qquad 1 - e'_2 \leftrightarrow 2E_{22}, \qquad (1 + e'_2)e'_1 \leftrightarrow 2E_{12}, \qquad (1 - e'_2) e'_1 \leftrightarrow 2E_{21}
$$
Tout ceci peut paraître un peu sordide mais il faut être cohérent. Lorsque l'on utilise les systèmes de Calcul Formel, il nous arrive d'apprécier les services rendus. Ces services ne se réalisent pas par l'opération du Saint Esprit (hum, qu'est ce qu'il vient faire là ?)
Est-ce que tu connais la notion de produit tensoriel anti-commutatif ? J'ai cherché sans succès...
Evidemment, rien ne presse.
Autre chose, pour me rassurer. Soit $(e_1, \cdots, e_k)$ une base orthogonale de $(V,q)$ et $g = e_1\cdots e_k$ dans l'algèbre de Clifford $C = C(V,q)$. J'ai calculé $g^2$. La première fois j'ai trouvé $q(e_1) \cdots q(e_k)$. Une demi-heure après $(-1)^{k(k+1) \over 2} q(e_1) \cdots q(e_k)$. Et le lendemain $(-1)^{k(k-1) \over 2} q(e_1) \cdots q(e_k)$. Je n'ose pas essayer une quatrième fois.
$$
2^5 = 2 \times 4^2 = (2 \times 2^2) \times 4 \text { (deux fois) } = 2 \times 4^2 \text { (d'une autre manière) }
$$
J'ai trouvé la bonne terminologie du produit tensoriel bizarre que j'ai essayé d'évoquer hier.
On se donne deux algèbres $A$ et $B$ $\Z/2\Z$-graduées.
On peut définir de manière tordue une structure d'algèbre $\Z/2\Z$-graduée sur $A\otimes B$.
On note $A\widehat{\otimes}B$ l'algèbre obtenue qu'on appelle le produit tensoriel gradué de $A$ et $B$.
Pourquoi cette notion ? Parce qu'on peut définir sur toute algèbre de Clifford une structure d'algèbre $\Z/2\Z$-graduée.
Avantage : On connaît des isomorphismes explicites d'algèbres $\Z/2\Z$-graduées construites avec $\widehat{\otimes}$.
Est-ce que cela te parle ?
Serais-tu intéressé par plus de détails ?