Matrices réelles $4\times 4$

Bonjour,

Existe-t-il $e_1,e_2,e_3$, trois matrices carrées réelles de taille $4$ telles que :

1) Pour tout $i$, $e_i^2=-\mathrm{Id}$.
2) Pour tous $i\neq j$, $e_ie_j+e_je_i=0$.
3) $(\mathrm{Id},e_1,e_2,e_3,e_1e_2,e_1e_3,e_2e_3,e_1e_2e_3)$ soit $\R$-libre ?

Remarque : Un tel triplet de matrices existe si on enlève la condition 3).
«1

Réponses

  • En posant $e'_3=e_1e_2$, on a ${e'_3}^2=e_1e_2e'_3=-\mathrm{id}$. On obtient une algèbre de quaternions (une algèbre à division) $H$ admettant pour base $(\mathrm{id},e_1,e_2,e'_3)$. Mais une telle algèbre admet un unique module de dimension réelle $4$ à isomorphisme près. Autrement dit, quitte à changer de base, on peut supposer que $e_1$ et $e_2$ sont les matrices de la multiplication par eux-mêmes dans $H$, c'est-à-dire \[e_1=\begin{pmatrix}0 & -1 & 0 & 0 \\
    1 & 0 & 0 & 0 \\
    0 & 0 & 0 & -1 \\
    0 & 0 & 1 & 0\end{pmatrix}\quad\text{et}\quad\begin{pmatrix}0 & 0 & -1 & 0 \\
    0 & 0 & 0 & 1 \\
    1 & 0 & 0 & 0 \\
    0 & -1 & 0 & 0\end{pmatrix}.\]Les matrices $m$ telles que $me_1+e_1m=0=me_2+e_2m$ sont de la forme \[m=\begin{pmatrix}a & b & -c & -d \\
    b & -a & -d & c \\
    -c & d & -a & b \\
    d & c & b & a\end{pmatrix}\quad\text{et}\quad \\
    m^2+\mathrm{id}=\begin{pmatrix}
    a^{2} + b^{2} + c^{2} - d^{2} + 1 & -2 \, c d & -2 \, b d & -2 \, a d \\
    2 \, c d & a^{2} + b^{2} + c^{2} - d^{2} + 1 & 2 \, a d & -2 \, b d \\
    2 \, b d & -2 \, a d & a^{2} + b^{2} + c^{2} - d^{2} + 1 & 2 \, c d \\
    2 \, a d & 2 \, b d & -2 \, c d & a^{2} + b^{2} + c^{2} - d^{2} + 1
    \end{pmatrix}.\]Si on impose la relation $m^2+\mathrm{id}=0$, on voit grâce au coefficient en haut à gauche que nécessairement $d\ne0$, d'où, en regardant le reste de la première colonne, $a=b=c=0$, puis $d^2=1$. Autrement dit, les seule valeurs possibles pour $e_3$ sont $\pm e_1e_2$. La famille que tu écris ne peut pas être libre.

    PS : rectification de la coquille signalée par Gai Requin.
  • @Math Coss Je suppose que tu as voulu dire ``modèle'' au lieu de ``module''.

    @Gai-Requin. Un truc étrange. Je note (à la Husemoller) $C_3$ l'algèbre de Clifford de la forme quadratique $-(x_1^2 + x_2^2 + x_3^2)$ sur $\R^3$. Elle est notée $C_3^+$ par Isabel Vogt in http://www.mit.edu/~ivogt/VectorFieldsonSpheres.pdf ou Haynes Miller in http://math.mit.edu/~mdono/haynes-notes.pdf.
    Ces deux auteurs ont l'air de dire que $C_3$ admet une représentation en dimension 4 : chez le premier auteur, cela figure dans le petit tableau en bas de la page 3 ($a_k$ be the dimension of the minimal representation of $C_k^+$). Chez le second auteur, c'est le tableau au milieu de la page 6, où l'on voit d'ailleurs la même notation $a_k$ et les mêmes valeurs de $a_k$ pour $0 \le k \le 8$, en particulier $a_3 = 4$.

    Dire que $C_3$ opère sur $\R^4$ ou que $\R^4$ est un $C_3$-module (ici module et pas modèle), c'est bien la même chose que l'existence des matrices $4 \times 4$ de ton post, non ? Or j'ai une totale confiance en Math Coss, même si je n'ai pas vérifié les détails. Quid ?

    Note : chez Husemoller, il y a la table 6.5 page 150. Mais $a_k$ désigne la dimension de $M^0$ où $M = M^0 \oplus M^1$ est un $C_k$-module irréductible (pour $k = 8$, $a_k$ de Husemoller vaut 8 tandis que $a_k$ des auteurs ci-dessus vaut 16). Pour comprendre cette histoire de $\bullet^0$, $\bullet^1$, il faut savoir qu'une algèbre de Clifford $C$ est enrichie d'un machin que l'on qualifie de $\Z/2\Z$-graduation : $C = C^0 \oplus C^1$ : $C^0$ est le sous-ensemble de $C$ constitué des éléments invariants par l'involution de $C$ et $C^1$ ceux qui sont anti-invariants. En haut de la page 5, Miller dit que $C_k$ débarque équipé d'un anti-automorphisme ...etc... Mais il est préférable, pour cette histoire d'involution, de considérer la totale : si $C$ est l'algèbre de Clifford de $(V, q)$, l'application $V \to C$ définie par $v \mapsto -\iota(v)$ se prolonge en une involution $\beta$ de $C$ vérifiant $\beta(\iota(v)) = -\iota(v)$.

    Bref, des choses à éclaircir ici.
  • Aurais-je dit n'importe quoi ? C'est bien possible ! Cependant, de ce que je comprends de la table 5.10 dans Fibre bundles de Husemoller, notre algèbre ($C'_3$ pour Vogt, $C_3$ pour Husemoller : c'est possible ?) est isomorphe à $\newcommand{\H}{\mathbf{H}}\H\oplus\H$. Cela entraîne bien l'existence d'une représentation de dimension réelle $4$ mais elle ne satisfait pas nécessairement à la contrainte d'indépendance linéaire que veut imposer Gai Requin. Il n'y a peut-être pas de contradiction.

    Sinon, je voulais bien écrire « module » mais je voulais dire « module simple » (sur l'algèbre des quaternions).
  • @Math Coss Non, tu n'as pas dit n'importe quoi, pas du tout. Mais moi, si. Car l'existence d'une structure de $C_3$-module sur $\R^4$ n'impose pas l'indépendance linéaire. Et j'ai failli raconter une deuxième c.nnerie en ``confondant'' (une paille) l'anti-automorphisme principal d'une algèbre de Clifford avec son automorphisme principal.

    Note : la correspondance des notations entre Husemoller et Vogt est :
    $$
    {C_k}_{\rm\ Husemoller} = {C_k^+}_{\rm Vogt} \qquad\qquad
    {C'_k}_{\rm\ Husemoller} = {C_k^-}_{\rm Vogt}
    $$
    $C_k^+$ car il s'agit de $-(x_1^2 + \cdots + x_k^2)$ et $C_k^-$ car il s'agit de $+(x_1^2 + \cdots + x_k^2)$. Pas vu de $C'_k$ chez Vogt.

    @Gai-Requin : du coup, pourquoi voulais tu des matrices $4\times 4$ comme dans ton premier post ?
  • Merci MathCoss.
    Une petite coquille : tu as cherché les matrices $m$ telles que $me_1+e_1m=me_2+e_2m=0$.

    @Claude :
    Magma fournit une représentation de $C_3$ par des matrices $8\times 8$.
    On a construit des matrices $4\times 4$ (et MathCoss aussi (tu)) qui satisfont les conditions 1) et 2).
    Je me suis donc demandé s'il existait une représentation de $C_3$ par des matrices $4\times 4$.
    La réponse est non.

    Plus généralement, dans ton sujet de Lyon, la perte de l'indépendance que vous venez d'expliquer t'a fait squeezé la condition 3) tout en étant sûr de pouvoir réaliser 1) et 2) en dimension minimale connue.
  • Bonjour,

    Finalement, pour $k$ donné, chercher $V$ de dimension minimale tel qu'il existe un morphisme d'algèbres $C_k\to \mathrm{End}(V)$ n'est pas chose aisée !
    On peut trouver [ici] un gros travail d'algèbre effective sur ce problème pour $k\leq 16$.
  • $\def\H{\mathbb H}\def\R‘{\mathbb R}$Vu. Mais peut-être que l'on ne peut pas tout faire d'un coup ? Il serait peut-être bon de finaliser d'abord les choses suivantes. Tous les produits tensoriels sont sur $\R$.

    1. $\H \otimes \H \simeq M_4(\R)$.

    2. Le théorème de stabilité qui dit que $C_{k+8} \simeq C_k \otimes M_{16}(\R)$. En particulier si $E$ est un $C_k$-module, alors $E \otimes \R^{16}$ est un $C_{k+8}$-module. Et $E \otimes \R^{16}$, c'est $E^{16}$. Pour les bébés : si on a un système de type $A_k$ sur $E$, on a un système de type $A_{k+8}$ sur $E^{16}$.

    3. Ce théorème de stabilité s'obtient de la manière suivante (j'utilise les résultats sur $C_4$ et $C'_4$) :
    $$
    C_{k+8} \simeq C_{k+4} \otimes C_4 \simeq C_k \otimes C_4 \otimes C_4
    $$
    Et en utilisant $C_4 \simeq M_2(\H) = M_2(\R) \otimes \H$ :
    $$
    C_4 \otimes C_4 \simeq M_2(\R) \otimes M_2(\R) \otimes \H \otimes \H \simeq M_2(\R) \otimes M_2(\R) \otimes M_4(\R) \simeq M_{16}(\R)
    $$
  • C'est dimanche, j'ai un peu papillonné.
    Je me replonge dans ces produits tensoriels lundi et mardi.
  • J'ai dit ``théorème de stabilité'' mais je voulais dire ``théorème de périodicité''.
  • @Gai-Requin
    I. On est content (je crois) car on a explicité $C_6 \simeq M_8(\R)$. Mais qu'en est-il en ce qui concerne l'involution de $C_6$ et l'anti-involution de $C_6$ ? Comment cela se transporte-t-il sur $M_8(\R)$ ? Cf le petit truc attaché pour ces involutions (il n'y a pas de notation standard, j'ai noté des conflits de notations entre Husemoller et Miller). On va dire que l'anti-involution c'est celle qui renverse le produit i.e. qui débarque lorsque l'on applique la solution du problème universel d'une algèbre de Clifford à son algèbre opposée. Tandis que l'involution (dite aussi involution principale) c'est celle qui débarque quand on fait intervenir $V \to C(V,q)$ définie par $v \mapsto -\iota(v)$ où $\iota$ est l'injection canonique de $V$ dans son algèbre de Clifford $C(V,q)$.
    [color=#000000]> k := 6 ;
    > Ik := IdentityMatrix(Q,k) ;
    > C6, V6, iota := CliffordAlgebra(-Ik) ;
    > AntiBar := MainAntiautomorphism(C6) ;
    > Bar := MainInvolution(C6) ;
    > 
    > e := iota(Basis(V6)) ;
    > e1,e2,e3,e4,e5,e6 := Explode(e) ;
    > P6 := [SetToSequence(I) : I in Subsets({1..6})] ;
    > 
    > AntiBar(e1*e2*e3*e4) eq e4*e3*e2*e1 ;
    true
    > J := Random(P6) ;
    > J ;
    [ 1, 3, 4, 6 ]
    > AntiBar(&*e[J]) eq &*e[Reverse(J)] ;
    true
    > Bar(&*e[J]) eq (-1)^#J * &*e[J] ;
    true
    > J := Random(P6) ;
    > J ;
    [ 2, 5, 6 ]
    > AntiBar(&*e[J]) eq &*e[Reverse(J)] ;
    true
    > Bar(&*e[J]) eq (-1)^#J * &*e[I] ;
    true
    [/color]
    
    II. Contents aussi du coup ``quand il y en a pour 6, il y en a pour 7''. Mais après tout, c'est peut-être banal ? Je veux dire que si $a_1, a_2, \cdots, a_6$ est de type $A_6$, en notant $a_7$ le produit des $a_i$ (dans l'ordre disons, on n'est pas en commutatif), alors $a_1, a_2, \cdots, a_6,a_7$ est de type $A_7$. Certes, c'est utile. Mais est ce que cela n'est pas plus important de bien verrouiller I ?

    III. Et en ce qui concerne $C_8 \simeq M_{16}(\R)$, quelle va être notre attitude ? Note $C_8 \simeq C_4 \otimes_\R C_4$, j'en ai causé hier.
    IV. Est ce que je ne suis pas entrain de chercher les e.m.rd.ments ?89838
  • $\def\R{\mathbb R}\def\H{\mathbb H}$Salut Claude,

    J'ai regardé $\H \otimes \H \simeq M_4(\R)$.

    Tout d'abord, comme $\H$ est un $\R$-ev de dimension $4$, on peut identifier $\mathrm{End}_{\R}(\H)$ et $M_4(\R)$ via la base $(1,i,j,k)$ de $\H$ par exemple.
    On considère ensuite l'application $\R$-bilinéaire $\H\times\H\to\mathrm{End}_{\R}(\H)$, $(a,b)\mapsto(c\mapsto ac\overline b)$.
    Par propriété universelle du produit tensoriel, on obtient une application $\R$-linéaire :$$f:\H\otimes \H\to\mathrm{End}_{\R}(\H),\quad a\otimes b\mapsto(c\mapsto ac\overline b).$$De plus, pour tous $a,b,a',b',c\in\H$, on a :$$f(a\otimes b\cdot a'\otimes b')(c)=f(aa'\otimes bb')(c)=aa'c\overline{bb'}=aa'c\overline{b'}\overline b=f(a\otimes b)\circ f(a'\otimes b')(c).$$Donc $f$ est un morphisme de $\R$-algèbres.

    Pour conclure, on pourrait être tenté de montrer que $\ker f=\{0\}$ puisque $\dim_{\R}\H \otimes \H=\dim_{\R}\mathrm{End}_{\R}(\H)=16$.
    Mais il y a un mais ! C'est que les éléments de $\H \otimes \H$ ne s'écrivent pas tous $a\otimes b$ !!!
    Donc, pour vraiment conclure, il suffit de regarder l'action de $f$ sur une base (on en connaît, ouf !) de $\H \otimes \H$...
  • $\def\H{\mathbb H}\def\R{\mathbb R}\def\End{\text{End}}$@gai-requin Vu. Ta dernière ligne a l'air de vouloir que $f$ soit surjective ? Et peut-être même que l'image d'une base de $\H \otimes_\R \H$ par $f$ soit une base de $\End_\R(\H)$. C'est cela ?
  • Oui en théorie.
    Mais je n'ai pas calculé les $16$ matrices.
  • On peut peut-être arranger cela :
    [color=#000000]> H<i,j,k> := QuaternionAlgebra < Q | -1,-1 > where Q is RationalField() ;                 
    > Basis(H) ;
    [ 1, i, j, k ]
    > GaiRequin := func < h1, h2 | Matrix(4,4, [Coordinates(h1*h*Conjugate(h2)) : h in Basis(H)]) > ;
    > Les16 := [GaiRequin(h1,h2) : h1, h2 in Basis(H)] ;
    [/color]
    
    Bon, je vais pas te montrer les 16. Pas envie de saturer l'hébergeur et me faire engu.ler. Juste quelques unes pour le plaisir (?) des yeux
    [color=#000000]> Random(Les16) ;
    [-1  0  0  0]
    [ 0  1  0  0]
    [ 0  0 -1  0]
    [ 0  0  0  1]
    > Random(Les16) ;
    [ 0  0  0 -1]
    [ 0  0  1  0]
    [ 0  1  0  0]
    [-1  0  0  0]
    > Random(Les16) ;
    [ 0 -1  0  0]
    [ 1  0  0  0]
    [ 0  0  0  1]
    [ 0  0 -1  0]
    > Random(Les16) ;
    [ 0  0  1  0]
    [ 0  0  0  1]
    [-1  0  0  0]
    [ 0 -1  0  0]
    > Random(Les16) ;
    [-1  0  0  0]
    [ 0  1  0  0]
    [ 0  0  1  0]
    [ 0  0  0 -1]
    [/color]
    
    Bon, le plaisir des yeux, c'est bien joli mais ce qui nous intéresse :
    [color=#000000]> IsIndependent(Les16) ;
    true
    [/color]
    
  • Merci beaucoup Claude !
    Je ne sais pas toi, mais les représentations linéaires de $\mathbb R$-algèbres me fascinent de plus en plus !
  • $\def\M{\mathbb M}\def\GaiRequin{\text{GaiRequin}}$@Gai-Requin
    Je pense qu'il y a moins bourrin. Pas encore tout compris. Bien sûr tu connais la base canonique habituelle de $\M_n(A)$ constituée des matrices élémentaires $E_{ij}$. Ici $n=4$ :
    [color=#000000]> E(1,3) ;
    [0 0 1 0]
    [0 0 0 0]
    [0 0 0 0]
    [0 0 0 0]
    > E(3,2) ;
    [0 0 0 0]
    [0 0 0 0]
    [0 1 0 0]
    [0 0 0 0]
    [/color]
    
    On va faire la moyenne de 4 matrices $\GaiRequin(h_1,h_2)$ avec $h_1,h_2$ judicieusement choisis si possible pour attraper la base canonique
    [color=#000000]> 1/4 * &+[GaiRequin(h,h) : h in Basis(H)] ;    
    [1 0 0 0]
    [0 0 0 0]
    [0 0 0 0]
    [0 0 0 0]
    >                                               
    > 1/4 * &+[GaiRequin(h*i,k*h) : h in Basis(H)] ;
    [0 0 0 0]
    [0 0 0 1]
    [0 0 0 0]
    [0 0 0 0]
    > 1/4 * &+[GaiRequin(h,h*k) : h in Basis(H)] ;  
    [0 0 0 0]
    [0 0 0 0]
    [0 0 0 0]
    [1 0 0 0]
    > 1/4 * &+[GaiRequin(h*j,k*h) : h in Basis(H)] ;
    [0 0 0 0]
    [0 0 0 0]
    [0 0 0 1]
    [0 0 0 0]
    [/color]
    
    Le jeu consiste à mettre le 1 dans toutes les cases. Cela vaut largement les jeux des PlayStations, non ?
  • $\def\M{\mathbb M}\def\H{\mathbb H}\def\R{\mathbb R}$@Gai-Requin
    Je reviens sur des choses déjà étudiées, par exemple $C_6 \simeq \M_8(\R)$, et surtout sur l'involution principale et l'anti-involution principale d'une algèbre de Clifford. En ce qui concerne ces deux dernière notions, il nous faut des notations. J'ai consulté la littérature : Bourbaki, Husemoller, O'Meara (Introduction to quadratic forms), Haynes Miller (se méfier) et le bilan, c'est que chaque auteur utilise ses propres notations (parfois vachement faibles) et qu'elles sont en désaccord. J'ai quand même envie d'utiliser $x \mapsto \overline x$ pour noter l'anti-involution d'une algèbre de Clifford $C = C(V,q)$, qui est le seul anti-automorphisme de $C$ égal à l'identité sur $V$ (si j'ai bien compris le point 54.5 page 136 de O'Meara).

    0. Je suis en désaccord avec Haynes Miller in http://math.mit.edu/~mdono/haynes-notes.pdf. J'attache bout de pages 4-5. Pas d'accord avec le fait que $\overline {e_i} = -e_i$. Je dis que l'on a $\overline {e_i} = e_i$. Confusion avec l'involution principale ?

    1. Je reviens sur $C_6 \simeq \M_8(\R)$. En principe, on est clair sur $C_{k+4} \simeq C_k \otimes C_4$ et $C_4 \simeq \M_2(\H) = \H \otimes \M_2(\R)$ (les produits tensoriels sont pris sur $\R$). Donc, en se souvenant que $C_2 \simeq \H$ :
    $$
    C_6 \simeq C_2 \otimes C_4 \simeq \H \otimes \H \otimes \M_2(\R) \simeq \M_4(\R) \otimes \M_2(\R) = \M_8(\R)
    $$
    Les jours difficiles, il faudra se souvenir de cette chaîne de production et ne pas se contenter d'exhiber 6 matrices de $\M_8(\R)$ qui forment une $C_6$-base de Clifford.

    2. J'ai passé l'involution principale de $C_6$ en une involution de $\M_8(\R)$. D'après le théorème de Skolem-Noether, c'est un automorphisme intérieur. Et comme c'est une involution, c'est de la la forme $M \mapsto PMP^{-1}$ avec $P^2$ matrice scalaire. Peut-on l'identifier (en étant clair sur l'isomorphisme $C_6 \simeq \M_8(\R)$ que l'on a choisi) ? Exemple dans lequel $E_{ij}$ désigne la base habituelle de $\M_8(\R)$ et M8Bar ce qui correspond sur $\M_8(\R)$ à l'involution principale de $C_6$.
    [color=#000000]> M8Bar(E(1,2)) ;
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0 -1  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    > M8Bar(E(2,3)) ;    
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 1 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [/color]
    
    Cela risque d'être chaud sans plus d'information.

    3. En ce qui concerne l'anti-involution principale passée sur $\M_8(\R)$, disons $M \mapsto \overline M$, en utilisant la transposée et de nouveau Skolem-Noether, on tombe sur le fait $\overline M = Q\, {}^t \kern -2ptM\, Q^{-1}$ avec $Q^2$ scalaire. Ne pas me croire sur parole.
    [color=#000000]> M8AntiBar(E(1,2)) ;                                                   
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0 -1  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    [ 0  0  0  0  0  0  0  0]
    > M8AntiBar(E(2,3)) ;
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 0 0 0]
    [0 0 0 0 0 1 0 0]
    [0 0 0 0 0 0 0 0]
    [/color]
    
    4. A quoi sert tout ce fourbi ? Réponse : à RIEN. Sauf que cela permet de se rendre compte si on est vraiment clair ou pas concernant des choses sur lesquelles on pensait être clair. Par exemple, je dis que Haynes Miller se trompe en écrivant $\overline {e_i} = -e_i$. Moi, je dis que $\overline {e_i} = e_i$. Eh bien, on ne peut pas avoir raison tous les deux. J'accepte de me tromper mais je veux le savoir.89874
  • Salut Claude,

    Apparemment, la conjugaison d'une algèbre de Clifford est le produit (commutatif) des deux involutions principales.
    C'est donc un anti-automorphisme involutif et, pour tout $i$, on a $\overline{e_i}=-e_i$.
  • Je ne comprends absolument pas. Involution principale sur les algèbres de Clifford, je n'en connais qu'UNE. Référence solide : Bourbaki, Algèbre, chap 9, Formes sesquilinéaires et formes quadratiques, section 9 (Algèbres de Clifford).

    Je rattache un extrait de la doc de magma. Certes, ce n'est pas Bourbaki mais les implémenteurs en connaissent un rayon.89894
  • Ce sont bien deux involutions, dites principales, qui commutent et on appelle leur produit la conjugaison.
  • L'exemple de l'algèbre de Clifford $\mathbb H$ :

    Je fais d'abord agir l'involution principale puis l'anti-automorphisme principal.$$a+ib+cj+dij\mapsto a-ib-cj+dij\mapsto a-ib-cj+dji=a-ib-cj-dij.$$
  • Ton AVANT dernier post. Je suppose qu'on doit le comprendre comme : sur une algèbre de Clifford, l'involution principale et l'anti-involution principale commutent. Ca je suis d'accord. Je préconise, comme certains auteurs, de bien mettre le anti (comme dans anti-automorphisme) sinon on ne va pas s'y retrouver. Et aussi ok, sur la composée. Je vois ensuite sur ton DERNIER post, que de toi-même tu mentionnes anti dans anti-involution.
  • $\def\H{\mathbb H}$Suite. Ton dernier post est pertinent. Et il est sous-entendu qu'il relié à $C_2 \simeq \H$ VIA $e_1 \leftrightarrow i$ et $e_2 \leftrightarrow j$ (of course $e_1,e_2$ est une Clifford-base de $C_2$). On est d'accord ? Rien ne brûle dans la cuisine ?
  • Donc Miller a bien défini la conjugaison mais il a mis les involutions principales à la poubelle.

    Et tout va bien dans la cuisine. ;-)
  • $\def\M{\mathbb M}$Ok, on est d'accord. Je retire donc ce que j'ai dit à propos du haut de la page 5 de Miller. Qui a mis, si je peux me permettre cette légère précision, l'involution principale et l'anti-involution principale à la poubelle. Je suis lourd, hein ?

    Autre chose : on dispose d'un automorphisme disons $\theta : \M_8(\R) \to \M_8(\R)$ (celui qui correspond à l'involution principale de $C_6$ mais peu importe). Je sais le calculer i.e. je sais déterminer les $\theta(E_{ij})$. Et je crois à Skolem-Noether. Toi aussi, n'est ce pas ? Comment je peux certifier que $\theta$ est un automorphisme intérieur ? En clair : trouver $P \in \M_8(\R)$ inversible $\theta(M) = PMP^{-1}$ ?
  • Je ne connais pas Skolem-Noether. (td)
  • Bonsoir Claude,

    Je suis rentré chez moi et j'ai regardé le théorème de Skolem-Noether qui donne notamment les automorphismes des algèbres centrales simples.

    J'ai aussi regardé sa mise en pratique dans le cas de l'involution principale de $C_6$.
    On cherche $g\in C_6$ inversible tel que, pour tout $i$, $ge_ig^{-1}=-e_i$ ce qui se réécrit $ge_i+e_ig=0$.
    Et bien $g=e_1\cdots e_6$ convient.
    Reste à représenter les $e_i$ dans $M_8(\mathbb R)$...
  • $\def\M{\mathbb M}$Encore une fois bien joué. Il se passe qu'ici, on n'est pas dans les salons mondains entrain de clamer $\text{truc} \simeq \text{machin}$. Avec cela, on ne va pas ch.er loin, si je peux me permettre cette expression. Il nous faut des informations solides sur l'isomorphisme que nous avons choisi $C_6 \simeq \M_8(\R)$. J'étais en train d'y réfléchir. Quitte à le changer.

    Par paresse, pour l'instant, j'ai gardé les 6 matrices de $\M_8(\R)$ que tu avais trouvées (pas n'importe comment) à l'époque où il y avait moins de structurel. Maintenant, c'est plus structurel : les algèbres de Clifford sont là, enrichies de l'involution principale et de l'anti-involution principale ..etc.. Les produits tensoriels sont là pour nous aider ...etc...

    L'isomorphisme C6toM8, $C_6 \to \M_8(\R)$ ci-dessous, c'est celui qui réalise $e_i \mapsto $ ta matrice numéro $i$. Et M8PrincipalInvolution, c'est l'involution principale de $C_6$ passée dans $\M_8(\R)$. Et ce qui vient de sortir à l'instant, c'est la matrice $P$ de conjugaison que tu as trouvée.
    [color=#000000]> P := C6toM8(e1*e2*e3*e4*e5*e6) ;
    > P ;
    [ 0  0  0  0 -1  0  0  0]
    [ 0  0  0  0  0  1  0  0]
    [ 0  0  0  0  0  0  1  0]
    [ 0  0  0  0  0  0  0 -1]
    [ 1  0  0  0  0  0  0  0]
    [ 0 -1  0  0  0  0  0  0]
    [ 0  0 -1  0  0  0  0  0]
    [ 0  0  0  1  0  0  0  0]
    > P^2 eq -1 ;
    true
    > &and[M8PrincipalInvolution(E(i,j)) eq P*E(i,j)*P^-1 : i,j in [1..8]] ;
    true
    [/color]
    
    BINGO et bravo.

    Tu nous fais un coup analogue pour l'anti-involution principale ? Grosse récompense, promis, juré.
  • Impossible puisqu'un automorphisme intérieur de $M_8(\mathbb R)$ n'est pas un anti-automorphisme.
  • $\def\M{\mathbb M}\def\H{\mathbb H}\def\R{\mathbb R}$@Gai-Requin Mais faire le coup ne voulait pas dire trouver un automorphisme intérieur pour un anti-automorphisme !! Mais cela signifiait identifier l'anti-involution de $\M_8(\R)$.

    Identifier sous quelle forme ? Peux tu relire le point 3. de http://www.les-mathematiques.net/phorum/read.php?3,1856386,1857682#msg-1857682 ? Le voici
    3. En ce qui concerne l'anti-involution principale passée sur $\M_8(\R)$, disons $M \mapsto \overline M$, en utilisant la transposée et de nouveau Skolem-Noether, on tombe sur le fait $\overline M = Q\, {}^t \kern -2ptM\, Q^{-1}$ avec $Q^2$ scalaire.

    On a donc $Q$ à trouver. Et figure toi que dans ce bas monde, il y a parfois un peu de justice. Car, devinette, $Q$ on l'a sous la main. Tu l'as sous la main.
  • Désolé Claude d'avoir mal interprété ta question.
    Si j'en crois mon calcul, on peut prendre encore $Q=e_1\cdots e_6$.
  • Mon bon ami Greg m'a soufflé l'algorithme suivant :

    Soit $f$ un automorphisme de $K$-algèbres de $M_n(K)$.
    On note $E_{ij}$ la matrice dont tous les coeffs sont nuls, sauf celui en position $(i,j)$ qui vaut $1$.
    La matrice $f(E_{11})$ est une matrice de projection de rang $1$.
    On peut donc écrire $f(E_{11})=CD^t$ où $C,D$ sont des vecteurs colonnes non nuls de $K^n$ vérifiant $D^tC=1$.
    Pour $j=1,...,n$, on pose $C_j=f(E_{j1}). C$.
    On montre alors que si $P$ est la matrice de colonnes $C_1,\ldots,C_n$, alors $P$ est inversible et $f=Int(P)$.
  • $\def\M{\mathbb M}\def\H{\mathbb H}\def\R{\mathbb R}$Ton AVANT dernier post. No problemo. OUI, c'est cela. Résumons en notant (provisoirement) sur $\M_8(\R)$, $M \to M^*$ l'involution principale et $M \mapsto \overline M$ l'anti-involution principale de sorte que :
    $$
    M^* = P M P^{-1}, \qquad\qquad \overline M = P\ {}^t \kern -2ptM\ P^{-1}
    $$
    Peux tu, sous cette forme, (re)vérifier qu'elles commutent ? Tu vas utiliser une certaine propriété de $P$.

    Et la composée de $M \mapsto M^*$ et $M \mapsto \overline M$, the so-called Miller-conjugation (so-called par nous autres), c'est qui ? Et il paraît qu'elle réalise $e_i \mapsto -e_i$. Et donc au niveau matriciel dans $\M_8(\R)$ ? Tiens pour rappel, $a_1, a_2$, les $a_i$ (tes $a_i$) étant celles pour lesquelles $e_i \mapsto a_i$
    [color=#000000]> a1 ;
    [ 0 -1  0  0  0  0  0  0]
    [ 1  0  0  0  0  0  0  0]
    [ 0  0  0 -1  0  0  0  0]
    [ 0  0  1  0  0  0  0  0]
    [ 0  0  0  0  0 -1  0  0]
    [ 0  0  0  0  1  0  0  0]
    [ 0  0  0  0  0  0  0 -1]
    [ 0  0  0  0  0  0  1  0]
    > a2 ;
    [ 0  0 -1  0  0  0  0  0]
    [ 0  0  0  1  0  0  0  0]
    [ 1  0  0  0  0  0  0  0]
    [ 0 -1  0  0  0  0  0  0]
    [ 0  0  0  0  0  0 -1  0]
    [ 0  0  0  0  0  0  0  1]
    [ 0  0  0  0  1  0  0  0]
    [ 0  0  0  0  0 -1  0  0]
    [/color]
    

    1. Est ce que nous ne sommes pas en train de mettre $\M_8(\R)$ en $C_6$-Clifford jusqu'au bout des ongles ?

    2. Et l'involution principale, l'anti-involution principale d'une algèbre de Clifford, tu les connais depuis quand ?
  • Ton DERNIER post. Merci à toi et à G. pour la réalisation effective de Skolem-Noether (passe lui le bonjour).
  • C'est rigolo ! $$\overline{M^*}=\big(\overline M\big)^*={}^tM.$$
    1. Oui et c'est fascinant !
    2. Je n'ai eu le temps de regarder qu'aujourd'hui !

    Je transmets tes salutations à Greg. :-)
  • Bonjour,

    J'ai vérifié les détails [du message de Greg].
    J'apporte une petite précision sur $C$ et $D$.

    $f(E_{11})$ est une projection de rang $1$ donc elle est semblable à $E_{11}$.
    Les experts de la diagonalisation sauront donc calculer $Q$ tel que $Q^{-1}f(E_{11})Q=E_{11}$.
    On a alors :$$f(E_{11})=Q\begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix}\begin{pmatrix}1&0&\cdots&0\end{pmatrix}Q^{-1}.$$Il suffit ensuite de prendre $C=Q\begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix}$ et ${}^tD=\begin{pmatrix}1&0&\cdots&0\end{pmatrix}Q^{-1}$ qui vérifient bien ${}^tCD=1$.

    Edit : J'appelle finalement $Q$ cette matrice de passage pour être cohérent avec les notations de Greg et Claude.
  • Vu. Je mets cela (= réalisation effective de Skolem-Noether) en action tout de suite. Histoire de faire un exercice magma car je sais que j'ai la trouille : celui ci est très orienté en lignes alors que nous autres le sommes en colonnes. Cela pourrait être un peu chaud ? Au lieu de ta notation $P$, je prends $Q$. Je réserve $P$ pour le bouquet final. Attention également au sens de la conjugaison.
    [color=#000000]> e1 := Vector(Q, [1, 0^^7]) ;     // Ici Q est le corps des rationnels !!                      
    > e1 ;
    (1 0 0 0 0 0 0 0)
    > f := M8PrincipalInvolution ;                           
    > E11 := E(1,1) ;
    > ok, Q := IsSimilar(E11, f(E11)) ;
    > ok ;
    true
    > Q ;
    [0 0 0 0 0 0 1 0]
    [0 0 0 0 0 0 0 1]
    [0 0 1 0 0 0 0 0]
    [0 0 0 1 0 0 0 0]
    [1 0 0 0 0 0 0 0]
    [0 0 0 0 1 0 0 0]
    [0 0 0 0 0 1 0 0]
    [0 1 0 0 0 0 0 0]
    > Q^-1*f(E11)*Q eq E11 ;                                                                                              
    true
    [/color]
    
    Les choses de la vie en magma : on n'applique pas une matrice à un vecteur (comme nous autres en colonnes). On le fait dans l'autre sens : vecteur d'abord, matrice ensuite, avec le sens en lignes. Si on veut être nous autres, transposée quelque part. C'est parti mon kiki. Et j'insiste encore en disant que les vecteurs de magma sont couchés pas debout.
    [color=#000000]> Cvector := e1 * Transpose(Q) ;                         
    > tDvector := e1 * Q^-1 ;
    > C := Transpose(Matrix(Cvector)) ;
    > tD := Matrix(tDvector) ;
    > C ;
    [0]
    [0]
    [0]
    [0]
    [1]
    [0]
    [0]
    [0]
    > tD ;
    [0 0 0 0 1 0 0 0]
    > f(E11) eq C*tD ;
    true
    [/color]
    
    Bon, c'est bien parti. Allons y pour les $C_j$. Attention surtout à la transposée.
    [color=#000000]> LesCj := [Cvector*Transpose(f(E(j,1))) : j in [1..8]] ;
    > LesCj ;
    [
        (0 0 0 0 1 0 0 0),
        ( 0  0  0  0  0 -1  0  0),
        ( 0  0  0  0  0  0 -1  0),
        (0 0 0 0 0 0 0 1),
        (-1  0  0  0  0  0  0  0),
        (0 1 0 0 0 0 0 0),
        (0 0 1 0 0 0 0 0),
        ( 0  0  0 -1  0  0  0  0)
    ]
    [/color]
    
    C'est moche visuellement mais c'est pas trop le problème.

    Le bouquet final. Comme j'ai $P$ sous la main d'hier, je note $P_{\rm new}$ la matrice fournie par l'algorithme de Greg précisé par Gai-Requin
    [color=#000000]> Pnew := Matrix(LesCj) ;
    > Pnew ;
    [ 0  0  0  0  1  0  0  0]
    [ 0  0  0  0  0 -1  0  0]
    [ 0  0  0  0  0  0 -1  0]
    [ 0  0  0  0  0  0  0  1]
    [-1  0  0  0  0  0  0  0]
    [ 0  1  0  0  0  0  0  0]
    [ 0  0  1  0  0  0  0  0]
    [ 0  0  0 -1  0  0  0  0]
    > P ;
    [ 0  0  0  0 -1  0  0  0]
    [ 0  0  0  0  0  1  0  0]
    [ 0  0  0  0  0  0  1  0]
    [ 0  0  0  0  0  0  0 -1]
    [ 1  0  0  0  0  0  0  0]
    [ 0 -1  0  0  0  0  0  0]
    [ 0  0 -1  0  0  0  0  0]
    [ 0  0  0  1  0  0  0  0]
    > Pnew eq -P ;
    true
    [/color]
    
    Of course, $P_{\rm new}$ fait autant l'affaire que $P$. Greg, Gai-Requin : 10/10.
  • De quoi devenir fou pour ceux qui ont des problèmes gauche-droite. ;-)

    Un petit corollaire : soit $f$ un anti-automorphisme de $M_n(K)$.
    On sait donc expliciter $P$ inversible telle que, pour tout $M$, ${}^t(f(M))=PMP^{-1}$.
    Soit alors $Q:={}^t(P^{-1})$.
    On a $f(M)=Q\ {}^t \kern -2ptM\ Q^{-1}$ pour tout $M$.
  • Une petite question sur l'involution principale d'une algèbre de Clifford dans un contexte général. Contexte : $K$ un corps de caractéristique $\ne 2$, $(V,q)$ une forme quadratique non dégénérée sur un $K$-espace vectoriel $V$ de dimension PAIRE $k$. Je note $(e_1, \cdots, e_k)$ une base orthogonale de $V$ et $C$ l'algèbre de Clifford de $(V,q)$.

    Une petite expérimentation m'a conduit à penser que l'involution principale de $C$, disons $x \mapsto x^*$ si on a besoin d'une notation, est l'automorphisme intérieur défini par $g = e_1\cdots e_k$ i.e. $x^* = g x g^{-1}$. Remarque : en posant $a_i = q(e_i)$, on a $g^2 = a =_{\rm def} a_1 \cdots a_k$, ce qui prouve que $g$ est bien inversible d'inverse $a^{-1}g$. Et en passant, que $gxg^{-1} = g^{-1}x g$.

    Je te pose cette question car tu as fait le job pour $C_6$ et je me demande s'il n'y a pas un tour de main pour éviter trop de calculs. Il suffit de vérifier $e_i^* = g e_i g^{-1}$ i.e. $-e_i = g e_i g^{-1}$. Ou encore : est ce que tu as peiné pour $C_6$ (anti-commutation ..etc...) ?

    Note : c'est spécifique à la dimension paire. En tout cas, ce que je raconte ci-dessus est faux en dimension impaire.

    Clair ci-dessus ?

    EDIT J'ai écrit $g^2 = a =_{\rm def} a_1 \cdots a_k$. Non : $g^2$ vaut $(-1)^{k(k+1) \over 2} a_1 \cdots a_k$ (et ceci quelque soit la parité de $k$). Ce qui ne change rien au reste.
  • Ça roule pour $k$ pair !

    Soit $1\leq i\leq k$ et $\pi=\displaystyle{\prod_{l\neq i}e_l}$.
    Alors :$$\begin{eqnarray}ge_i+e_ig&=&(-1)^{k-i}q(e_i)\pi+(-1)^{i-1}q(e_i)\pi\\
    &=&\left((-1)^i+(-1)^{i-1}\right)q(e_i)\pi\\
    &=&0.\end{eqnarray}
    $$ Après quelques recherches, il s'avère que si $V$ est de dimension paire sur $K$, alors l'algèbre de Clifford $C$ est centrale simple sur $K$.
    Si $K=\mathbb R$ ou $\mathbb C$ et $V$ de dimension impaire, alors $C$ n'est pas centrale simple sur $K$.
    Donc rien d'étonnant au fait qu'il faille supposer $k$ pair.
  • $\def\M{\mathbb M}\def\C{\mathbb C}\def\R{\mathbb R}$Effectivement, ce n'est pas compliqué, une fois que c'est fait. Note : j'ai apporté un petit rectificatif sur $g^2$ qui est bien un scalaire : mais c'est $q(e_1) \cdots q(e_k)$ à un signe près seulement. Cela ne change rien à l'histoire.

    Note : il paraît que $C_5 \simeq \M_4(\C)$. En tout cas, c'est bien vrai que $2^5 = 2 \times 4^2$, le $2 \times$ car dimension sur $\R$.
  • En tout cas, $M_4(\mathbb C)$ n'est pas une algèbre centrale simple sur $\mathbb R$.
    J'imagine que tu voudrais expliciter le $\simeq$...
  • On peut toujours essayer, qu'est ce qu'on risque ?
  • Je faiblis un peu mais je lance quand même une idée que je n'ai pas exploitée jusqu'au bout, si elle est exploitable...

    $C_5\simeq C_2\otimes C'_3\simeq\mathbb H\otimes M_2(\mathbb R)\otimes\mathbb C\simeq\mathbb C\otimes M_2(\mathbb H)$.

    En voyant les quaternions comme des matrices complexes $2\times 2$ et les éléments de $\mathbb C$ comme les éléments de $\mathbb H$ de la forme $\begin{pmatrix} z&0\\0&\overline z\end{pmatrix}$, on construit dans un premier temps une application $\mathbb R$-bilinéaire $\mathbb C\times M_2(\mathbb H)\to M_4(\mathbb C)$ comme on le pense... puis on passe au produit tensoriel.

    Mais j'ai la flemme de regarder si on obtient un morphisme de $\mathbb R$-algèbres.
  • $\def\C{\mathbb C} \def\R{\mathbb R} \def\H{\mathbb H}\def\mat#1#2#3#4{\left[\matrix {#1 & #2\cr #3&#4\cr}\right]}\def\trans#1{{\,^{\rm t}\!#1}}$1. Je suis d'accord avec toi sur le principe. Par ailleurs, est ce que ``tout ceci'' est ``utile'' (sic) ? Peut-être que cela permet de faire de vrais (re-sic) exercices sur les produits tensoriels (ici sur $\R$) ? Je reprends tes affaires :
    $$
    C_5 \simeq C'_3 \otimes C_2 \simeq M_2(\C) \otimes \H \simeq \C \otimes M_2(\R) \otimes \H
    $$
    A droite, il y a plusieurs manières de regrouper les produits tensoriels. Par exemple $\C \otimes \H = M_2(\C)$. Et on doit tomber sur $M_4(\C)$. Oublions les algèbres de Clifford. Ceci signifie que l'on a (rappel : produits tensoriels sur $\R$) des isomorphismes de $\R$-algèbres :
    $$
    \C \otimes M_2(\H) \simeq M_2(\C) \otimes \H \simeq M_2(\C) \otimes M_2(\R) \simeq M_4(\C)
    \qquad \text{Après tout, le montrer peut permettre de passer du bon temps ??}
    $$
    2. Comme $C'_3$ intervenait pour $C_5$, je me suis posé la question : cela signifie quoi $C'_3 \simeq M_2(\C)$ ? J'ai voulu en savoir plus car peut-être que cela cache que la $\R$-algèbre $C'_3$ peut-être munie d'une structure plus ou moins naturelle de $\C$-algèbre ? On va voir que oui et qu'il faut vraiment penser au fait que $M_2(\C)$ est $M_2(\R)$ complexifiée. Je reprends des trucs de base avec une notation $e'_k$ vachement surchargée :
    $$
    C'_3 \simeq C_1 \otimes C'_2 \qquad \left| \begin {array} {l} e'_1 = 1 \otimes e'_1 \\ e'_2 = 1 \otimes e'_2\\ e'_3 = e_1 \otimes e'_1e'_2 \end{array}\right.
    \qquad\qquad
    C_1 = \C \text { avec } e_1 = i, \quad C'_2 = M_2(\R) \text { avec } e'_1 = \mat {0}{1}{1}{0}, \quad e'_2 = \mat {1}{0}{0}{-1}
    $$
    Ce qui installe sur $\C \otimes M_2(\R) = M_2(\C)$ une structure de $C'_3$-algèbre de Clifford via
    $$
    e'_1 = 1 \otimes e'_1 = e'_1 = \mat {0}{1}{1}{0}, \qquad e'_2 = 1 \otimes e'_2 = e'_2 = \mat {1}{0}{0}{-1}, \qquad
    e'_3 = i \otimes e'_1 e'_2 = i \mat {0}{1}{1}{0} \mat {1}{0}{0}{-1} = \mat {0}{-i}{i}{0}
    $$
    Dans un $C'_3$ abstrait, on aimerait bien trouver un élément de carré $-1$, histoire de coller à $C'_3$ une structure de $\C$-algèbre. Il y en a un qui nous tend les bras : ci-dessus, on voit quelque chose du type $e'_3 = ie'_1e'_2$ : on a plus qu'à prendre $i = e'_3e'_2e'_1$. Pour la paix des âmes, c'est peut-être préférable de poser $i' = e'_3 e'_2 e'_1$, de vérifier que $i'$ est de carré $-1$ (ce qui m'a permis de vérifier que je me suis encore gourré en ce qui concerne un signe dans le carré de $e_1 \cdots e_k$ en général). Et la structure complexe sera $i \cdot x = i'x$.

    Bref, en arrêtant la coquetterie de la notation $i'$, on a $C'_3 = M_2 \oplus iM_2$ où $M_2 \simeq M_2(\R)$ est la $\R$-algèbre engendrée par $e'_1, e'_2$ (qui sont bien réelles). On a ainsi la main sur $C'_3$ et on peut se poser la question d'identifier l'involution principale et l'anti-involution principale.
    $\bullet$ Involution anti-principale. C'est un $\R$-anti-automorphisme de $M_2(\C)$ qui doit fixer $e'_1, e'_2, e'_3$. On se doute que la conjugaison complexe intervient. Et on finit par tomber sur $M \mapsto \trans{\overline M}$. Ici $\overline M$ est à considérer au sens de la conjugaison complexe.
    $\bullet$ Involution principale. Cela a été un peu plus chaud : c'est un $\R$-automorphisme involutif de $M_2(\C)$ qui doit réaliser $e'_k \mapsto -e'_k$. Mais pas un $\C$-automorphisme donc non intérieur. Je passe les détails mais je l'ai composé avec la conjugaison complexe en croisant les doigts : espoir d'obtenir un $\C$-automorphisme de $M_2(\C)$. Et ça l'a fait : en appliquant l'algorithme de Greg/Gai-Requin pour Skolem-Noether je suis tombé sur le fait que :
    $$
    \text{involution principale } : M \mapsto P \overline M P^{-1} = P^{-1} \overline M P \qquad\qquad P = \mat{0}{1}{-1}{0}
    $$
    Note : sur n'importe quel anneau de base, dans le cas des matrices $2 \times 2$, l'automorphisme intérieur $M \mapsto P M P^{-1}$, c'est $M \mapsto \trans{\widetilde M} = \widetilde {\trans M}$ où $\widetilde M$ est la co-matrice de $M$.
    Bilan : pas mal de choses cachées dans $C'_3 \simeq M_2(\C)$. Et je ne dis pas tout : il a fallu par exemple que je retrouve les 4 matrices élémentaires $E_{ij}$ de $M_2(\C)$ dans $C'_3$:
    $$
    1 + e'_2 \leftrightarrow 2E_{11}, \qquad 1 - e'_2 \leftrightarrow 2E_{22}, \qquad (1 + e'_2)e'_1 \leftrightarrow 2E_{12}, \qquad (1 - e'_2) e'_1 \leftrightarrow 2E_{21}
    $$
    Tout ceci peut paraître un peu sordide mais il faut être cohérent. Lorsque l'on utilise les systèmes de Calcul Formel, il nous arrive d'apprécier les services rendus. Ces services ne se réalisent pas par l'opération du Saint Esprit (hum, qu'est ce qu'il vient faire là ?)
  • Merci Claude pour ce gros travail auquel je vais devoir réfléchir à tête reposée.

    Est-ce que tu connais la notion de produit tensoriel anti-commutatif ? J'ai cherché sans succès...
    Evidemment, rien ne presse.
  • Produit tensoriel anti-commutatif ?? Je ne vois pas.

    Autre chose, pour me rassurer. Soit $(e_1, \cdots, e_k)$ une base orthogonale de $(V,q)$ et $g = e_1\cdots e_k$ dans l'algèbre de Clifford $C = C(V,q)$. J'ai calculé $g^2$. La première fois j'ai trouvé $q(e_1) \cdots q(e_k)$. Une demi-heure après $(-1)^{k(k+1) \over 2} q(e_1) \cdots q(e_k)$. Et le lendemain $(-1)^{k(k-1) \over 2} q(e_1) \cdots q(e_k)$. Je n'ose pas essayer une quatrième fois.
  • Je trouve $g^2=(-1)^{k(k-1) \over 2} q(e_1) \cdots q(e_k)$ et j'ai vérifié pour $1\leq k\leq 3$ par précaution...
  • Bon, adjugé pour $(-1)^{k(k-1) \over 2}$. Autre chose : en regardant les dimensions sur $\mathbb R$ des divers produits tensoriels qui interviennent pour $C_5$ de dimension $2^5$, on trouve des résultas d"arithmétique :
    $$
    2^5 = 2 \times 4^2 = (2 \times 2^2) \times 4 \text { (deux fois) } = 2 \times 4^2 \text { (d'une autre manière) }
    $$
  • $\def\Z{\mathbb Z}$Salut Claude,

    J'ai trouvé la bonne terminologie du produit tensoriel bizarre que j'ai essayé d'évoquer hier.

    On se donne deux algèbres $A$ et $B$ $\Z/2\Z$-graduées.
    On peut définir de manière tordue une structure d'algèbre $\Z/2\Z$-graduée sur $A\otimes B$.
    On note $A\widehat{\otimes}B$ l'algèbre obtenue qu'on appelle le produit tensoriel gradué de $A$ et $B$.

    Pourquoi cette notion ? Parce qu'on peut définir sur toute algèbre de Clifford une structure d'algèbre $\Z/2\Z$-graduée.

    Avantage : On connaît des isomorphismes explicites d'algèbres $\Z/2\Z$-graduées construites avec $\widehat{\otimes}$.

    Est-ce que cela te parle ?
    Serais-tu intéressé par plus de détails ?
Connectez-vous ou Inscrivez-vous pour répondre.