Commutatif à action de groupe près

Bonjour,

j'étais en train de monter une usine à gaz quand je viens de comprendre quelque chose que je peine à formaliser. J'ai cherché sur internet mais je manque cruellement de mots clefs.

Ne faisant pas vraiment d'algèbre, j'essaye de me servir du vocabulaire sans trop le maîtriser.

On considère $3$ ensembles $E_i$, $i\in\{\,1,2,3\,\}$ sur lesquels agissent respectivement $3$ groupes $G_i$, $i\in\{\,1,2,3\,\}$. En considérant l'action (à gauche) du groupe $G_i$ sur l'ensemble $E_i$ je note $[x]$ la classe d'équivalence de l'élément $x\in E_i$ définie par l'orbite : $[x] = \{\,y\in E_i\mid \exists g\in G_i \colon y = g\cdot x\,\}$ des classes d'équivalence.

Maintenant on considère deux applications suivantes (notées avec un '$+$' car à la fin le but est de pouvoir commuter) telles que :
$+_{12}\colon E_1\times E_2\to E_3$ et $+_{21}\colon E_2\times E_1\to E_3$ telles que pour tout $x_1$ de $E_1$ et $x_2$ de $E_2$ on ait $$[x_1] +_{12} [x_2] = [x_1 +_{12} x_2] = [x_2 +_{21} x_1] = [x_2] +_{21} [x_1]$$ sans que l'on ait a priori $x_1 +_{12} x_2 = x_2 +_{21} x_1$.

Pour résumer le diagramme $$\xymatrix{E_2\times E_1 \ar[rd]^{+_{21}} & \\ & E_3\\ E_1\times E_2 \ar[uu]^{\iota}\ar[ru]_{+_{12}} & }$$ ne commute pas mais
$$\xymatrix{(E_2/G_2)\times (E_1/G_1) \ar[rd]^{+_{21}} & \\ & (E_3/G_3)\\ (E_1/G_1)\times (E_2/G_2) \ar[uu]^{\iota}\ar[ru]_{+_{12}} & }$$
commute. Avec $\iota\colon (x_1,x_2)\mapsto(x_2,x_1)$ et où (je ne sais pas si la notation est correcte) $E_i/G_i$ représente l'ensemble des classes d'équivalences (c'est-à-dire que je ne considère plus que l'union disjointe des orbites qui forment une partition).

Voici mes questions :
Est-ce que c'est inutilement compliqué (pour ne pas dire débile) ce que j'essaye de raconter ?
Faut-il éviter de noter l'opération additivement ?
Est-ce que l'usage autorise d'arrêter de distinguer les opérations $+_{12}$ et $+_{21}$ ?

Je vous remercie par avance pour vos précieuses lumières.
Cordialement,
Mister Da

Edit : Intégration de la remarque de Maxtimax

Réponses

  • - Attention, ce ne sont pas "les deux applications suivantes", mais "deux applications" (qui vérifient blablabla)

    Pour tes questions, dans l'ordre :
    -Beh ça dépend de ce que tu veux faire avec tes machins. Pour le moment tu as juste raconté un set-up, une situation : il te manque la punchline. Vu que tu n'as pas présenté de résultat qui va avec, difficile de dire si c'est trop compliqué ou pas
    (Dire "$(\mathbb Z/nZ)^\times$ est un groupe", c'est trop compliqué si tu veux conclure qu'il est non vide; pas si tu veux conclure quelque chose sur $\varphi(n)$ par exemple)

    - On évite la notation additive pour les opérations internes non commutatives. A ma connaissance il n'y a pas de réel problème à utiliser $+$ si ton machin n'est pas interne.

    - Bah tu as dit toi-même qu'elles sont distinctes, même modulo permutation ! Pourquoi voudrais-tu arrêter de les distinguer ? Sauf éventuellement si tu ne regardes que l'opération sur les quotients, auquel cas en général on ne va effectivement pas se casser la tête tant qu'il n'y a pas d'ambiguïté.
  • Bonjour,

    merci pour ta réponse. Je réponds à tes points dans l'ordre également.

    -Effectivement, finalement je n'ai pas eu à les définir pour planter le décors je vais corriger.
    -"Beh ça dépend de ce que tu veux faire avec tes machins", oui c'est vrai, mon problème quand j'essaye de formaliser un problème c'est qu'au bout d'un moment j'ai tendance à oublier ce que je voulais faire... Je vais en parler à la fin de ce message.
    -D'accord, merci pour la précision. Car au final concrètement ça sera une somme
    -Oui ce qui m'intéresse finalement c'est uniquement les classes d'équivalence et comme j'ai oublié de le préciser tu ne pouvais pas le deviner.

    Bref, je ne veux pas te faire perdre ton temps avec mes constructions bancale. En gros ce que j'essaye de faire c'est à peine plus subtile que la chose suivante : on prend un espace vectoriel $V$ et $f$ et $g$ deux endomorphismes. De là on fait la composition $h = g\circ f$.

    On note
    1. $F_{B_2,B_1}$ la matrice qui représente $f$ avec $V$ muni de la base $B_1$ au départ et $V$ muni de la base $B_2$ à l'arrivée
    2. $G_{B_3,B_2}$ la matrice qui représente $g$ avec $V$ muni de la base $B_2$ au départ et $V$ muni de la base $B_3$ à l'arrivée
    3. $H_{B_3,B_1}$ la matrice qui représente $h$ avec $V$ muni de la base $B_1$ au départ et $V$ muni de la base $B_3$ à l'arrivée

    Ainsi matriciellement la composition s'écrit par le produit $H_{B_3,B_1} = G_{B_3,B_2}F_{B_2,B_1}$. La matrice $H_{B_3,B_1}$ est indépendante du choix de la base $B_2$. En gros le truc fumeux que je souhaite faire dans mon usine à gaz fuyante c'est de travailler avec les matrices $F_{B_2,B_1}$ et $G_{B_3,B_2}$ à la base $B_2$ près. En gros je voudrais travailler "partiellement" avec des coordonnées (celles du départ et celles de l'arrivée et ne pas m'ennuyer avec celles intermédiaires). Je ne sais pas si c'est très intelligent tout ça mais au moins ça me fait voir un peu du paysage.

    Merci par avance pour tes remarques.
    Cordialement,
    Mister Da
  • Pour la remarque, attention je pensais plus au "les" ;-)

    Et ton $+_{12}$ c'est censé être la composition ?

    Si oui, attention, ça ne va pas passer au quotient comme tu le décris (et donc la question de la commutativité ne se pose plus)

    Il y a cependant une manière dont ça passe au quotient (et ton idée n'est pas idiote du tout, tu as juste du mal à la formaliser). En fait, tu as le même groupe qui agit sur deux trucs : spécifiquement tu as ta matrice $G_{B_3,B_2}$ et là-dessus, $GL_n$ agit à droite, et sur $F_{B_2,B_1}$ elle agit à gauche.
    L'idée que $H_{B_3,B_1}$ ne dépend pas de $B_2$ peut s'écrire de la manière suivante: pour toute matrice $M\in GL_n$, $G_{B_3,B_2}F_{B_2,B_1} = G_{B_3,B_2}M^{-1}MF_{B_2,B_1}$; où on voit $M$ (ou son inverse, j'oublie toujours la terminologie ici) comme la matrice de passage de $B_2$ à une autre base (précisément, la base dont les coordonnées dans $B_2$ sont données par $M^{-1}$)

    La notion générale est la suivante: tu as un groupe $G$ qui agit à droite sur $X$ et à gauche sur $Y$, tu peux définir $X\times_G Y$ (c'est une mauvaise notation, mais c'est celle qui est généralement utilisée) comme le quotient de $X\times Y$ par $(xg^{-1},gy) \sim (x,y)$.
    Tu as alors la propriété universelle suivante: une application $X\times_G Y\to Z$, c'est pareil qu'une application $f: X\times Y\to Z$ telle que pour tous $x\in X,y\in Y, g\in G, f(xg^{-1},gy) = f(x,y)$
    (note que tu peux réécrire $(xg^{-1},gy) \sim (x,y)$ en $(x,gy)\sim (xg,y)$ donc on peut voir une analogie avec le produit tensoriel)
  • Bonjour,

    merci beaucoup pour le temps que tu me consacres. J'ai compris ce que tu m'as expliqué mais je n'arrive pas à voir comment je pourrais la tourner dans ma cuisine qui utilise des groupes différents.

    Pour répondre précisément à ta question je détaille ma tambouille du coup. Ce n'est pas compliqué mais je vais devoir introduire pas mal de notations.

    Alors on se place sur un corps $\mathbb{K}$ qui sera en pratique $\mathbb{R}$ ou $\mathbb{C}$ (typiquement quand je souhaite diagonaliser des choses et que les valeurs propres sont complexes).

    Je note $E_{n,m,p} = \mathcal{M}_{n+p,n+m}(\mathbb{K})$ l'ensemble des matrices ayant $n+p$ lignes, $n+m$ colonnes structurées en bloc de la manière suivante : pour toute matrice $S\in E_{n,m,p}$ on a $S=\begin{bmatrix}A & B\\C & D\end{bmatrix}$ avec $A\in\mathcal{M}_{n,n}(\mathbb{K})$, $B\in\mathcal{M}_{n,m}(\mathbb{K})$, $C\in\mathcal{M}_{p,n}(\mathbb{K})$ et $D\in\mathcal{M}_{p,m}(\mathbb{K})$.

    Sur l'ensemble $E_{n,m,p}$ on fait agir à gauche le groupe $Gl_n(\mathbb{K})$ de la manière suivante :
    $$
    \begin{array}{rcl}
    Gl_n(\mathbb{K})\times E_{n,m,p} & \to & E_{n,m,p}\\
    \Big(\,P\,,\underbrace{\begin{bmatrix}A & B\\C & D\end{bmatrix}}_{S}\,\Big) & \mapsto & P\cdot S= \begin{bmatrix} PAP^{-1} & PB\\CP^{-1} & D\end{bmatrix}\\
    \end{array}
    $$
    Ici, il s'agit bien d'une action à gauche dans le sens où pour toute matrice $P$ et toute matrice $Q$ de $Gl_n(\mathbb{K})$ on a $Q\cdot(P\cdot S) = (QP)\cdot S$ où $QP$ désigne le produit matriciel usuel (pour économiser un caractère je n'ai pas mis explicitement de symbole pour la loi de composition interne du groupe $Gl_n(\mathbb{K})$).


    Pour $n_1,n_2,m_1,m_2$ et $p$ fixés, on considère deux espaces de départ $E_i = E_{n_i,m_i,p}$ avec $i\in{1,2}$. Je précise qu'ils ont la même "dernière dimension" $p$ (le nombre de lignes des matrices $C$ et $D$).

    Remarque : ce qui est ultra bourrin c'est qu'il faudrait à peu de chose près définir autant d'opération $+$ que de couples de triplets $(n,m,p)$ différent. Mais je ne sais pas faire autrement.

    Bref, on définit alors l'opération $+_{12}$ par
    $$
    \begin{array}{rcl}
    E_{n_1,m_1,p}\times E_{n_2,m_2,p} & \to & E_{n_1+n_2,m_1+m_2,p}\\
    \left(\,\begin{bmatrix}A_1 & B_1\\C_1 & D_1\end{bmatrix}\,,\begin{bmatrix}A_2 & B_2\\C_2 & D_2\end{bmatrix}\,\right) & \mapsto & \begin{bmatrix}A_1 & B_1\\C_1 & D_1\end{bmatrix}+_{12} \begin{bmatrix}A_2 & B_2\\C_2 & D_2\end{bmatrix} =\begin{bmatrix}\begin{bmatrix}A_1 & 0\\0 & A_2\end{bmatrix}& \begin{bmatrix}B_1 & 0\\0 & B_2\end{bmatrix}\\\begin{bmatrix}C_1 & C_2\\\end{bmatrix} & \begin{bmatrix}D_1 & D_2\\\end{bmatrix}\end{bmatrix}
    \\
    \end{array}
    $$
    Pour définir $+_{21}$ on reprend la définition précédente en remplaçant $1\leftrightarrow 2$.



    Dans les deux cas on arrive dans le même espace $E_{n_1+n_2,m_1+m_2,p}$ mais en revanche les matrices obtenues ne sont pas les mêmes. Pour passer d'un résultat à l'autre il faut faire agir la matrice $\begin{bmatrix}0 & I_{n_2}\\I_{n_1} & 0\end{bmatrix}\in GL_{n_1+n_2}(\mathbb{K})$ sur le résultat obtenu avec $+_{21}$ pour avoir celui obtenu avec $+_{12}$. De manière plus générale pour tout $P_i\in Gl_{n_i}(\mathbb{K})$ et pour tout $S_i\in E_{n_i,m_i,p}$,
    $$
    P_1\cdot S_1 +_{12}P_2\cdot S_2 = \begin{bmatrix}P_1 & 0\\0 & P_2\end{bmatrix}\cdot (S_1 +_{12} S_2) = \begin{bmatrix}0 & P_1\\P_2 & 0\end{bmatrix}\cdot(S_2 +_{21} S_1)\;.
    $$
    De là j'espère ne pas me tromper en disant que $[S_1]+_{12}[S_2] = [S_1+_{12}S_2] = [S_2+_{21}S_1]= [S_2]+_{21}[S_1]$.

    Au départ, j'ai pensé voir un peu de lumière en utilisant ce que tu viens de m'expliquer et en essayant de le "graduer" (je ne sais pas si c'est le bon mot mais pour faire un peu comme la construction d'une algèbre graduée ou un truc du genre, ma culture algébrique est catastrophique).

    Je te remercie par avance pour le courage de lire cette longue tartine et pour tes précieux conseils.
    Cordialement,
    Mister Da
  • @Maxtimax : concernant la notion certaines personnes préfèrent noter $X \times^G Y$ que je trouve aussi plus adaptée, pour éviter de confondre avec un produit fibré !
  • Nicolas H: ah oui ça me dit quelque chose ! C'est mieux que l'autre effectivement. Parfois j'opte pour $X\otimes_G Y$, parce que pourquoi pas ? :-D

    Mister Da : Mhm. Tu es tombé sur un truc pas évident :-D
    Ok, je fais un premier commentaire. Ce que tu décris est une décatégorification de la structure symétrique monoïdale cartésienne sur la catégorie des $K$-espaces vectoriels de dimension finie. Attends, ne pars pas ! J'ai dit des gros mots, mais t'inquiète, je vais expliquer ! En enlevant les gros mots ;-) Et s'il y a des gros mots plus bas que tu ne comprends pas, dis-moi - faut pas que je parle dans le vide, c'est pour toi tout ça.

    Bon, en fait tu as redécouvert le fait que les bases ne servent à rien pour définir la somme directe. Et tu as tout à fait raison.

    En fait, ton application, qui va $\mathcal L(K^{n_1+m_1}, K^{n_1+p})\times \mathcal L(K^{n_2+m_2}, K^{n_2+p})\to \mathcal L(K^{n_1+n_2+m_1+m_2}, K^{n_1+n_2+p})$ (je vais écrire $L$ au lieu de $\mathcal L$ dans la suite), tu peux la décrire sans bases, i.e. tu peux la décrire sans écrire $K^{quelque chose}$. Je précise: tu pars de $5$ espaces vectoriels $A,B,C,D,E$.

    Ton application, c'est $L(A\oplus B, A\oplus E)\times L(C\oplus D, C\oplus E)\to L(A\oplus C \oplus B\oplus D, A\oplus C\oplus E)$. Pour la décrire plus précisément il faut se souvenir de qui est $\oplus$. Je vais te décrire son pouvoir magique, aussi appelé propriété universelle. Ici, je dis magique parce qu'elle en a 2 :

    PU1 : Soit $A,B$ deux espaces vectoriels. Alors les deux inclusions canoniques $i_A: A\to A\oplus B, i_B: B\to A\oplus B$ vérifient la propriété suivante: pour tout espace vectoriel $C$, la restriction $L(A\oplus B, C)\to L(A,C)\times L(B,C)$ est un isomorphisme.

    (intuitivement: une application linéaire $A\oplus B\to C$ est entièrement déterminée par sa restriction à $A$ et sa restriction à $B$)

    PU2 : Soit $A,B$ deux espaces vectoriels. Alors les deux projections canoniques $p_A: A\oplus B\to A, p_B: A\oplus B\to B$ vérifient la propriété suivante: pour tout espace vectoriel $C$, la projection $L(C,A\oplus B)\to L(C,A)\times L(C,B)$ est un isomorphisme.

    (intuitivement, une application linéaire $C\to A\oplus B$ est entièrement déterminée par sa projection sur $A$ et sa projection sur $B$)

    Les deux sont relativement faciles à prouver, je te le laisse en exercice. ça te permet en fait de décrire des choses comme des matrices: par exemple une application linéaire $M: A\oplus B \to C\oplus D$ est entièrement décrite par 4 applications linéaires, $f: A\to C, g:A\to D, h:B\to C, k:B\to D$, qu'on peut mettre dans une matrice $\begin{pmatrix} f & h \\ g & k \end{pmatrix}$. Si tu as $(a,b)\in A\oplus B$, tu peux calculer $M(a,b)$ via cette matrice : tu utilises la règle de calcul usuelle pour $\begin{pmatrix} f & h \\ g & k \end{pmatrix}\begin{pmatrix} a \\ b \end{pmatrix}$, ça te donne un vecteur dont la première coordonnée est dans $C$, la seconde dans $D$, i.e. un élément de $D$.
    Exercice: ça marche, et pareil avec plus de termes.
    Exercice : Si j'ai $M :A\oplus B\to C\oplus D$ et $N: C\oplus D\to E\oplus F$, je peux calculer $NM$ avec le produit usuel de matrices (en remplaçant "multiplication" par "composition")


    Bref, pourquoi je dis tout ça ? Bah du coup ici c'est facile de décrire ton application $+_{12}$ en termes plus généraux, en termes de $L(A\oplus B, A\oplus E)\times L(C\oplus D, C\oplus E)$. En fait, c'est tout pareil, tu peux écrire des matrices et les recoller, exactement de la même manière.

    Mais si c'est pareil, pourquoi je te raconte tout ça ? Bah de ce point de vue là, on peut décrire ton application comme suit:

    je pars de $f:A\oplus B\to A\oplus E$ et $g: C\oplus D\to C\oplus E$. Alors je peux considérer $f\oplus g: A\oplus B\oplus C\oplus D \to A\oplus E\oplus C\oplus E$, puis, quitte à réarranger les termes, j'obtiens une application $A\oplus C\oplus B\oplus D\to A\oplus C\oplus E\oplus E $, puis finalement, en utilisant $E\oplus E\to E$, j'obtiens ce que je voulais, à savoir $A\oplus C\oplus B\oplus D\to A\oplus C\oplus E$

    Cette nouvelle description, non matricielle, coïncide avec la tienne quand je mets des bases partout, i.e. quand je choisis $A= K^{n_1}, B= K^{m_1}$ etc. etc. Sauf que là on n'a pas besoin de base. En fait, un truc qui est génial avec cette description, c'est qu'elle est naturelle, en toutes les données. Que veut dire naturelle ? Bon, je ne vais pas rentrer dans ces détails ici, aujourd'hui.
    Mais un truc qui devrait être clair dans cette construction est qu'elle est invariante par isomorphisme, au sens suivant: si j'ai des isomorphismes $f: A\to A', g: B\to B', h : C\to C', k: D\to D'$ et $j: E\to E'$, alors le diagramme suivant commute :

    $$\xymatrix{L(A\oplus B, A\oplus E)\times L(C\oplus D, C\oplus E) \ar[r]\ar[d] & L(A\oplus C\oplus B\oplus D, A\oplus C\oplus E) \ar[d] \\
    L(A'\oplus B', A'\oplus E')\times L(C'\oplus D', C'\oplus E') \ar[r] & L(A'\oplus C'\oplus B'\oplus D', A'\oplus C'\oplus E') }$$

    où les flèches... j'ai la flemme de les écrire, mais ce sont des compositions par mes isomorphismes ou leurs inverses (en fait on pourrait faire plus général en faisant une construction encore meilleure, mais flemme pour le moment). Je te laisse les écrire si elles ne te sont pas évidentes.

    Remarque que je n'ai pas dit "s'il y a un isomorphisme, alors on peut faire la même construction" ou je ne sais quoi; j'ai dit: un isomorphisme induit un tel carré commutatif. La morale c'est que si je fixe $A$, j'ai quand même le droit de faire agir des automorphismes. Donc si je fixe $A=K^{n_1}, B= K^{m_1}$ etc. , j'ai le droit de faire agir $GL_{n_1}$ etc.

    Maintenant, je te laisse vérifier que l'action de $GL_{n_1}$ que je te propose est la même que celle que tu proposes. Sauf qu'ici, j'ai gagné deux choses:
    1- Je n'ai pas eu à la deviner, elle est venue gratuitement
    2- La vérification à faire pour se convaincre que $+_{12}$ est compatible avec cette action n'est plus calculatoire, elle est conceptuelle, "donc plus robuste"

    Vient maintenant la question de $+_{12}$ versus $+_{21}$. Il s'agit de dire qu'échanger $(A,B)$ et $(C,D)$ à droite ou à gauche a le même effet. Mais... vu la construction, c'est évident.

    En fait, je t'invite à oublier les détails de ta construction de $+_{12}$ ou $+_{12}$ pour le moment, et à contempler l'objet qui répond à ta question de "graduation" et qui contient des choses suffisantes pour ta construction. Il s'agit de la catégorie des espaces vectoriels. C'est un objet où vivent tous les espaces vectoriels (disons de dimension finie, si on a peur), et toutes les applications linéaires entre eux. Sur cette catégorie tu as une opération, $\oplus$, qui marche à la fois sur les espaces vectoriels (pour $K^n$, cela correspond à $K^n\oplus K^m\cong K^{n+m}$) et sur les applications linéaires (si $f$ est représentée par la matrice $M$ et $g$ par $N$, alors $f\oplus g$ est représentée par la matrice par blocs $\begin{pmatrix} M & 0 \\ 0 & N\end{pmatrix}$); mais ces opérations se définissent sans base, sans matrice.

    Cela implique en particulier qu'elles sont compatibles avec tout, en particulier avec tous les automorphismes et donc tous les $GL_n$. "compatible" voudra dire quelque chose de différent selon le contexte comme tu l'as vu ici, mais ce n'est pas grave.
    En fait l'idée est de dire que si $GL_n$ agit de manière compatible, en fait peut-être que tu n'as pas besoin de supposer que le départ et l'arrivée sont $K^n$, tu peux juste fixer un isomorphisme de l'un vers l'autre, et vérifier que ton opération est naturelle (en général au vu de la construction, c'est évident; alors que ça l'est moins quand on fait les choses à coup de matrices)

    La morale générale, c'est qu'en algèbre linéaire, il faut éviter au maximum d'utiliser des bases. Tant que tu peux faire des choses sans base (construire des applications, etc.), il faut faire sans, et utiliser les bases à la fin. Après, il faut faire gaffe et repérer que certaines choses ne peuvent pas se faire sans base (par exemple un résultat "complètement faux" sur d'autres anneaux, il va falloir faire quelque chose en lien avec les corps, et souvent ça veut dire "base").

    Exemple : supposons que je veux montrer que $V\cong V^{**}$ ($V$ de dimension finie). Une manière "naïve" de faire est de dire "oh bah $V\cong K^n$ et $(K^n)^*\cong K^n$ donc c'est bon". ça marche, évidemment, mais ça ne se généralise pas, et ça ne montre aucune compatibilité avec $GL$. Si tu dis "définissons $V\to V^{**}$ par $x\mapsto (f\mapsto f(x))$. Pour $V=K$ c'est un isomorphisme, et les deux côtés sont compatibles avec $\oplus$, donc c'est un isomorphisme pour $V=K^n$", tu as gagné: tu as défini un morphisme pour tout $V$ et montré que c'était un isomorphisme dans certains cas (ceux qui t'intéressent).
    Avantage: la construction est naturelle, et définie plus généralement. En particulier, ça implique le résultat pour un module projectif sur un anneau quelconque, et ça, la preuve naïve ne le montre pas.

    Bah c'est pareil dans ta situation: pour vérifier la compatibilité avec $GL$ il faut des calculs etc. alors que si on le fait sans bases, sans matrices, c'est une évidence.

    Petite remarque de conclusion : le fait que tu aies $\begin{pmatrix} 0 & I_{n_2} \\ I_{n_1} & 0\end{pmatrix}$ qui apparaisse pour montrer la "commutativité" n'est pas un hasard. Si tu identifies $K^{n_1}\oplus K^{n_2}$ à $K^{n_2}\oplus K^{n_1}$ en identifiant les $2$ à $K^{n_1+n_2}$, alors l'automorphisme de $K^{n_1+n_2}$ qui correspond à l'isomorphisme canonique $A\oplus B\cong B\oplus A$ ($A=K^{n_1}, B=K^{n_2}$) est exactement représenté par cette matrice.

    En fait la structure de "commutativité" de ton $+_{12}$ est beaucoup plus riche que juste "ça commute quand je passe au quotient" (même si c'en est une conséquence); puisque (comme ta formule sur $P_1\cdot S_1 +_{12} P_2\cdot S_2$ plus précise le montre) elle est compatible avec tout tout tout. Aller plus loin dans l'étude de cette structure... ça peut emmener très loin :-D

    Bon, c'est un peu long, je m'en excuse - j'ai peut-être dévié du sujet avec mes dérives usuelles, n'hésite pas à me recadrer (fermement) s'il le faut !
  • Bonjour,

    tout d'abord un immense merci pour tes réponses et pour tout le temps que tu me consacres. Je suis aussi heureux que gêné d'avoir cette opportunité.

    Le sage me montre une étoile et moi je regarde son doigt ! Sur la philosophie de l'approche tu prêches un converti. Si je ne suis pas pratiquant ce n'est pas par manque de conviction mais uniquement par manque de compétence ! Je suis convaincu qu'il faille écrire les choses de manière "intrinsèque" ou "géométrique" c'est-à-dire sans base, mais dès que j'essaye de faire quelque chose malheureusement je replonge mon gros nez dans mes matrices (ce qui est bien pratique pour faire les calculs mais ce qui est, je trouve, catastrophique pour comprendre ce que l'on est en train de faire).

    J'ai déjà lu ton message un bon nombre de fois. Les choses commencent à se mettre en place doucement, merci pour ton aide je n'aurais jamais eu assez d'une vie pour formaliser tout ça.

    Avant de tout reposer à plat et de prendre le temps d'étudier ta réponse en profondeur, j'aimerai éclaircir deux points. Par avance désolé pour la naïveté des mes interrogations.

    [large]Premier point : des matrices sans bases préalables[/large]
    Maxtimax a écrit:
    $M: A\oplus B \to C\oplus D$ est entièrement décrite par 4 applications linéaires, $f: A\to C, g:A\to D,
    h:B\to C, k:B\to D$, qu'on peut mettre dans une matrice $\begin{pmatrix} f & h \\ g & k \end{pmatrix}$. Si tu as $(a,b)\in A\oplus B$, tu peux calculer $M(a,b)$ via cette matrice : tu utilises la règle de calcul usuelle pour $\begin{pmatrix} f & h \\ g & k \end{pmatrix}\begin{pmatrix} a \\ b \end{pmatrix}$, ça te donne un vecteur dont la première coordonnée est dans $C$, la seconde dans $D$, i.e. un élément de $D$.
    J'ai déjà fait ce genre de chose mais je m'étais caché en pensant que c'était hautement illégal de faire des "matrices d'opérateurs" (dans ma tête j'appelle ça des matrices formelles).
    En fait je pensais que de passer d'un couple $(x,y)\in X\times Y$ à la matrice $\begin{bmatrix}x\\y\end{bmatrix}$ était douteux et nécessitait forcément de fixer des bases. Dans le vecteur $(x,y)$ j'appelle $x$ et $y$ les composantes du vecteur $(x,y)$. Dans la matrice $\begin{bmatrix}x\\y\end{bmatrix}$ j'avais tendance à dire que $x$ et $y$ (notés avec les mêmes symboles) sont les coordonnées (sous entendu donc des nombres relatifs à des bases). Bref, on peux donc faire des matrices de vecteurs alors que je me limitais à des matrices de coordonnées de vecteurs dans des bases choisies. Pourrais-tu me confirmer ce point, car cela me ferait sauter un vrai verrou psychologique.
    En fait dans mes premiers messages, c'est comme ça que je voyais les choses. Je voulais écrire utiliser le formalisme matriciel mais du coup je me suis dis "qui dit matrice dit base" du coup je me suis dit je pose des bases au pif et je dis que mon opérateur $A$ c'est la matrice $A$, l'opérateur $B$ la matrice $B$ etc et puis comme les bases m'ennuient je me suis dit bon bah je quotiente par les changements de bases (en gros faire et défaire pour pouvoir mettre sous forme matricielle ce qui est donc inutile si j'ai bien compris ton message).

    [large]Second point : $\times$ versus $\oplus$[/large]

    Quand tu écris comme "$L(A\oplus B, A\oplus E)\times L(C\oplus D, C\oplus E)$" par exemple, y a-t-il une subtilité pour laquelle tu utilises $\times$ et $\oplus$ ? Si ma mémoire est bonne produit et somme directe extérieure sont deux constructions différentes (dans un cas on a des flèches qui rentrent et dans l'autre qui sortent) mais si on est en nombre fini ça donne des choses isomorphes non ? En gros à la louche si je note $a\oplus b$ un élément de $A\oplus B$ je me dis que je peux le voir comme $(a,0_A)+(0_B,b) = (a,b)$ que l'on voit comme un élément de $A\times B$. Pour cela on identifie $A\ni a \cong(a,0_B)\in A\times B$ etc. Bref, autrement dit, si on reprends ce que tu écris et que l'on mets que des $\oplus$ ou que des $\times$ est-ce que ça change quelque chose ?

    Personnellement, avec deux espaces vectoriels, j'aime bien noter $E\oplus F$ le produit cartésien $E\times F$ car leurs dimensions s'ajoutent et si on a un produit scalaire sur chacun, on peut définir un produit scalaire sur le résultat par une simple somme. Et si un jour je dois faire un produit tensoriel $E\otimes F$ les dimensions se multiplient ainsi que les produits scalaires, je trouve ça plus consistant en fait.

    En fait, tu viens de réveiller une vieille interrogation que j'avais eu il y a ... 7 ans (bigre que j'avance lentement) et Magnolia m'avait répondu ici ça
    Magnolia a écrit:
    Pour ne pas faire trop abstrait, on peut penser aux (ensembles, applications), (groupes, morphismes de groupe), (espaces vectoriels, applications linéaires), mais aussi (espaces topologiques, applications continues).

    Or donc: Si on a une famille $(X_i)_{i\in I}$ de tels ensembles, un produit est un ensemble $P$ (muni de ce qu'il faut) ET une famille de morphismes $(p_i : P\to X_i)_{i\in I}$ tels que pour tout $Y$ et toute famille $f_i:Y\to X_i$ il existe un et un seul morphisme $f : Y\to P$ tel que $p_i\circ f=f_i$ pour tout $i$.

    La notion "duale" est : une somme est un ensemble $S$ ET une famille de morphismes $(s_i : X_i\to S)_{i\in I}$ tels que pour tout $Y$ et toute famille $f_i : X_i \to Y$ il existe un et un seul morphisme $f : S\to Y$ tel que $ f\circ s_i=f_i$ pour tout $i$.

    Désolé pour cette longue tartine et encore un immense merci par avance pour ta précieuse aide !
    Cordialement,
    Mister Da
  • Premier point : Une matrice est un tableau. Alors certes, dans les "petites classes" on nous dit "tableau de nombres", mais si on veut que ce soit un tableau d'autre chose, on fait ce qu'on veut ;-)
    Le seul truc c'est que si tu appelles quelque chose "matrice", il va y avoir une attente chez tes lecteurices que ça se comporte comme une matrice - dans le cas que je te présente ici, c'est le cas, et donc ça mérite tout à fait de s'appeler matrice.

    A vrai dire, je préfère ne pas penser à la matrice $\begin{pmatrix} a \\ b \end{pmatrix}$ que j'ai mentionnée, car je préfère penser "sans éléments" (en termes de morphismes). Mais tout va bien, car si j'identifie "élément de $A$" à "morphisme $K\to A$" alors je peux écrire cette même matrice en tant que matrice d'un morphisme $K\to A\oplus B$ et tout est cohérent donc c'est parfait.

    Du coup oui, tu "as le droit" (en maths on a le droit de tout, tant que c'est prouvé). En fait, c'est même beaucoup mieux de procéder ainsi et d'introduire plus tard les matrices comme tableaux de nombres. En effet, ça permet d'expliquer les matrices par blocs beaucoup plus simplement, ainsi que leurs règles de calculs.
    On spécialise ensuite en remarquant qu'un nombre, c'est pareil qu'une application linéaire d'un espace vectoriel de dimension 1 muni d'une base vers un autre. Mais la vraie notion c'est bien celle de matrices de morphismes (attention à ne pas exagérer et commencer à faire ça avec des ensembles par contre : la raison pour laquelle les matrices marchent bien et se comportent comme on veut, c'est précisément que $\oplus = \times$, produit = coproduit).


    Second point : oui j'aurais tout à fait pu mettre $\oplus$. La raison pour laquelle j'ai mis $\times$ c'est parce que (tu l'as deviné !) quand un produit tensoriel apparait, parfois ce genre de machin (e.g. $L(A,B)\times L(C,D)\to L(A\otimes C, B\otimes D)$) n'est plus additif mais bilinéaire. Dans ce cas, on doit laisser un $\times$ et les voir comme des ensembles, ou mettre un $\otimes$.
    Mais ici, rien de tout ça, tu as tout à fait raison ça n'aurait rien changé de mettre un $\oplus$.

    Comme je l'ai dit plus haut, la "magie" des espaces vectoriels (et de tous les trucs "linéaires") vient précisément de ce que $\oplus = \times$ et que donc on peut faire des matrices comme on veut.

    Le setup général est le suivant: disons que tu as une catégorie (pas besoin de savoir précisément ce que ça veut dire) qui a un $0$. Par ça, je veux dire que chaque machin n'a qu'un seul morphisme vers $0$, et qu'un seul morphisme de $0$ (on l'appelle le morphisme $0$). Alors pour toute collection $(A_i)_{i\in I}$ d'objets, j'ai un morphisme canonique $\coprod_i A_i \to \prod_i A_i$ qui consiste à envoyer $A_i$ sur $0$ partout, sauf en $i$, où on met $id_{A_i}$.
    On peut demander "est-ce un isomorphisme ?". Si la réponse est oui lorsque $I$ est fini on parle de catégorie semi-additive, et ça suffit pour parler de matrices, car alors on peut identifier coproduit et produit fini, les noter $\oplus$ et répéter ma réponse de plus haut.

    Evidemment, ça ne marche pas si tu regardes, par exemple, les ensembles pointés (je mets "pointés" pour avoir un $0$)
  • Bonjour,

    d'accord, merci énormément pour toutes ces précisions.

    Concernant les matrices, je crois que je viens d'identifier ce qui me dérangeait le plus en fait. Dans mes approches naïves, je manipule toujours des matrices sur des corps du genre $\mathcal{M}_{m,n}(\mathbb{C})$ ou $\mathcal{M}_{m,n}(\mathbb{C}(X))$ ou plus rarement sur des anneaux comme des matrices de polynômes $\mathcal{M}_{m,n}(\mathbb{C}[X])$. Si je considère un espace vectoriel $E$, j'arrivais à concevoir une matrice de vecteurs $\mathcal{M}_{m,n}(E)$ ou d'endomorphisme de $E$ : $\mathcal{M}_{m,n}(\mathrm{End}(E))$ (reste à voir ce qu'on en fait) mais dans tous ces cas tous les éléments de la matrice sont de même nature, ils appartiennent tous au même corps ou anneau ou espace vectoriel sous-jacent. Et à la longue involontairement j'en était arrivé à la croyance que tous les éléments d'une matrice devaient être de même nature, une sorte de matrice homogène alors que non. Comme tu dis, c'est un tableau et on y met bien ce qu'on veut.

    "On spécialise ensuite en remarquant qu'un nombre, c'est pareil qu'une application linéaire d'un espace vectoriel de dimension 1"
    D'accord, si je m'accroche aux branches que je vois, c'est la même chose que quand on regarde $f'(x)$ la dérivée d'une fonction $f\colon \mathbb{R}\to\mathbb{R}$ en $x$. On peut se dire qu'il s'agit d'un nombre $f'(x)$ ou qu'il s'agit de l'application linéaire $(\mathrm{d}f)_x\colon h\mapsto f'(x)h$. Et de là on se rend compte que la seconde vision est beaucoup plus féconde et généralisable.

    Conclusion, je peux me dérider car dans le cadre confortable d'espaces vectoriels, on voit les matrices comme avant tout des représentations sous forme de tableau de combinaisons linéaires (qui peuvent être aussi bien des sommes pondérées de nombres que des sommes pondérées de composition d'opérateurs ou que des sommes pondérées de n'importe quels trucs qui auraient un sens).

    "car je préfère penser "sans éléments" (en termes de morphismes)"
    En gros ce n'est pas l'objet qui est important mais la structure. J'ai mis du temps à comprendre ça et je sens que ça va me prendre encore beaucoup de temps pour réussir à m'abstraire autant. Réussir à faire "tout" en partant de "rien" (ou plutôt "à faire autant à partir de si peu"), philosophiquement, l'algèbre me fascinera toujours autant.

    Maintenant que tu as remis ma locomotive dans le bon sens je vais essayer de refaire ton précédent message sans dérailler.

    Encore un grand merci pour ton temps.
    Cordialement,
    Mister Da
  • Re bonjour,

    toujours en mode rase motte, je considère ce passage
    Maxtimax a écrit:
    je pars de $f:A\oplus B\to A\oplus E$ et $g: C\oplus D\to C\oplus E$. Alors je peux considérer $f\oplus g: A\oplus B\oplus C\oplus D \to A\oplus E\oplus C\oplus E$, puis, quitte à réarranger les termes, j'obtiens une application $A\oplus
    C\oplus B\oplus D\to A\oplus C\oplus E\oplus E $, puis finalement, en utilisant $E\oplus E\to E$,
    j'obtiens ce que je voulais, à savoir $A\oplus C\oplus B\oplus D\to A\oplus C\oplus E$

    Je vais juste appeler $f\to M_1$ et $g\to M_2$ et adapter le nom des espaces en conséquences, $A\to A_1$, $B\to B_1$, $C\to A_2$, $D\to B_2$, et $E$ reste $E$. Ainsi

    L'application $M_i :A_i\oplus B_i\to A_i\oplus E$ se représente par la matrice $\begin{bmatrix} f_i & h_i \\ g_i & k_i \end{bmatrix}.$

    L'application $M_1\oplus M_2 \colon A_1\oplus B_1\oplus A_2\oplus B_2 \to A_1\oplus E\oplus A_2\oplus E$ se représente par la matrice $\begin{bmatrix}
    f_1 & h_1 & 0 & 0\\
    g_1 & k_1 & 0 & 0\\
    0 & 0 & f_2 & h_2 \\
    0 & 0 & g_2 & k_2\\
    \end{bmatrix}.$

    En réarrangeant les termes, l'application $\widehat{M_1\oplus M_2} \colon A_1\oplus A_1\oplus B_1\oplus B_2 \to A_1\oplus A_2\oplus E\oplus E$ se représente par la matrice $\begin{bmatrix}
    f_1 & 0 & h_1 & 0\\
    0 & f_2 & 0 & h_2 \\
    g_1 & 0 & k_1 & 0\\
    0 & g_2 &0 & k_2\\
    \end{bmatrix}.$

    C'est ici que je n'ai pas saisi, ta dernière flèche $E\oplus E\to E$, c'est pour dire $(e_1,e_2)\mapsto e_1+e_2$ et donc
    l'ultime matrice qui est celle de mes rêves est :
    $\begin{bmatrix}
    f_1 & 0 & h_1 & 0\\
    0 & f_2 & 0 & h_2 \\
    g_1 & g_2 & k_1 & k_2\\
    \end{bmatrix}.$

    Sommes-nous d'accord là dessus ?
    J'attaquerai ce soir le " Je n'ai pas eu à la deviner, elle est venue gratuitement ", car je n'ai pas l'impression de voir.

    Cordialement,
    Mister Da
  • Oui, ça m'a l'air d'être ça !

    Pour ce que tu n'as pas l'impression de voir, je te suggère de l'écrire en prétendant une seconde que ce n'est pas $GL_{n_1}$, mais que tu as $A_1$ et $A_1'$ qui sont différents, et tu te fixes un isomorphisme $P : A_1\to A_1'$ et tu regardes la compatibilité de la construction avec cet isomorphisme.
    En prétendant qu'ils sont différents, tu t'évites toute erreur parce que les seules choses que tu pourras écrire qui auront le bon typage seront les bonnes :-D
  • Bonjour,

    je tente une réponse. En partant de $M :A\oplus B\to A\oplus E$ représenté par la matrice $\begin{bmatrix} f & h \\ g & k \end{bmatrix}.$

    On considère $P\colon A\to A'$ un morphisme, on a $$\xymatrix{A \ar[r]^f\ar[d]^P & A\ar[d]^P\\A' \ar[r]^{f'}& A'}\qquad\xymatrix{B \ar[r]^h\ar[dr]^{h'} & A\ar[d]^P\\ & A'}$$ Du coup si on veut pouvoir définir $M' :A'\oplus B\to A'\oplus E$ représenté par la matrice $\begin{bmatrix} f' & h' \\ g & k \end{bmatrix}$ à partir de $M$ et avoir une chance que les Lego s'emboitent correctement il faut que $P$ soit inversible, c'est-à-dire un isomorphisme, pour écrire $f' = P\circ f \circ P^{-1}$ et $h' = P\circ h$.

    Était-ce la chose intelligente à dire ? Je doute car finalement je n'ai considéré que $L(A\oplus B, A\oplus E)$ et pas $L(A_1\oplus B_1, A_1\oplus E)\times L(A_2\oplus B_2, A_2\oplus E) \to L(A_1\oplus A_2\oplus B_1\oplus B_2, A_1\oplus A_2\oplus E)$.

    Cordialement,
    Mister Da
  • Non, il ne faut pas douter, tu cherchais pour le moment juste à décrire l'action de $GL_{n_1}$ sur $E_{n_1,m_1,p}$, et tu as réussi : tu retrouves ce que tu avais obtenu plus haut, à savoir cette conjugaison par $P$ et cette composition par $P$.

    Le coup d'avoir deux machins, et de permuter, ça vient plus tard. En fait la raison pour laquelle je t'ai fait ce discours au tout début c'était pour te convaincre que le bon objet, ce n'était pas tes matrices avec leurs actions de groupes et ton $+_{12}$, mais tout simplement les espaces vectoriels, muni de $\oplus$.

    Ta commutation de $+_{12}$ revient à la remarque que l'isomorphisme canonique $A\oplus B\cong B\oplus A$, quand on le spécialise à $A=K^{n_1}, B= K^{n_2}$ et qu'on identifie les deux côtés, indépendamment, avec $K^{n_1+n_2}$, s'écrit comme $\begin{pmatrix} 0 & I_{n_2}\\ I_{n_1} & 0\end{pmatrix}$, ce qui est exactement ce que tu avais obtenu. Le fait que ce soit cette matrice qui intervient dans ta commutation de $+_{12}$ et $+_{21}$ vient précisément de ça, et ce que je voulais te faire remarquer c'est que ça ne vient de rien d'autre que ça. Mais surtout que du coup cette structure est plus riche que juste "commutativité au quotient", c'est vraiment de l'équivariance (qui est automatique, par naturalité)

    Je crois que ces derniers mots sont ceux sur lesquels je dois appuyer: naturalité implique équivariance. Et l'équivariance c'est beaucoup plus fort que demander juste une compatibilité au quotient (il est plus fort de demander $f(gx) = gf(x)$ que "pour tout $x,g$, il existe $h$ tel que $f(gx) = hf(x)$). Comme ici, tout est évidemment défini naturellement, tu récupères ton équivariance au passage par design, et donc, ta commutativité au quotient, qui apparait bien faible comparée à ce que tu as vraiment.
  • Bonjour,
    d'accord ! Merci pour ta patience et ta bienveillance.

    Bon, les trucs faciles mais fastidieux c'est à ma portée, voici donc ce que j'espère être la vue d'ensemble. Pour passer des 3 lignes du bas au trois lignes du haut il suffit de $1\leftrightarrow 2$.
    $$
    \xymatrix{
    L(A_1\oplus B_1, A_1\oplus E)\times L(A_2\oplus B_2, A_2\oplus E) \ar[ddddd]_P \ar[rr]^\oplus\ar[ddrr]_{+_{12}}& & L(A_1\oplus B_1\oplus A_2\oplus B_2, A_1\oplus E\oplus A_2\oplus E) \ar[d]^{p_1}\\
    && L(A_1\oplus A_2\oplus B_1\oplus B_2, A_1\oplus A_2\oplus E\oplus E)\ar[d]^{s_1}\\
    && L(A_1\oplus A_2\oplus B_1\oplus B_2, A_1\oplus A_2\oplus E)\\
    && L(A_2\oplus A_1\oplus B_2\oplus B_1, A_2\oplus A_1\oplus E)\ar[duu]_{p}\\
    && L(A_2\oplus A_1\oplus B_2\oplus B_1, A_2\oplus A_1\oplus E\oplus E)\ar[duu]_{s_2}\\
    L(A_2\oplus B_2, A_2\oplus E)\times L(A_1\oplus B_1, A_1\oplus E) \ar[rr]^\oplus\ar[rruu]^{+_{21}}& & L(A_2\oplus B_2\oplus A_1\oplus B_1, A_2\oplus E\oplus A_1\oplus E) \ar[duu]_{p_2}\\
    }


    $$ J'ai appelé $s_i$ (comme somme) les morphismes qui copient tout le monde sauf les $E$ qui sont additionnés. J'ai appelé $p_i$, $p$ et $P$ (comme permutation) les isomorphismes qui permutent certaines entrées/sorties de certaines applications.
    En faisant cette construction je viens de comprendre un truc qui me dérange : je ne sais pas quand je dois distinguer le nom des opérations finalement. Par exemple je distingue mes deux $+_{12}$ et $+_{21}$ mais pas les $\oplus_{12}$ et $\oplus_{21}$ que je note $\oplus$. Si je fais une analogie avec l'informatique je dirais que l'opérateur $\oplus$ est surchargé et on sait lequel utiliser en regardant ce qu'on lui donne en entrée.

    Donc si je résume on a : $+_{12} = p\circ+_{21} \circ P$ et quand on est algébriste on dit que $+_{12}$ et $+_{21}$ représentent la même opération $+$ (aux isomorphismes $P$ et $p$ près) (en gros informatiquement on est en train de surcharger cet opérateur ?) c'est ça que tu essayes de me faire comprendre depuis 3 longs jours et que j'aurais tant de mal à entendre ?

    Pour l'équivariance (que je découvre) il faudrait $\oplus P = P\oplus$ mais actuellement dans ma gazinière j'ai $\oplus P = p_2^{-1}s_2^{-1}p^{-1}s_1p_1\oplus$ non ?

    Cordialement,
    Mister Da
  • Oui, par contre quand on est algébriste on va justement plutôt dire que $+_{12}$ et $+_{21}$ sont liés par cette relation d'équivariance précisément.

    Si tu écris tout avec des bases, tu vas te rendre compte que ta formule $p\circ +_{21}\circ P= +_{12}$ est exactement la formule que tu avais obtenue et qui te permettait de justifier qu'en passant au quotient tu avais une "commutativité". Bien sûr pour obtenir la formule en question, il faut fixer des bases partout et faire l'identification (violente dans ce contexte) $K^{n_1}\oplus K^{n_2}\cong K^{n_1+n_2}$ ou des trucs du genre.

    Ce que j'essayais vraiment de te faire comprendre c'est que ces formules que tu obtiens ne sont que des pâles ombres de la vraie formule (qui elle est essentiellement triviale) qui est que ton diagramme commute. En gros tes formules sont des formules que tu obtiens en fixant des bases partout en ramenant tout à des objets de la forme $K^n$ (pas de $K^n\oplus K^m$), mais la structure sous-jacente est à la fois plus simple (c'est juste $A\oplus B\cong B\oplus A$) et plus riche (l'énoncé "machin commute au quotient" est beaucoup trop faible par rapport à ce que tu as en vrai)

    Et non, rien ne dit qu'il faudrait $\oplus P = P\oplus$, à vrai dire ce ne serait même pas bien typé. Il faut voir comment les choses agissent de chaque côté pour parler proprement d'équivariance. Par exemple $GL_{n_1}\times GL_{n_2}$ va agir de chaque côté différemment, et l'énoncé c'est que tu vas avoir une relation entre ces actions.

    Attention, $s_i^{-1}$ n'a pas de sens, car $s_i$ n'est pas inversible.
  • "Ce que j'essayais vraiment de te faire comprendre c'est que ces formules que tu obtiens ne sont que des pâles ombres de la vraie formule"
    Ça j'ai bien compris, en gros ma formule était un dans le cas d'un automorphisme une fois des bases fixées et toi tu m'as sorti la tête du guidon pour me montrer que pour moins cher on avait un résultat valable pour tout isomorphisme et sans base.

    Quand tu me prêtes tes lunettes d'algébriste, c'est évident mais sommes-nous d'accord que techniquement, pour le laborieux que je suis, si je veux montrer explicitement que le diagramme commute finalement je vais faire la même manipulation de symboles sauf que la matrice de passage est devenue un isomorphisme et les matrices sont des opérateurs. N'est-ce pas ?


    "à vrai dire ce ne serait même pas bien typé"
    Oui c'est ce qui me semblait mais bon...

    "Attention, $s_i^{-1}$ n'a pas de sens, car $s_i$ n'est pas inversible."
    Oupppss effectivement, inverser une somme... quelle buse. Finalement tout n'est pas possible en algèbre ;)

    Tu m'as déjà consacré énormément de temps et je te remercie très chaleureusement car seul dans mon coin je n'aurais jamais réussi à comprendre tout ça. Aurais-tu juste un lien du type "la naturalité pour les nuls" qui me permettrait de comprendre dans les grandes lignes ? Avec wiki je pense avoir compris ce qu'on appelle équivariance en gros la modification de la transformée c'est la transformée des modifications.

    Merci pour tout.
    Cordialement,
    Mister Da
  • "N'est-ce pas ?" : Non :-D En fait, oui si tu veux le faire directement, mais non si tu connais quelques trucs sur la naturalité, du type "la composition de deux transformations naturelles est naturelle" ou encore "appliquer un foncteur à une transformation naturelle donne encore une transformation naturelle" qui sont toutes des trivialités qui n'impliquent aucun calcul de matrice.

    À la fin, tu te retrouveras à devoir prouver des trucs beaucoup plus élémentaires, qui coulent de source, et sans manipulation de matrices. Le truc le plus proche sera peut-être pour prouver la naturalité de $A\oplus B\cong B\oplus A$, mais même ça peut se faire abstraitement sans matrices.

    En fait l'énoncé sur lequel ta commutation repose est une variation sur :

    Soit $C,D$ deux catégories semi-additives [ comprendre "des catégories où on peut faire $\oplus$ et c'est comme dans les espaces vectoriels" ] et $F: C\to D$ un foncteur qui préserve les sommes directes finies [ comprendre "en gros $F(x\oplus y) \cong F(x)\oplus F(y)$", même si c'est pas exactement ça, mais c'est une évidence dans ton cas ]. Alors pour tous $x,y$, le diagramme suivant commute: $$\xymatrix{F(x\oplus y)\ar[r]\ar[d] & F(x)\oplus F(y) \ar[d]\\
    F(y\oplus x)\ar[r] & F(y)\oplus F(x) }


    $$ (dans le diagramme en question il faudrait dire qui sont les isomorphimses: les horizontaux sont ceux donnés par l'hypothèse que $F$ préserve les sommes directes finies, et les verticaux par l'isomorphisme canonique $A\oplus B\cong B\oplus A$, ou bien dans $C$, ou bien dans $D$)

    Donc non, tu n'auras absolument pas à faire les mêmes calculs - si tu as le bon background théorique. Mais attention : on peut cacher plein de choses dans un background théorique. Ici, je prétends que non, il n'y a rien dedans, juste des beaux mots, mais qui te permettent de dire que ce diagramme commute sans y faire attention.

    (Petit Secret: à vrai dire, quasiment aucune des hypothèses sur $C,D,F$ n'est nécessaire dans cet énoncé :-D je les ai juste mises pour se rassurer psychologiquement).
    Je ne connais pas vraiment de tel lien, je peux éventuellement te chercher des trucs si tu le souhaites.
  • Bonjour,

    voilà c'est ce que j'essayais de dire : "si tu veux le faire directement". Si pour me rassurer je souhaite mettre les mains dans le cambouis c'était dans ce sens là. Effectivement avec le recul nécessaire tu dois te demander pourquoi j'ai autant de mal à enfoncer une porte ouverte mais bon.

    "je peux éventuellement te chercher des trucs si tu le souhaites"
    Merci c'est sympa mais ne te prend pas la tête c'était vraiment à l'occasion, pour le moment ce que je lis sur wikipédia est largement suffisant (pour me faire tourner la tête).

    Je vais essayer de mettre en pratique ce que tu viens de m'apprendre sur d'autres opérations.

    Merci beaucoup pour tes lumières.
    Cordialement,
    Mister Da
  • Bonjour,

    bon je viens de me faire 5 heures de catégorie et le principal effet fut de liquéfier voire vaporiser mon cerveau.

    J'étais en train de remettre à plat cette discussion dans un document, car en plus de comprendre lentement j'ai une mémoire très volatile et malgré tous tes messages qui ont été une vraie pierre de Rosette ça coince.

    Par rapport à ton dernier message qui parle d'une foncteur $F$ entre deux catégories $C$ et $D$.

    Dans mon cas d'école, ici $C=D=\operatorname{Vect}_\mathbb{K}$ la catégorie des $\mathbb{K}$-espaces vectoriels (a priori de dimension quelconque mais vu mon problème je pense qu'on peut se dire que la dimension est finie). Dans cette catégorie qui semble être une des plus humaines possibles, on a la somme directe (extérieure) $\oplus$.

    Les objets de cette catégorie sont donc les $\mathbb{K}$-espaces vectoriels et donc si $E$ et $F$ sont des objets, $E\oplus F$ l'est aussi.
    Les morphismes sont les morphismes d'espaces vectoriels c'est-à-dires les applications linéaires et donc si $f$ et $g$ en sont, $f\oplus g$ aussi.

    Un foncteur $F$ est une application qui dans mon cas associera un espace vectoriel à un autre ($F\colon E\mapsto F(E)$), une application linéaire à une autre ($F\colon f\mapsto F(f)$) tout en préservant les morphismes "identité" ($F(\operatorname{Id}_E) = \operatorname{Id}_{F(E)}$) et la composition ($F(f\circ g) = F(f)\circ F(fg)$).

    Une transformation naturelle a déjà une définition un peu plus velue. Celle que j'ai lue est ici Natural_transformation.

    Jusque là je me suis laissé bercer par toute cette charmante poésie au doux vocabulaire. Le drame arrive maintenant. Quand j'ai voulu mettre en pratique tout ça sur mon exemple qui consiste essentiellement à faire une somme...une insignifiante somme.... patatra. J'ai fait des diagrammes dans tous les sens mais impossible de retrouver mes petits.

    Pourrais-tu juste discrètement me montrer du doigt qui est qui ? Par exemple $+_{12}$ et $+_{21}$ sont-ils deux morphismes de la famille de morphisme de la transformation naturelle ? Les minutes paires je pense que oui et les minutes impaires je me ravise. Le gars qui $E\otimes F\mapsto F\otimes E$ m'a bien l'air d'être un foncteur mais j'en mettrai pas ma main à couper non plus.

    Je te remercie une nouvelle fois pour tes lumières.
    Cordialement,
    Mister Da
  • Je suis occupé en début de journée, je te réponds plus tard !
  • Ok alors. Déjà, $+_{12}$ et $+_{21}$ on va les remplacer par une première approximation, qui est la même chose mais on n'additionne pas la coordonnée $E$.

    Dans ce cas $F$ va être quelque chose comme $(A,B,C,E) \mapsto L(A\oplus B,C\oplus E)$ (pour le moment, je distingue le $A_1$ de l'arrivée et le $A_1$ du départ, c'est plus clair comme ça); c'est un foncteur qui est "contravariant" en les deux premières variables, et covariant en les deux dernières.

    Plus précisément, $F$ est un foncteur $Vect^{op}\times Vect^{op}\times Vect\times Vect\to Vect$ ($Vect$ est la catégorie des espaces vectoriels sur un corps $K$ fixé). Sans la somme sur la coordonnée $E$, et avec $D=A$, $+_{12}$ peut se voir comme le morphisme naturel $F(x)\oplus F(y)\to F(x\oplus y)$, avec $x= (A_1,B_1,A_1,E)$ et $y= (A_2,B_2,A_2,E)$, et pareil $+_{21}$ comme le morphisme $F(y)\oplus F(x)\to F(y\oplus x)$.

    Ton morphisme $P$ est alors le morphisme d'interchangement $F(x)\oplus F(y)\to F(y)\oplus F(x)$, et donc tu as un diagramme commutatif comme celui que je t'ai décrit plus haut.

    Pour obtenir "vraiment" $+_{12}$ et $+_{21}$ tu dois composer encore avec une permutation "à l'intérieur", mais c'est du même accabit (c'est juste que ça se passe "à l'intérieur de $F$", donc en fait il faut juste voir que tu peux factoriser $F$ sous la forme $Vect^{op}\times Vect^{op}\times Vect\times Vect\to Vect^{op}\times Vect$ et travailler à ce niveau là), et puis finalement composer avec $E\oplus E\to E$ mais ça pareil, tout va commuter parce que ça commute avant même d'appliquer $L$ (ou $F$).

    Bref, des trucs 100% formels sans aucune manipulation matricielle. La "manipulation matricielle" la plus compliquée va être de vérifier que le $+_{12}$ défini ainsi correspond au tien, mais c'est essentiellement évident.
  • Bonjour,

    merci de m'avoir prévenu ce matin, c'est sympa mais de toute façon il n'y a aucune urgence et tu me réponds bien quand tu peux et quand tu veux !

    Et merci pour ta réponse, je pouvais tourner longtemps dans mon bocal car je n'avais pas imaginé, l'ombre 1 seconde, que $F$ puisse démarrer depuis un produit de catégorie en fait. C'est une sacrée gymnastique intellectuelle alors que ça semble si fluide quand tu me montres comment tout s'emboite.

    Maintenant j'arrive à mieux voir.

    Je te souhaite un bon w-e et je te remercie grandement pour ton aide et ton temps.

    Cordialement,
    Mister Da
Connectez-vous ou Inscrivez-vous pour répondre.