Transposition et pinaillage

Bonjour,

je viens ici pour pinailler un peu autour de la transposition d'une matrice. Si on considère $\mathcal{M}_n(\mathbb{K})$ les matrices carrées de dimension $n$ alors l'application transposition $\mathcal{M}_n(\mathbb{K})\to\mathcal{M}_n(\mathbb{K})$, $M\mapsto M^t$ est bien une involution étant donné que $(M^t)^t = M$.

Maintenant quand on considère des matrices rectangulaires $\mathcal{M}_{n\times m}(\mathbb{K})$, la situation n'est plus vraiment la même car l'espace d'arrivée n'est plus le même que celui de départ. Du coup on a techniquement deux applications $\mathcal{M}_{n\times m}(\mathbb{K})\to \mathcal{M}_{m\times n}(\mathbb{K})$ et $\mathcal{M}_{m\times n}(\mathbb{K})\to \mathcal{M}_{n\times m}(\mathbb{K})$. Néanmoins par abus de notation on ne les distingue pas et on continue à écrire $(M^t)^t = M$ et certains auteurs (surtout anglosaxons) continuent à parler d'involution.

Si on veut être puriste et pouvoir effectivement manipuler des matrices rectangulaires avec une transposition unique qui serait une "vraie" involution, est-il envisageable de construire un objet dont seul l'algèbre à le secret dans lequel vivraient les matrices $n\times m$ et $m\times n$ ?

J'espère que mon message n'est pas trop exotique.

je vous remercie par avance pour vos lumières.

Cordialement,
Mister Da

Réponses

  • Tu peux par exemple considérer la restriction de la transposition au sous-espace vectoriel de $\mathcal M_{\max(n,m),\max(n,m)}$, en identifiant un élément de $M \in \mathcal{M}_{n\times m}$ avec la matrice par blocs $$\begin{pmatrix} M & 0\\0&0 \end{pmatrix}.$$
  • Tu peux considérer $M(K)\displaystyle\bigoplus_{(n,m)\in \N^2}M_{n\times m}(K)$ qui est muni d'une structure d'algèbre sur $K$ bien sympathique si tu décrètes que sur les éléments homogènes $M\star N = MN$ si les tailles sont compatibles, $0$ sinon.

    Dans ce cas là, $(-)^t: M(K)\to M(K)$ est linéaire, involutive, et est un "antimorphisme" (je ne sais plus s'il y a un vrai nom...) au sens où $(MN)^t= N^tM^t$. Ici, ce sera une vraie involution : $(-)^t\circ (-)^t = id_{M(K)}$.

    Si tu n'aimes pas les antimorphismes, tu peux dire que $M(K)$ n'est qu'un espace vectoriel; mais ce serait dommage de se priver d'une des propriétés de la transposition
  • Bonjour,

    merci beaucoup pour vos messages.

    @Poirot, j'avais essayé de bricoler des matrices par blocs en complétant la matrice par des lignes ou des colonnes de zéros pour la rendre carrée mais au final comme la taille des blocs change lors de la transposition j'avais laissé tombé. En notant $k=\max(n,m)$ et en disant que $0_{\ell,p}$ est une matrice nulle de dimension $\ell\times p$ et que c'est le vide si l'un des deux indices est nul (ce qui sera toujours le cas pour $0_{(k-n),(k-m)}$ par exemple). A une matrice $M\in\mathcal{M}_{n,m}(\mathbb{K})$ on associe la matrice
    $$\bar{M} = \left[\begin{array}{cc}M&0_{n,(k-m)}\\0_{(k-n),m}&0_{(k-n),(k-m)}\end{array}\right]\in\mathcal{M}_{k,k}(\mathbb{K})\quad\text{et}\quad \bar{M}^t = \left[\begin{array}{cc}M^t&0_{m,(k-n)}\\0_{(k-m),n}&0_{(k-m),(k-n)}\end{array}\right]\in\mathcal{M}_{k,k}(\mathbb{K})$$
    Du coup je ne sais pas à quel sous-espace vectoriel de $\mathcal{M}_{k,k}(\mathbb{K})$ je dois restreindre la transposition.


    @Maxtimax, j'étais à un moment tombé sur les algèbres graduées (wiki) mais j'avais laissé tombé justement à cause des histoires de tailles incompatibles. Je n'avais pas imaginé qu'on puisse décréter froidement qu'on affecte la valeur nulle à un "produit" de matrices de tailles incompatibles.
    Plutôt que d'imaginer la somme directe de toutes les tailles de matrices, est-ce que je peux me restreindre, pour un couple $(n,m)$ donné, à l'espace $\mathcal{M}_{n,m}(\mathbb{K})\oplus \mathcal{M}_{m,n}(\mathbb{K})\oplus\mathcal{M}_{n,n}(\mathbb{K})\oplus \mathcal{M}_{m,m}(\mathbb{K})\oplus\{0\}$ (où le $\oplus\{0\}$ est là pour gérer les produits interdits) ?

    Autrement, je n'ai a priori rien contre les antimorphismes (que tu viens de me faire découvrir).

    Encore merci pour votre aide.
    Cordialement,
    Mister Da
  • Le $\oplus \{0\}$ ne sert à rien, $0$ est déjà dans les $M_{i,j}(K)$. Et oui, tu peux faire ça, mais ma proposition fournit une solution universelle qui permet de ne plus jamais se poser la question :-D

    Pour décréter froidement que le produit de matrices incompatibles vaut $0$, il faut encore vérifier que l'opération ainsi obtenue est associative, mais il n'y a pas trop de problème à ce sujet là, ça se vérifie assez bien, comme toutes les formes de convolution.

    A noter qu'on obtient une algèbre qui n'est pas unitaire ! (malheureusement, $M_{1,1}(K)$ a beau être isomorphe à $K$, il ne joue pas ce rôle dans la somme directe), donc on pourrait être tenté de renommer en $M_0(K)$ ce que j'ai appelé $M(K)$ et de poser $M(K) = K\oplus M_0(K)$ pour obtenir une algèbre associative, unitaire, qui a toujours un $(-)^t$
  • Bonjour,

    merci pour toutes ces précisions.

    Effectivement ta solution est universelle, je posais juste la question car j'étais parti sur ce cas particulier et je me demandais si ça avait quand même une chance d'aboutir (maintenant que tu m'avais décoincé avec les problèmes de produits de matrices incompatibles). Merci pour la confirmation.

    J'ai cru que pour les produits de matrices incompatibles tu affectais le scalaire "0". En fait tu attribues une matrice nulle de dimension quelconque ?

    Merci pour la remarque sur "l'unitarité" de l'algèbre. Je ne m'étais pas posé la question et si je me l'étais posée je me serai pris les pieds dans le tapis car je n'aurai pas fait la différence entre un scalaire et une matrice une ligne et une colonne.

    Cordialement,
    Mister Da
  • Quand tu as deux espaces vectoriels $E,F$, faut-il rajouter un $0$ à $E\oplus F$ pour avoir un $0$ ? Non, il y a un $0$ dans $E$, un dans $F$ et ils deviennent le même dans $E\oplus F$ : pour le comprendre il faut éventuellement revoir la définition de $\oplus$ (la somme directe externe).

    Tu ne l'aurais pas faite car en général on ne la fait pas; mais ici (pour une fois) elle est importante, notamment pour l'associativité.

    Pour voir pourquoi, je note $(\lambda)$ la matrice une colonne une ligne de coefficient $\lambda$ (ici à ne pas confondre donc avec le scalaire $\lambda$ - même si d'habitude on peut). Supposons maintenant que tu $M$ une matrice qui a une ligne et $n$ colonnes, $N$ une matrice qui a $n$ lignes et une colonne. Alors dans mon produit, $MN$ est bien définie et est de la forme $(\lambda)$. Si on disait $\lambda = (\lambda)$, en prenant n'importe quelle matrice $P$ on aurait alors $(MN)P = (\lambda)P= \lambda P$, donc $\neq 0$ si $\lambda,P\neq 0$. Pour autant si $P$ a plus de $1$ ligne, alors $NP = 0$, de sorte que $M(NP) = M\times 0 = 0$; on serait donc confronté à $(MN)P\neq M(NP)$, et ce serait triste (enfin pas forcément, mais ici si tout de même)
  • Bonjour,

    Merci pour l'explication qui est très éclairante ! Ça me donne un bon exemple où c'est important de distinguer une matrice $1\times 1$ d'un scalaire..

    J'étais justement en train de relire la définition de la somme directe (externe) car je n'étais plus au clair là dessus. Mais je suis couillon tu affectes $0_{\mathcal{M}(\mathbb{K})}$.

    Je pense avoir compris. Merci beaucoup.

    Je profite de ta gentillesse pour abuser. Je me pose une nouvelle question. Dans ton premier message tu disais "tu décrètes que sur les éléments homogènes $M\star N=MN$ si les tailles sont compatibles, $0$ sinon."

    Je cherche à expliciter la loi $\star$.

    Pour ça je prends deux éléments $A$ et $B$ de $\mathcal{M}(\mathbb{K})$ que je vois comme une collections ordonnées de matrices de différentes tailles toutes nulles sauf un nombre fini (car on a fait une somme directe et non un produit). C'est-à-dire $A=(A_{1,1},A_{1,2},\dots,A_{2,1},A_{2,2},\dots)$ où les matrices $A_{i,j}\in \mathcal{M}_{i,j}(\mathbb{K})$ sont toutes nulles sauf un nombre fini et pareil pour $B$. Alors je définis $C = A\star B$ en disant que la matrice composante de dimension $i\times j$ est $C_{i,j} = \sum_k A_{i,k}B_{k,j}$.

    Pour $M\in\mathcal{M}_{i,j}(\mathbb{K})$, je note $\bar M = (\dots,0_{i,j-1}, M, 0_{i,j+1},\dots)\in\mathcal{M}(\mathbb{K})$ et pareil pour $N\in\mathcal{M}_{k,\ell}(\mathbb{K})$, je note $\bar N = (\dots,0_{k,\ell-1}, N, 0_{k,\ell+1},\dots)\in\mathcal{M}(\mathbb{K})$.

    J'ai l'impression que ça colle à ton cahier des charges car si je ne me suis pas vautré, si $M$ et $N$ ne sont pas de dimensions compatibles ($j\neq k$), on a automatiquement $\bar M\star\bar N = (\dots,0_{i-1,j}, 0_{i,j}, 0_{i+1,j},\dots,0_{k-1,\ell}, 0_{k,\ell}, 0_{k+1,\ell},\dots) = 0_{\mathcal{M}(\mathbb{K})}$.

    En revanche si $M$ et $N$ ont des dimensions compatibles ($j=k$) on obtient $\bar M\star\bar N = (\dots,0_{i,\ell}, MN, 0_{i,\ell+1},\dots)$.

    En espérant que c'est compréhensible est-ce que ça tient la route ?

    Cordialement,
    Mister Da
  • ça a l'air de tenir la route, au détail près que je ne sais jamais si c'est $M_{i,k}(K)\times M_{k,j}(K)$ ou $M_{k,j}(K)\times M_{i,k}(K)$ qu'il faut faire (mais bon, ça n'intéresse personne de savoir si il faut tant de colonnes ou tant de lignes :-D )
  • Bonjour,
    merci pour ta confirmation. Vu comme ça je trouve l'opération $\star$ moins exotique qu'au premier abord.

    Le nombre de colonnes de la matrice de gauche (second indice) doit être égal au nombre de lignes de la matrice de droite (premier indice). C'est donc ta première écriture, les indices se suivent i k k j.
    Cordialement,
    Mister Da
  • Merci pour l'explication pour "ligne, colonne" (ça sonne mieux dans ce sens, aussi), c'est vrai que ça se tient.

    Je trouve cette histoire de produit nul artificiel, je ne sais pas si c'est très intéressant de faire ça. Pourquoi pas un produit formel tant qu'on y est ? Il y a les "dagger categories" qui donnent un cadre à ça… pour ce que ça vaut dans ce contexte. Je ne suis pas sûr que ce soit très important, autant laisser ça sans cadre, je trouve.

    EDIT : En quoi l'usage de "involution" est incorrect ? C'est une fonction qui est sa propre réciproque...
  • Champ-Pot-Lion : tu peux faire des produits formels mais à quoi ça correspond ? Ma construction est essentiellement l'algèbre de convolution d'une catégorie abélienne, donc elle est assez générale et assez pratique.

    Ce n'est pas une involution parce que ce n'est même pas une fonction qui a domaine=codomaine, comment veux-tu qu'elle soit sa propre réciproque ? De l'intérêt de $M(K)$
  • Les produits formels ne correspondaient à rien mais c'était pour donner une comparaison puisque je ne comprenais pas. Vu comme une convolution, ça me parle plus. Mais c'est exactement ce que disait Mister Da quelques messages plus haut, je n'avais pas lu... C'est comme si on prenait la somme formelle $\bigoplus_{k \in \N} \R^k$ et qu'on regardait les matrices comme des morphismes de cet espace vers lui-même.
    Ce n'est pas une involution parce que ce n'est même pas une fonction qui a domaine=codomaine, comment veux-tu qu'elle soit sa propre réciproque ?

    Le domaine, c'est juste l'ensemble des matrices.
  • Attention, rien n'empêche un un morphisme de cet espace vers lui-même d'avoir "une infinité de matrices", donc ce n'est pas vraiment ça (e.g. l'identité de cet espace vers lui-même serait représentée par $\displaystyle\sum_{k}I_k$. Ce sont les morphismes à support de dimension finie si tu veux.

    Ok, mais "l'ensemble des matrices" il est franchement très peu intéressant, et en la voyant comme ça, tu perds l'occasion d'énoncer des résultats généraux de structure sur $(-)^t$, comme son additivité, ou son antimultiplicativité.
  • Maxtimax a écrit:
    Attention, rien n'empêche un un morphisme de cet espace vers lui-même d'avoir "une infinité de matrices", donc ce n'est pas vraiment ça (e.g. l'identité de cet espace vers lui-même serait représentée par $\displaystyle\sum_{k}I_k$. Ce sont les morphismes à support de dimension finie si tu veux.

    Oui. :-D J'ai fait exprès de dire qu'on regardait les sommes formelles de matrices comme des morphismes de cet espace dans lui-même et pas l'inverse.
    Maxtimax a écrit:
    Ok, mais "l'ensemble des matrices" il est franchement très peu intéressant, et en la voyant comme ça, tu perds l'occasion d'énoncer des résultats généraux de structure sur $(-)^t$, comme son additivité, ou son antimultiplicativité.

    Je ne vois pas ce que tu veux dire. Ces résultats sont très bien énoncés sans tout placer dans une structure algébrique unitypée. Pour l'anti-multiplicativité : pour tout $i,j,k$, pour toute matrice $i \times j$, pour toute matrice $j \times k$, etc. Qu'est-ce que ça a de mal les structures avec plusieurs types ? Que permet vraiment de faire cette construction ? On peut aussi dire quela transposition est un foncteur contravariant, mais ça je ne vois pas ce que ça change.

    Ça me fait penser à l'algèbre extérieure sur un espace vectoriel $E$. On a une "action" de $\Lambda(E^*)$ sur $\Lambda(E)$ par "dérivation", qui donne l'isomorphisme $\Lambda^k(E^*) \cong (\Lambda^k E)^*$, et plus généralement un morphisme $\Lambda^k(E^*) \otimes \Lambda^{n+k}(E) \to \Lambda^n(E)$. Ça donne en fait un morphisme de $\Lambda(E^*)$ vers "quelque chose". Mais comment faire "rentrer ça dans une boite" ? Je ne suis pas sûr qu'il y ait une réponse intéressante.
  • Champ-Pot-Lion : j'avais lu "les" et pas "des", effectivement :-D

    Pour la suite bien sûr, c'est juste qu'on a tendance (comme le montre l'interrogation de Mister Da) à ne pas aimer les différents types; c'est juste psychologique
  • Bonjour,

    merci pour vos messages j'apprends plein de choses. Je n'y connais pas grand chose et effectivement quand il y a différents types je ne suis pas à l'aise.

    Personnellement j'aime bien ce que m'a présenté Maxtimax. Ceci dit en passant, j'ai tapé "l'algèbre de convolution" dans mon moteur de recherche préféré et je n'ai pas trouvé grand chose à me mettre sous la dent. Y a-t-il des mots clefs plus pertinents ?

    Si je résume, pour ne pas à trop se casser la tête ce que dit Champ-Pot-Lion consiste à considérer l'ensemble des matrices qui n'a pas a priori de structure algébrique particulière. On définit froidement dessus l'addition et la multiplication entre deux matrices uniquement lorsque les dimensions le permettent sans de prendre la tête et comme ça la transposition devient involution et c'est tout ? En fait je suis très scolaire et depuis tout petit j'aime bien écrit des lois de compositions internes en utilisant le quantificateur universel, là ce n'est clairement plus le cas du coup.

    D'avance désolé pour la naïveté de mon message et merci pour votre aide.

    Cordialement,
    Mister Da
  • @Mister Da En cherchant le mot-clef de Maxtimax, j'ai trouvé ça (convolution algebra category) : https://golem.ph.utexas.edu/category/2014/05/categories_vs_algebras.html et https://ncatlab.org/nlab/show/category+algebra
    Maintenant que j'y pense, on m'en avait parlé (je crois) avec le livre "Basic Noncommutative Geometry" de M. Khalkhali.

    Oui ton résumé est bien ce que je dis.
  • Bonjour,

    @Champ-Pot-Lion, merci d'avoir confirmé mon résumé et merci pour les liens (je ne suis pas certain d'y comprendre grand chose vu mon niveau mais ça me permet de voir)

    @Maxtimax, merci pour la construction et tes explications qui m'ont fait comprendre plein de choses.

    Cordialement,
    Mister Da
  • Il y a aussi un article wiki anglais plus abordable que les liens de Champ-Pot-Lion, qui doit s'appeler category algebra ou quelque chose dans ce goût
  • Bonjour,
    merci. Ça doit être cet article : https://en.wikipedia.org/wiki/Category_algebra.
    Cordialement,
    Mister Da
Connectez-vous ou Inscrivez-vous pour répondre.