Un produit matriciel alambiqué

Bonjour,

Est-ce pertinent de définir un produit tel que le suivant ? (Sur l'exemple pour aller vite)
Je précise que ce qui suit est certainement insolite et farfelu !

$\pmatrix {1&2\\3&4} \times_{gauche} \pmatrix {5&6&7\\8&9&1}=\pmatrix {\pmatrix {1&2\\3&4}5&\pmatrix {1&2\\3&4}6&\pmatrix {1&2\\3&4}7\\ \pmatrix {1&2\\3&4}8&\pmatrix {1&2\\3&4}9&\pmatrix {1&2\\3&4}1}$

L'idée est de prendre la matrice de gauche et de la distribuer comme un scalaire dans la matrice de droite.

Ça donne donc, après calculs (et après un morphisme canonique, sinon c'est encore plus imbitable), la matrice : $$\pmatrix {5&10&6&12&7&14\\15&20&18&24&21&28\\8&16&9&18&1&2\\24&32&27&36&3&4}$$

Première remarque : tous les "produits" matriciels sont possibles avec cette chose.
Deuxième remarque : on peut définir aussi un $\times_{droite}$.
Troisième remarque : on a du mal à en faire une loi de composition interne sauf quand on a une matrice à une ligne et une colonne dans un des facteurs.
Quatrième remarque : ce fil ne devrait pas prendre trop de places...


Bon, je vous rassure, la chaleur ne m'a pas dézingué ;-)
C'est un fil (sérieux) qui m'y a fait penser et j'ai cru au début que ça pouvait donner une idée d'exercice...8-)

Réponses

  • Bon, tu viens de réinventer le produit tensoriel de matrices. Ce n'est pas grave. :-D

    PS. Tiens, une épreuve d'agreg interne où tu peux retrouver ton produit tensoriel de matrices (partie VI).
  • Ha !
    J'ai des souvenirs de cela "produit tensoriel" (maîtrise : topologie algébrique, 2002) mais à l'époque je ne comprenais rien de rien...(enfin, j'étais pas très bon et surtout je ne bossais pas, c'est plus honnête de le dire comme ça).
    C'était, de mémoire, un quotient dans des anneaux "pour que ça se comporte comme du linéaire".
    Mais pour ne pas dire de bêtise je vais jeter un œil...

    Merci de cette source.
  • Il s'agit en effet du produit tensoriel de deux matrices. Si $E$ et $F$ sont deux espaces vectoriels de dimensions finies, dont $(e_1, \dots, e_n)$ et $(f_1, \dots, f_m)$ sont des bases respectives et si $A$ et $B$ sont les matrices respectives des endomorphismes $f$ de $E$ et $g$ de $F$ dans les bases précédentes, alors l'endomorphisme $f \otimes g$ de $E \otimes F$ est $A \otimes B$, définie comme tu l'as fait :-)
  • Merci bien.

    C'est fou comme on aimerait avoir du temps pour gratter des pages de brouillon...

    J'ai retrouvé le cadre dans lequel on m'avait défini cela : c'était avec des $A$-modules.
    Un lien wiki : https://fr.m.wikipedia.org/wiki/Produit_tensoriel_de_deux_modules

    On parle bien de rendre nulles des "formes" à l'aide d'un quotient.
  • Oui, en quelques sortes le but du produit tensoriel est de "rendre linéaire le bilinéaire". La construction usuelle se fait en quotientant par ce qu'il faut... Mais il y a surtout une propriété universelle très importante qui permet d'essentiellement tout faire avec le produit tensoriel.
  • Quant à ta 5è remarque, il y a bien quelques exos de type taupin qui traitent de ce produit (questions de diagonalisabilité par exemple)
  • Il faut rappeler que tout ceci se traite sans coordonnees et sans l'utilisation du mot tensoriel. On prend quatre espaces vectoriels $E,F,G,H$ et trois applications lineaires $E\stackrel{a}{\rightarrow}F\stackrel{x}{\rightarrow}G\stackrel{b}{\rightarrow}H$ . La matrice de Dom est dans des bases convenables celle de l\application lineaire:
    $$L(F,G)\mapsto L(E,H),\ x\mapsto bxa.$$
  • Juste un petit os dans ce que tu racontes, P.
    Si on note $n,p,q,r$ les dimensions respectives de $E,F,G,H$, les tailles des matrices de $a$ et $b$ sont $p \times n$ et $r\times q$.
    Mais la taille de la matrice de l'application linéaire que tu donnes est $(n r)\times (p q)$ et pas $(pr) \times (nq)$.
    Bien sûr, tout ceci est clair en termes de produit tensoriel : ton application est (aux isomorphismes canoniques près) :
    $$ a^{\mathsf T}\otimes b : F^*\otimes G \longrightarrow E^*\otimes H\;.$$
  • C'est ma foi vrai pour la taille de la matrice representative.
  • Maxtimax écrivait : http://www.les-mathematiques.net/phorum/read.php?43,1689200,1689350#msg-1689350
    [Inutile de recopier un message présent sur le forum. Un lien suffit. AD]

    Ou encore, si $A$ et $B$ sont carrées et de même taille, alors $A\otimes B$ et $B\otimes A$ sont semblables (sans utiliser une quelconque histoire de valeur propre) et même que l'on peut trouver une matrice inversible $P$ ne dépendant que de la taille de $A$ et $B$, telle que $A\otimes B=P(B\otimes A)P^{-1}$.
  • Une évidence quand on contemple le diagramme commutatif
    $$\xymatrix{
    E\otimes E \ar[r]^{a\otimes b} \ar[d]^u &E\otimes E \ar[d]^u\\
    E\otimes E \ar[r]^{b\otimes a} &E\otimes E
    }$$
    où $u$ est induit par $(x,y)\mapsto (y,x)$ et vérifie donc $u^{-1}=u$.
  • En fait, on peut trouver des matrices orthogonales $P$ et $Q$ ne dépendant que de la taille de $A$ et $B$, telles que $A\otimes B=P(B\otimes A)Q$, même si $A$ et $B$ ne sont pas carrées et pas de même taille.
  • Ce n'est guère différent, non ?\[\xymatrix{
    x\otimes y\ar@{|->}[d]&
    E\otimes F \ar[r]^{a\otimes b} \ar[d]^u &E\otimes F \ar[d]^u\\
    y\otimes x& F\otimes E \ar[r]^{b\otimes a} &F\otimes E
    }\]
  • Bien sûr.
    Reste plus qu'à mettre cela au niveau taupin, donc sans diagramme commutatif. Et éventuellement voir que les matrices en question sont des matrices de permutation.
  • Je trouve un peu frustrant ces exercices taupinaux consistant à cacher sous des calculs rébarbatifs et sans réelle motivation des faits qui prennent leur sens et deviennent assez triviaux quand on a le bon cadre.
  • Frustrant certainement lorsque l'on connait le cadre qu'il conviendrait d'utiliser. Pour ce qui est des calculs, il faut reconnaître que ce n'est pas ce qu'il y a de plus léger.
Connectez-vous ou Inscrivez-vous pour répondre.