Salut est-ce que quelqu'un peut m'expliquer cette démonstration de l'associativité du produit matriciel car je ne comprends pas pourquoi c'est b qui prend l'indice l et pas b et c
En notant $BC=(\beta_{\ell j})_{\ell j}$ et en écrivant, comme dans le document, le produit $BC$ sous la forme d'une somme de produits, on retombe bien sur ce que l'on veut.
Ce n'est juste qu'une histoire d'écriture, l'important étant de ne pas reprendre un indice déjà utilisé.
@Dom
Le produit matriciel n'est pas toujours associatif: si le produit (A.B).C est bien défini, rien nous dit que le produit B.C sera défini !
exemple A matrice ligne 1,1 et B matrice colonne 1,1 et C matrice colonne 1,1 dans ce cas (A.B).C est bien défini mais A.(B.C) non
@gebrane
Tu m'amuses.
Mais en toute rigueur tu as raison. Je me suis placé dans les bons cas.
Je t'invite à lire cette page. L'auteur n'a donné qu'un extrait du bouquin, mais ça doit ressembler à cela (oui, j'interprète...).
C'est comme quand on annonce "la composition des fonctions est associative" : vas-tu faire la même (juste) remarque ou te placer dans les bons cas ?
Edit : que veut dire "matrice ligne 1,1" ? Ha je viens de comprendre...
exemple A matrice ligne 1,1 et B matrice colonne 1,1 et C matrice colonne 1,1 dans ce cas (A.B).C est bien défini mais A.(B.C) non
Ça ne veut absolument rien dire ; Gebrane doit s'essayer à l'humour ;-). Si le produit matriciel $(A.B).C$ est bien défini, alors le produit matriciel $A.(B.C)$ sera défini et égal au précédent, bien évidemment.
Oui c’était un amusement non gratuit. Il ne faut pas se précipiter à écrire (A.B).C=A.(B.C) car le point . peut ne pas designer un produit matriciel;
c'est l'exemple $2. \pmatrix {1\\1}$ il n'est pas défini en tant que produit matriciel ( c'est un produit d'un type (1,1) avec un type (2,1)) donc impossible) mais il est défini comme produit d'un scalaire avec une matrice .
Question si on nous demande de calculer (A.B).C avec les matrices que j'ai cité, la réponse serait-elle différente à $(A.B).C= \pmatrix {2\\2}$
Heu ... le produit $A.B$ est bien défini et donne une matrice 1x1, qui se multiplie bien, à droite, par une matrice 2x1.
Pour beaucoup d'auteurs, le produit d'un vecteur colonne par un scalaire est un cas particulier de produit matriciel, par identification des scalaires avec les matrices 1x1.
@Gebrane. Quand tu écris :
$$\left(\pmatrix{1&1}\cdot \pmatrix{1\\1}\right)\cdot \pmatrix{1\\1}= 2\cdot \pmatrix{1\\1}= \pmatrix{2\\2}\;,$$ aucun des deux $\cdot$ du terme de gauche ne représente un produit matriciel. En déclarant
Le produit matriciel n'est pas toujours associatif
tu mens donc sciemment. Sympa pour Nemya qui cherche à comprendre !
Pour beaucoup d'auteurs, le produit d'un vecteur colonne par un scalaire est un cas particulier de produit matriciel, par identification des scalaires avec les matrices 1x1.
Il y a comme un souci si le scalaire est à gauche ...
@Gerard0
Donc selon ta définition: tu inclus le produit d'un scalaire avec une matrice dans la définition du produit matriciel. Donc tu démontres que le produit matriciel n'est pas associatif vu que dans l'exemple A.(B.C) n'est pas défini ;-)
@Gabu
Tu ne me lis pas correctement, j'ai bien dit Il ne faut pas se précipiter à écrire (A.B).C=A.(B.C) car le point . peut ne pas designer un produit matriciel
Puisque Ga- fait appel à son autorité sur le site . le (la) petit(e) gebrane-Tina s'éclipse.
je parlais de mon dernier message. dans mon premier il faut se mettre d'accord sur une définition:
Comment tu définis le produit matriciel de deux matrices dans ton cours. Dans le mien ( de mémoire) Produit de deux matrices
1 produit d'une matrice avec une matrice 1x1
2 Produit d'une matrice ligne par une matrice colonne ( de même longueur
3 produit générale de deux matrices
donc pour moi les 3 points s'appellent produit matriciel.
Tout cours raisonnable définit le produit de deux matrices $AB$ quand le nombre de colonnes de $A$ est égal au nombre de lignes de $B$, et le résultat est une matrice dont le nombre de lignes est celui de $A$ et le nombre de colonnes celui de $B$.
Il y a aussi bien sûr le produit d'un scalaire par une matrice (le résultat est une matrice de même taille), qui concourt à la structure d'espace vectoriel des matrices de taille donnée.
On est donc d'accord que si on intègre le produit d'un scalaire avec une matrice comme un produit matriciel alors le produit matriciel n'est plus associatif ?
peut être on a quelque chose de commun et c'est pourquoi je suis re..
car le point . peut ne pas designer un produit matriciel;
pour finir par déclarer que le produit d'un scalaire par une matrice est bien un produit matriciel.
Reconnais tes erreurs plutôt que de louvoyer et d'avoir un discours à géométrie variable suivant les objections qu'on te fait.
C'est juste des réflexions, des idées, qui sautent sur son clavier. N'est-ce pas @gebrane ?
Tourner sept fois ses doigts dans son clavier avant de poster.
Je ne donne pas de leçons, je me fais encore prendre par cette postite aiguë.
@Dom je ne comprends pas ta réaction, j'ai remarqué que mon exemple t'a perturbé dans un laps de temps.
On a pas les même définitions comme dans le cas d'une sérié alternée, imaginaire pur et bien d'autres
Ho mais je ne réponds que pour apaiser ici. Je tendais la perche à la postite aiguë : c'est vraiment ce que j'ai cru.
Sur le fond :
J'ai parlé d'entourloupe (avec les scalaires).
Je ne crois pas que l'un de tes cours dise cela.
Je crois qu'il dit plutôt : le produit des matrices 1x1 se comporte comme dans l'anneau (des coefficients) lui-même. Éventuellement avec des belles phrases qui utilisent les mots "morphisme", "canonique", etc.
Ok.
La digression commence dès le quatrième message.
Relis celui de @GaBuZoMeu, qui te demandait des précisions, et sans prétention, le mien, ici.
Je te parle d'écrire tous les détails de cette preuve.
C'est une question d'indice et de savoir manipuler le symbole $\displaystyle \sum$.
Si c'est trop compliqué, tu peux aussi essayer avec des tailles pas trop grandes pour les indices $p$ et $q$ pour "voir" un peu mieux. Ainsi tu écris "des vraies sommes" sans le symbole $\Sigma$.
C'est de l'algèbre : à chaque fois j'ai commencé par ne rien comprendre puis par me dire, une fois tout détaillé, « Ha ! C'est tout bidon finalement ». J'en connais qui sont dans le même profil que moi. Ça se soigne en écrivant des pages de brouillons.
Allez, on y va ! ;-)
@Nemya : je n'ai toujours pas compris le problème que tu rencontres. Peux-tu essayer de l'exprimer plus précisément ? Ton surlignage sur le scan n'apporte aucune information sur la difficulté que tu vois.
Tu ne comprends pas
$$ \sum_{\ell=1}^p a_{i\ell} \left(\sum_{k=1}^q b_{\ell k} c_{kj}\right) =
\sum_{\ell=1}^p a_{i\ell} \sum_{k=1}^q b_{\ell k} c_{kj}$$
???
Moi je ne comprends pas ce que tu ne comprends pas. Il ne se passe absolument rien dans cette égalité à part le fait de laisser tomber les parenthèses.
Je comprends que @Nemya s'attendait à ce que le $\ell$ soit à la fois dans l'indice de $b$ et dans l'indice de $c$
Pour se rendre compte de cela, il faut écrire les choses, je pense.
J'interprète que le problème ne viendrait pas de l'égalité. Mais je suis peut-être dans l'erreur.
Passons mon message qui, d'après le précédent, n'est pas du tout pertinent.
Ah, on commence à y voir plus clair. Les sommes portent sur les indices $k$ et $\ell$. Les autres indices ($i$ et $j$) ne bougent pas.
Posons
$$D_{k \ell}=a_{i\ell}b_{\ell k} c_{kj}$$
Maintenant imagine les $D_{k \ell}$ disposés dans un tableau à $q$ lignes et $p$ colonnes, $k$ est le numéro de ligne et $\ell$ le numéro de colonne.
Tu commences à faire la somme de tout ce qui figure sur la colonne $\ell$ : tu obtiens
$$ \sum_{k=1}^q D_{k \ell}\;.$$
Ensuite tu additionnes ces totaux partiels par colonne, pour toutes les colonnes. Tu obtiens
$$\sum_{\ell=1}^p \left(\sum_{k=1}^q D_{k \ell}\right)\;.$$
Maintenant, tu procèdes autrement. Au lieu de faire des totaux partiels par colonne et de sommer ces totaux partiels, tu fais des totaux partiels par ligne et tu additionnes ces totaux partiels pour toutes les lignes. Comment est-ce que ça s'écrit ? Est-ce que le résultat est le même dans les deux procédés ?
PS. J'ai expliqué l'égalité de la 3e ligne. Mais finalement ce n'est pas ça ton problème ? En fait, je ne comprends pas ton problème. Alors je laisse tomber, j'ai plus urgent à faire pour le moment.
En fait mon problème était pourquoi seuls a et b qui sont indexés par l et pas c mais quand j'ai pris quelques exemples que les c sont des facteurs a indices fixés et seuls les a et b qui varient.Je m'excuse de toute perte de temps causé par mon message j'essayerai la prochaine fois de s'exprimer correctement :-)
Essayons ceci : (Edit : oups tu as trouvé toute seule si j'ai bien compris ?)
PARTIE I : on définit les notations
$A=(a_{ij})$, $B=(b_{ij})$, $C=(c_{ij})$
$AB$ est une matrice dont on va noter $(\alpha)$ les coefficients : $AB=(\alpha_{i j})_{i j}$
$BC$ est une matrice dont on va noter $(\beta)$ les coefficients : $BC=(\beta_{\ell j})_{\ell j}$
$(AB)C$ est une matrice dont on va noter $(s)$ les coefficients : $(AB)C=(s_{i j})_{i j}$
$A(BC)$ est une matrice dont on va noter $(t)$ les coefficients : $A(BC)=(t_{i j})_{i j}$
On désire démontrer que : pour tout $i$, pour tout $j$, $s_{ij}=t_{ij}$.
PARTIE II : on explicite les produits
Par définition du produit de deux matrices :
$\displaystyle \alpha_{i j}=\sum_{k=1}^p a_{ik}b_{kj} \qquad $ (pour la matrice $AB$)
$\displaystyle \beta_{i j}=\sum_{k=1}^q b_{ik}c_{kj} \qquad $ (pour la matrice $BC$)
Puis :
$\displaystyle s_{i j}=\sum_{k=1}^q \alpha_{ik}c_{kj} \qquad $ (pour la matrice $(AB)C$)
$\displaystyle t_{i j}=\sum_{k=1}^p a_{ik}\beta_{kj} \qquad $ (pour la matrice $A(BC)$)
On est prêt : Mais attention, je n'ai pas arrêté de prendre les mêmes indices $i$ et $j$ pour les lignes et colonnes mais aussi $k$ qui varie dans les sommes. Il va donc falloir choisir des lettres distinctes car on a trois coefficients $a$, $b$, et $c$, et on va prendre $k$ et $\ell$ pour chacun des indices variants dans les sommes.
PARTIE III : on écrit tous les détails de la preuve
On part du tout début :
$A(BC)=(t_{i j})_{i j}$
$\displaystyle t_{i j}=\sum_{\ell=1}^p a_{i\ell}\beta_{\ell j}$
$\displaystyle t_{i j}=...\qquad $ (à toi de remplacer d'abord ce $\beta_{\ell j}$ par ce qu'il vaut...sans te tromper d'indice.
Une autre démonstration consiste à dire que le produit matriciel correspond à la composition des applications linéaires, et que la composition des applications (en particulier linéaires) est clairement associative. (J'ai fini ce que j'avais à faire de manière urgente - maintenant, dodo !).
Je pense à l'associativité de la composition de fonctions. C'est un cas beaucoup plus général car on peut prendre des fonctions non linéaires.
Avec les bonnes hypothèses, si $f$, $g$ et $h$ sont trois fonctions (partant d'un bon ensemble et arrivant dans un bon ensemble) alors $f \circ (g \circ h)=(f \circ g) \circ h)$.
La démonstration (pour les fonctions) prend quelques lignes si quelque chose ne m'échappe pas.
Par contre, la démonstration de "multiplier deux matrices revient à composer deux applications linéaires" prend certainement quelques lignes, comme dans la preuve de ce fil, avec des indices et des sommes (combinaisons linéaires).
@gebrane
Ce lien ne prouve rien. Je mets en gras et je souligne les deux problèmes, selon moi.
La réponse dit même : "[...] puisque dans les deux cas il s'agit par définition de l'application x-> f(g(h(x)))".
Remarque : c'est un peu comme si on disait (bien entendu, c'est différent mais bon...) (a+b)+c = a+(b+c) puisque dans les deux cas il s'agit par définition du nombre a+b+c.
1) le "par définition" oublie la manière dont on compose (voir les couleurs).
2) "l'application" affirme qu'elle est unique alors que c'est la question.
Pour souligner le problème : on oublie la notation avec le "rond".
On parle des fonctions avec des flèches et on parle de la notation fonctionnelle $u(.)$.
La question est : a-t-on égalité quand on regarde en priorité (comme des parenthèses) les choses en couleur bleu entre $f($$g(h(x))$$)$ et $f(g($$h(x)$$))$ ?
Je ne crois pas que ce soit si trivial que ça.
@Cyrano
Oui, c'est ce que je me suis dit.
La question : est-ce c'est se prendre la tête pour rien ou est-ce un vrai manquement dans les preuves courantes de cette associativité. Ne faudrait-il pas, au moins, invoquer un principe d'unicité (dans les preuves courantes) ?
Dans $a^b$ on a bien l'unicité d'un nombre.
Mais dans $a^{b^c}$ on a, ou bien une convention de lecture (comme la notation $f(x)$) ou bien deux nombres possibles.
Pour moi on a bien une convention de lecture et $f(g(h(x)))$.
Remarque $\LaTeX$ : $a^{b^c}$ (a^{b^c}) et ${a^b}^c$ ({a^b}^c) sont deux écritures distinctes et je trouve cela amusant.
Je ne cherche pas du tout à embêter les diptères, je me demande seulement si on ne galvaude pas quelque chose.
Réponses
Ce n'est juste qu'une histoire d'écriture, l'important étant de ne pas reprendre un indice déjà utilisé.
Un conseil : tout écrire soigneusement.
Noter aussi $AB=(\alpha_{i j})_{i j}$.
Le produit matriciel n'est pas toujours associatif: si le produit (A.B).C est bien défini, rien nous dit que le produit B.C sera défini !
exemple A matrice ligne 1,1 et B matrice colonne 1,1 et C matrice colonne 1,1 dans ce cas (A.B).C est bien défini mais A.(B.C) non
Tu m'amuses.
Mais en toute rigueur tu as raison. Je me suis placé dans les bons cas.
Je t'invite à lire cette page. L'auteur n'a donné qu'un extrait du bouquin, mais ça doit ressembler à cela (oui, j'interprète...).
C'est comme quand on annonce "la composition des fonctions est associative" : vas-tu faire la même (juste) remarque ou te placer dans les bons cas ?
Edit : que veut dire "matrice ligne 1,1" ? Ha je viens de comprendre...
$A=\pmatrix {1,1}$, $B=\pmatrix {1\\1}$, $C=B$.
Mais j'ai du mal avec $(AB)C$ autant qu'avec $A(BC)$.
Sauf avec l'entourloupe : la matrice $(2)$ est un scalaire, mais je ne veux pas offenser @gebrane et laisser penser qu'il avait cela en tête.
c'est l'exemple $2. \pmatrix {1\\1}$ il n'est pas défini en tant que produit matriciel ( c'est un produit d'un type (1,1) avec un type (2,1)) donc impossible) mais il est défini comme produit d'un scalaire avec une matrice .
Question si on nous demande de calculer (A.B).C avec les matrices que j'ai cité, la réponse serait-elle différente à $(A.B).C= \pmatrix {2\\2}$
Pour beaucoup d'auteurs, le produit d'un vecteur colonne par un scalaire est un cas particulier de produit matriciel, par identification des scalaires avec les matrices 1x1.
Cordialement.
$$\left(\pmatrix{1&1}\cdot \pmatrix{1\\1}\right)\cdot \pmatrix{1\\1}= 2\cdot \pmatrix{1\\1}= \pmatrix{2\\2}\;,$$
aucun des deux $\cdot$ du terme de gauche ne représente un produit matriciel. En déclarant tu mens donc sciemment. Sympa pour Nemya qui cherche à comprendre !
Donc selon ta définition: tu inclus le produit d'un scalaire avec une matrice dans la définition du produit matriciel. Donc tu démontres que le produit matriciel n'est pas associatif vu que dans l'exemple A.(B.C) n'est pas défini ;-)
$$\pmatrix{1\\1}\left(\pmatrix{1&1}\pmatrix{1\\1}\right)=\pmatrix{1\\1}\pmatrix{2}=\pmatrix{2\\2}$$
$$\left(\pmatrix{1\\1}\pmatrix{1&1}\right)\pmatrix{1\\1}=\pmatrix{1&1\\1&1}\pmatrix{1\\1}=\pmatrix{2\\2}$$
Tu ne me lis pas correctement, j'ai bien dit Il ne faut pas se précipiter à écrire (A.B).C=A.(B.C) car le point . peut ne pas designer un produit matriciel
Puisque Ga- fait appel à son autorité sur le site . le (la) petit(e) gebrane-Tina s'éclipse.
Comment tu définis le produit matriciel de deux matrices dans ton cours. Dans le mien ( de mémoire)
Produit de deux matrices
donc pour moi les 3 points s'appellent produit matriciel.
Ta mémoire doit être un peu défaillante.
Tout cours raisonnable définit le produit de deux matrices $AB$ quand le nombre de colonnes de $A$ est égal au nombre de lignes de $B$, et le résultat est une matrice dont le nombre de lignes est celui de $A$ et le nombre de colonnes celui de $B$.
Il y a aussi bien sûr le produit d'un scalaire par une matrice (le résultat est une matrice de même taille), qui concourt à la structure d'espace vectoriel des matrices de taille donnée.
peut être on a quelque chose de commun et c'est pourquoi je suis re..
Tu veux vraiment continuer d'embrouiller Nemya ?
Merci pour l’échange. On termine sur ce désaccord
Cordialement
Reconnais tes erreurs plutôt que de louvoyer et d'avoir un discours à géométrie variable suivant les objections qu'on te fait.
Dans ce message j’étais sérieux en se référant à ma définition.
D’après vos remarques ( avec Dom) j'ai compris qu'on ne parlait pas de la même chose.
Dans ce message j'ai essayé de dire que (A.B).C n'est pas égale à A.(B.C) si le point n'est pas un produit matriciel (selon vos définition) après gerard0 m'a redonné confiance dans ma définition qui inclut le produit avec une matrice 1x1
http://www.les-mathematiques.net/phorum/read.php?3,1688806,1689152#msg-1689152
Apres tu connais la suite http://www.les-mathematiques.net/phorum/read.php?3,1688806,1689168#msg-1689168
@Gabu j'ai commis de pires bêtises et tu étais témoin , je ne suis pas le genre qui n'accepte pas d’être recardé recadré
Tourner sept fois ses doigts dans son clavier avant de poster.
Je ne donne pas de leçons, je me fais encore prendre par cette postite aiguë.
On a pas les même définitions comme dans le cas d'une sérié alternée, imaginaire pur et bien d'autres
Finissons. Je déclare -coupable-
Game over
Sur le fond :
J'ai parlé d'entourloupe (avec les scalaires).
Je ne crois pas que l'un de tes cours dise cela.
Je crois qu'il dit plutôt : le produit des matrices 1x1 se comporte comme dans l'anneau (des coefficients) lui-même. Éventuellement avec des belles phrases qui utilisent les mots "morphisme", "canonique", etc.
Bon, pas de souci, voyons.
À bientôt ;-)
La digression commence dès le quatrième message.
Relis celui de @GaBuZoMeu, qui te demandait des précisions, et sans prétention, le mien, ici.
Je te parle d'écrire tous les détails de cette preuve.
C'est une question d'indice et de savoir manipuler le symbole $\displaystyle \sum$.
Si c'est trop compliqué, tu peux aussi essayer avec des tailles pas trop grandes pour les indices $p$ et $q$ pour "voir" un peu mieux. Ainsi tu écris "des vraies sommes" sans le symbole $\Sigma$.
C'est de l'algèbre : à chaque fois j'ai commencé par ne rien comprendre puis par me dire, une fois tout détaillé, « Ha ! C'est tout bidon finalement ». J'en connais qui sont dans le même profil que moi. Ça se soigne en écrivant des pages de brouillons.
Allez, on y va ! ;-)
$$ \sum_{\ell=1}^p a_{i\ell} \left(\sum_{k=1}^q b_{\ell k} c_{kj}\right) =
\sum_{\ell=1}^p a_{i\ell} \sum_{k=1}^q b_{\ell k} c_{kj}$$
???
Moi je ne comprends pas ce que tu ne comprends pas. Il ne se passe absolument rien dans cette égalité à part le fait de laisser tomber les parenthèses.
Pour se rendre compte de cela, il faut écrire les choses, je pense.
J'interprète que le problème ne viendrait pas de l'égalité. Mais je suis peut-être dans l'erreur.
Passons mon message qui, d'après le précédent, n'est pas du tout pertinent.
Edit : Ha, si, finalement.
Posons
$$D_{k \ell}=a_{i\ell}b_{\ell k} c_{kj}$$
Maintenant imagine les $D_{k \ell}$ disposés dans un tableau à $q$ lignes et $p$ colonnes, $k$ est le numéro de ligne et $\ell$ le numéro de colonne.
Tu commences à faire la somme de tout ce qui figure sur la colonne $\ell$ : tu obtiens
$$ \sum_{k=1}^q D_{k \ell}\;.$$
Ensuite tu additionnes ces totaux partiels par colonne, pour toutes les colonnes. Tu obtiens
$$\sum_{\ell=1}^p \left(\sum_{k=1}^q D_{k \ell}\right)\;.$$
Maintenant, tu procèdes autrement. Au lieu de faire des totaux partiels par colonne et de sommer ces totaux partiels, tu fais des totaux partiels par ligne et tu additionnes ces totaux partiels pour toutes les lignes. Comment est-ce que ça s'écrit ? Est-ce que le résultat est le même dans les deux procédés ?
PS. J'ai expliqué l'égalité de la 3e ligne. Mais finalement ce n'est pas ça ton problème ? En fait, je ne comprends pas ton problème. Alors je laisse tomber, j'ai plus urgent à faire pour le moment.
PARTIE I : on définit les notations
$A=(a_{ij})$, $B=(b_{ij})$, $C=(c_{ij})$
$AB$ est une matrice dont on va noter $(\alpha)$ les coefficients : $AB=(\alpha_{i j})_{i j}$
$BC$ est une matrice dont on va noter $(\beta)$ les coefficients : $BC=(\beta_{\ell j})_{\ell j}$
$(AB)C$ est une matrice dont on va noter $(s)$ les coefficients : $(AB)C=(s_{i j})_{i j}$
$A(BC)$ est une matrice dont on va noter $(t)$ les coefficients : $A(BC)=(t_{i j})_{i j}$
On désire démontrer que : pour tout $i$, pour tout $j$, $s_{ij}=t_{ij}$.
PARTIE II : on explicite les produits
Par définition du produit de deux matrices :
$\displaystyle \alpha_{i j}=\sum_{k=1}^p a_{ik}b_{kj} \qquad $ (pour la matrice $AB$)
$\displaystyle \beta_{i j}=\sum_{k=1}^q b_{ik}c_{kj} \qquad $ (pour la matrice $BC$)
Puis :
$\displaystyle s_{i j}=\sum_{k=1}^q \alpha_{ik}c_{kj} \qquad $ (pour la matrice $(AB)C$)
$\displaystyle t_{i j}=\sum_{k=1}^p a_{ik}\beta_{kj} \qquad $ (pour la matrice $A(BC)$)
On est prêt :
Mais attention, je n'ai pas arrêté de prendre les mêmes indices $i$ et $j$ pour les lignes et colonnes mais aussi $k$ qui varie dans les sommes. Il va donc falloir choisir des lettres distinctes car on a trois coefficients $a$, $b$, et $c$, et on va prendre $k$ et $\ell$ pour chacun des indices variants dans les sommes.
PARTIE III : on écrit tous les détails de la preuve
On part du tout début :
$A(BC)=(t_{i j})_{i j}$
$\displaystyle t_{i j}=\sum_{\ell=1}^p a_{i\ell}\beta_{\ell j}$
$\displaystyle t_{i j}=...\qquad $ (à toi de remplacer d'abord ce $\beta_{\ell j}$ par ce qu'il vaut...sans te tromper d'indice.
Le $\ell$ ne va donc pas dans l'indice du $c$.
Comme je le disais : une fois compris, on trouve cela facile et sans subtilité.
Remarque : $l$ ou $\ell$ avec le code \ell.
Je pense à l'associativité de la composition de fonctions. C'est un cas beaucoup plus général car on peut prendre des fonctions non linéaires.
Avec les bonnes hypothèses, si $f$, $g$ et $h$ sont trois fonctions (partant d'un bon ensemble et arrivant dans un bon ensemble) alors $f \circ (g \circ h)=(f \circ g) \circ h)$.
Le lien entre application linéaire et matrice : https://ljk.imag.fr/membres/Bernard.Ycart/mel/cm/node5.html
Edit : @GaBuZoMeu a été plus rapide.
La démonstration (pour les fonctions) prend quelques lignes si quelque chose ne m'échappe pas.
Par contre, la démonstration de "multiplier deux matrices revient à composer deux applications linéaires" prend certainement quelques lignes, comme dans la preuve de ce fil, avec des indices et des sommes (combinaisons linéaires).
Soit $x$ dans le bon ensemble :
$(f \circ (g \circ h)) (x)=f((g \circ h)(x)) = f(g(h(x)))$
et
$((f \circ g) \circ h)(x) = (f \circ g) ( h(x)) = f(g(h(x)))$
J'ai l'impression qu'on me cache quelque chose.
C'est comme si la notation faisait que "ça marche".
Dans un cas j'ai $f($$g(h(x))$$)$ et dans l'autre $f(g($$h(x)$$))$.
"Pourquoi ce seraient les mêmes choses ?" demande l'élève de 2nde :-S
"Bah parce que ça se note pareil, pfff !" répond son voisin.
Ce lien ne prouve rien. Je mets en gras et je souligne les deux problèmes, selon moi.
La réponse dit même : "[...] puisque dans les deux cas il s'agit par définition de l'application x-> f(g(h(x)))".
Remarque : c'est un peu comme si on disait (bien entendu, c'est différent mais bon...)
(a+b)+c = a+(b+c) puisque dans les deux cas il s'agit par définition du nombre a+b+c.
1) le "par définition" oublie la manière dont on compose (voir les couleurs).
2) "l'application" affirme qu'elle est unique alors que c'est la question.
Pour souligner le problème : on oublie la notation avec le "rond".
On parle des fonctions avec des flèches et on parle de la notation fonctionnelle $u(.)$.
La question est : a-t-on égalité quand on regarde en priorité (comme des parenthèses) les choses en couleur bleu entre $f($$g(h(x))$$)$ et $f(g($$h(x)$$))$ ?
Je ne crois pas que ce soit si trivial que ça.
@Cyrano
Oui, c'est ce que je me suis dit.
La question : est-ce c'est se prendre la tête pour rien ou est-ce un vrai manquement dans les preuves courantes de cette associativité. Ne faudrait-il pas, au moins, invoquer un principe d'unicité (dans les preuves courantes) ?
l'écriture f(x) encapsule l'unicité (on sait que c'est un seul objet, l'image de x par f). Donc dans f(g(h(x))) on a écrit l'unicité.
Cordialement.
Dans $a^b$ on a bien l'unicité d'un nombre.
Mais dans $a^{b^c}$ on a, ou bien une convention de lecture (comme la notation $f(x)$) ou bien deux nombres possibles.
Pour moi on a bien une convention de lecture et $f(g(h(x)))$.
Remarque $\LaTeX$ : $a^{b^c}$ (a^{b^c}) et ${a^b}^c$ ({a^b}^c) sont deux écritures distinctes et je trouve cela amusant.
Je ne cherche pas du tout à embêter les diptères, je me demande seulement si on ne galvaude pas quelque chose.