Démontrer Cauchy-Binet de manière abstraite — Les-mathematiques.net The most powerful custom community solution in the world

Démontrer Cauchy-Binet de manière abstraite

Bonjour,

est-ce que vous connaissez un moyen de démontrer la formule de Cauchy-Binet de manière un peu astucieuse ? Un truc dans le style de la démonstration de Cayley-Hamilton en passant par la matrice dont les coefficients sont des indéterminées et qui est diagonalisable dans le corps des fractions des indéterminées (ou sa clôture algébrique, peut-être) et comme c'est une identité à coefficients entiers, elle est vraie pour tout anneau ?

Réponses

  • Bonjour Georges,

    Disons que tu veux calculer $\det(AB)$.
    Je crois qu'on peut s'en sortir en intercalant entre $A$ et $B$ une matrice diagonale $D$ avec des indéterminées sur la diagonale.
    On cherche ensuite les coefficients du polynôme $\det(ADB)$ puis on remplace $D$ par l'identité.
  • Sinon, il me semble que les formules de type Cauchy-Binet, Laplace, et cie "s'explosent" en jouant avec l'algèbre extérieure, c'est assez "abstrait" pour toi :-D? Je ne connais pas très bien ces choses au delà des définitions, mais il me semble que tu peux trouver ton bonheur dans la partie sur les déterminants de Bourbaki: Algèbre, chapitre III, paragraphe 8.
  • La démonstration dénommée "A simple proof" dans le wikipedia anglais me paraît convenir à ta demande, Georges.
  • Chat-Maths a tout à fait raison, ça se fait très bien avec l'algèbre extérieure.
    Un exemple ici pour le développement "en lignes et colonnes", mais ça march exactement pareil pour Cauchy-Binet, et trouver la preuve est quasi-automatique si tu sais la formule que tu cherches.
  • Ah mince, justement j'étais en train d'écrire des notes sur l'algèbre extérieure ! Par exemple pour démontrer que le volume d'un parallélotope est la norme (canonique dans le produit extérieur) du produit extérieur des vecteurs qui le forment (enfin pas tout à fait mais en fait un peu si).

    Merci Chat-maths, je vais regarder Bourbaki.

    Gai requin, ça a l'air sympa, je vais regarder !

    @bisam : J'avais vu, mais je ne l'ai pas comprise instantanément donc je ne l'aime pas, pour l'instant :-D Merci quand même !
  • I) Soient $A$ un anneau commutatif et $p$ un entier. Alors le passage à la $p$-ième puissance extérieure $M \mapsto \Lambda^p (M)$ est fonctoriel. Si $L$, $M$ et $N$ sont des $A$-modules, $f\in Hom(L,M)$ et $g\in Hom(M,N)$ alors $\Lambda^p(g) \circ \Lambda^p(f)= \Lambda^p(g \circ f)$.

    D'autre part soient $\ell_1,...,\ell_p$ des formes linéaires sur $M$. Alors $(x_1,...,x_p)\in M^p \mapsto \det \left (\ell_i(x_j) \right )_{1\leq i,j \leq p}$ est une forme $p$-linéaire alternée. D'où une forme linéaire $\alpha_p(\ell_1,...,\ell_p): \Lambda^p(M) \to A$ unique telle que $\alpha_{p}(\ell_1,...,\ell_p) (x_1 \wedge ... \wedge x_p) = \det \left (\ell_i(x_j) \right )_{1\leq i,j \leq p}$ pour tous $x_1,...,x_p$.

    Il est clair que l'application $(\ell_1,...,\ell_p) \mapsto \alpha_p(\ell_1,...,\ell_p)$ est elle-même $p$-linéaire alternée (on vérifie les identiés concernées sur des éléments de $\Lambda^p(M)$ de la forme $y_1\wedge ... \wedge y_p$ avec $y_i\in M$ pour tout $i$, puisque $\Lambda^p(M)$ est engendré par de tels éléments).

    On se retrouve donc avec une application linéaire $\beta_p$ de $\Lambda^p(M^*)$ dans $\Lambda^p (M)$, telle que $\beta_p(\ell_1 \wedge ... \wedge \ell_p) (x_1 \wedge ... \wedge x_p) = \alpha_{p}(\ell_1,...,\ell_p) (x_1 \wedge ... \wedge x_p) = \det \left (\ell_i(x_j) \right )_{1\leq i,j \leq p}$ pour tous $\ell_1,...,\ell_p\in M^*$ et tous $x_1,...,x_p\in M$.
    D'où une application bilinéaire de $\Lambda^p(M^*) \times \Lambda^p(M) \to A$, notée $\langle \bullet ,\bullet\rangle$ dans la suite, telle que $\langle v,w\rangle = \beta_p(v,w)$ pour tous $v,w\in \Lambda^p(M)$.

    ************
    II)
    On suppose que $M$ est libre de type fini avec une base $(e_i)_{1\leq i \leq n}$. On munit $M^*$ de la base duale correspondante $(e^*_i)_{1\leq i \leq n}$. Soit $\mathcal I^n_p$ l'ensemble des $(i_1,...,i_p)\in \{1,...,n\}$ tels que pour tous $r,s$ tels que $r<s$, $i_r < i_s$. Si $J=(j_1,...,j_p)\in \mathcal I_p$, on note $e_{p,J}:= e_{j_1} \wedge ... \wedge e_{j_p}$.
    II.1°) $(e_{p,I})_{I \in \mathcal I^n_p}$ (resp. $(e^*_{p,I})_{I \in \mathcal I^n_p}$) est une famille génératrice de $\Lambda^p(M)$ (resp. $\Lambda^p(M^*)$).
    On se contente du cas de $\Lambda^p(M)$, l'autre se traitant de la même façon. Comme $\Lambda^p(M)$ est engendré par $\{(x_1 \wedge ... \wedge x_p) \mid x \in M^p \}$, il l'est aussi par l'ensemble des $e_{k_1} \wedge ... \wedge e_{k_p}$ où $k$ parcourt $\{1,...,n\}^p$. Mais un terme de cette forme est toujours soit nul (quand deux indices $k_r,k_s$ sont identiques), soit égal au signe près à $e_{k'_1} \wedge ... \wedge e_{k'_p}$ où $(k'_1,...,k'_p)$ est la liste des $(k_1,...,k_p)$ remise dans l'ordre.

    II)2°) Pour tous $I=:(i_1,...,i_p)$ et $J=:(j_1,...,j_p)\in \mathcal I^n_p$, $\langle e^*_{p,I}, e_{p,J}\rangle$ est égal à $1$ si $I=J$ et $0$ sinon. En effet par définition cette quantité n'est autre que le déterminant de $\left ( e^*_{i_a} (e_{j_b})\right )_{1\leq a,b \leq p}$ et si $I=J$, la matrice en question est l'identité et dans le cas contraire il existe $k\in I\backslash J$ et la ligne $\left (e^*_k(e_{j_a}) \right )_{1\leq a \leq p}$ est nulle.

    La relation II)2° entraîne non seulement que les familles $(e^*_{p,I})_{I\in \mathcal I^n_p}$ et $(e_{p,J})_{J\in \mathcal I^n_p}$ sont libres (on peut isoler chaque terme dans une relation de liaison et montrer séparément que les coefficients concernés sont nuls) mais aussi que ce sont des bases duales l'une de l'autre via $\langle \bullet , \bullet \rangle$ qui est non dégénérée (bases car aussi génératrices par II.1°))

    Avec des couples (bases/bases duales) on peut exprimer les matrices de n'importe quelle application linéaire (le calcul ci-dessous ,fait dans le cas de $\Lambda^p(M)$ et $\Lambda^p(N)$, est valable dans n'importe quels modules libres).

    II)3°) Donc par exemple soient $N$ un autre module et $f_1,...,f_m$ une base de $N$. Soit $\varphi \in Hom(M, N)$. Alors pour tout $w\in \Lambda^p(M)$, $$\begin{align}
    \Lambda^p (\varphi)(w) & = \Lambda^p(\varphi) \left ( \sum_{I \in \mathcal J^n_p} \langle e^*_{p,J},w \rangle e_{p,J} \right )\\
    & = \sum_{J \in \mathcal I^n_p} \langle e^*_{p,J},w \rangle \Lambda^p(\varphi) (e_{p,I}) \\
    & = \sum_{J \in \mathcal I^n_p} \langle e^*_{p,J},w \rangle \sum_{I \in \mathcal I^m_p} \langle f^*_{p,I},
    \Lambda^p(\varphi) (e_{p,J})\rangle f_{p,I} \\
    &= \sum_{I \in \mathcal I^m_p} \left ( \sum_{J \in \mathcal I^n_p} \langle f^*_{p,I},\Lambda^p(\varphi) (e_{p,J})\rangle \langle e^*_{p,J}, w\rangle \right ) f_{p,I}
    \end{align}$$
    Les coordonnées de $w$ dans $\left ( e_{p,J}\right )_{J \in \mathcal I^n_p}$ sont égales à $\left (\langle e^*_{p,J}, w\rangle \right )_{J \in \mathcal I^n_p}$. La matrice de $\Lambda^p (\varphi)$ dans les bases $\left ( e_{p,J}\right )_{J \in \mathcal I^n_p}$ et $\left ( f_{p,I}\right )_{I \in \mathcal I^m_p}$a donc pour coefficients les termes $\left (\langle f^*_{p,I},\Lambda^p (\varphi) (e_{p,J}) \rangle\right ) _{I\in \mathcal I^m_p,J\in \mathcal I^n_p}$.

    II)4°) Lorsque $I\in \mathcal I^m_p$ et $J\in \mathcal I^n_p$, que vaut $\langle f^*_{p,I},\Lambda^p (\varphi)(e_{p,J}) \rangle$ ?
    En fait (en posant $J:=(j_1,...,j_p)$), $\Lambda^p(\varphi) (e_{p,J})$ = $\varphi(e_{j_1}) \wedge ... \wedge \varphi(e_{j_p})$ et donc $\langle f^*_{p,I},\Lambda^p (\varphi)(e_{p,J}) \rangle = \det \left ( f_{i_a} \left (\varphi(e_{j_b}) \right )\right )_{1\leq a ,b \leq p}$ (c'est le mineur extrait de taille $p$ pour les sous-ensembles d'indices $I,J$ de la matrice de $\varphi$ dans les bases $e,f$, matrice qui n'est autre que $\left ( f_i^*\varphi (e_j)\right)_{1\leq i \leq m,1\leq j \leq n}$).


    III) Résumé: la formule de Cauchy-Binet n'est rien d'autre que le calcul d'un coefficient d'un produit de matrices!!
    En effet, il suffit d'appliquer les points précédents à $f\in Hom(A^p,A^q)$ et $g \in Hom(A^q,A^p)$. $\Lambda^p(A^p)$ est de dimension $1$ et $\det(g \circ f)$ est l'unique coefficient de $\Lambda^p(g \circ f)$ dans les bases canoniques.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • N'y aurait-il pas avantage, parfois je me demande à travailler dans l'anneau non commutatif libre dont les indéterminées sont les couples d'entiers?

    Est-ce que ça ne permettrait pas de simplifier grandement les notations et toutes ces constructions dont les descriptions ont du mal à être "écrites en ligne" (beaucoup d'exposants et d'indices)?

    Après tout, quand on multiplie des matrices, on regarde juste modulo le quotient par l'idéal engendré par les $(i,j)(j,k) - (i,k)$ , quand on calcule un déterminant, on annule les $x^2$, etc.

    Peut-être que je dis n'importe quoi, que ça a été essayé et ne marche pas, c'est juste une question??
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Non car à un moment il faudra utiliser des propriétés spécifiques du déterminant.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Je veux dire, dans ta description, comment sait-on que le déterminant est dans l'anneau des coefficients de base (et non pas dans un anneau "abstrait" ?)
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Merci Foys.
    En notant $(e_1,\ldots,e_p)$ la base canonique de $A^p$, il reste à se farcir le calcul de $g\circ f(e_1)\wedge\cdots\wedge g\circ f(e_p)=\det(g\circ f)e_1\wedge\cdots\wedge e_p$.
    Bon, comme dit Max, on peut trouver le chemin parce qu'on connaît la formule de Cauchy-Binet.
  • @gai requin:
    Il n'y a pas de calculs à faire pour établir la formule $g\circ f(e_1)\wedge\cdots\wedge g\circ f(e_p)=\det(g\circ f)e_1\wedge\cdots\wedge e_p$.
    En fait $\Lambda^p(g \circ f) (x_1 \wedge ... \wedge x_p)= g \circ f(x_1) \wedge ... \wedge g \circ f(x_p)$ pour tous $x_1,...,x_p \in A^p$ ($\Lambda^p(g \circ f)$ étant défini pour que ça marche), mais comme $\Lambda^p(A^p)$ est de dimension 1, $\Lambda^p(g \circ f)$ est une homothétie (de rapport $\det(g \circ f)$ justement).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • @Foys : Je me suis mal exprimé.
    Je voulais dire qu'il reste à développer $g\circ f(e_1)\wedge\cdots\wedge g\circ f(e_p)$ pour calculer ce fichu déterminant.
  • Je ne vois pas où tu veux en venir gai requin.
    J'ai $f:A^p \to A^q$ et $g:A^q \to A^p$ linéaires. J'ai aussi $\Lambda^p(f) :\Lambda^p (A^p) \to \Lambda^p (A^q)$ et $\Lambda^p (g): \Lambda^p (A^q) \to \Lambda^p (A^p)$. On sait que $\Lambda^p (g \circ f) = \Lambda^p (g) \circ \Lambda^p(f)$. Dans mon long message j'ai des bases de $\Lambda^p (A^p)$ et $\Lambda^p(A^q)$ dans lesquelles les coeficients des matrices de $ \Lambda^p (f)$ et $ \Lambda^p (g)$ sont des mineurs d'ordre $p$ des matrices de $f$ et de $g$ et comme $ \Lambda^p (A^q)$ est de dimension $1$, les matrices de l'endomorphisme $\Lambda^p (g \circ f)$ de cet espace ont toutes le même coefficient dans n'importe quelle base (à savoir $\det(g \circ f)$).
    Donc j'ai Cauchy-Binet comme calcul d'un coefficient du produit de deux matrices.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Ah oui, merci !
    Edit : C'est $\Lambda^p (A^p)$ et pas $\Lambda^p (A^q)$ qui est de dimension $1$.
  • Merci Foys!
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • GA a écrit:
    @bisam : J'avais vu, mais je ne l'ai pas comprise instantanément donc je ne l'aime pas, pour l'instant grinning smiley Merci quand même !

    C'est le prix à payer pour sa simplicité, elle** est un peu farouche typographiquement. Mais en fait, elle correspond me semble-t-il bien à ce dont tu rêvais.

    ** la preuve de bisam
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Y'a un truc bizarre : dans ce fil, je ne la vois écrite nulle part la formule de Binet-Cauchy. J'ai mal regardé ?

    Ou encore : c'est quoi pour vous, la formule de Binet-Cauchy ? Ou de Cauchy-Binet comme vous voulez.
  • Ca tombe bien, je peux te répondre en même temps que j'allais répondre à GA. On suppose des angles droits fixés partout.

    Elle dit, quand tu as $f,g$ avec $f:E\to F$ et $g:F\to E$, que la façon dont $g\circ f$ multiplie les volumes s'obtient en additionnant les volumes des $g\circ f$ restreintes aux "machins" possibles qu'on obtient en prenant un nombre d'éléments égal à la dimension de $F$ parmi une base orthonormée de $E$. Il y en a Binomial $(dim(E),dim(F))$ (je ne sais plus le sens).
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Ca doit donc donner $det(g\circ f) = \sum_X det(\sigma(f,X))\times det(\sigma(g,X))$, où $X$ varie sur les sous-ensembles à $k$ éléments d'une base de $F$ et où $k$ la dimension de $E$

    Bon ça marche au signe près, je suis incapable d'intuiter le problème du signe.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Avec le $\sigma$ qu'on imagine, pardon!
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • CC C'est que tu penses que je connais pas la formule de Binet-Cauchy ?
  • Bonjour Claude;
    La "formule de Cauchy-Binet" à laquelle je pensais est celle de wikipédia:https://fr.wikipedia.org/wiki/Formule_de_Binet-Cauchy

    Cependant la très bonne requête du présent fil
    Georges Abitbol a écrit:
    Démontrer Cauchy-Binet de manière abstraite
    en demandait une explication en fait conceptuelle et géométrique (c'est comme ça que je l'interprète en tout cas) différente des averses diluviennes d'indices que l'on trouve dans les catalogues de développement de concours habituels (NB: pour les gens qui vont y candidater et qui me lisent: ma contribution ne tient pas en un quart d'heure. Par contre si vous la comprenez elle vous accompagnera toute votre vie, contrairement à la mémorisation des places exactes des signes -1 dans un tableau, ça c'est oublié un mois après l'épreuve scolaire).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • @CQ: loin de moi cette idée!!!!!! Je te sais expert parmi les experts.

    C'est juste que moi j'étais content, alors que je n'y connais strictement rien et que je n'arrête pas de confondre ma droite et ma gauche depuis quelques temps, de pouvoir proposer à GA l'idée qu'elle est triviale après une petite clope dans le jardin de ma résidence.

    Pour me faire pardonner ta crainte que j'ai oubliée ton expertise, je la démontre à GA:

    1/ soit $f: E\to F$ et $g:F\to E$.

    2/ A noter que tout ce que je raconte consiste à DEDUIRE des choses de L'HYPOTHESE que le volume existe. Ca ne prouve en rien son existence. C'est la grand aventure dramatique du déterminant: les preuves de "s'il existe alors c'est formidable, y a ci et ça qui arrive"

    3/ Déjà si $f$ n'est pas injective, elle écrase au moins une dimension qui ne sera pas récupérée, donc $Vol(g\circ f)=0$. Idem pour $g$.

    4/ Ensuite, supposant que $F$ a été orthonormo-basé de façon capriceuse avant que $f$ ne soit connue, pour calculer $Vol(g\circ f)$, on va devoir tristement additionner les $Binomial(dim(F), dim(E))$ contributions que tu imagines.

    5/ C'est peut-être ça le plus lourdingue dans cette histoire, car on ne voit plus tellement apparaitre des volumes bien concrets et dessinables. Menfin, ce n'est pas une grosse perte non plus.

    6/ soit $(u_1,..,u_k)$ la base capricieuse imposée pour $F$. Pour chaque sous-base $S$, $g$ apporte une contribution $g_S$ mesurée par $det(g_S)$ au volume cherché et surtout, le point c'est que pour $S_1\neq S_2$, $g$ ne parvient pas à rendre non nulle l'image directe par lui de $Vect(S_1)\cap Vect(S_2)$ (dimensions).

    7/ Le plus chiant c'est du coup de devoir imaginer qu'on décompose chaque $f(e_i)$ en somme et qu'en mesure les contributions (autrement dit, on prend une projection orthogonale à chaque fois).

    8/ A la in tu as additionné et ça donnela formule. Les angles droits (imaginaires) me semblent assez précieux dans cette affaire intuitive (j'ai conscience de donner une explication pas une preuve).

    @Foys : je crois plutôt que GA voulait interprétéer autrement sa demande (mais il sera content de ton cours exhaustif): je crois qu'il voulait passer flemmement par de la diagonalisation industrielle (ie par volume = produit des valeurs diagonale après avoir tout transporter par le bon isomorphisme). Je pense que tu as plutôt fourni "mieux" mais pas tout à fait "sa demande" (il démentira si besoin).
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Je regarde juste un truc (private avec moi-même sorry):

    [small]Hypothèses: $f: E\to F$ et $g: F\to E$. De plus $F = A_1\oplus A_2\oplus A_3$, la somme étant en plus orthogonale.

    J'ai donc $\forall x,i: f(x) = f_1(x) + f_2(x) + f_3(x)$ avec $f_i(x)\in A_i$ $\forall x,i$

    On aura donc $g(f(x)) = g(f_1(x)) + g(f_2(x)) + g(f_3(x))$

    Le "volume pur" sera donc:

    $$ (g(f_1(x)) + g(f_2(x)) + g(f_3(x))) \otimes (g(f_1(y)) + g(f_2(y)) + g(f_3(y))) \otimes (g(f_1(z)) + g(f_2(z)) + g(f_3(z))) $$

    dont on aura viré les trucs déclarés plats (par exemple $g(f_1(x)\otimes g(f_2(y)) \otimes g(f_3(x))$).

    Oui, donc ça a l'air de marcher.[/small]
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • http://www.les-mathematiques.net/phorum/read.php?3,2019202,2019692#msg-2019692

    @GR: malgré ma scandaleuse béotie, je vais peut-être te permettre de "voir un truc" (enfin j'espère) et sinon, si tu le sais déjà, pas grave:

    Dans ces domaines il n'y a rien à faire d'autres que d'avoir conscience que la commutativité a été remplacée par $ab=-ba$.

    Ce sont des calculs de quatrième résumés. Et un déterminant c'est une $somme^n$ qu'on développe et dont on vire tous les trucs plats (les faces en faits :-D , c'est pas coll pour elles)

    Après y a le côté $ab+ba = 0$ à pas oublier, ça c'est chiant.

    Enfin bref, à mon avis, le slogan c'est:

    $$DETERMINANT =_{APlatitudePres} DeveloppementDe(Truc_1 +..Truc_n)^n$$

    J'avoue que je ne sais pas si des "clochards" mathématiques ont "fait les poubelles" en allant chercher tous les trucs plats formels virés. J'ai essayé un peu de le faire jadis quand j'ai enquêté sur le déterminant, mais c'était interminable, j'ai vite abandonné.

    Mais malgré tout, ça a l'air de servir dans Stokes. Voilà tout ce que je peux partager comme "émotions". C'était peut-être déjà d'avance trivial pour tous les experts que vous êtes dans ce cas pardon.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Foys
    Je ne peux pas pointer sur wikipedia à cause de mon navigateur obsolète. Mais ce n'est pas grave. On va croire que je me vante, mais Binet-Cauchy c'est le B.A.BA du métier dans le monde de l'Algèbre Commutative ; c'est assez élémentaire à côté de je ne sais combien d'identités de Laplace, Plücker, Sylvester-Plücker, celles qui interviennent dans les tableaux de Young, les fonctions symétriques de Schur, les Grassmanniennes et j'en passe.

    Aucun mérite. Le métier déterminantal, cela s'apprend. Il suffit de lire. Par exemple Determinantal Rings de Bruns & Vetter http://www.home.uni-osnabrueck.de/wbruns/brunsw/detrings.pdf ou certains chapitres de C. Procesi, Lie Groups: An Approach through Invariants and Representations, https://books.google.fr/books/about/Lie_Groups.html?id=4yiUzLu8CLAC&redir_esc=y ..etc...

    Je peux même dire à Chat-Maths que Binet-Cauchy ne figure pas dans le cours du $\S8$, Algèbre III de Bourbaki mais seulement en exercice (l'exercice 6 du $\S8$ p. 192, sans le nom Binet-Cauchy d'ailleurs).

    Dans cet exercice, elle y est écrite de la manière suivante mais j'adapte les notations. Soient deux matrices $A,B$ que l'on peut multiplier. Je note $C = AB$ et j'utilise la notation provisoire (pour cette fin de semaine), $C[I,J]$ pour le $(I \times J)$-mineur de $C$ quand $\#I = \#J$. Alors pour $\#I = \#J = k$,
    $$
    C[I,J] = \sum_{K \atop \#K = k} A[I,K] \ B[K,J]
    $$Au fait, c'est quoi $I$ ? Une application de $[1..k]$ dans l'ensemble des indices de lignes arrivée de $C$ (= ensemble des indices de lignes de $A$). On ne lui demande pas d'être strictement croissante. On va dire injective pour le repos des âmes. Pareil pour $J,K$

    Autre chose mais un peu lié. Dans le métier de l'algèbre extérieure et intérieure, on apprend à écrire les identités avec le moins possible de signes. L'apparition d'un signe est peut être un signe de mauvaise santé.
    Par exemple, pour une matrice carrée $A$ d'ordre $n$, Cramer i.e. $\widetilde A A = A \widetilde A = \det(A) \text{I}_n$ s'écrit avantageusement, pour $n = 3$ et 4 vecteurs $v_1, v_2, v_3, v$ en dimension 3
    $$
    \det(v_1, v_2, v_3) v = \det(v, v_2, v_3) v_1 + \det(v_1, v, v_3) v_2 + \det(v_1, v_2, v) v_3
    $$
  • claude quitté a écrit:
    Au fait, c'est quoi $I$ ? Une application de $[1..k]$ dans l'ensemble des indices de lignes arrivée de $C$ (= ensemble des indices de lignes de $A$). On ne lui demande pas d'être strictement croissante. On va dire injective pour le repos des âmes. Pareil pour $J$,$K$
    Comment arrives-tu à faire ça Claude (pour l'indice $K$)? De mon côté j'ai l'impression que pour chaque partie $F$ à $p:=card(I)$ éléments dans l'ensemble d'indice on somme $p!$ mineurs et non pas un seul et qu'à la fin on se retrouve avec $p!$ fois $C[I,J]$...
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Intéressant lien OShine mais il ne parle pas de la formule de Cauchy-Binet mais d'autre chose (edit: Si!! mais c'est la page 6 du document et non celle du pdf. Toutes mes excuses!).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • @Claude@Foys : Dans la seconde édition (1981) d'Algèbre III de Bourbaki, $K$ parcourt l'ensemble des parties à $k$ éléments de $1\ldots n$, où $n$ est le nombre de colonnes de $A$ avec les notations de Claude.
  • @Foys: peut-être que CQ remarque qu'avec les +1 et les -1 ça se compense, car j'ai réagi comme toi. Ou il s'est peut-être trompé, mais comme il précise lui-même ce serait étonnant.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Le document de OShine donne la même démonstration que le lien de BISAM un peu plus haut et qu'une suggestion de gai requin encore un peu plus haut, il me semble.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Foys, Gai-Requin. Je me suis mal exprimé et du coup ma somme sur $K$ est plus que douteuse.

    Je voulais insister sur le fait que l'on n'a pas nécessairement à considérer des parties (et sous-entendu à les ordonner de manière strictement croissante).

    Précision. Le plus souvent, quand on parle d'un mineur $A[I,J]$ avec $\#I = \#J = k$, on convient que $I$, $J$ sont deux parties de cardinal $k$. Mais il est indispensable d'étendre cela en remplaçant $I$ par une suite quelconque (de l'ensemble des indices de lignes de $A$) de longueur $k$. Idem pour $J$. Pourquoi étendre ? Parce que la pratique conduit à cette convention.

    Idem en calcul extérieur avec $e_I = e_{i_1} \wedge \cdots \wedge e_{i_k}$ pour $I = (i_1, \cdots, i_k)$ : il faut permettre que des indices soient égaux d'une part et d'autre part que la suite ne soit pas strictement croissante.

    Mais je dois absolument donc préciser où $K$ varie dans $\sum_K \cdots$.
  • @cc : La preuve dans le sujet d'OShine est intéressante même si elle repose sur la question 10)b) qu'on conseille de ne pas faire ! Mais cette preuve n'utilise qu'une indéterminée alors que celle que j'ai suggérée à Georges utilise autant d'indéterminées que de colonnes de $A$.

    Et d'ailleurs, quelle preuve a sa préférence ?
  • Bonjour !

    J'ai survolé le post de Foys et j'ai été très inspiré par le point III qui dit que la formule de Cauchy-Binet n'est qu'un calcul de coefficient matriciel. Je me suis donc prêté à l'exercice d'essayer de retrouver moi-même le truc. Voici ce que ça a donné.

    J'évite le mot "fonctoriel" exprès. J'utilise les définitions axiomatiques du produit extérieur.

    Soit $k$ un corps et considérons qu'on associe, à tout $k$-espace vectoriel et tout entier naturel $p$
    - un $k$-espace vectoriel $\bigwedge^p E$,
    - une application $E^p \rightarrow \bigwedge^p E$ une application $p$-linéaire alternée (on note $v_1\wedge \cdots \wedge v_p$ l'image de $(v_1,\cdots,v_p)$ de cette application),
    - le tout tel que pour toute base $\underline{e} := (e_i)_{i \in I}$ de $E$, la famille $\underline{\wedge^p e} := (e_{i_1}\wedge \cdots e_{i_p})_{i_1<\cdots<i_p}$ est une base de $\bigwedge^p E$,
    - et, à chaque application linéaire $f: E \rightarrow F$, une application $f_* : \bigwedge^p E \rightarrow \bigwedge^p F$,
    - de façon à ce que pour toute $f : E \rightarrow F$ et toute $g : F \rightarrow G$, $(g\circ f)_* = g_* \circ f_*$, et
    - de façon à ce que pour tous $v_1,\cdots,v_p \in E$, $f_*(v_1\wedge \cdots \wedge v_p) = f(v_1)\wedge \cdots \wedge f(v_p)$.

    Soient $E$ et $F$ deux $k$-espaces vectoriels de dimension finie, soient $\underline{v} := (v_1,\cdots,v_n)$ et $\underline{w} := (w_1,\cdots,w_m)$ deux bases de $E$ et de $F$. Soit $f : E \rightarrow F$ une application $k$-linéaire. Soit $p$ un entier naturel. Soient $I \subset \{1,\cdots,n\}$ et $J \subset \{1,\cdots,m\}$ deux parties de cardinal $p$. Soient $i_1<\cdots<i_p$ les éléments de $I$, dans l'ordre. On appelle "$(I,J)$-ème déterminant" de $f$ (dans les bases $\underline{v}$ et $\underline{w}$) le coefficient de la décomposition de $f_*(v_{i_1}\wedge \cdots \wedge v_{i_p})$ dans la base $(w_{j_1})\wedge \cdots \wedge w_{j_p})_{j_1< \cdots <j_p}$ correspondant au vecteur $w_{i_1}\wedge \cdots \wedge w_{i_p}$. En d'autres termes, le $(I,J)$-ème déterminant de $f$ n'est autre que le $(I,J)$-ème coefficient matriciel de la matrice de $f_*$ dans les bases $\underline{\wedge^p v}$ et $\underline{\wedge^p w}$. On note ce nombre $\det (I,J,\underline{v},\underline{w},f)$.

    Cas particuliers de la situation ci-dessus : si $p = 1$, alors le $(I,J)$-ème déterminant de $f$ est en fait le $(i,j)$-ème coefficient de sa matrice (où $I = \{i\}$ et $J = \{j\}$. Sinon, plus important, si $E$ et $F$ sont de dimension $n$ finie, et si $p = n$, il n'y a qu'un déterminant (puisqu'il n'y a qu'une partie à $n$ éléments dans un ensemble à $n$ éléments). Celui-là, on l'appelle juste déterminant.

    En mimant la démonstration de la formule qui donne les coefficients d'un produit de matrices, on obtient que si $E$, $F$ et $G$ sont des espaces vectoriels avec des bases $\underline{u}$, $\underline{v}$ et $\underline{w}$ et si $f : E \rightarrow F$ et $g: F \rightarrow G$, alors pour toutes $I$, $K$, de cardinal $p$, on a $\det (I,K,\underline{u},\underline{w},g\circ f) = \sum_{J} \det (I,J,\underline{u},\underline{v},f)\det(J,K,\underline{v},\underline{w})$ (la somme porte sur les parties $J$ de cardinal $p$ incluses dans l'ensemble des indices de la base de $F$.

    Maintenant, il ne reste plus qu'à démontrer que le $(I,J)$-ème déterminant de $f$ dans les bases $\underline{v}$ et $\underline{w}$ n'est autre que le déterminant du $(I,J)$-ème mineur de la matrice de $f$ dans les bases $\underline{v}$ et $\underline{w}$ ; j'ai un peu la flemme mais j'imagine que ce n'est pas plus dur que de démontrer que si on a un endomorphisme $f$ de $E$ (où $E$ est de dimension finie), alors le rapport de l'homothétie $f_* : \bigwedge^{\dim E} E \rightarrow \bigwedge^{\dim E} E$ est le déterminant de $f$. Ca, je sais que je peux le court-circuiter en définissant le déterminant comme ça :-D où en démontrant que c'est une forme $\dim E$-linéaire alternée, et qu'il n'y a qu'une seule droite vectorielle de telles choses. Une fois que c'est fait, la formule ci-dessus donne directement la formule de Cauchy-Binet.

    Maintenant, ce que je retire de tout ça, c'est que (après coup, bien sûr, il a fallu le post de Foys pour que je comprenne) finalement, la formule de Cauchy-Binet n'est quasiment pas plus mystérieuse que le déterminant lui-même !

    EDIT : Finalement, le slogan que je retiendrai est le suivant : l'algèbre extérieure est un moyen canonique de voir tout mineur d'une matrice comme le coefficient d'une autre matrice construite à partir de la première !

    ----

    La démo de gai requin : soient $X_1,\cdots,X_m$ des indéterminées et soient $A$ et $B$ deux matrices de taille $n\times m$ et $m\times n$. On note $\tilde{AB}$ la matrice dont le $(i,k)$-ème coefficient est $\sum^m_{j=1} X^j A_{ij} B_{jk}$. Les coefficients de $\tilde{AB}$ sont donc des polynômes homogènes de degré $1$ en les indéterminées. Ainsi, le déterminant de $\tilde{AB}$ est un polynôme homogène de degré $n$ en les $X_i$. Par contre, je ne sais pas encore comment avancer. Je vois que si tous les $X_i$ sont nuls sauf $n$ d'entre eux qui valent $1$, j'ai bien le déterminant du produit des deux mineurs de $A$ et de $B$. Ainsi, je connais les coefficients, dans ce gros polynômes, des monômes de la forme $X_{i_1}\cdots X_{i_n}$ où il n'y a pas de répétition parmi les indices ; mais je ne sais pas démontrer que pour les monômes où une indéterminée a un degré supérieur ou égal à deux, le coefficient est nul (je ne sais pas si c'est vrai, d'ailleurs). Mais peut-être que là on peut faire une astuce algébrique... Je vais essayer encore un petit moment, je vous dirai ce que ça donne.

    ----

    La démo de bisam et celle du document d'OShine sont un peu les mêmes, non ?
  • @GR: pardon, je parlais de mémoire.

    @GA:
    GA a écrit:
    J'utilise les définitions axiomatiques

    Le jour à une personne (je cite un nom André Bellaiche, ça m'a marqué) m'a signalé de mettre le mot "volume", le bond de compréhension que j'ai fait a été inoui. Vraiment je le recommande. "déterminant"; "Produit extérieur", ça fait bien dans les diners en ville, mais c'est moins parlant.

    En plus, pour beaucoup de "spectateurs passifs" dont j'étais encore il y a peu tant je n'y connais rien, je veux témoigner que passer directement à $\wedge$ me parait un peu cryptique.

    Car tout ça, ce n'est que du $\otimes$ dont on retire (on fait comme s'ils sont nuls) les "trucs plats".

    Par exemple, $u_1\otimes u_2\otimes u_3\otimes u_4\otimes u_5 $, sachant que chaque $u_i$ est $x(i,1)e_1+x(i,2)e_2+x(i,3)e_3+..+x(i,9)e_9$, c'est juste un développement de 4ième.

    En virant des choses que l'on considère comme plates, et en prenant comme "canon/étalon" les produits de 5 $e_i's$ on retrouve ces formules et le coefficient binomial, même (ici $C(9,5)$).

    Mais on pourrait avoir "envie" de virer autre chose. Au fond, tout ceci est contenu dans des écritures de produits tensoriels. (Idem pour le produit scalaire, où ce sont les $e\otimes e_j$ avec $i\neq j$ qui se font virer).

    Concernant ta demande de "diagonalisabilité" j'ai l'impression que de toute façon, tu ne pourrais en diagonaliser qu'une, non?

    Je ne suis pas du tout expert, je veux juste apporter un témoignage que si quelqu'un ne vous informe pas que $u\wedge v$ c'est "essentiellement" $u\otimes v$, et qu'on est loin de tout ça, on ne le devine pas du tout, c'est pour ça que j'ai posté.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Coucou Christophe !
    Euh ben le fait que $\wedge$, ce ne soit que $\oplus$ où on décrète nuls les trucs où il y a des répétitions, c'est dit haut et fort, non ? Pourquoi tu dis que c'est cryptique ?

    Pour cette histoire de diagonalisabilité, c'était autre chose ! Pour Cayley-Hamilton, on peut par exemple démontrer que c'est vrai pour une matrice diagonale, puis pour une matrice diagonalisable, puis pour toute matrice, puisque (attention, slogan !) "toute matrice est le reflet d'une matrice abstraite générique qui est diagonalisable". Ce que je voulais ici, c'était un truc du style : trouver des situations triviales où Cauchy-Binet est trivialement vrai, et remarquer que le cas général est en fait une spécialisation d'une situation triviale très abstraite. En ce sens, Foys a réussi et ça me convient très bien ! Mais en fait, je m'attendais à ce que la trivialité soit un peu plus technologique qu'un... produit de matrices, donc c'est pour ça que j'ai rappelé cette histoire de diagonalisabilité de la matrice à indéterminées. Mais en fait, Cauchy-Binet c'est beaucoup moins que ça ! Enfin, je résume mon état d'esprit, là.
  • Ah génial, donc je n'ai pas assez parsé le post de foys, je le ferai, ça m'aidera moi aussi du coup. Je n'avais pas vu le schéma que tu décris je pensais qu'il prouvait le truc "formellement".
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Bonjour
    Je me lance dans une tentative qui me semble proche de ce que j'ai compris de la requête initiale.

    On remarque que le résultat est immédiat par multilinéarité du déterminant si l'une des matrices est diagonale $\left(*\right)$.

    Si $A$ et $B$ sont génériques (à coefficients dans $A=\mathbb{Z}\left[\left(X_{i,j}\right),\left(Y_{i,j}\right)\right]$). $\chi_{A}$ est scindé à racines simples dans une extension $k$ de $\text{Frac}\left(A\right)$. Donc il existe $P$ et $D$ dans $\text{M}_{n}\left(k\right)$ telles que $P$ inversible, $D$ diagonale et \[

    A=PDP^{-1}

    \] alors \[

    \det(AB)=\det(PDP^{-1}B)=\det(PDP^{-1}BPP^{-1})=\det(DP^{-1}BP)\underbrace{=}_{(*)}\det(D)\det(P^{-1}BP)=\det (A)\det (B).

    \] Le résultat en découle pour $A$ et $B$ à coefficients dans $\text{M}_{n}\left(K\right)$ avec $K$ quelconque par évaluation de l'égalité polynomiale ci-dessus en les coefficients de $A$ et $B$.
  • ... modulo le fait que deux matrices semblables aient même déterminant ne nécessite pas de recourir à la formule de Cauchy Binet !

    Edit: désolé, je crois que j'ai répondu complètement à côté car je ne me suis pas renseigné sur ce qu'était vraiment cette fameuse formule de Cauchy Binet. Perdu une occasion de me taire... :(
  • @troisqua : :-D oui, la formule de Cauchy-Binet est un peu une généralisation du fait que pour deux matrices carrées, le déterminant du produit est le produit des déterminants !
  • Oui Georges j'ai lu en diagonale (sans jeu de mots) hier soir trop tard et j'ai posté une réponse au réveil fruit de mon sommeil. Voilà le résultat ! pffff :)
  • @Georges : C'est en effet assez étonnant que $\det(\tilde{AB})$ soit de degré au plus $1$ en chacune des indéterminées, alors que les coefficients de $\tilde{AB}$ sont des formes linéaires :-S
    J'ai fait quelques tests qui semblent malgré tout le confirmer.
  • Ah ben à creuser alors !
  • Georges, Gai-Requin
    C'est dingue ce truc. Je n'arrive pas à voir pourquoi. Cela me turlupine depuis plus d'un jour. Je parle des monômes de $\det(ADB)$ dans le contexte que vous savez. Ces monômes sont sans facteur carré. Comment je sais ? Ben, je sais pas justement mais ce qui vient va dans ce sens.
    [color=#000000]> k := IntegerRing() ;
    > n := 5 ; m := n + 3 ;                         
    > kX := PolynomialRing(k,m) ;                              
    > AssignNames(~kX, ["x"*ITS(i) : i in [1..m]]) ;
    > D := DiagonalMatrix([kX.i : i in [1..m]]) ;
    > A := Matrix(kX, n,m, [Random(-20,20) : ij in [1..n*m]]) ;
    > B := Matrix(kX, m,n, [Random(-20,20) : ij in [1..n*m]]) ;
    > A ;
    [ -7  10   6  10  11  -1 -13 -13]
    [-18 -13 -14   2   7  -1  -2   1]
    [  6  -8  -9  -2  -4   8 -16  -2]
    [  6  12 -17   3  11  16  12 -12]
    [  4  -7 -14  12  -8  -8  -5  20]
    > B ;
    [ 17  -1   2  11   9]
    [  2   3  -5 -14 -20]
    [  1  20   4 -12 -17]
    [ 18  11 -15 -18  19]
    [-19  10  11  -4  15]
    [-18 -16  -5  18  -4]
    [  3  -6   2  19 -14]
    [ 11   5 -20   9  18]
    > det := Determinant(A*D*B) ;
    > &and [IsSquarefree(m) : m in Monomials(det)] ;
    true 
    [/color]
    
    Il y a quelque chose qui nous bouche les yeux ?
  • Je donne une formule qui pourrait aider (je n'ai pas conclu).
    Soit $M=ADB$ et $\widetilde M$ la transposée de la comatrice de $M$. Alors :$$\sum_{i=1}^m X_i\cdot\mathrm{Trace}\left(\widetilde{M}\frac{\partial M}{\partial X_i}\right)=m\det(M).$$Ingrédients : Identité d'Euler, différentielle du déterminant.

    Je me dis que c'est plus facile la trace que le déterminant...
  • Gai-Requin, Georges
    Je pense maintenant qu'il faut faire en sorte que cette propriété (sans facteur carré des monômes) devienne une évidence. Facile à dire. Je remets un peu le contexte en notant $R$ l'anneau (commutatif) de base
    $$
    \xymatrix @C = 1.5cm {
    R^n \ar[r]^B \ar@/_15pt/[rr]_{AB} & R^m \ar[r]^A & R^n }
    \qquad \qquad D = \text{Diag}(X_1, \cdots, X_m)
    $$Ce qui va faire le truc je pense, c'est l'écriture des monômes par le bas (au lieu de l'habituelle écriture par le haut $X^\alpha$).

    Soit $I = (i_1 \le i_2 \le \cdots \le i_n)$ une suite croissante de $\{1..m\}$ et $N = (1,2, \cdots, n)$. Alors, en continuant à noter les mineurs entre crochets
    $$
    A[N,I] \times B[I,N] = \text { le coefficient de } X_{i_1} X_{i_2} \cdots X_{i_n} \text{ du polynôme } \det(ADB)
    $$Rendre évident signifie disposer d'une preuve uniforme de cette égalité.
  • Oui, je suis d'accord qu'il faut faire en sorte que ce soit une évidence, hahahahaha !
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!