Dualité en algèbre linéaire — Les-mathematiques.net The most powerful custom community solution in the world

Dualité en algèbre linéaire

Bonjour,

j'ai un peu de mal à donner du sens à la notion de dualité en algèbre linéaire.
J'aurais plusieurs questions et j'aimerais les concentrer sur ce fil de discussion.

J'arrive à percevoir cette symétrie entre le monde des vecteurs de E et le monde des formes linéaires de E sur le corps de base.
Cependant, je n'arrive pas à donner du sens à ces objets, leur raison d'être (et je pense qu'il faut d'abord partir de là). Je vois cela comme un chapitre déconnecté du reste (dans un de mes ouvrages, ce paragraphe est d'ailleurs déposé dans un chapitre "compléments d'algèbre linéaire", sans trop de rapport avec le reste, où l'on aborde juste après la notion de matrice par blocs...)

1) Comment faire pour raccrocher cette notion de dualité à d'autres notions mathématiques ?

Il faudrait également que j'ordonne un peu cela, car il y a des notions que l'on nomme "orthogonal" mais qui ne décrivent pas les mêmes objets mathématiques.
Enfin, j'ai l'impression qu'il y a un lien, les crochets de dualité qu'on utilise parfois dans certains ouvrages me font penser à celui du produit scalaire.
On parle de l'orthogonal d'une partie d'un espace vectoriel pour un produit scalaire donné, et il existe également la notion d'orthogonal d'une partie de E dans son dual E*.
2) Quel serait ce lien ?

Je souhaiterais que dans un premier temps les apports de vos lumières se fassent dans un cadre élémentaire, celui des notions vues en MP voire L3.
(Ensuite, il y a peut-être des notions "unificatrices" qui dépassent ce cadre, mais qu'il serait bon de développer dans un second temps uniquement).

Par avance, merci.

Réponses

  • La dualité en algèbre linéaire, si tu veux, c'est la "dualité" qu'il y a entre équations paramétriques et équations cartésiennes.

    Prenons l’exemple le plus basique: une droite vectorielle dans $\mathbb{R}^2$. Il y a deux manières de décrire cette droite :

    Soit tu trouves un vecteur non nul $v$ dans ta droite vectorielle, et tu peux alors décrire tous les points de la droite comme étant les vecteurs de la forme $tv$, où $t$ parcours $\mathbb{R}$. Ça te donne les éléments de la droite, mais pas son "équation". Son équation, qu'est-ce que c'est, c'est une équation de la forme $ax + by = 0$. En d'autres terme, c'est le noyau de la forme linéaire $\phi : (x, y) \mapsto ax + by$. Moralement, quand on fait de la dualité, on identifie l'équation $ax + by$ à cette forme linéaire $\phi$ !

    Et quand tu as plus de données, par exemple, une droite vectorielle dans $\mathbb{R}^3$? Tu peux encore soit la décrire de manière paramétrique, comme un honnête sous-ensemble de $\mathbb{R}^3$, paramétré par un paramètre réel $t$ une fois que tu as trouvé un vecteur non nul $v$.

    Mais, tu peux aussi voir ta droite comme l'intersection de deux plan, c'est-à-dire comme l'ensemble des solutions d'un système \begin{align*}
    \left\{\begin{array}{ccc} ax + by + cz &=& 0\\
    a'x + b'y + c'z &=& 0\end{array}\right.
    \end{align*}
    Là, tu as l'intersection des noyaux de deux formes linéaires: la forme $\phi : (x, y, z) \mapsto ax + by + cz$, et la forme $\phi' : (x, y, z) \mapsto a'x + b'y + c'z$! Ces deux formes ne sont plus uniquement déterminées, tu conserves la même droite si tu les remplace par des bonnes combinaisons linéaires. Autrement dit, les "équations" vérifié par les points de ta droite forment aussi un espace vectoriel, c'est un sous-espace vectoriel de l'espace des formes linéaires (le dual), et c'est précisément l'orthogonal de ta droite!


    Passer d'un sev $V$ d'un espace vectoriel $E$ au sev $V^{\bot}$ de $E^*$, c'est passer de l'espace $V$ en coordonnées "paramétriques" (si tu as une base de $V$ à $k$ éléments, tu as une description à $k$ paramètres de $V$) à l'espace des équations linéaires vérifiées par les éléments de $V$. Quand tu manipules un système d'équation linéaire d'un espace vectoriel, en réalité, tu fais juste de l'algèbre linéaire dans le dual.

    Réciproquement, passer d'un sev $V$ de $E^*$ au sev $V^\circ$ de $E$, c'est passer d'un ensemble d'équation à l'ensemble des points vérifiant ces équations.

    Du coup, les égalités (en dimension fini, je sais qu'il y en a une qui ne marche plus en dimension infinie mais je ne sais plus laquelle) $V = ((V)^\bot)^{\circ}$ et $V =((V)^{\circ})^\bot$ ne disent ni plus ni moins qu'un sous-espace vectoriel est exactement l'ensemble des solutions de l'espace des équations vérifiées par ses points, et qu'un ensemble d'équation est exactement l'ensemble des équations de l'ensemble des points vérifiant ces équations.

    Dans le même genre, l'égalité $\mathrm{dim}V^\bot = \mathrm{dim}E - \mathrm{dim}V$ ne dit jamais rien qu'un sev de dimension $k$ dans $E$ peut être exactement défini par $n - k$ équations indépendantes.

    J'espère avoir été clair et t'avoir aidé à comprendre cette notion, d'autres ici l'expliquerons sûrement mieux que moi.
  • La dualité c'est ce qui se substitue au produit scalaire quand on n'a pas de produit scalaire.
    Sur un corps fini par exemple.

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • @merci Chat-maths, j'essayerais de me baser sur cet exemple pour me fixer les idées quand j'aborderais la notion de dualité. J'arrive à le voir car c'est un cadre assez naturel.
    Comment greffer cette vision des choses à un espace plus abstrait tel que l'espace vectoriel des polynômes K[X] ?
    (Ma question n'est pas anodine, je sais qu'il y a de manière sous-jacente des polynômes interpolateurs de Lagrange).

    @ev : j'aime bien cette approche des choses, comme la nécessité de créer un objet pour se substituer à un manque dans un cadre où une notion mathématique ferait défaut.
    Pourquoi a-t-on besoin d'un substitut de produit scalaire ? Pour définir une norme issue de ce produit scalaire et pour "mesurer" des choses dans un espace ? Ou bien projeter quelque chose ? J'ai cette vision du produit scalaire, qui peut être très simpliste. J'essaye d'avoir une vision plus globale.
  • @ ev : c'est plutôt le contraire. Le concept de dualité entre espaces vectoriels est une notion très générale dont le produit scalaire fournit un exemple particulier. D'ailleurs si les notations traditionnelles pour le produit scalaire et l'application de dualité sont les mêmes ce n'est pas pour rien.
  • @ Serge.

    Je me suis mal exprimé. J'aurais dû dire :
    "Faute de grives on mange des merles".

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • Pour $k[X]$ et les polynômes de Lagrange. Il y a un truc dont je n'ai pas parlé dans l'histoire, c'est les histoires de base duale.

    Quand tu as une base d'un espace vectoriel $E$ de dimension $n$, tu as une famille de $n$ vecteurs $(e_1,\ldots,e_n)$, qui permettent de représenter paramétriquement ton espace : $E$ est exactement l'ensemble des combinaisons linéaires des $e_1,\ldots,e_n$. Ces combinaisons linéaires sont paramétrés par $n$ éléments de ton corps de base: les coefficients de ta combinaison linéaire. Ce paramétrage a en fait une structure supplémentaire: les paramètres varient "linéairement" en fonction des vecteurs. C'est-à-dire que si tu as un vecteur $v = \sum\limits_{i=1}^n \lambda_i e_i$, et un vecteur $w = \sum\limits_{i=1}^n \mu_i e_i$ et $\alpha, \beta \in k$ le vecteur $\alpha v + \beta w$ est $\sum\limits_{i=1}^n (\alpha\lambda_i + \beta\mu_i)e_i$.
    Ça n'a pas l'air de grand chose, mais ça te dit que coefficients du paramétrage sont en réalité des fonctions linéaires de ce dernier!

    Et donc tu peux en fait écrire tout vecteur $v$ sous la forme $v = \sum e_i^*(v) e_i$, où $e_i^{*}$ est la forme linéaire qui à un vecteur $v$ associe sa $i$-ième coordonnée dans la base $(e_1,\ldots,e_n)$. Et on peut vérifier que ces formes linéaires forment une base du dual. Ainsi, toute base de $E$ induit automatiquement un paramétrage des vecteurs de $E$, paramétrage qui induit une base de $E^*$. Maintenant, On peut aller dans l'autre direction! Si je prends une base de $E^*$, j'ai en fait une unique base de $E$ dont le paramétrage induise la base de $E^*$ qu'on s'est donné. C'est un avatar de la dualité: en dimension fini, on a un isomorphisme canonique $E \cong E^{**}$, qui dit que $E^*$ est à $E$ ce que $E$ est à $E^*$, c'est ce dont tu parles en disant qu'il y a une "symétrie" entre le monde des vecteur et le monde des formes linéaires: toute symétrie qui se respecte, quand on l'applique deux fois, doit revenir à la case départ.

    Bon, et bien maintenant, les polynômes de Lagrange, qu'est-ce? Si on se donne $a_0, a_1,\ldots,a_n$ $n+1$ points de $k$, on a $n+1$ formes linéaires indépendantes $\phi_{a_i} : P \mapsto P(a_i)$. Pour des raisons de dimensions, c'est une base du dual de $k_n[X]$, et donc cette base est forcément le système de paramètres induit par une base de $k_n[X]$, et cette base est celle des polynômes de Lagrange. Ça montre que parfois, certains problèmes sont plus naturels dans le dual (ici, la valeur d'un polynôme en un point fixe dépend linéairement du polynôme), mais que si les problèmes linéaires qu'on se donnent sont en nombre suffisant et indépendants, alors il admet automatiquement une unique solution, et les solutions sont paramétrées par une unique base de l'espace de départ.

    J'ajoute que par ailleurs le problème de "trouver de quelle base on est le dual" est un problème purement d'algèbre linéaire, c'est une histoire d'inverser une matrice et d'en prendre la transposée.
  • Merci pour ton explication @Chat-maths, je comprends mieux pourquoi on introduit d'emblée dans les ouvrages la forme linéaire coordonnées d'entrée de jeu (sauf qu'on ne justifie pas d'où elle sort. C'est souvent présenté comme une définition).
    Avec une mise en perspective de $\sum\limits_{i=1}^n (\alpha\lambda_i + \beta\mu_i)e_i$ et $v = \sum e_i^*(v) e_i$, cela me semble plus clair et naturel de s'intéresser à ces formes linéaires "coordonnées". Cette dualité se voit mieux.

    Pour la base duale des formes linéaires d'évaluation d'un polynôme, on a comme base dans $k_n[X]$ celle des polynômes interpolateurs de Lagrange. J'ai mis cela en parallèle avec ton explication, et ça commence à être limpide (tu)
    Par exemple, on pourrait faire la même chose avec une base formée de formes linéaires "trace" dans le dual de l'espace des matrices carrées $M_n(K)^*$, et avoir dans $M_n(K)$, une base formée par une combinaison linéaires d'éléments de $M_n(K)$ ?
    Si je suis dans le vrai, serait-ce simple à trouver ? Le problème est-il bien posé ? Rien ne me vient à l'esprit. Je me dis que pour la base duale formées de formes linéaires d'évaluation, on a trouvé un objet assez sophistiqué à mettre en correspondance tout de même qui sont les polynômes de Lagrange.
  • Salut !
    Pour la dualité, tu fais bien de parler de formes de type traces, car en fait, tu peux montrer que le dual de $M_n(k)$ a une forme assez particulière : toute forme linéaire est de la forme $\phi_A: M \mapsto \mathrm{Tr}(^{t}\!AM)$ pour une certaines matrice $A$. D'ailleurs, avec tout ce qu'on a dit, je pense que tu dois avoir tout ce qu'il faut pour le prouver !

    Du coup, si on se donne une famille de $n^2$ "formes traces" $\phi_{A_{1}}, \ldots, \phi_{A_{n^2}}$, on cherche de quelle famille de matrices elles sont la base duale. Les matrices $A_{1} ,\ldots, A_{n^2}$, même si ce sont de bonnes candidates, ne sont pas les droïdes que nous cherchons, car $\phi_{A_{1}}(A_1) = \mathrm{Tr}(^t\!{A_1}A_1)$, qui n'a pas de raison d'être égal à $1$.

    En fait, on peut trouver la base duale de de $\phi_{A_{1}}, \ldots, \phi_{A_{n^2}}$ en étant un peu plus malin (mais avec pas mal de calcul, et qui deviennent vite très moche car on a des matrices $n^2 \times n^2$ comme matrices de passage) : on calcule les coordonnées des $\phi_{A_{i}}$ dans la base duale de la base canonique de $M_n(k)^*$, ça nous donne la matrice de passage de la duale de la base canonique à la base des $\phi_{A_{i}}$, on transpose et on inverse cette matrice, et on a la matrice de passage de la base canonique à la base antéduale des $\phi_{A_{i}}$.

    Voilà, il ne te reste plus qu'à essayer sur des petits exemples :-D.
    D'ailleurs, avec cette "recette de cuisine", tu peux retrouver les polynômes de Lagrange : tu appliques ta forme d'évaluation à $1, X, X^2,\ldots, X^n$, tu mets tout ça dans une matrice (elle aura une tête de Vandermonde si je ne m'abuse), tu transposes, tu inverses, et les coefficients pondus sont exactement les coefficients des polynômes de Lagrange.

    [Alexandre-Théophile Vandermonde (1735-1796) mérite le respect de son patronyme (en un seul mot). AD]
  • Merci @Chat-maths
    Je connais la méthode que tu décris avec la transposée de la matrice de passage. Cependant, je n'arrivais pas à mettre du sens dessus.
    Merci de m'avoir rappelé la nature des formes linéaires de $M_n(k)$. J'essaye de bâtir des ponts solides.
    Il me semble qu'il n'y a pas de transposée dans l'écriture de cette forme linéaire ? $\phi_A: M \mapsto \mathrm{Tr}(AM)$

    Je pense que j'ai un peu balayé la question sur les espaces vectoriels principaux qu'on rencontre en mathématiques.
    Si vous avez d'autres exemples de dual d'un espace vectoriel (en dimension finie ou infinie), qui a des propriétés particulières ou qui méritent d'être cités, n'hésitez pas.
  • Je viens de voir une propriété intéressante, la matrice de changement de base $P$ de $ (e_{i})$ à $(f_{j})$ s'écrit $p_{i,j} = f_{j}^{t} e_{i}$ ce qui pour moi revient à dire $f_{j}^{*}(e_{i})$ en écrivant $f_{j}^{*}$ dans la base duale de la base dans laquelle on a écrit $f_{j}$ et $e_{i}$. Je ne sais pas d'où vient cette formule mais si elle est vraie elle est cool.
  • mini_calli: bah elle vient exactement de $f_j^*(e_i)$ !
  • Pour moi la formule c'est
    $$
    f_{i} = \sum_{j} e_{j}^{*}(f_{i}) e_{j}
    $$
  • Ah oui c'est ça.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!