Inverse d'une matrice de Vandermonde

Bonjour à tous,

Pourriez vous m'expliquer comment on calcule l'inverse d'une matrice de Vandermonde d'ordre $ n $ en utilisant l'interpolation de Lagrange ?

Merci d'avance.

Edit : Quel est l'inverse de : $ A = \begin{pmatrix} 1 & x & x^2 \\ 1 & y & y^2 \\ 1 & z & z^2 \end{pmatrix} $ ?

Réponses

  • Bonjour,

    Si tu ne sais pas inverser une bête matrice 3X3, je sens que la conjecture de Hodge va te résister quelque peu.

    Tu peux peut-être commencer par te renseigner sur ce qu'est une comatrice.

    Cordialement,

    Rescassol
  • On rigole bien, ici.
    Sinon, inverser Vandermonde peut se faire avec les polynômes d'interpolation de Lagrange.
    Bone soirée.
    RC
  • Non, ce n'est pas avec cette méthode que je cherche à inverser une matrice de Vandermonde, mais, avec la méthode qui utilise l'interpolation de Lagrange. :)
    Je cherche à inverser une matrice de Vandermonde d'ordre quelconque, mais d'abord, j'aimerai commencer par la plus simple, celle d'ordre $ 3 $, pour pouvoir comprendre le principe. :)
  •     |\^/|     Maple 10 (IBM INTEL LINUX)
    ._|\|   |/|_. Copyright (c) Maplesoft, a division of Waterloo Maple Inc. 2005
     \  MAPLE  /  All rights reserved. Maple is a trademark of
     <____ ____>  Waterloo Maple Inc.
          |       Type ? for help.
    
    > with(LinearAlgebra): 
    > A:=Matrix([[1,x,x^2],[1,y,y^2],[1,z,z^2]]);
                                                                          [           2]
                                                                          [1    x    x ]
                                                                          [            ]
                                                                     A := [           2]
                                                                          [1    y    y ]
                                                                          [            ]
                                                                          [           2]
                                                                          [1    z    z ]
    
    > MatrixInverse(A);
                                       [          y z                         z x                       y x          ]
                                       [ ---------------------     - ---------------------     --------------------- ]
                                       [               2                           2                         2       ]
                                       [ -y x + y z + x  - z x       -z x + y x - y  + y z     -z x + y x + z  - y z ]
                                       [                                                                             ]
                                       [          y + z                     x + z                       x + y        ]
                                       [- ---------------------     ---------------------     - ---------------------]
                                       [                2                         2                           2      ]
                                       [  -y x + y z + x  - z x     -z x + y x - y  + y z       -z x + y x + z  - y z]
                                       [                                                                             ]
                                       [           1                           1                         1           ]
                                       [ ---------------------     - ---------------------     --------------------- ]
                                       [               2                           2                         2       ]
                                       [ -y x + y z + x  - z x       -z x + y x - y  + y z     -z x + y x + z  - y z ]
    
    
  • Bonsoir,

    Oui, Guego, mais les dénominateurs se factorisent quelque peu:
    $ A^{-1} = \begin{pmatrix} -\dfrac{yz}{(z-x)(x-y)} & -\dfrac{zx}{(x-y)(y-z)} & -\dfrac{xy}{(y-z)(z-x)} \\ \dfrac{y+z}{(z-x)(x-y)} & \dfrac{z+x}{(x-y)(y-z)} & \dfrac{x+y}{(y-z)(z-x)} \\ -\dfrac{1}{(z-x)(x-y)} & -\dfrac{1}{(x-y)(y-z)} & -\dfrac{1}{(y-z)(z-x)} \end{pmatrix} $
    Cordialement,

    Rescassol
  • Merci, mais celà ne m'aide aucunement à comprendre le principe qui s'appuie sur l'interpolation de Lagrange. :)
  • Le sujet date un peu maintenant, mais il est toujours d'actualité et intéressant:

    On considère l'application $\Phi : \begin{align} & \mathbb{R}_{n-1}[X] \longrightarrow \mathbb{R} ^n \\ &P \longmapsto(P(a1), P(a2),...P(an)) \\ \end{align}$

    La matrice de $\Phi$ dans la base $(1,X,...,X^{n-1})$ est la matrice $ A $ qui s'écrit $(\Phi(1), \Phi(X),...,\Phi(X^n))$. C'est la matrice de Vandermonde:
    $ A=\begin{pmatrix} 1 & a_1 & a_1 ^2 &... & a_1^{n-1} \\ 1 & a_2 & a_2 ^2 &... & a_2^{n-1}\\ ...&...&...&...& ... \\
    1 & a_n & a_n ^2 &... & a_n^{n-1} \end{pmatrix}$

    On notera que les polynômes de Lagrange $(L_1,L_2,...,L_n)$ forment une base de $\mathbb{R}_{n-1}[X].$
    Il est difficile à priori d'inverser la matrice de Vandermonde, mais en exprimant $A$ dans la base des polynômes de Lagrange, c'est la matrice identité $I_n$.
    Pour rappel, $L_i(a_j)=\delta_{i,j}$. Donc
    $\Phi(L_1)=(1,0,...,0)$;
    $\Phi(L_2)=(0,1,0,...,0)$;
    ...;
    $\Phi(L_n)=(0,...0,1)$.

    La matrice $A$ est donc facile à inverser: $A^{-1}$ dans la base $(L_1,L_2,...,L_n)$ est aussi l'identité $I_n$.
    L'inverse de A dans la base $(1,X,...,X^{n-1})$ sera donc $(L_1(X),L_2(X),...,L_n(X))$.
    Pour $n=3$ on retrouve la solution qui a été donnée plus haut.
  • Bonsoir reg : :-)

    Merci beaucoup. Comme c'est très joli la manière avec laquelle tu expliques les choses. :-)
    Pablo_0 est le pseudonyme de mon ancien compte sur les-mathematiques.net. C'est moi l'auteur de ce fil. ça date de plus de 4 ans. ça me fait peur parce que le temps passe très très vite. Oh mon dieu, c'est comme si cela datait d'hier. Mais non, ça date de plus de 4 ans déjà. :-)

    Cordialement.
  • Bonjour,

    Que donne l'inverse de la matrice de Vandermonde $(3, 3)$, quand $x, y, z$ sont les racines distinctes de
    $X^3 + aX^2 + bX + c$ ?

    A+
    Arcsinus arcsinum fricat.
  • C'est une question dont tu as la réponse ou une question tout court?
    Je n'ai pas l'impression qu'interpréter $x,y,z$ comme les racines d'un polynôme aide beaucoup.
    Est-ce que tu suggères qu'on peut tout exprimer en fonction de $a,b,c$ ?
    Rien qu'en degré 3 ça a l'air abominable.
    Et pour les degrés supérieurs, à moins que Pablo accepte de livrer sa méthode générale d'extraction de racines...
    Après je bloque.
  • Si x=y=z=1il n'y a pas s'inverse.
  • J'apporte un témoignage personnel récent.

    1/ Toute ma vie quand je voyais "Vandermonde", je passais mon chemin. Je me disais "ok, des calculs".

    2/ Lors de je ne sais plus quelle occasion, je me suis aperçu de mon impasse.

    2.1/ Il est évident que pour toute fonction finie $f$ de cardinal $n+1$, il existe UN UNIQUE polynôme de degré $n$ qui prolonge $f$.

    2.2/ Or le désir s'exprime avec un système affine à résoudre.

    2.3/ Je me disais "voilà bien un drôle de truc: un exemple de format de systèmes où on sait à l'avance qu'il a une unique solution"

    3/ Et bien c'est ça me Vandermondisme. Ca m'a un peu sidéré (toute proportion gardée) et j'étais content. Je donne ci-dessous, pour les béotiens (rares sur ce forum) les formules à des multiplications près par des scalaires adaptés.

    3.1/ Soit les suites injectives $u,v$ de longueur $9$. On cherche un polynôme $P$ tel que $\forall i: P(u_i)=v_i$

    3.2/ Je note $Q_i$ le polynôme de degré $8$ obtenu en faisant le produit de tous les $(X-u_k)$ pour $k\neq i$.

    3.3/ On a $\forall i,j:[$ si $i\neq j$ alors $Q_i(u_j)=0$ ET $Q_i(u_i)\neq 0]$

    3.4/ Il suffit donc de choisir $d_i$ de façon $d_i\times Q_i(u_i)=v_i$ pour obtenir comme polynôme
    $$
    P:=\sum_i \ d_iQ_i,

    $$ un polynôme de degré $8$ qui comble le désir (3.1).

    4/ Mais même temps, C'EST DE L'ALGEBRE LINEAIRE. En effet:

    4.1/ La recherche de $P$, c'est la recherche de $d_i$'s tels que pour tout $i: $
    $$
    \Big(\sum_k \ [d_ku_i^k]\ \Big) = v_i .

    $$ 4.2/ Et en L1, on aborde tout un tas de notions à la fois pratiques et théoriques qui permettent de parler de ce système et de le résoudre.

    4.3/ Et on note que la matrice dont chaque ligne numéro $i$ est $(1,u_i,u_i^2,\dots , u_i^8)$ est justement "la" matrice de Vandermonde. Et l'avantage c'est que si tous les $u_i$ sont distincts 2 à 2 alors elle est inversible (c'est le "il existe un unique" du thème polynomial).

    5/ La morale de cette histoire est que parfois, derrière des calculs bruts, il y a des "sujets obsessionnels" de la science qui sont ré-abordés de plein de façon différentes.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Réinterprétations :
    • des vecteurs propres d'un endomorphisme associés à des valeurs propres deux à deux différentes sont linéairement indépendants ;
    • pour tout groupe (ou même monoïde) $G$ et tout corps $K$, tout ensemble de morphismes de $G$ dans $K^*$ forme une famille libre (de l'espace des fonctions de $G$ dans $K$).
  • Quand tu parles de vecteurs propres, Math Coss, c'est pour dire que les matrices de VanderMonde diagonalisent les matrices compagnon ?
  • Merci MC, je suis un peu comme marsup, en mode "rester sur ma faim", car je n'ai pas compris tes évocations. Je vois juste qu'en un certain sens (flemme de vérifier si c'est la transposée), une matrice de V va sans fatigue représenter:

    $$ P\mapsto (P(u_1,\dots ,P(u_9))$$

    avec le contexte qu'on devine, la lettre $P$ désignant un polynôme de degré "au plus tant" (ici $8$). En entrée, $P$ est donné par le uplet de ses coefficients.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
Connectez-vous ou Inscrivez-vous pour répondre.