Famille exponentielle libre

Bonjour,
je considère $\mathbb{C}^I$, l'espace des fonctions $I\to\mathbb{C}$ vu comme un $\mathbb{C}$-ev où $I$ est n'importe quel intervalle ouvert (car je vais dériver à un moment) de $\mathbb{R}$.

J'aimerais montrer que la famille d'exponentielles $E = (e_n)_{n\in\mathbb{N}}$ avec $e_n\colon x\mapsto \mathrm{e}^{\alpha_nx}$ (où les $\alpha_n$ sont des nombres complexes deux à deux distincts) est libre.
En raisonnant par l'absurde, je suppose que la famille est liée. Il existe donc un entier $N$ et $N$ complexes $\lambda_i$ non tous nuls tels que $\sum_{k=1}^N \lambda_ke_k = 0$.
Pour tout $n\in\mathbb{N}$ fixé, en dérivant $n$ fois cette somme on obtient $\sum_{k=1}^N \lambda_k \alpha_k^n e_k = 0$. On en déduit que pour tout polynôme $P$ on a $$\sum_{k=1}^N \lambda_k P(\alpha_k) e_k = 0.
$$ Comme les $\alpha_n$ sont deux à deux distincts on peut utiliser les polynômes d'interpolation de Lagrange pour construire une famille $P_i$ telle que $P_i(\alpha_j) = \delta_{ij}$. On montre ainsi que les $\lambda_i$ sont tous nuls. Arrivant à une contradiction, on en conclut que la famille est libre.

Est-ce que ce raisonnement est correct ?

En fait j'ai deux doutes
- le premier sur le fait que les polynômes de Lagrange acceptent les variables complexes mais je n'ai rien trouvé sur le net.
- le second est que je n'ai jamais eu besoin de préciser sur quel intervalle la famille était libre. Bref comme le résultat me semble trop général, j'ai peur qu'il y ait un loup quelque part.
Je vous remercie par avance pour votre aide.
Cordialement,
Mister Da

Réponses

  • Jolie démonstration, qui fonctionne. Oui l'interpolation de Lagrange marche sur n'importe quel corps ! Il suffit de voir que cela se ramène à inverser une matrice de Vandermonde.
  • C'est tout à fait correct, les polynômes interpolateurs de Lagrange existant sur n'importe quel corps de base. On n'a pas besoin de la forme de $I$. C'est vrai aussi sur un intervalle quelconque d'intérieur non vide (raisonner dans l'intérieur puis passer à la limite pour le ou les bords de l'intervalle).
  • On peut aussi procéder par récurrence.
  • On peut encore observer que la fonction $ x\mapsto \mathrm{e}^{\alpha x}$ est un vecteur propre de l'opérateur linéaire de dérivation, associé à la valeur propre $\alpha$, et qu'une famille finie de vecteurs propres, avec valeurs propres distinctes, est libre.
    Ce qui se démontre au choix avec polynômes interpolateurs ou mieux par récurrence, on y revient.
    Bonne journée.
    Fr. Ch.
  • Je vois plus ce résultat d'indépendance linéaire comme la résolution d'un système (dont les inconnues sont les vecteurs propres $v_1,\dots,v_n$) et la matrice est une matrice de Vandermonde $(\alpha_i^{j-1})_{1\le i,j\le n}$.
  • Bonjour,

    merci à tous pour vos messages.

    @Poirot : le coup de dériver et de passer par les polynômes je l'ai vu sur le forum il y a quelques temps pour une autre démonstration, je ne sais plus quel intervenant l'avait écrit sans doute quelqu'un comme ev.

    @Paul Broussous : merci pour l'information, du coup en rajoutant ce que tu dis on peut prendre un intervalle quelconque d'intérieur non vide. S'il est fermé, je considère un intervalle ouvert contenu dedans puis je justifie le passage à la limite pour le(s) bord(s) en disant que les $e_n$ sont continues ?

    @Chaurien : juste pour être certain, on utilise le fait que les espaces propres associés à des valeurs propres différentes sont en somme directe et comme les $e_n$ sont des bases de ces espaces, la famille est libre ?

    Au tout début j'ai essayé par récurrence. La famille $(e_1)$ est libre car $e_1$ n'est pas la fonction nulle. Puis j'ai supposé que $(e_1,\dots,e_n)$ est libre et j'ajoute $e_{n+1}$ j'écris la combinaison linéaire $\lambda_1e_1+\dots+\lambda_ne_n + \lambda_{n+1}e_{n+1} = 0$. De là je voulais montrer que $\lambda_{n+1}$ était forcément nul mais je tourne en rond en fait et je voulais éviter de piocher $n+1$ $x$ qui vont bien et de résoudre un système d'équations.

    Cordialement,
    Mister Da
  • De \[\sum_{i=1}^{n+1}\lambda_ie_i=\vec0,\] tu déduis en appliquant l'endomorphisme (en dérivant, dans ce cas) que \[\sum_{i=1}^{n+1}\alpha_i\lambda_ie_i=\vec0.\] On multiplie la première égalité par $\alpha_{n+1}$ et on soustrait la deuxième, il vient : \[\sum_{i=1}^n(\alpha_i-\alpha_{n+1})\lambda_ie_i=\vec0.\] Là on peut appliquer l'hypothèse de récurrence pour obtenir $(\alpha_i-\alpha_{n+1})\lambda_i=0$ pour $i\le n$, puis $\lambda_i=0$ pour $i\le n$ (car $\alpha_i\ne\alpha_{n+1}$ si $i<n+1$) et enfin, en reportant, $\lambda_{n+1}=0$ puisque $e_{n+1}\ne\vec0$.
  • re bonjour,

    @Math Coss, nos messages se sont croisés. Merci pour la récurrence, je n'aurais pas pensé à partir dans "l'autre sens".

    Pour utiliser les matrices de Vandermonde, je dérive $N-1$ fois et pour un $x\in I$ donné on a
    $$
    \left[
    \begin{array}{ccc}
    1&\dots&1\\
    \vdots & & \vdots\\
    \alpha_1^{N-1} &\dots&\alpha_N^{N-1}\\
    \end{array}
    \right]
    \left[
    \begin{array}{c}
    \lambda_1e_1(x)\\\vdots\\\lambda_Ne_N(x)
    \end{array}
    \right]
    =\left[
    \begin{array}{c}
    0\\\vdots\\0
    \end{array}
    \right].
    $$
    Son déterminant est $\prod _{{1\leq i<j\leq N}}(\alpha _{j}-\alpha _{i})\neq 0$ on a donc
    $$
    \left[
    \begin{array}{c}
    \lambda_1e_1(x)\\\vdots\\\lambda_Ne_N(x)
    \end{array}
    \right]
    =\left[
    \begin{array}{c}
    0\\\vdots\\0
    \end{array}
    \right]
    $$
    ce qui implique $\lambda_i$ tous nuls.

    C'est ça ?

    Cordialement,
    Mister Da

    Edit : Transposition de la matrice de Vandermonde. Merci Math Coss.
  • Oui, à transposition de la matrice initiale près (c'est $(\alpha_i^{j-1})_{1\le i,j\le n}$ et pas $(\alpha_j^{i-1})_{1\le i,j\le n}$).
  • On doit aussi pouvoir faire grâce au théorème de Cauchy-Lipschitz : unicité de la solution à la bonne équation différentielle linéaire avec conditions initiales nulles.

    -- edit : euh à la réflexion, ça me semble douteux : j'ai l'impression qu'il faudra quand même montrer l'inversibilité de la matrice de Vandermonde.
  • Si $I=\R$, et si, pour tout $x \in \R$, $\sum_{k=1}^n \lambda_k e^{\alpha_k x}=0$. On suppose que, pour tout $k=2,\dots,n$, on a $\Re \alpha_1\geq \Re \alpha_k$. Alors on divise l'égalité par $e^{\alpha_1x}$. Donc $\lambda_1+\sum_{k=2}^n \lambda_k e^{(\alpha_k-\alpha_1)x}=0$.
    (Dans la suite le $k$ n'est pas en indice par rapport à $\alpha$)
    Si $\Re \alpha<0$, $$ \lim_{n\mapsto + \infty} \frac{1}{n} \sum_ {k=0}^{n-1} e^{\alpha k} =0,$$ car $e^{\alpha k} \mapsto 0$ quand $k \mapsto +\infty$.
    Si $\alpha \in i\R$ et $\alpha\neq 0$, alors $$ \lim_{n\mapsto + \infty} \frac{1}{n} \sum_ {k=0}^{n-1} e^{\alpha k}=\lim_{n\mapsto +\infty} \frac{1}{n} \frac{e^{\alpha n}-1}{e^{\alpha} -1}=0$$.
    Donc $\lambda_1=0$ (en prenant la limite de la moyenne de chacun des termes de l'égalité évalués en $x=0, \dots, n-1$).
    Et de même, $\lambda_2=\dots=\lambda_n=0$.
    Donc la famille est libre.

    On peut se ramener à $I=\R$ par le théorème des zéros isolés.
  • Bonjour,
    @Math Coss : merci, je viens de corriger la coquille.
    @marsup : ce n'est peut-être pas assez algébrique à mon goût ;)
    @marco, pour le cas $\Re \alpha<0$, on pourrait faire tendre $x$ vers l'infini directement non ?

    Cordialement,
    Mister Da
  • Si on veut montrer par l'absurde que, par exemple, la famille de fonctions $(1,e^{ix},e^{-x})$ est libre, on suppose que, pour tout $x$, $\lambda+\mu e^{ix} + \nu e^{-x}=0$. On fait la "moyenne" de $(e^{ik})$, donc on doit aussi faire la moyenne de $(e^{-k})$, sinon ce n'est plus une égalité (il me semble).
  • Bonjour,

    merci à tous pour vos messages. J'ai remis à plat les différentes démonstrations que vous m'avez proposées et je pense que c'est clair pour moi maintenant.

    Il me reste juste la généralisation proposée par Paul Broussous qui disait que c'était "également vrai aussi sur un intervalle quelconque d'intérieur non vide (raisonner dans l'intérieur puis passer à la limite pour le ou les bords de l'intervalle)." que j'arrive pas à rédiger proprement.

    On peut prendre un intervalle quelconque d'intérieur non vide. S'il n'est pas ouvert, je considère le plus grand intervalle ouvert contenu dedans puis je justifie le passage à la limite pour le(s) bord(s) en disant que les $e_n$ sont continues ? Je ne sais pas trop ce qu'il faut écrire au final.

    Merci par avance pour votre aide.
    Cordialement,
    Mister Da
  • Tu cherches à montrer que ta famille $(e_n)_n$ est libre dans $\mathbb R^{[a, b]}$ avec $a < b$. Comme tu l'as fait dans ton premier message, il suffit de montrer que chaque $(e_n)_{0 \leq n \leq N}$, pour $N \in \mathbb N$, est libre. Soient donc $N \in \mathbb N$ et $\lambda_1, \dots, \lambda_N \in \mathbb R$ tels que $$\sum_{n=0}^N \lambda_n e_n = 0.$$ En particulier, $$\forall x \in ]a, b[, \sum_{n=0}^{N} \lambda_n e_n(x) = 0.$$ Tu as montré que cela impliquait que $\lambda_1, \dots, \lambda_N = 0$, donc c'est terminé. Pas besoin de passage à la limite.

    Plus algébriquement, l'opérateur de restriction de $\mathbb R^{[a, b]} \rightarrow \mathbb R^{]a, b[}$ est linéaire, et tous les antécédents d'une famille libre est libre.
  • Bonjour,

    merci ! Finalement si on considère deux intervalles $I$ et $J$ tels que $I\subset J$, si on montre que la famille est libre sur $I$ alors elle sera nécessairement libre sur $J$. Je ne sais pas ce que j'ai fait ce week-end mais ça ne voulait pas.

    Cordialement,
    Mister Da
Connectez-vous ou Inscrivez-vous pour répondre.