Équations différentielles linéaires

Bonsoir
Je bloque sur l'exercice suivant.

Soit l'équation différentielle $y"+ay'+by=0$ où $a,b \in \R$.
1) Montrer que le solutions forment un espace vectoriel $S$ sur $\R$.


Montrons que c'est un sous-espace vectoriel $S$ de l'ensemble des fonctions de $\R$ dans $\R$.
  • La fonction nulle est solution.
  • Si $y_1$ est solution et $y_2$ solution, alors $y_1+y_2$ est solution.
  • Pour tout scalaire $\lambda$, si $y$ est solution alors $\lambda y$ est solution.
2) À l'aide du théorème d'existence et d'unicité, montrer que $\dim_{\R} S=2$

Le théorème affirme que pour tout $y_0,z_0$, il existe une unique solution $y$ qui vérifie $y(0)=y_0$ et $y'(0)=z_0$.
Mais après je ne vois pas.

Réponses

  • Tu prends la solution qui vaut 1 en 0 et de dérivée nulle en 0, ainsi que la solution qui vaut 0 en 0 mais de dérivée 1 en 0, puis tu démontres (avec une vraie démonstration 8-)) que ça forme une famille libre et génératrice.

    PS : il est bien évidemment inutile de calculer ces deux solutions, on a besoin que du théorème que tu as cité.
  • Tu peux aussi simplement voir que l'application de $S$ dans ${\mathbb R }^2 $ qui à une solution $f$ associe $(f(0) , f'(0))$ est un isomorphisme.
  • C'est effectivement à la fois un peu plus simple et plus élégant.
  • Bonjour,

    D'accord merci. J'étais occupé à corriger des centaines de copies. Je reviens à mon problème.

    Posons $y_1(y_1(0)=1,y_1 '(0)=0)$ et $y_2(y_2(0)=0,y_2 '(0)=1)$

    Soit $y(y(0)=\alpha,y'(0)=\beta)$ une solution fixée.

    Considérons le système :

    $\begin{cases} A y_1 (0)+ By_2(0)= \alpha \\ A y_1 ' (0)+ By_2 '(0)= \beta \end{cases}$

    C'est un système de Cramer de déterminant $1 \ne 0$ donc il admet une unique solution $(A,B) \in \R^2$

    Ainsi, $(y_1,y_2)$ forment une base de $S$.

    La suite est :

    On considère l'équation caractéristique : $r^2+ar+b=0$.

    1) Montrer que si elle admet 2 solutions réelles $r_1$ et $r_2$ alors la solution générale est $y=A e^{r_1 x}+ Be^{r_2 x}$


    Il suffit de montrer que la famille $(e^{r_1 x}, e^{r_2 x})$ est libre pour des raisons de dimension.

    Soit $\lambda_1 e^{r_1 x} + \lambda_2 e^{r_2 x} =0$

    Pour $x=0$ on obtient $\lambda_1+ \lambda_2=0$ et pour $x=1$ on obtient $\lambda_1 e^{r_1 } + \lambda_2 e^{r_2 } =0$

    On combinant ces 2 équations, on trouve $\lambda_1 (e^{r_1} - e^{r_2}) =0$

    Si $e^{r_1} - e^{r_2}=0$ alors $e^{r_1} = e^{r_2} \implies r_1=r_2$ ce qui est absurde donc $r_1 \ne r_2$.

    La famille est libre, c'est donc une base.

    2) Montrer que si l'équation caractéristique admet une racine double $r$ alors la solution générale est $y=(A+Bx) e^{rx}$

    Il suffit de montrer que la famille $(e^{rx},xe^{rx})$ est libre.

    Soit $\lambda_1 e^{r x} + \lambda_2 x e^{r x} =0$

    Pour $x=0$ on obtient $\lambda_1=0$ ce qui donne pour $x=1$ : $\lambda_2 e^{rx}=0 \implies \lambda_2=0$

    La famille est libre, c'est donc une base.

    3) Montrer que si l'équation caractéristique admet deux racines complexes conjuguées $\alpha \pm i \beta$ alors la solution générale est donnée par $y=e^{\alpha x} (A \cos(\beta x) + B \sin (\beta x))$

    Je bloque sur cette dernière question.

    Je dois montrer que $(e^{\alpha x} \cos(\beta x), e^{\alpha x} \sin(\beta x))$ est une famille libre. Mais je ne vois pas comment faire.
  • @Frédéric Bosio

    Merci. L'application $\phi : S \longrightarrow \R^2 \\ f \mapsto (f(0),f'(0))$ est un isomorphisme.

    En effet, $\phi$ est clairement une application linéaire. Montrons qu'elle est injective :

    $Ker(\phi) = \{ f \in S \ | (f(0),f'(0))=(0,0) \} $

    En effet, si $f(0)=f'(0)=0$ alors $f''(0)=0$. Mais comment en déduire que $\forall x \in \R \ f(x)=0 $ ?
  • Utilise le théorème d'unicité...
  • C'est toujours le théorème de Cauchy Lipschitz qui conclut.

    Et pour montrer que ta famille est libre franchement c'est pas compliqué je suis sûr que tu n'as rien tenté
  • Le théorème de Cauchy donne l'existence et l'unicité d'une solution vérifiant $f(0)=0$ et $f'(0)=0$ mais comment en déduire que $f$ est l'application nulle ?

    Pour la famille libre voici mon raisonnement :

    Soit $\lambda_1 e^{\alpha x} \cos( \beta x) + \lambda_2 e^{\alpha x} \sin( \beta x)=0$

    Pour $x=0$ on trouve $\lambda_1=0$ ce qui donne : $\lambda_2 e^{\alpha x} \sin( \beta x)=0$

    On sait que $\beta \ne 0$ sinon on est dans le cas réel déjà traité précédemment.
    Prenons $x=\dfrac{\pi }{2 \beta}$ on trouve : $\lambda_2 \exp(\dfrac{\pi \alpha }{2 \beta}) =0 \implies \lambda_2=0$

    Donc la famille est une base.
  • Ton problème a une seule solution $f$ d'après Cauchy-Lipschitz.
    $x\mapsto 0$ est solution.
    Donc l'unique solution de ton problème est $x\mapsto 0$.
    En particulier, si $f$ est solution de ton problème, $f=(x\mapsto 0)$.
  • Merci àGai Requin je viens de comprendre.

    Je n'avais pas pensé à utiliser le fait que $x \mapsto 0$ est solution :-o

    Soit $f$ une solution telle que $f(0)=0$ et $f'(0)=0$
    La fonction nulle que l'on peut noter $g$ est solution et vérifie $g(0)=0$ et $g'(0)=0$
    Par unicité, $f=g$ donc $f$ est la fonction nulle.

    Je préfère la solution de @Frédéric Bosio à l'indication de mon livre, elle est bien plus rapide et plus facile.
  • Voici la solution sans Cramer que j'avais en tête.

    Soit $y_1$ la solution telle que $y_1(0) = 1$ et $y_1'(0) = 0$, et $y_2$ la solution telle que $y_2(0) = 0$ et $y_1'(0) = 1$ (le théorème que tu as cité affirme que ces solutions existent bien et sont uniques).

    Alors la famille $(y_1,y_2)$ est libre. En effet, supposons que $c y_1 + d y_2 = 0$. Alors $c y_1(0) + d y_2(0) = 0$ et donc $c = 0$, mais on a aussi $c y_1' + d y_2' = 0$, et on en déduit en évaluant en $0$ que $d = 0$.

    La famille $(y_1,y_2)$ est génératrice. En effet, soit $y \in S$. Alors $y = y(0)y_1 + y'(0)y_2$. En effet, d'après le théorème de Cauchy-Lipschitz, la solution qui vaut $y(0)$ en $0$ et $y'(0)$ en $0$ est unique, or $y(0)y_1 + y'(0)y_2$ est bien une telle solution, donc $y = y(0)y_1 + y'(0)y_2$.

    CQFD

    L'idée de Frédéric Bosio est encore plus directe (ce qui veut dire que la démonstration doit être moins longue, pas plus longue !).

    Edit : je n'avais pas vu que tu avais des questions qui suivaient.
  • Solution de Bosio : Montrons que ton application linéaire $\phi$ est injective et surjective, et donc que c'est un isomorphisme.

    Elle est surjective, puisque d'après le théorème que tu as cité, pour tout $(c,d) \in \mathbb R^2$, il existe $f \in S$ telle que $f(0) = c$ et $f'(0) = d$, ce qui est exactement la definition de surjectivité.

    Elle est injective. En effet, supposons que $\phi(f) = 0$. Alors $f(0) = f'(0) = 0$. Or $g:x\mapsto 0$ est aussi un élément de $S$ tel que $g(0) = g'(0) = 0$. Mais comme une telle solution est unique, on a que $f = g$ c'est-à-dire que $f = 0$.

    CQFD

    Simple non ?
  • Comment montrer que $\mathcal B = \{ e^{\alpha x} \cos(\beta x), e^{\alpha x} \sin(\beta x)\}$ est une base dans le troisième cas ?

    On vérifie d'abord bien sûr que $\mathcal B \subset S$ dans ce cas, ce que tu as oublié de faire à chaque fois.

    Ensuite (et seulement ensuite), il suffit en effet de montrer que c'est une famille libre. On y arrive en voyant que $c \times e^{\alpha x} \cos(\beta x) + d\times e^{\alpha x} \sin(\beta x) = 0$ entraîne que $c = 0$ en évaluant en $0$. Et donc $d\times e^{\alpha x} \sin(\beta x) = 0$. En évaluant en $\dfrac{\pi}{2\beta}$, on trouve $d \times e^{ \dfrac{\alpha\pi}{2\beta}} = 0$, et donc $d = 0$.

    Mais on peut aussi se servir du fait que $\phi$ est un isomorphisme, et donc l'image d'une base est une base mais l'image réciproque d'une base est une base aussi. Or l'image de $\mathcal B$ vaut $\{ (1,0), (\alpha, \beta) \}$, qui est bien une base de $\mathbb R^2$.

    Et tu remarqueras qu'au fond, même si la deuxième solution est une fois encore plus élégante, ça reste fondamentalement la même chose qu'on fait, on utilise que $\beta \neq 0$, la première fois pour diviser par $\beta$, la deuxième fois pour justifier qu'on a bien une base de $\mathbb R^2$. Et dans les deux cas, on justifie d'abord que $\mathcal B \subset S$, sinon tout devient faux !
  • Dans le cas de $r$ racine double tu écris :
    Il suffit de montrer que la famille $(e^{rx},xe^{rx})$ est libre.

    1. Déjà tu devrais écrire des fonctions et non pas des valeurs réelles.
    2. Cela ne suffit pas puisque tu n'as pas montré (sauf si j'ai omis de lire le bout concerné) que tes fonctions sont des solutions.
  • C'est sur ce point que j'ai particulièrement insisté dans mon message précédent, mais tu fais bien de le redire, je ne suis pas certain d'être lu par OShine B-)-
  • D'accord merci.

    Je pose $z= e^{(\alpha+i \beta) x}$ et $Q= P''+aP'+bP$

    Le polynôme $Q$ est à coefficients réels donc si $z$ est solution alors $\bar{z}$ aussi. (d'après ce que m'a expliqué @Noobey)

    On a $z'=(\alpha+i \beta) z$ et $z"=(\alpha+i \beta)^2 z$

    Ainsi $z"+az'+bz= \left( (\alpha+i \beta)^2 +(\alpha+i \beta)a +b \right) z$

    Comme $\alpha+i \beta$ est solution de l'équation alors $z"+az'+bz=0$

    Ainsi $z$ et $\bar{z}$ sont solution de l'équation différentielle et par stabilité $\dfrac{z+\bar{z}}{2}=e^{\alpha x} \cos(\beta x)$ et $\dfrac{z-\bar{z}}{2i}=e^{\alpha x} \sin(\beta x)$ le sont aussi.
  • @Rakam

    Ok merci pour cette précision. En effet, on est dans un espace vectoriel des fonctions.

    Plaçons nous dans le cas ou $r$ est racine double de l'équation caractéristique.

    Posons $f(x)=e^{rx}$
    Alors $f"(x=+af'(x)+bf(x)=r^2 e^{rx}+are^{rx}+be^{rx}=e^{r x} (r^2+ar+b)=0$ car $r$ est racine de l'équation caractéristique.

    Posons $g(x)=xe^{rx}$

    Alors $g''(x)+ag'(x)+bg(x)=xe^{rx} (r^2+ar+b) + e^{rx} (2r+a)=0+0=0$ car $r$ est racine double donc $r=\dfrac{-a}{2}$
Connectez-vous ou Inscrivez-vous pour répondre.