Dérivation d'une intégrale à paramètre
Bonjour,
dans mon cours j'ai un théorème qui m'assure de la dérivabilité d'une intégrale à paramètre mais dans un exercice on me demande plus fort ($C^1$).
Soit $f$ définie de $J\times I \rightarrow \K$ où $I,J$ sont deux intervalles réels. Si :
1. $\forall a\in I, x\rightarrow f(x,a)$ est intégrable sur $J$.
2. Pour presque tout $x\in J$, $a\rightarrow f(x,a)$ est dérivable sur $I$.
3. $\exists{ }g$ intégrable sur $J$, $\forall a\in I$, $|f'_a(.,a)|\leq g$ presque partout.
alors $F : a \rightarrow \int_J f(x,a)dx$ est dérivable sur $I$ et $\forall b \in I, F'(b)=\int_Jf'_a(x,b)dx$
Y a-t-il une condition à ajouter pour m'assurer de la continuité de $F'$ ?
Ou dois-je ensuite utiliser le théorème de continuité d'une intégrale à paramètre sur $F'$ ?
dans mon cours j'ai un théorème qui m'assure de la dérivabilité d'une intégrale à paramètre mais dans un exercice on me demande plus fort ($C^1$).
Soit $f$ définie de $J\times I \rightarrow \K$ où $I,J$ sont deux intervalles réels. Si :
1. $\forall a\in I, x\rightarrow f(x,a)$ est intégrable sur $J$.
2. Pour presque tout $x\in J$, $a\rightarrow f(x,a)$ est dérivable sur $I$.
3. $\exists{ }g$ intégrable sur $J$, $\forall a\in I$, $|f'_a(.,a)|\leq g$ presque partout.
alors $F : a \rightarrow \int_J f(x,a)dx$ est dérivable sur $I$ et $\forall b \in I, F'(b)=\int_Jf'_a(x,b)dx$
Y a-t-il une condition à ajouter pour m'assurer de la continuité de $F'$ ?
Ou dois-je ensuite utiliser le théorème de continuité d'une intégrale à paramètre sur $F'$ ?
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
pour le dernière question on me demande de calculer la limite en $+\infty$ de $F(t)=\int_{\R}cos(xt)e^{-x^2}dx$.
J'ai fait un changement de variable et introduit une suite $(t_n)$ de réels positifs qui diverge vers $+\infty$.
J'obtiens $F(t_n)=2\int_0^{+\infty}\frac{cos(u)e^{-x^2/t_n^2}}{t_n}du$ mais je n'arrive pas à justifier ensuite de l'interversion limite/intégrale.
Mais oui à la réflexion en regardant la question précédente la demande de $F'$ était sans doute là pour ça.
J'ai du mal avec l'application du théorème de convergence dominée d'une manière générale.
Quand on trouve une fonction dominante "facilement" ça va mais dans le cas contraire c'est infernal.
D'ailleurs il y a un point que je ne comprend pas du tout.
On insiste sur le fait que cette fonction dominante ne doit pas dépendre de $t$ mais dans pas mal de corrections, quand ça coince, on fixe un $a>0$ et on place $t$ dans $[0,a]$ (ou $[a,\infty[$ suivants les cas).
Comment on justifie ensuite que c'est vrai pour tout $t>0$ ?
Si je dis, par exemple, que pour tout $t>0, \exists a=t+1, t\in [0,a]$ pour réinvestir ce qui a été fait avant, mon $a$ dépend de $t$.
Cela peut signifier que la fonction dominante n'existe pas et qu'on ne peut donc pas appliquer les théorèmes du cours. Pour surmonter le problème, il faut souvent passer par des moyens assez détournés, sans qu'il y ait la moindre recette universelle. Ca peut en effet être infernal.
> On insiste sur le fait que cette fonction dominante ne doit pas dépendre de $t$
> mais dans pas mal de corrections, quand ça coince, on fixe un $a>0$ et on place $t$ dans $[0,a]$.
Ce type de raisonnement permet de montrer que l'intégrale dépendant d'un paramètre vérifie la propriété voulue (continuité, dérivabilité par exemple) sur tout intervalle $[0,a]$. La propriété est alors vérifiée sur $[0,+\infty[$.
$x\mapsto k\in\R$ est intégrable sur $[0,a],~\forall a>0$ donc elle est intégrable sur $[0,+\infty[$ ?
$x\mapsto \frac{1}{x^2}$ est intégrable sur $[a,+\infty[,~\forall a>0$ donc elle est intégrable sur $]0,+\infty[$ ?
non pas du tout. Si on m'avait posé la question, à froid j'aurais répondu non.
Donc je ne suis plus sûr de rien.