Équivalent série de fonctions (difficile ?)
Bonjour,
équivalent quand $x\to +\infty$ de $$f(x) = \sum_{n=1}^{+\infty} \frac{(-1)^{n-1} n}{n^2+x^2} .
$$ Conjecture : $f(x)\underset{+\infty}{\sim} \frac{1}{4x^2}$
La comparaison série / intégrale ne marche pas (découpage $n=2p$ et $n=2p-1$ préalable mais les fonctions $t\mapsto \frac {t}{t^2+x^2}$ ne sont pas monotones).
équivalent quand $x\to +\infty$ de $$f(x) = \sum_{n=1}^{+\infty} \frac{(-1)^{n-1} n}{n^2+x^2} .
$$ Conjecture : $f(x)\underset{+\infty}{\sim} \frac{1}{4x^2}$
La comparaison série / intégrale ne marche pas (découpage $n=2p$ et $n=2p-1$ préalable mais les fonctions $t\mapsto \frac {t}{t^2+x^2}$ ne sont pas monotones).
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
EDIT : Raté ça ne marche pas car le terme général ne tend pas assez vite vers $0$.
Dans mon livre ils parlent souvent d'une méthode astucieuse appelée "équivalent à la moitié du premier terme", où ils font une espèce de transformation d'Abel en écrivant : $$
f(x)=\frac{u_1(x)}{2}+ \frac{1}{2} \sum_{n=1}^{\infty} (-1)^{n-1} (u_n-u_{n+1}), $$ avec $u_n(x)=\frac{n}{n^2+x^2}.$
Bon ici ça échoue de toutes façons :-D mais peut-être qu'en adaptant...?
D'où tu obtiens le développement asymptotique de
\begin{align*}
f(x) &= \sum_{n=1}^{+\infty} \frac{(-1)^{n-1} n}{n^2+x^2} =\Re(\sum_{n \ge 1} \frac1{2n-1+ix}-\frac1{2n+ix}) \\
&=\Re(\sum_{n\ge 1}\sum_{m=1}^M C_m (\frac1{(2n-1+ix)^m}-\frac1{(2n-1+ix+2)^m}) +O( \frac1{|n+x|^{M+1}})) \\
&=\Re(\sum_{m=1}^M C_m \frac1{(1+ix)^m} )+O(\frac1{|x|^{M}}).
\end{align*}
Je ne suis pas très à l'aise avec l'intégration complexe, les résidus...
Sinon je ne connais pas la méthode des moments.
La "formule d'Euler-Mac Laurin" donne en effet assez facilement l'équivalent cherché:
$\:\forall x \in \R^* \:\:$je note: $\:\:\:\:\:g_x: \left\{ \begin{array} {ccl}\R_+& \longrightarrow &\R \\ t& \longmapsto & \dfrac {2t-1}{(2t-1)^2 + x^2} -\dfrac {2t}{(2t)^2 +x^2}.\\ \end{array}\right.\quad \quad \quad \text{Alors:} \quad f(x) = \displaystyle \sum_{n=1}^{+\infty} g_x(n)$
Avec $\:\displaystyle \lim _{N\to +\infty} g_x(N) = \lim_{N\to +\infty} g_x'(N) =0,\quad$ la "formule d' Euler-Mac Laurin" dit que:
$f(x) = \dfrac { g_x(1)}2\: +\:\displaystyle \int _1 ^{+\infty} g_x(t) \mathrm d t\:\: -\:\: \dfrac {g_x'(1)}{12 }\:\:+\:\: \int _1 ^{+\infty} B(t) \:g_x''' (t) \mathrm dt\:\:$ où $B$ est une fonction $1-\text{périodique,}\:$ continue par morceaux sur $\R.$
L'examen des deux derniers termes de la somme précédente montre que: $\:f(x) = \dfrac {g_x(1)}2 + \displaystyle \int _1 ^{+\infty} g_x(t) \mathrm d t \:+\: o(x^{-2}).$
Et un dernier calcul mène à : $\:\dfrac{g_x(1)}2 \underset{x\to +\infty} \sim \dfrac {-1}{2x^2},\quad \displaystyle \int _1^{+\infty} g_x \underset{x\to + \infty} \sim \dfrac 3{4x^2},\quad$ puis à $\: \boxed{ f(x) \underset{x\to + \infty}\sim \dfrac 1 {4x^2}.}$
f(x) = \sum_{n=1}^{+\infty} \frac{(-1)^{n-1} n}{n^2+x^2} =\Re(\sum_{n \ge 1} \frac1{2n-1+ix}-\frac1{2n+ix})$ ?
Je pense qu'il n'y a pas de solution plus simple (pour le développement asymptotique complet, pour le premier terme probablement que si), c'est l'application d'Euler MacLaurin à $\Gamma'/\Gamma(z)-\Gamma'/\Gamma(z+1/2)$,
Euler MacLaurin qui donne directement une expression pour les $C_m$ en terme des nombres de Bernoulli, nombres de Bernoulli qui (en dehors des cas qui se ramènent à $\frac{t}{e^t-1}$) n'apparaissent qu'avec ce type de méthode.
[ Bernoulli ne prend pas de 'i' avant ses deux 'll'. AD]
De l'égalité $\displaystyle (-1)^{n-1}\frac{n}{n^2+x^2}=\int_0^{+\infty} (-1)^{n-1} \exp(-nt) \cos(t x) dt ,$
on en tire que $\displaystyle f(x)=\int_0^{+\infty} \frac{1 }{1+ \exp(t)} \cos(t x) dt . $
Ensuite on effectue 2 intégrations par parties qui vont donner le résultat.
On obtient $f(x)=\displaystyle\sum_{k=1}^p\dfrac{a_k}{(2x)^{2k}}+O\left(\dfrac1{x^{2p+2}}\right)$ où les $a_k$ sont des nombres entiers appelés nombres tangents car ils apparaissent dans le développement en série entière : $\tan(x)=\displaystyle\sum_{k=1}^{+\infty}a_k\dfrac{x^{2k-1}}{(2k-1)!}$.
Après les 2 IPP suggérées par bd2017 j'obtiens :
$$\displaystyle f(x)=\frac{1}{4x^2}+ \frac{1}{x^2} \int_0^{+\infty} \frac{\exp(t) (1-\exp(2t)) }{(1+ \exp(t))^4} \cos(t x) dt $$
On se rapproche, mais comment conclure à la négligeabilité du deuxième terme devant le premier ?
Je suis plus à l'aise avec la méthode de bd2017, moins technique...du moins à première vue :-)
Il existe pour les séries alternées l'analogue de la formule d'Euler-Maclaurin, qui prend le nom ici de formule sommatoire de Boole, et qui s'énonce ainsi :
Soit $M \in \Z_{\geqslant 1}$ et $f \in C^{2M+1} (\mathbb{R}_+)$ telle que $f$ et toutes ses dérivées tendent vers $0$ en décroissant. Alors, il existe $\theta \in \left] 0,1 \right[$ tel que
$$\sum_{n=1}^{\infty} (-1)^{n-1} f(n) = \tfrac{1}{2} f(1) - \sum_{k=1}^M C_{2k} f^{(2k-1)} (1) - \theta C_{2M+2} f^{(2M+1)}(1)$$
où l'on a posé pour tout $k \in \mathbb{Z}_{\geqslant 1}$ les nombres $C_{2k} := \dfrac{4^k-1}{(2k)!} B_{2k}$, les $B_{2k}$ étant les usuels nombres de Bernoulli.
Par exemple avec $M=1$, on obtient tout de suite pour $x \to \infty$
$$f(x) = \frac{1}{4(x^2+1)} + O \left( \frac{1}{x^4} \right).$$
Je n'ai pas le temps de tout lire mais surement que le message de Side mérite d'être regardé de plus près.
Perso j'essaie d'apporter une solution la plus élémentaire possible donc pour répondre à Totem
1. échange série-intégrale oui la CV dominée est très facile ici.
2. Pour la négligeabilité du second terme il faut refaire une IPP.
Sinon on peut regarder le message de Jandri ça doit fonctionner.
$$\displaystyle f(x)=\frac{1}{4x^2}+ \frac{1}{x^3} \int_0^{+\infty} (-\frac{\exp(t) }{(1+ \exp(t))^2}+ \frac{6\exp(2t) }{(1+ \exp(t))^3}-\frac{6\exp(3t) }{(1+ \exp(t))^4})\sin(t x) dt$$
Et ensuite, je suppose que le nouveau deuxième terme est un $o(\frac{1}{x^2})$ ?
Pour appliquer le théorème de convergence dominée à ton égalité, il faut montrer que la série $$
\sum_n \int_0^{+\infty} \exp(-nt) |\cos(t x)| dt $$ converge. Je n'y arrive pas :-S je majore grossièrement l'intégrale par $\frac{1}{n}$ dont la série diverge...
As- tu essayé d'appliquer le théorème sur [0,T] et puis ensuite passer à la limite qd T->$ +\infty$.
Je suppose que cette hypothèse est indispensable pour appliquer le théorème ? :-D
En effet il s'agit d'une série géométrique : on peut intégrer une somme partielle et majorer l'intégrale du reste puisqu'il se calcule.
C'est dans la majoration de la valeur absolue du reste d'ordre $n$ de la série de terme général $\displaystyle\int_0^{+\infty} \exp(-nt) |\cos(t x)| dt$ que l'on peut majorer $|\cos(t x)|$ par $1$.
[Inutile de recopier un message présent sur le forum. Un lien suffit. AD]
L'intégrale tend vers 0 par Riemann-Lebesgue, non ?
$\sum_{n\geq1}(-1){}^{n-1}n^{-z}=(1-2^{1-z})\zeta(z)$
comme
$x^{2}f(x)=\sum_{n=1}^{\infty}(-1)^{n-1}n\frac{1}{1+\left(n/x\right)^{2}}$
lorsque $x\rightarrow\infty$ on a $$
x^{2}f(x)\sim(1-2^{2})\zeta(-1)=\frac{1}{4}$$
$\displaystyle \sum_{n=1}^{N} \dfrac{(-1)^{n-1} n}{n^2+x^2} =\sum_{n=1}^{N}\int_0^{+\infty} (-1)^{n-1} e^{-nt} \cos(t x) dt =\int_0^{+\infty} \dfrac{ e^{-t}(1-(-1)^N e^{-Nt}) }{1+ e^{-t}} \cos(t x) dt=\int_0^{+\infty} \dfrac{ \cos(t x) }{1+ e^{t}} dt+R_N$
puis $|R_N|\leq \displaystyle \int_0^{+\infty} e^{-(N+1)t}dt =\dfrac1{N+1}$
On récupère la convergence uniforme de la série vers $f$ sur $\R$ non ?
Actualisation : Ah non il y a un problème pour montrer la convergence uniforme car la fonction $t\mapsto \frac{t}{t^2+x^2}$ n'est pas monotone...
D'ailleurs on n'a pas la convergence normale non plus tiens en passant !
$$ D'où $|R_N(x)|\leq\displaystyle\int_0^{+\infty} e^{-(N+1)t} dt=\dfrac1{N+1}.$