Équivalent série de fonctions (difficile ?)

Bonjour,
équivalent quand $x\to +\infty$ de $$f(x) = \sum_{n=1}^{+\infty} \frac{(-1)^{n-1} n}{n^2+x^2} .

$$ Conjecture : $f(x)\underset{+\infty}{\sim} \frac{1}{4x^2}$

La comparaison série / intégrale ne marche pas (découpage $n=2p$ et $n=2p-1$ préalable mais les fonctions $t\mapsto \frac {t}{t^2+x^2}$ ne sont pas monotones).

Réponses

  • Sauf erreur, tu peux calculer la valeur explicite de ta série via un facteur sommatoire approprié et le théorème des résidus.

    EDIT : Raté ça ne marche pas car le terme général ne tend pas assez vite vers $0$.
  • On peut utiliser Euler MacLaurin ou l'expression en terme de $\Gamma'/\Gamma$, à la main il faut dire que notre fonction c'est $f(x)=\Re(\sum_{n \ge 1} \int_{2n-1}^{2n} \frac1{(t+ix)^2}dt)$ puis dire que $$\int_{2n-1}^{2n} \frac1{(t+ix)^2}dt=\frac12\int_{2n-1}^{2n+1} \frac1{(t+ix)^2}dt+C\int_{2n-1}^{2n+1} \frac1{(t+ix)^3}dt+O(\frac1{(n+x)^4})$$ donc $$f(x)=\Re( \frac1{1+ix}+\frac{c}{(1+ix)^2}+O(x^{-3}))$$ (j'ai la flemme de trouver $c$, il faut aller jusqu'à $(n+x)^{-4}$ parce que $\Re(1/(1+ix))=O(x^{-2})$)
  • @reuns : ok merci.

    Dans mon livre ils parlent souvent d'une méthode astucieuse appelée "équivalent à la moitié du premier terme", où ils font une espèce de transformation d'Abel en écrivant : $$

    f(x)=\frac{u_1(x)}{2}+ \frac{1}{2} \sum_{n=1}^{\infty} (-1)^{n-1} (u_n-u_{n+1}), $$ avec $u_n(x)=\frac{n}{n^2+x^2}.$
    Bon ici ça échoue de toutes façons :-D mais peut-être qu'en adaptant...?
  • Tu n'aimes pas ma méthode ? Ce n'est pas difficile, tu peux aussi dire qu'il existe des $C_m$ tels que $$\forall z,|z|\to \infty,\qquad \frac1{z}-\frac1{z+1} = \sum_{m=1}^M C_m (\frac1{z^m}-\frac1{(z+2)^m}) +O( \frac1{|z|^{M+1}})$$ la preuve c'est en développant les deux côtés en séries entières en $z^{-1}$ puis en identifiant.

    D'où tu obtiens le développement asymptotique de
    \begin{align*}
    f(x) &= \sum_{n=1}^{+\infty} \frac{(-1)^{n-1} n}{n^2+x^2} =\Re(\sum_{n \ge 1} \frac1{2n-1+ix}-\frac1{2n+ix}) \\
    &=\Re(\sum_{n\ge 1}\sum_{m=1}^M C_m (\frac1{(2n-1+ix)^m}-\frac1{(2n-1+ix+2)^m}) +O( \frac1{|n+x|^{M+1}})) \\
    &=\Re(\sum_{m=1}^M C_m \frac1{(1+ix)^m} )+O(\frac1{|x|^{M}}).
    \end{align*}
  • Ah mais je n'ai pas dit que je ne l'aimais pas :-D
    Je ne suis pas très à l'aise avec l'intégration complexe, les résidus...
  • J'avais cherché aussi du côté des séries de Fourier à tout hasard...?

    Sinon je ne connais pas la méthode des moments.
  • Bonsoir,
    La "formule d'Euler-Mac Laurin" donne en effet assez facilement l'équivalent cherché:

    $\:\forall x \in \R^* \:\:$je note: $\:\:\:\:\:g_x: \left\{ \begin{array} {ccl}\R_+& \longrightarrow &\R \\ t& \longmapsto & \dfrac {2t-1}{(2t-1)^2 + x^2} -\dfrac {2t}{(2t)^2 +x^2}.\\ \end{array}\right.\quad \quad \quad \text{Alors:} \quad f(x) = \displaystyle \sum_{n=1}^{+\infty} g_x(n)$
    Avec $\:\displaystyle \lim _{N\to +\infty} g_x(N) = \lim_{N\to +\infty} g_x'(N) =0,\quad$ la "formule d' Euler-Mac Laurin" dit que:
    $f(x) = \dfrac { g_x(1)}2\: +\:\displaystyle \int _1 ^{+\infty} g_x(t) \mathrm d t\:\: -\:\: \dfrac {g_x'(1)}{12 }\:\:+\:\: \int _1 ^{+\infty} B(t) \:g_x''' (t) \mathrm dt\:\:$ où $B$ est une fonction $1-\text{périodique,}\:$ continue par morceaux sur $\R.$
    L'examen des deux derniers termes de la somme précédente montre que: $\:f(x) = \dfrac {g_x(1)}2 + \displaystyle \int _1 ^{+\infty} g_x(t) \mathrm d t \:+\: o(x^{-2}).$
    Et un dernier calcul mène à : $\:\dfrac{g_x(1)}2 \underset{x\to +\infty} \sim \dfrac {-1}{2x^2},\quad \displaystyle \int _1^{+\infty} g_x \underset{x\to + \infty} \sim \dfrac 3{4x^2},\quad$ puis à $\: \boxed{ f(x) \underset{x\to + \infty}\sim \dfrac 1 {4x^2}.}$
  • @Totem : T'as compris que $ \frac1{z}-\frac1{z+1} = \sum_{m=1}^M C_m (\frac1{z^m}-\frac1{(z+2)^m}) +O( \frac1{|z|^{M+1}})$ et $
    f(x) = \sum_{n=1}^{+\infty} \frac{(-1)^{n-1} n}{n^2+x^2} =\Re(\sum_{n \ge 1} \frac1{2n-1+ix}-\frac1{2n+ix})$ ?

    Je pense qu'il n'y a pas de solution plus simple (pour le développement asymptotique complet, pour le premier terme probablement que si), c'est l'application d'Euler MacLaurin à $\Gamma'/\Gamma(z)-\Gamma'/\Gamma(z+1/2)$,
    Euler MacLaurin qui donne directement une expression pour les $C_m$ en terme des nombres de Bernoulli, nombres de Bernoulli qui (en dehors des cas qui se ramènent à $\frac{t}{e^t-1}$) n'apparaissent qu'avec ce type de méthode.

    [ Bernoulli ne prend pas de 'i' avant ses deux 'll'. AD]
  • Bonjour
    De l'égalité $\displaystyle (-1)^{n-1}\frac{n}{n^2+x^2}=\int_0^{+\infty} (-1)^{n-1} \exp(-nt) \cos(t x) dt ,$
    on en tire que $\displaystyle f(x)=\int_0^{+\infty} \frac{1 }{1+ \exp(t)} \cos(t x) dt . $
    Ensuite on effectue 2 intégrations par parties qui vont donner le résultat.
     
  • L'expression intégrale de $f(x)$ donnée par bd2017 permet même d'obtenir un développement asymptotique à tout ordre en $+\infty$.

    On obtient $f(x)=\displaystyle\sum_{k=1}^p\dfrac{a_k}{(2x)^{2k}}+O\left(\dfrac1{x^{2p+2}}\right)$ où les $a_k$ sont des nombres entiers appelés nombres tangents car ils apparaissent dans le développement en série entière : $\tan(x)=\displaystyle\sum_{k=1}^{+\infty}a_k\dfrac{x^{2k-1}}{(2k-1)!}$.
  • @bd2017: comment justifies-tu l'interversion série/intégrale stp ? Convergence dominée pour les séries ?
  • @Jandri Pour rendre à César ce qui est César, le premier qui a donné l'expression intégrale est side
    Le 😄 Farceur


  • Oui mais side a fait une erreur dans sa formule.
  • @jandri : réponds-tu à moi ou à gebrane ?

    Après les 2 IPP suggérées par bd2017 j'obtiens :

    $$\displaystyle f(x)=\frac{1}{4x^2}+ \frac{1}{x^2} \int_0^{+\infty} \frac{\exp(t) (1-\exp(2t)) }{(1+ \exp(t))^4} \cos(t x) dt $$

    On se rapproche, mais comment conclure à la négligeabilité du deuxième terme devant le premier ?
  • @side : ta méthode est très technique, au-dessus de mes moyens !:-S

    Je suis plus à l'aise avec la méthode de bd2017, moins technique...du moins à première vue :-)
  • Précision préalable : ce qui suit n'est pas destiné à supplanter les messages précédents, mais à ajouter un simple complément. En particulier, il n'apporte rien de plus par rapport aux messages de bd2017 et Jandri.

    Il existe pour les séries alternées l'analogue de la formule d'Euler-Maclaurin, qui prend le nom ici de formule sommatoire de Boole, et qui s'énonce ainsi :

    Soit $M \in \Z_{\geqslant 1}$ et $f \in C^{2M+1} (\mathbb{R}_+)$ telle que $f$ et toutes ses dérivées tendent vers $0$ en décroissant. Alors, il existe $\theta \in \left] 0,1 \right[$ tel que
    $$\sum_{n=1}^{\infty} (-1)^{n-1} f(n) = \tfrac{1}{2} f(1) - \sum_{k=1}^M C_{2k} f^{(2k-1)} (1) - \theta C_{2M+2} f^{(2M+1)}(1)$$
    où l'on a posé pour tout $k \in \mathbb{Z}_{\geqslant 1}$ les nombres $C_{2k} := \dfrac{4^k-1}{(2k)!} B_{2k}$, les $B_{2k}$ étant les usuels nombres de Bernoulli.

    Par exemple avec $M=1$, on obtient tout de suite pour $x \to \infty$
    $$f(x) = \frac{1}{4(x^2+1)} + O \left( \frac{1}{x^4} \right).$$
  • Bonjour
    Je n'ai pas le temps de tout lire mais surement que le message de Side mérite d'être regardé de plus près.

    Perso j'essaie d'apporter une solution la plus élémentaire possible donc pour répondre à Totem
    1. échange série-intégrale oui la CV dominée est très facile ici.
    2. Pour la négligeabilité du second terme il faut refaire une IPP.

    Sinon on peut regarder le message de Jandri ça doit fonctionner.
     
  • @bd2017: OK, alors allons-y pour une troisième IPP !!

    $$\displaystyle f(x)=\frac{1}{4x^2}+ \frac{1}{x^3} \int_0^{+\infty} (-\frac{\exp(t) }{(1+ \exp(t))^2}+ \frac{6\exp(2t) }{(1+ \exp(t))^3}-\frac{6\exp(3t) }{(1+ \exp(t))^4})\sin(t x) dt$$

    Et ensuite, je suppose que le nouveau deuxième terme est un $o(\frac{1}{x^2})$ ?
  • Et bien oui, car tu peux majorer l'intégrale en valeur absolue: le sinus disparait (majoré par 1) et chaque terme en v.a est intégrable.
     
  • OK merci.

    Pour appliquer le théorème de convergence dominée à ton égalité, il faut montrer que la série $$

    \sum_n \int_0^{+\infty} \exp(-nt) |\cos(t x)| dt $$ converge. Je n'y arrive pas :-S je majore grossièrement l'intégrale par $\frac{1}{n}$ dont la série diverge...
  • Rebonjour
    As- tu essayé d'appliquer le théorème sur [0,T] et puis ensuite passer à la limite qd T->$ +\infty$.
     
  • Euh non je vais essayer...
    Je suppose que cette hypothèse est indispensable pour appliquer le théorème ? :-D
  • Pour l'échange série-intégrale on peut se passer ici du théorème de convergence dominée.
    En effet il s'agit d'une série géométrique : on peut intégrer une somme partielle et majorer l'intégrale du reste puisqu'il se calcule.
  • @jandri. D'accord, mais que fais-tu du terme $|\cos(xt)|$ ? Si on majore brutalement par $1$, c'est trop grossier...
  • @totem
    C'est dans la majoration de la valeur absolue du reste d'ordre $n$ de la série de terme général $\displaystyle\int_0^{+\infty} \exp(-nt) |\cos(t x)| dt$ que l'on peut majorer $|\cos(t x)|$ par $1$.
  • totem écrivait : http://www.les-mathematiques.net/phorum/read.php?4,1900296,1900768#msg-1900768
    [Inutile de recopier un message présent sur le forum. Un lien suffit. AD]
    L'intégrale tend vers 0 par Riemann-Lebesgue, non ?
  • @jandri : Ah j'ai compris ! tu appliques le CSSA à la série alternée de terme général $(-1)^{n-1} \displaystyle\int_0^{+\infty} \exp(-nt) |\cos(t x)| dt$ ?
  • Je serais curieux de voir s'il existe une méthode élémentaire pour cette série. (Niveau deuxième année d'université)
  • À la Jean Lismonde ;-)

    $\sum_{n\geq1}(-1){}^{n-1}n^{-z}=(1-2^{1-z})\zeta(z)$

    comme

    $x^{2}f(x)=\sum_{n=1}^{\infty}(-1)^{n-1}n\frac{1}{1+\left(n/x\right)^{2}}$

    lorsque $x\rightarrow\infty$ on a $$

    x^{2}f(x)\sim(1-2^{2})\zeta(-1)=\frac{1}{4}$$
  • Pour démontrer $\displaystyle \sum_{n=1}^{+\infty} \dfrac{(-1)^{n-1} n}{n^2+x^2} =\int_0^{+\infty} \dfrac{ \cos(t x) }{1+ e^{t}} dt$ sans le théorème de convergence dominée on écrit :
    $\displaystyle \sum_{n=1}^{N} \dfrac{(-1)^{n-1} n}{n^2+x^2} =\sum_{n=1}^{N}\int_0^{+\infty} (-1)^{n-1} e^{-nt} \cos(t x) dt =\int_0^{+\infty} \dfrac{ e^{-t}(1-(-1)^N e^{-Nt}) }{1+ e^{-t}} \cos(t x) dt=\int_0^{+\infty} \dfrac{ \cos(t x) }{1+ e^{t}} dt+R_N$
    puis $|R_N|\leq \displaystyle \int_0^{+\infty} e^{-(N+1)t}dt =\dfrac1{N+1}$
  • @jandri : merci, bien vu le coup de la série alternée ;-)
  • Je dirais plutôt : bien vu le coup de la série géométrique !
  • En effet :-)

    On récupère la convergence uniforme de la série vers $f$ sur $\R$ non ?

    Actualisation : Ah non il y a un problème pour montrer la convergence uniforme car la fonction $t\mapsto \frac{t}{t^2+x^2}$ n'est pas monotone...

    D'ailleurs on n'a pas la convergence normale non plus tiens en passant !
  • Une bonne âme pour la convergence uniforme ? :-)
  • Le calcul que j'ai fait au dessus démontre la convergence uniforme : $$R_N(x)= \sum_{n=N+1}^{+\infty} \dfrac{(-1)^{n-1} n}{n^2+x^2} =\int_0^{+\infty} \dfrac{ (-1)^N e^{-(N+1)t} }{1+ e^{-t}} \cos(t x) dt.

    $$ D'où $|R_N(x)|\leq\displaystyle\int_0^{+\infty} e^{-(N+1)t} dt=\dfrac1{N+1}.$
  • Ah voilà CQFD donc j'avais raison ! Merci jandri.
Connectez-vous ou Inscrivez-vous pour répondre.