Un joli résultat

Bonjour,

Soit $S_n=\sum_{k=1}^n a_k$. Si $S_n$ est bornée et $\lim_{n\to\infty}(a_{n+1}-a_n)=0$, alors $$\lim_{n\to\infty}a_n=0$$
Le 😄 Farceur


Réponses

  • La suite $(a_n)$ est bornée car $(S_n)$ l'est et $a_n=S_n-S_{n-1}$. Avec une transformation d'Abel, si $(a_n)$ ne tend pas vers $0$ alors $\displaystyle\sum_{n=1}^N(a_{n+1}-a_n)S_n=a_{N+1}S_N-a_1S_1-\sum_{n=2}^Na_n^2$ tend vers $-\infty$... puis je ne sais pas...
  • Un raisonnement par l'absurde marche très bien.
    Un raisonnement direct , je ne sais pas !
    Le 😄 Farceur


  • Ben j'ai supposé que $(a_n)$ ne tend pas vers $0$...
  • Dedeking
    Si la suite ne tend pas vers 0, Il existe un $\epsilon> 0$ et une infinité de valeurs telles que $| a_n |> \epsilon $..........
    Le 😄 Farceur


  • Le résultat fait penser à une variante discrète des inégalités de Kolmogorov sur la droite réelle...
    On a tout d'abord
    \begin{align*}
    \forall k\geq 0,\mbox{ } (S_{k+2}-S_{k+1})-(S_{k+1}-S_{k}) & =S_{k+2}-2S_{k+1}+S_{k}\\
    & =a_{k+2}-a_{k+1}:=\varepsilon_{k}.

    \end{align*} Il vient alors en sommant pour une certaine constante $A$ : $$\forall n\geq 0,\mbox{ } S_{n+2}-S_{n+1}=A+\sum_{k=0}^{n}\varepsilon_{k}.
    $$ En sommant de nouveau, il vient pour des certaines constantes $A,B$ :
    \begin{align*}
    \forall N\geq 0,\mbox{ } S_{N+1} & =AN+B+\sum_{n=0}^{N-1}\sum_{k=0}^{n}\varepsilon_{k}\\
    & =AN+B+\sum_{k=0}^{N-1}\varepsilon_{k}(N-k)\\
    & =AN+B+\sum_{k=0}^{N}\varepsilon_{k}(N-k).

    \end{align*} Considérons $h\gg 1$ une quantité entière et $N\in \mathbb{N}.$
    On a alors pour une certaine constante $\tilde{A}$ :
    \begin{align*}
    S_{N+h+1}-S_{N+1} & =Ah+\sum_{k=0}^{N+h}\varepsilon_{k}(N+h-k)-\sum_{k=0}^{N}\varepsilon_{k}(N-k)\\
    & =Ah+h\sum_{k=0}^{N}\varepsilon_{k}+\sum_{k=N+1}^{N+h}\varepsilon_{k}(N+h-k)\\
    & =\tilde{A}h+a_{N+2}h+\sum_{k=N+1}^{N+h}\varepsilon_{k}(N+h-k).

    \end{align*} En notant $\displaystyle M=\sup_{n\in \mathbb{N}} \vert S_{n} \vert$ et $\displaystyle \varepsilon(N)=\sup_{k\geq N+1}\vert \varepsilon_{k}\vert,$ on a alors par l'inégalité triangulaire :
    \begin{align*}
    h\vert \tilde{A}+a_{N+2} \vert & \leq 2M+h^{2}\varepsilon(N) ,&\text{d'où } \\
    \vert \tilde{A}+a_{N+2} \vert & \leq \frac{2M}{h}+h\varepsilon(N).

    \end{align*} On a alors (on peut aussi optimiser en $h$) : $\displaystyle \limsup_{N\rightarrow +\infty}\vert \tilde{A}+a_{N}\vert \leq \frac{2M}{h}.$
    Et en faisant tendre $h$ vers $+\infty,$ on conclut que $\displaystyle a_{N}\xrightarrow[N \rightarrow +\infty]{} -\tilde{A}.$
    Comme la suite $a$ converge et que $S$ est bornée, la limite de $a$ est donc nulle, ce qui prouve le résultat désiré.
  • Soit $\epsilon>0$. Soit $M$ tel que $|S_n|\leqslant M$ pour tout $n$. Soit $N=\lceil \frac{2M+1}{\epsilon}\rceil$. Pour tout $n$ on a
    $$Na_n=\left((a_n-a_{n+1})+\cdots+(a_n-a_{n+N})\right)+S_{n+N}-S_n.$$
    Le terme $(a_n-a_{n+1})+\cdots+(a_n-a_{n+N})$ tend vers $0$ quand $n$ tend vers l'infini (à $N$ fixé) donc il existe $n_0$ tel que pour tout $n\geqslant n_0$, ce terme soit plus petit que $1$ en valeur absolue. On a donc
    $$\forall n\geqslant n_0,\; |a_n|\leqslant \frac{1+2M}{N}\leqslant\epsilon.$$
  • On remplace $a_n$ par $\Re(a_n)$. Si $\lim\sup_n a_n =0$ on remplace $a_n$ par $-a_n$.

    Si $a_n$ ne tend pas vers $0$ alors il existe $C>0$ tel que $a_n > C$ une infinité de fois.

    Pour tout $m$, soit $N$ tel que $\forall n \ge N, |a_n-a_{n+1}| < 1/m^3$, on prend $n \ge N$ tel que $a_n > C$ alors $a_{n+l} > C-l/m^3$ et donc $\sum_{l=0}^{m-1} a_{n+l} > m C - 2/m$.

    Si $\sum_{n \le x} a_n$ était bornée on aurait $\sum_{y \le n \le x} a_n$ bornée.
  • Je ne sais pas si c'est la même chose que BobbyJoe, mais l'inégalité (discrète) de Sobolev-Gallagher devrait être bien adaptée : si $(a_n)$ est une suite à valeurs complexes, pour tout $k \in \{1, \dotsc,n\}$, on a
    $$\left|a_k \right| \leqslant \frac{1}{n} \left| \sum_{k=1}^n a_k \right| + \sum_{k=1}^{n-1} \left| a_{k+1} - a_k \right|.$$
    BobbyJoe, c'était ta méthode ?
  • Oui mais j'ai fait compliqué... J'appelle cela plutôt des inégalités de Kolmogorov mais à chacun sa sauce ^^
  • Il y a un beug dans l inégalité de noix de toto.
    Ce joli resultat permet de démontrer qu'une somme pertielle coriace ne peut etre bornée, c'est l'exemple des sommes de sinus(racine n ).
    Depuis mon tel
    Le 😄 Farceur


  • Ces inégalités sont très utilisées en théorie des nombres, notamment dans ce que l'on appelle le "grand crible", sous la forme continue suivante : si $a < b$ et $f \in C^1 [a,b]$, alors pour tout $x \in [a,b]$
    $$\left| f(x) \right| \leqslant \frac{1}{b-a} \int_a^b \left| f(t) \right| \, \textrm{d}t + \int_a^b \left| f^{\, \prime}(t) \right| \, \textrm{d}t.$$
    Chez nous (i.e. en arithmétique), elles sont référencées "inégalités de Sobolev ". Dans les années 60, Gallagher les a utilisées de façon cruciale dans sa démonstration de l'inégalité du grand crible, d'où le nom que j'ai donné plus haut.

    Pour moi, les inégalités de Kolmogorov sont celles-ci : soit $f \in C^n \left( \mathbb{R} \right)$ ($n \geqslant 2$ entier) telle que $\lambda_k := \sup \left| f^{(k)} \right| < \infty$ pour $k=0$ et $k=n$. Alors, pour tout $k \in \{0, \dotsc, n \}$ et tout réel $x$
    $$\left| f^{(k)} (x) \right| \leqslant 2 \lambda_0^{1-k/n} \lambda_n^{k/n}.$$
    (La constante $2$ est la meilleure possible et n'est pas due à Kolmogorov qui avait obtenu, si ma mémoire est bonne, une constante dépendant de $k$ et $n$).

    Maintenant, il est possible que les inégalités au-dessus soient aussi référencées "Kolmogorov", mais je n'ai pas trouvé de référence validant cette paternité. Tu en as une ?
  • @Gebrane : Parles-tu de la typo $n-1$ à la place de $n$ dans la seconde somme ? Si oui, j'ai corrigé.
  • La preuve de Gallagher ne donnne malheureusement pas les meilleures constantes dans l'inégalité du grand crible...
    Mais bon, la preuve de JLT est la plus rapide...
  • Noix de toto,
    oui , seulement une faute frappe
    Le 😄 Farceur


  • @side : non, pas de coquille. La preuve consiste essentiellement en une utilisation de sommations partielles qui permettent de montrer l'identité
    $$a_k = \frac{1}{n} \sum_{h=1}^n a_h + \sum_{h=1}^{n-1} \Delta_n(k,h) \left( a_{h+1} - a_h \right)$$

    $$\Delta_n(k,h):= \frac{1}{n} \times \begin{cases} h, & \textrm{si} \ 1 \leqslant h \leqslant k-1 \\ h-n, & \textrm{si} \ k \leqslant h \leqslant n-1. \end{cases}$$

    @BobbyJoe : tu as manifestement des connaissances en théorie analytique des nombres...

    Ce que tu dis est exact, mais la démonstration de Gallagher a pour elle le grand mérite d'être ô combien plus simple que celle de Selberg qui fournit la constante optimale (et qui utilise des inégalités raffinées et généralisées de celles de Bessel et d'Hilbert), et qui est suffisante dans bon nombre d'applications.
  • @noix de totos : Merci pour ces inégalités de Sobolev discrète (de mon coté, je m'étais intéressé à la forme des solutions de la récurrence suivante : $\displaystyle u_{n+2}-2u_{n+1}+u_{n}=\varepsilon_{n}$).

    En effet, merci également pour les précisions concernant le grand crible :

    -L'inégalité du grand crible avec constante optimale ($N+\frac{1}{\delta}-1$) utilise, à ma connaissance, le théorème de Paley-Wiener et de l'analyse complexe de haut niveau (cf preuve dans le livre de G. Tenenbaum).

    -L'inégalité quasi-optimale ($N+\frac{1}{\delta}$) peut-être montrée à moindre frais avec des considérations de transformées de Hilbert discrète (mais cela reste difficile... et pas hyper intuitif!).

    -La preuve de Galagher a le mérite de fournir une borne (optimale à des constantes près) et permet entre autres de prouver le fameux théorème de Brun (la somme des inverses des nombres premiers jumeaux convergent) de manière purement élémentaire (sans même invoquer des résultats type Mertens ou Tchebtychev).... C'est ça qui est rigolo!
  • @Side : de rien, ce forum est, entre autres, là pour ça. (tu)

    @BobbyJoe : tout à fait ! Et plus généralement, tu as l'inégalité de Brun-Titchmarsh, etc.
  • J'avais une fausse idée sur les arithméticiens, j'ai cru qu' ils s'amusaient uniquement avec les nombres et les solutions d'équations par les entiers. Je remarque la qu'ils sont plus analystes que les analystes
    Le 😄 Farceur


  • Pour dire les choses pas trop sérieusement, je dirais qu'un arithméticien prend chez les autres tout ce qui peut lui être utile, et l'exploite à fond pour résoudre son problème.

    Ainsi, les spécialistes de théorie analytique des nombres sont aussi spécialistes de la "théorie des fonctions" (au sens large), i.e. sont capables d'estimer des intégrales complexes ou des sommes d'exponentielles complexes avec une très grande précision (je me souviens que Tenenbaum était surnommé un temps le "renard du plan complexe") ;

    les spécialistes de théorie algébrique des nombres ont amené l'algèbre, notamment commutative, à un très haut niveau (théorie du corps de classes, etc) ;

    les spécialistes de théorie algorithmique des nombres sont à la pointe des algos actuels dans bon nombre de branches ;

    les spécialistes de théorie transcendantale des nombres ont fait des prouesses avec les logarithmes (voir Baker, par exemple) et l'algèbre des extensions transcendantales ;

    Et il y a même des gens capables de combiner une bonne partie de tout ces domaines (Bombieri, Tao, Huxley, Vaughan, Narkiewicz, Iwaniec, etc, difficile de tous les citer).
  • Noix de toto
    Je suis émerveillé.

    [
    Le 😄 Farceur


  • Il doit te manquer un $1/(b-a)$ devant la 1ère intégrale.

    Une autre façon possible est de remarquer que, par IPP, pour tout $x \in \left[ a,b \right]$ (avec $a < b$)
    $$\int_x^b \frac{t-b}{b-a} f^{\, \prime} (t) \, \textrm{d}t + \int_a^x \frac{t-a}{b-a} f^{\, \prime} (t) \, \textrm{d}t = f(x) - \frac{1}{b-a} \int_a^b f(t) \, \textrm{d}t.$$
    Cette identité te permet d'avoir une inégalité légèrement meilleure que celle du dessus si on spécifie $x = \frac{1}{2} (a+b)$ (qui est précisément celle que Gallagher a utilisé dans sa démonstration du grand crible) :
    $$\left| f \left( \frac{a+b}{2} \right) \right| \leqslant \frac{1}{b-a} \int_a^b \left| f(t) \right| \, \textrm{d}t + \frac{1}{2} \int_a^b \left| f^{\, \prime} (t) \right| \, \textrm{d}t.$$
Connectez-vous ou Inscrivez-vous pour répondre.