La suite $(a_n)$ est bornée car $(S_n)$ l'est et $a_n=S_n-S_{n-1}$. Avec une transformation d'Abel, si $(a_n)$ ne tend pas vers $0$ alors $\displaystyle\sum_{n=1}^N(a_{n+1}-a_n)S_n=a_{N+1}S_N-a_1S_1-\sum_{n=2}^Na_n^2$ tend vers $-\infty$... puis je ne sais pas...
Le résultat fait penser à une variante discrète des inégalités de Kolmogorov sur la droite réelle...
On a tout d'abord
\begin{align*}
\forall k\geq 0,\mbox{ } (S_{k+2}-S_{k+1})-(S_{k+1}-S_{k}) & =S_{k+2}-2S_{k+1}+S_{k}\\
& =a_{k+2}-a_{k+1}:=\varepsilon_{k}.
\end{align*} Il vient alors en sommant pour une certaine constante $A$ : $$\forall n\geq 0,\mbox{ } S_{n+2}-S_{n+1}=A+\sum_{k=0}^{n}\varepsilon_{k}.
$$ En sommant de nouveau, il vient pour des certaines constantes $A,B$ :
\begin{align*}
\forall N\geq 0,\mbox{ } S_{N+1} & =AN+B+\sum_{n=0}^{N-1}\sum_{k=0}^{n}\varepsilon_{k}\\
& =AN+B+\sum_{k=0}^{N-1}\varepsilon_{k}(N-k)\\
& =AN+B+\sum_{k=0}^{N}\varepsilon_{k}(N-k).
\end{align*} Considérons $h\gg 1$ une quantité entière et $N\in \mathbb{N}.$
On a alors pour une certaine constante $\tilde{A}$ :
\begin{align*}
S_{N+h+1}-S_{N+1} & =Ah+\sum_{k=0}^{N+h}\varepsilon_{k}(N+h-k)-\sum_{k=0}^{N}\varepsilon_{k}(N-k)\\
& =Ah+h\sum_{k=0}^{N}\varepsilon_{k}+\sum_{k=N+1}^{N+h}\varepsilon_{k}(N+h-k)\\
& =\tilde{A}h+a_{N+2}h+\sum_{k=N+1}^{N+h}\varepsilon_{k}(N+h-k).
\end{align*} En notant $\displaystyle M=\sup_{n\in \mathbb{N}} \vert S_{n} \vert$ et $\displaystyle \varepsilon(N)=\sup_{k\geq N+1}\vert \varepsilon_{k}\vert,$ on a alors par l'inégalité triangulaire :
\begin{align*}
h\vert \tilde{A}+a_{N+2} \vert & \leq 2M+h^{2}\varepsilon(N) ,&\text{d'où } \\
\vert \tilde{A}+a_{N+2} \vert & \leq \frac{2M}{h}+h\varepsilon(N).
\end{align*} On a alors (on peut aussi optimiser en $h$) : $\displaystyle \limsup_{N\rightarrow +\infty}\vert \tilde{A}+a_{N}\vert \leq \frac{2M}{h}.$
Et en faisant tendre $h$ vers $+\infty,$ on conclut que $\displaystyle a_{N}\xrightarrow[N \rightarrow +\infty]{} -\tilde{A}.$
Comme la suite $a$ converge et que $S$ est bornée, la limite de $a$ est donc nulle, ce qui prouve le résultat désiré.
Soit $\epsilon>0$. Soit $M$ tel que $|S_n|\leqslant M$ pour tout $n$. Soit $N=\lceil \frac{2M+1}{\epsilon}\rceil$. Pour tout $n$ on a
$$Na_n=\left((a_n-a_{n+1})+\cdots+(a_n-a_{n+N})\right)+S_{n+N}-S_n.$$
Le terme $(a_n-a_{n+1})+\cdots+(a_n-a_{n+N})$ tend vers $0$ quand $n$ tend vers l'infini (à $N$ fixé) donc il existe $n_0$ tel que pour tout $n\geqslant n_0$, ce terme soit plus petit que $1$ en valeur absolue. On a donc
$$\forall n\geqslant n_0,\; |a_n|\leqslant \frac{1+2M}{N}\leqslant\epsilon.$$
On remplace $a_n$ par $\Re(a_n)$. Si $\lim\sup_n a_n =0$ on remplace $a_n$ par $-a_n$.
Si $a_n$ ne tend pas vers $0$ alors il existe $C>0$ tel que $a_n > C$ une infinité de fois.
Pour tout $m$, soit $N$ tel que $\forall n \ge N, |a_n-a_{n+1}| < 1/m^3$, on prend $n \ge N$ tel que $a_n > C$ alors $a_{n+l} > C-l/m^3$ et donc $\sum_{l=0}^{m-1} a_{n+l} > m C - 2/m$.
Si $\sum_{n \le x} a_n$ était bornée on aurait $\sum_{y \le n \le x} a_n$ bornée.
Je ne sais pas si c'est la même chose que BobbyJoe, mais l'inégalité (discrète) de Sobolev-Gallagher devrait être bien adaptée : si $(a_n)$ est une suite à valeurs complexes, pour tout $k \in \{1, \dotsc,n\}$, on a
$$\left|a_k \right| \leqslant \frac{1}{n} \left| \sum_{k=1}^n a_k \right| + \sum_{k=1}^{n-1} \left| a_{k+1} - a_k \right|.$$
BobbyJoe, c'était ta méthode ?
Il y a un beug dans l inégalité de noix de toto.
Ce joli resultat permet de démontrer qu'une somme pertielle coriace ne peut etre bornée, c'est l'exemple des sommes de sinus(racine n ).
Depuis mon tel
Ces inégalités sont très utilisées en théorie des nombres, notamment dans ce que l'on appelle le "grand crible", sous la forme continue suivante : si $a < b$ et $f \in C^1 [a,b]$, alors pour tout $x \in [a,b]$
$$\left| f(x) \right| \leqslant \frac{1}{b-a} \int_a^b \left| f(t) \right| \, \textrm{d}t + \int_a^b \left| f^{\, \prime}(t) \right| \, \textrm{d}t.$$
Chez nous (i.e. en arithmétique), elles sont référencées "inégalités de Sobolev ". Dans les années 60, Gallagher les a utilisées de façon cruciale dans sa démonstration de l'inégalité du grand crible, d'où le nom que j'ai donné plus haut.
Pour moi, les inégalités de Kolmogorov sont celles-ci : soit $f \in C^n \left( \mathbb{R} \right)$ ($n \geqslant 2$ entier) telle que $\lambda_k := \sup \left| f^{(k)} \right| < \infty$ pour $k=0$ et $k=n$. Alors, pour tout $k \in \{0, \dotsc, n \}$ et tout réel $x$
$$\left| f^{(k)} (x) \right| \leqslant 2 \lambda_0^{1-k/n} \lambda_n^{k/n}.$$
(La constante $2$ est la meilleure possible et n'est pas due à Kolmogorov qui avait obtenu, si ma mémoire est bonne, une constante dépendant de $k$ et $n$).
Maintenant, il est possible que les inégalités au-dessus soient aussi référencées "Kolmogorov", mais je n'ai pas trouvé de référence validant cette paternité. Tu en as une ?
La preuve de Gallagher ne donnne malheureusement pas les meilleures constantes dans l'inégalité du grand crible...
Mais bon, la preuve de JLT est la plus rapide...
@side : non, pas de coquille. La preuve consiste essentiellement en une utilisation de sommations partielles qui permettent de montrer l'identité
$$a_k = \frac{1}{n} \sum_{h=1}^n a_h + \sum_{h=1}^{n-1} \Delta_n(k,h) \left( a_{h+1} - a_h \right)$$
où
$$\Delta_n(k,h):= \frac{1}{n} \times \begin{cases} h, & \textrm{si} \ 1 \leqslant h \leqslant k-1 \\ h-n, & \textrm{si} \ k \leqslant h \leqslant n-1. \end{cases}$$
@BobbyJoe : tu as manifestement des connaissances en théorie analytique des nombres...
Ce que tu dis est exact, mais la démonstration de Gallagher a pour elle le grand mérite d'être ô combien plus simple que celle de Selberg qui fournit la constante optimale (et qui utilise des inégalités raffinées et généralisées de celles de Bessel et d'Hilbert), et qui est suffisante dans bon nombre d'applications.
@noix de totos : Merci pour ces inégalités de Sobolev discrète (de mon coté, je m'étais intéressé à la forme des solutions de la récurrence suivante : $\displaystyle u_{n+2}-2u_{n+1}+u_{n}=\varepsilon_{n}$).
En effet, merci également pour les précisions concernant le grand crible :
-L'inégalité du grand crible avec constante optimale ($N+\frac{1}{\delta}-1$) utilise, à ma connaissance, le théorème de Paley-Wiener et de l'analyse complexe de haut niveau (cf preuve dans le livre de G. Tenenbaum).
-L'inégalité quasi-optimale ($N+\frac{1}{\delta}$) peut-être montrée à moindre frais avec des considérations de transformées de Hilbert discrète (mais cela reste difficile... et pas hyper intuitif!).
-La preuve de Galagher a le mérite de fournir une borne (optimale à des constantes près) et permet entre autres de prouver le fameux théorème de Brun (la somme des inverses des nombres premiers jumeaux convergent) de manière purement élémentaire (sans même invoquer des résultats type Mertens ou Tchebtychev).... C'est ça qui est rigolo!
J'avais une fausse idée sur les arithméticiens, j'ai cru qu' ils s'amusaient uniquement avec les nombres et les solutions d'équations par les entiers. Je remarque la qu'ils sont plus analystes que les analystes
Pour dire les choses pas trop sérieusement, je dirais qu'un arithméticien prend chez les autres tout ce qui peut lui être utile, et l'exploite à fond pour résoudre son problème.
Ainsi, les spécialistes de théorie analytique des nombres sont aussi spécialistes de la "théorie des fonctions" (au sens large), i.e. sont capables d'estimer des intégrales complexes ou des sommes d'exponentielles complexes avec une très grande précision (je me souviens que Tenenbaum était surnommé un temps le "renard du plan complexe") ;
les spécialistes de théorie algébrique des nombres ont amené l'algèbre, notamment commutative, à un très haut niveau (théorie du corps de classes, etc) ;
les spécialistes de théorie algorithmique des nombres sont à la pointe des algos actuels dans bon nombre de branches ;
les spécialistes de théorie transcendantale des nombres ont fait des prouesses avec les logarithmes (voir Baker, par exemple) et l'algèbre des extensions transcendantales ;
Et il y a même des gens capables de combiner une bonne partie de tout ces domaines (Bombieri, Tao, Huxley, Vaughan, Narkiewicz, Iwaniec, etc, difficile de tous les citer).
Il doit te manquer un $1/(b-a)$ devant la 1ère intégrale.
Une autre façon possible est de remarquer que, par IPP, pour tout $x \in \left[ a,b \right]$ (avec $a < b$)
$$\int_x^b \frac{t-b}{b-a} f^{\, \prime} (t) \, \textrm{d}t + \int_a^x \frac{t-a}{b-a} f^{\, \prime} (t) \, \textrm{d}t = f(x) - \frac{1}{b-a} \int_a^b f(t) \, \textrm{d}t.$$
Cette identité te permet d'avoir une inégalité légèrement meilleure que celle du dessus si on spécifie $x = \frac{1}{2} (a+b)$ (qui est précisément celle que Gallagher a utilisé dans sa démonstration du grand crible) :
$$\left| f \left( \frac{a+b}{2} \right) \right| \leqslant \frac{1}{b-a} \int_a^b \left| f(t) \right| \, \textrm{d}t + \frac{1}{2} \int_a^b \left| f^{\, \prime} (t) \right| \, \textrm{d}t.$$
Réponses
Un raisonnement direct , je ne sais pas !
Si la suite ne tend pas vers 0, Il existe un $\epsilon> 0$ et une infinité de valeurs telles que $| a_n |> \epsilon $..........
On a tout d'abord
\begin{align*}
\forall k\geq 0,\mbox{ } (S_{k+2}-S_{k+1})-(S_{k+1}-S_{k}) & =S_{k+2}-2S_{k+1}+S_{k}\\
& =a_{k+2}-a_{k+1}:=\varepsilon_{k}.
\end{align*} Il vient alors en sommant pour une certaine constante $A$ : $$\forall n\geq 0,\mbox{ } S_{n+2}-S_{n+1}=A+\sum_{k=0}^{n}\varepsilon_{k}.
$$ En sommant de nouveau, il vient pour des certaines constantes $A,B$ :
\begin{align*}
\forall N\geq 0,\mbox{ } S_{N+1} & =AN+B+\sum_{n=0}^{N-1}\sum_{k=0}^{n}\varepsilon_{k}\\
& =AN+B+\sum_{k=0}^{N-1}\varepsilon_{k}(N-k)\\
& =AN+B+\sum_{k=0}^{N}\varepsilon_{k}(N-k).
\end{align*} Considérons $h\gg 1$ une quantité entière et $N\in \mathbb{N}.$
On a alors pour une certaine constante $\tilde{A}$ :
\begin{align*}
S_{N+h+1}-S_{N+1} & =Ah+\sum_{k=0}^{N+h}\varepsilon_{k}(N+h-k)-\sum_{k=0}^{N}\varepsilon_{k}(N-k)\\
& =Ah+h\sum_{k=0}^{N}\varepsilon_{k}+\sum_{k=N+1}^{N+h}\varepsilon_{k}(N+h-k)\\
& =\tilde{A}h+a_{N+2}h+\sum_{k=N+1}^{N+h}\varepsilon_{k}(N+h-k).
\end{align*} En notant $\displaystyle M=\sup_{n\in \mathbb{N}} \vert S_{n} \vert$ et $\displaystyle \varepsilon(N)=\sup_{k\geq N+1}\vert \varepsilon_{k}\vert,$ on a alors par l'inégalité triangulaire :
\begin{align*}
h\vert \tilde{A}+a_{N+2} \vert & \leq 2M+h^{2}\varepsilon(N) ,&\text{d'où } \\
\vert \tilde{A}+a_{N+2} \vert & \leq \frac{2M}{h}+h\varepsilon(N).
\end{align*} On a alors (on peut aussi optimiser en $h$) : $\displaystyle \limsup_{N\rightarrow +\infty}\vert \tilde{A}+a_{N}\vert \leq \frac{2M}{h}.$
Et en faisant tendre $h$ vers $+\infty,$ on conclut que $\displaystyle a_{N}\xrightarrow[N \rightarrow +\infty]{} -\tilde{A}.$
Comme la suite $a$ converge et que $S$ est bornée, la limite de $a$ est donc nulle, ce qui prouve le résultat désiré.
$$Na_n=\left((a_n-a_{n+1})+\cdots+(a_n-a_{n+N})\right)+S_{n+N}-S_n.$$
Le terme $(a_n-a_{n+1})+\cdots+(a_n-a_{n+N})$ tend vers $0$ quand $n$ tend vers l'infini (à $N$ fixé) donc il existe $n_0$ tel que pour tout $n\geqslant n_0$, ce terme soit plus petit que $1$ en valeur absolue. On a donc
$$\forall n\geqslant n_0,\; |a_n|\leqslant \frac{1+2M}{N}\leqslant\epsilon.$$
Si $a_n$ ne tend pas vers $0$ alors il existe $C>0$ tel que $a_n > C$ une infinité de fois.
Pour tout $m$, soit $N$ tel que $\forall n \ge N, |a_n-a_{n+1}| < 1/m^3$, on prend $n \ge N$ tel que $a_n > C$ alors $a_{n+l} > C-l/m^3$ et donc $\sum_{l=0}^{m-1} a_{n+l} > m C - 2/m$.
Si $\sum_{n \le x} a_n$ était bornée on aurait $\sum_{y \le n \le x} a_n$ bornée.
$$\left|a_k \right| \leqslant \frac{1}{n} \left| \sum_{k=1}^n a_k \right| + \sum_{k=1}^{n-1} \left| a_{k+1} - a_k \right|.$$
BobbyJoe, c'était ta méthode ?
Ce joli resultat permet de démontrer qu'une somme pertielle coriace ne peut etre bornée, c'est l'exemple des sommes de sinus(racine n ).
Depuis mon tel
$$\left| f(x) \right| \leqslant \frac{1}{b-a} \int_a^b \left| f(t) \right| \, \textrm{d}t + \int_a^b \left| f^{\, \prime}(t) \right| \, \textrm{d}t.$$
Chez nous (i.e. en arithmétique), elles sont référencées "inégalités de Sobolev ". Dans les années 60, Gallagher les a utilisées de façon cruciale dans sa démonstration de l'inégalité du grand crible, d'où le nom que j'ai donné plus haut.
Pour moi, les inégalités de Kolmogorov sont celles-ci : soit $f \in C^n \left( \mathbb{R} \right)$ ($n \geqslant 2$ entier) telle que $\lambda_k := \sup \left| f^{(k)} \right| < \infty$ pour $k=0$ et $k=n$. Alors, pour tout $k \in \{0, \dotsc, n \}$ et tout réel $x$
$$\left| f^{(k)} (x) \right| \leqslant 2 \lambda_0^{1-k/n} \lambda_n^{k/n}.$$
(La constante $2$ est la meilleure possible et n'est pas due à Kolmogorov qui avait obtenu, si ma mémoire est bonne, une constante dépendant de $k$ et $n$).
Maintenant, il est possible que les inégalités au-dessus soient aussi référencées "Kolmogorov", mais je n'ai pas trouvé de référence validant cette paternité. Tu en as une ?
Mais bon, la preuve de JLT est la plus rapide...
oui , seulement une faute frappe
$$a_k = \frac{1}{n} \sum_{h=1}^n a_h + \sum_{h=1}^{n-1} \Delta_n(k,h) \left( a_{h+1} - a_h \right)$$
où
$$\Delta_n(k,h):= \frac{1}{n} \times \begin{cases} h, & \textrm{si} \ 1 \leqslant h \leqslant k-1 \\ h-n, & \textrm{si} \ k \leqslant h \leqslant n-1. \end{cases}$$
@BobbyJoe : tu as manifestement des connaissances en théorie analytique des nombres...
Ce que tu dis est exact, mais la démonstration de Gallagher a pour elle le grand mérite d'être ô combien plus simple que celle de Selberg qui fournit la constante optimale (et qui utilise des inégalités raffinées et généralisées de celles de Bessel et d'Hilbert), et qui est suffisante dans bon nombre d'applications.
En effet, merci également pour les précisions concernant le grand crible :
-L'inégalité du grand crible avec constante optimale ($N+\frac{1}{\delta}-1$) utilise, à ma connaissance, le théorème de Paley-Wiener et de l'analyse complexe de haut niveau (cf preuve dans le livre de G. Tenenbaum).
-L'inégalité quasi-optimale ($N+\frac{1}{\delta}$) peut-être montrée à moindre frais avec des considérations de transformées de Hilbert discrète (mais cela reste difficile... et pas hyper intuitif!).
-La preuve de Galagher a le mérite de fournir une borne (optimale à des constantes près) et permet entre autres de prouver le fameux théorème de Brun (la somme des inverses des nombres premiers jumeaux convergent) de manière purement élémentaire (sans même invoquer des résultats type Mertens ou Tchebtychev).... C'est ça qui est rigolo!
@BobbyJoe : tout à fait ! Et plus généralement, tu as l'inégalité de Brun-Titchmarsh, etc.
Ainsi, les spécialistes de théorie analytique des nombres sont aussi spécialistes de la "théorie des fonctions" (au sens large), i.e. sont capables d'estimer des intégrales complexes ou des sommes d'exponentielles complexes avec une très grande précision (je me souviens que Tenenbaum était surnommé un temps le "renard du plan complexe") ;
les spécialistes de théorie algébrique des nombres ont amené l'algèbre, notamment commutative, à un très haut niveau (théorie du corps de classes, etc) ;
les spécialistes de théorie algorithmique des nombres sont à la pointe des algos actuels dans bon nombre de branches ;
les spécialistes de théorie transcendantale des nombres ont fait des prouesses avec les logarithmes (voir Baker, par exemple) et l'algèbre des extensions transcendantales ;
Et il y a même des gens capables de combiner une bonne partie de tout ces domaines (Bombieri, Tao, Huxley, Vaughan, Narkiewicz, Iwaniec, etc, difficile de tous les citer).
Je suis émerveillé.
[
Une autre façon possible est de remarquer que, par IPP, pour tout $x \in \left[ a,b \right]$ (avec $a < b$)
$$\int_x^b \frac{t-b}{b-a} f^{\, \prime} (t) \, \textrm{d}t + \int_a^x \frac{t-a}{b-a} f^{\, \prime} (t) \, \textrm{d}t = f(x) - \frac{1}{b-a} \int_a^b f(t) \, \textrm{d}t.$$
Cette identité te permet d'avoir une inégalité légèrement meilleure que celle du dessus si on spécifie $x = \frac{1}{2} (a+b)$ (qui est précisément celle que Gallagher a utilisé dans sa démonstration du grand crible) :
$$\left| f \left( \frac{a+b}{2} \right) \right| \leqslant \frac{1}{b-a} \int_a^b \left| f(t) \right| \, \textrm{d}t + \frac{1}{2} \int_a^b \left| f^{\, \prime} (t) \right| \, \textrm{d}t.$$