Convergence d'une suite
Bonjour,
on considère la suite $S_n=\sum\limits_{k=0}^{n}\ (\frac{k}{n})^n$ Montrez qu'elle converge.
J'ai procédé par un changement de variable $k=n-k'$ on aura donc
$S_n=\sum\limits_{k=0}^{n}\ (1-\frac{k}{n})^n$
le terme général en faisant tendre $n$ vers $\infty$ ressemble à $\exp(k)$ mais je ne sais pas comment procéder. C'est la présence du $k$ qui me gène pour appliquer les résultats sur les séries.
Merci de votre aide.
on considère la suite $S_n=\sum\limits_{k=0}^{n}\ (\frac{k}{n})^n$ Montrez qu'elle converge.
J'ai procédé par un changement de variable $k=n-k'$ on aura donc
$S_n=\sum\limits_{k=0}^{n}\ (1-\frac{k}{n})^n$
le terme général en faisant tendre $n$ vers $\infty$ ressemble à $\exp(k)$ mais je ne sais pas comment procéder. C'est la présence du $k$ qui me gène pour appliquer les résultats sur les séries.
Merci de votre aide.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
J'aurais dit $e^{-k}$. Le terme général n'est-il pas croissant vers ce réel d'ailleurs ?
On a envie de majorer.
La question est-elle d'étudier la série de terme général \(S_n\) ?
La réponse est immédiate car, pour tout entier naturel \(n\) non nul: \(S_n \geqslant 1\).
S'il s'agit d'étudier la suite de terme général \(S_n\), on peut effectivement comparer \(\left(1-\dfrac{k}{n}\right)^n\) à \(e^{-k}\), puis \(S_n\) à une somme partielle de série géométrique, et essayer de conclure que la suite de terme général \(S_n\) converge vers la somme de cette série géométrique.
le fameux contre exemple est la fonction écrasée $e^{-\frac {1}{x^2}}$ avec $e^{-\frac {1}{0}}:=0$
Le théorème de la double limite est un théorème qui permet de résoudre certaines questions avec le bagage de prépas. S'il devient inutile par la suite, il aura été utile à ce moment.
L'affirmation « l'intégrale de Riemann sans celle de Lebesgue ne peut être enseignée complètement » est douteuse. Il est vrai que l'intégrale de Lebesgue donne un complément de compréhension sur l'intégrale de Riemann, mais on peut enseigner celle-ci spécifiquement, comme on a fait durant des années dans le passé, en prépas mais aussi en fac. On peut définir les ensembles négligeables sans recourir à la théorie complète de l'intégrale de Lebesgue.
Quoiqu'il en soit, cette remarque est sans objet pour les classes prépas, puisqu'aucune théorie d'intégration n'est enseignée en prépas depuis trente ans, ni Riemann ni bien sûr Lebesgue.
Pour ma part, j'ignore en quoi l'étude des séries en prépa serait « trivialisée » par l'intégrale de Lebesgue. Il est certain que celui qui atteint un certain niveau trouve « trivial » ce qui vient avant. Il n'en est pas moins utile de faire des mathématiques à tel ou tel niveau, avec des moyens plus ou moins étendus, se préparant ainsi pour les niveaux à venir.
C'est pourquoi il est toujours important qu'un questionneur précise à quel niveau il pose son problème, et à quels moyens mathématiques on peut recourir pour le résoudre.
Par exemple, la suite dont nous traitons dans ce fil peut être étudiée à plusieurs niveaux, comme le montrent mes références, parmi lesquelles je rappelle il y a Bourbaki, FVR.
Bonne soirée.
Fr. Ch.
Ce n'est pas une question d' « ancien » ou de « nouveau », c'est la question de savoir ce qui peut être enseigné à tel niveau à telle époque. Pour fixer les idées : préconises-tu d'enseigner l'intégrale de Lebesgue en Math. Sup ?
Bien sûr ce n'est que mon avis ... et je n'enseigne pas en prépa. Ton avis m'intéresse !
L'intégrale de Riemann est tellement intuitive qu'elle me semble incontournable.
Certains lycéens y songent bien avant qu'on leur en parle, disons que c'est l'idée de la méthode des rectangles.
Aussi, au programme de l'agrégation interne, il n'y a pas de Lebesgue.
C'est pour utiliser les gros théorèmes (convergence monotone, convergence dominée) que Lebesgue pointe son nez mais dont "il ne faut pas prononcer le nom".
Quant à enseigner l'utilisation de l'intégrale sans un support théorique, on voit déjà à quoi conduit ce genre d'ineptie pédagogico-didactico-politico-correcte : faire des générations de «pousse-bontons» qui en sont réduit à se poser ce genre de question parce qu'on ne leur a pas donné le recul suffisant par rapport aux objets qu'ils utilisent.
@Chaurien Tout bonnement car dans l'exemple, si on note $d\Sigma$ la mesure de comptage sur $\mathbb{N}$ qui est $\sigma$-finie, on a en notant $\displaystyle f_{n}(x)=\Big(1-\frac{x}{n}\Big)^{n}\chi_{[0,n]}$ $$\sum_{k=0}^{n}\Big(1-\frac{k}{n}\Big)^{n}=\int_{\mathbb{R}^{+}}f_{n}(t)d\Sigma(t).
$$ Enfin, on a $f_{n}$ qui CV simplement vers $t\mapsto e^{-t}$ sur $\mathbb{R}^{+}$ et par une inégalité de convexité, $f_{n}$ qui est dominée par $t\mapsto e^{-t}$ qui est $d\Sigma$-intégrable.
Par CV dominée, il vient alors $$\lim_{n\rightarrow +\infty}\sum_{k=0}^{n}\Big(1-\frac{k}{n}\Big)^{n}=\sum_{k=0}^{+\infty}e^{-k}=\frac{e}{e-1}.$$
J'ai même envie de dire qu'il est souvent nécessaire de passer par ces exercices parfois un peu fastidieux pour comprendre la nécessité d'avoir un outil plus adapté.
Ici, on peut s'en sortir uniquement avec quelques inégalité classiques vérifiées par le logarithme.
Je copie la démonstration faite dans le Précis d'analyse Bréal (édition 1999).
Tout d'abord, on montre que $\forall x<1, \ln(1-x)\leq -x$ puis on en déduit que $\forall x<1, \ln(1-x)\leq \frac{x}{x-1}$.
Ensuite, on en déduit par croissance de l'exponentielle que pour tout $n\in\N^*$ : $$S_n=\sum_{k=0}^{n-1}\left(1-\frac{k}{n}\right)^n=\sum_{k=0}^{n-1}\exp\left(n\ln(1-\frac{k}{n})\right)\leq \sum_{k=0}^{n-1}e^{-k} =\frac{1-e^{-n}}{1-e^{-1}}\leq \frac{e}{e-1}$$
De l'autre côté, puisque l'on somme des réels positifs, on minore ainsi :
$$S_n\geq \sum_{k=0}^{n-1}\exp \left(\frac{-k}{1-\frac{k}{n}}\right)\geq \sum_{k=0}^{\lfloor \sqrt n \rfloor-1}\exp \left(\frac{-k}{1-\frac{k}{n}}\right) \geq \sum_{k=0}^{\lfloor \sqrt n \rfloor-1}\exp \left(\frac{-k}{1-\frac{1}{\sqrt n}}\right) = \frac{1-\exp \left(\frac{-\lfloor \sqrt n \rfloor}{1-\frac{1}{\sqrt n}}\right)}{1-\exp \left(\frac{-1}{1-\frac{1}{\sqrt n}}\right)}$$
On peut enfin conclure par encadrement que $S_n \rightarrow \frac{e}{e-1}$ lorsque $n\rightarrow +\infty$.
Si l'on considère qu'un exercice exige tel outil mathématique pour le résoudre, alors ne le posons pas avant le niveau d'enseignement où cet outil est enseigné. Ici, l'intégrale de Lebesgue.
Mais si cet outil n'est pas indispensable, alors on peut le poser avant, même au prix de quelques complications, eh bien faisons-le. L'étudiant tirera profit de la comparaison des méthodes.
Au fond je dis la même chose que Bisam, c'est normal puisque je suis d'accord avec lui.
Je ne me souvenais plus de cette solution du précis Bréal, que je n'ai plus sous la main. Elle me semble tout à fait sympathique.
Il y a plusieurs solutions pour ce problème.
J'ai rappelé que ce problème figure déjà dans le recueil de E. Ramis de 1968, avec une solution que je trouve trop tarabiscotée. Il a dû passer dans la RMS. Si quelqu'un a une référence, qu'il nous la fournisse. Je peux rajouter : E. Ramis, C. Deschamps, J. Odoux, Analyse 2, Masson, 1985 (bleu), p. 49 .
Bonne après-midi.
Fr. Ch.
$$\large \lim_{n\to+\infty} \sum_{k=0}^{n} \frac{\binom{n+1}{k}B_k} {(n+1)^k} = \frac{1}{e-1}$$
Preuve :
$\displaystyle S_n=\sum\limits_{k=0}^{n}\left(\frac{k}{n}\right)^n=\frac 1{n^n} \sum\limits_{k=0}^{n}k^n$
D'après la formule de Faulhaber ($n>0$ et $N>0$)
$\displaystyle \large \sum_{k=0}^{n} \frac{\binom{n+1}{k}B_k} {N^k} = \frac{n+1}{N^{n+1}} \sum_{k=0}^{N-1} k^n$
(Les $B_k$ sont les nombres de Bernoulli avec la notation $B_1=-\frac 12$)
On peut écrire donc
$\displaystyle \large \sum_{k=0}^{N-1} k^n = \frac{N^{n+1}}{n+1} \sum_{k=0}^{n} \frac{\binom{n+1}{k}B_k} {N^k} $
On prend $N=n+1$
$\displaystyle \large \sum_{k=0}^{n} k^n = \frac{(n+1)^{n+1}}{n+1} \sum_{k=0}^{n} \frac{\binom{n+1}{k}B_k} {(n+1)^k}$
$\displaystyle \large S_n=\frac 1{n^n}\sum_{k=0}^{n} k^n = \frac{(n+1)^{n+1}}{n^{n+1}+n^n} \sum_{k=0}^{n} \frac{\binom{n+1}{k}B_k} {(n+1)^k}$
Et puisque $\displaystyle \lim_{n\to+\infty} S_n = \frac{e}{e-1} $ et $\displaystyle \lim_{n\to+\infty} \frac{(n+1)^{n+1}}{n^{n+1}+n^n} =e$ alors on a $\displaystyle \large \lim_{n\to+\infty} \sum_{k=0}^{n} \frac{\binom{n+1}{k}B_k} {(n+1)^k} = \frac{1}{e-1}$
Posons $a_{n,k}:=0$ si $k\geq n$ et $a_{n,k} \exp \left (-k-\frac{k^2}{n-k} \right)$ si $k<n$. On peut alors vérifier que pour tout $k$, que $a_{n,k} \underset{n \to +\infty} \longrightarrow e^{-k}$,et que pour tout $n\geq 0$, $0\leq a_{n-1,k}\leq a_{n,k}$.
Je ne sais pas ce que désigne au niveau prépa l'expression "théorème de la double limite", cependant la version suivante du théorème de convergence monotone pour les séries peut être démontrée rapidement et quasiment sant prérequis:
Soit $(a_k)_{k \in \N}$ une suite de réels positifs, soit $(a_{n,k})_{(n,k) \in \N^2}$ une suite de suites à termes positifs, telle que pour tous $n,k \in \N$,$a_{n-1,k}\leq a_{n,k}$ et telle que pour tout $k$, $a_{n,k} \underset{n \to +\infty} \longrightarrow a_k$.
1°) Si $\sum_{n=0}^{+\infty} a_k < +\infty$, alors pour tout $n\in \N$, $\sum_{n=0}^{+\infty} a_{n,k} < +\infty$ (ça c'est facile) et
$ \left ( \sum_{n=0}^{+\infty} a_{n,k} \right) \underset{n \to +\infty} \longrightarrow \sum_{n=0}^{+\infty} a_k < +\infty$.
2°) réciproquement si pour tout $n$, la suite à termes positifs $(a_{n,k})_{k \in \N}$ est sommable et si la suite $n \mapsto \left ( \sum_{n=0}^{+\infty} a_{n,k} \right)$ est majorée (et donc converge vers un réel $\ell$ par monotonie) alors $(a_k)_{k \in \N}$ est sommable de somme $\ell$.
Preuve:
1°) (le seul point qui sert pour l'exo): soit $\varepsilon>0$. Soit $q \in \N$ tel que $\sum_{k>q} a_k < \varepsilon$ - autrement dit tel que $\left (\sum_{k=0}^{+\infty} a_k\right )- \varepsilon < \sum_{k=0}^q a_k$. Soit $N\in \N$ tel que pour tous $k \in \{0,1,...,q\}$, et tous $n\geq N$, $a_k-\frac{\varepsilon}{q+1} \leq a_{n,k} \leq a_k$.
Alors par construction, pour tous $n\geq N$,
$$\left (\sum_{k=0}^{+\infty} a_k\right )- 2 \varepsilon\leq \left (\sum_{k=0}^{q} a_k\right )- \varepsilon \leq \sum_{k=0}^{q} \left( a_k -\frac{\varepsilon}{q+1}\right )\leq \sum_{k=0}^q a_{n,k} \leq \sum_{k=0}^{+\infty} a_{n,k} \leq \sum_{k=0}^{+\infty} a_k$$
Le résultat en découle immédiatement.
Pour 2°) On fixe $\ell$ comme dans l'énoncé. On raisonne par l'absurde (;-)) pour montrer que $(a_k)_{k\in \N}$ est sommable (le reste de l'énoncé découlant alors du point 1°).
Si cette série à termes positifs n'est pas convergente, il existe $r\in \N$ tel que $\sum_{k=0}^r a_k> \ell +2$. Soit $N\in \N$ tel que pour tous $k \in \{0,1,...,r\}$ et $n \geq N$, $a_{n,k}> a_k - \frac{1}{r+1}$. Alors pour tous $n\geq N$, $\ell+1 \leq \sum_{k=0}^r a_{n,k} \leq \sum_{k=0}^{+\infty} a_{n,k} $ ce qui au vu des hypothèses est impossible. CQFD.
*******
Après ça, on peut démontrer un lemme de Fatou et un théorème de convergence dominée pour les séries de réels en quelques lignes, comme cela est fait dans n'importe quel cours d'intégration. En tout cas le théorème de convergence monotone suffit pour l'exo et même si on veut éviter d'utiliser un canon pour écraser une mouche, quand le canon se prouve aussi vite je pense qu'on peut l'utiliser.
On suppose que, pour chaque $m\in \mathbb{N}^{\ast }$, la suite $(u_{m,n})_{n\in \mathbb{N}^{\ast }}$ est croissante (au sens large) et admet une limite finie $a_{m}$.
On suppose que la série $\displaystyle \overset{+\infty }{\underset{m=1}{\sum }}a_{m}$ est convergente, et soit $\displaystyle\overset{+\infty }{\underset{m=1}{\sum }}a_{m}=S$.
Pour $n\in \mathbb{N}^{\ast }$, soit $S_{n}=u_{1,n}+u_{2,n}+...+u_{n-1,n}$ quand $n\rightarrow +\infty $. Alors $\displaystyle \underset{n\rightarrow +\infty }{\lim } S_{n}=S$.Ce lemme n'est pas trop difficile à démontrer.
On l'applique à $u_{m,n}=(\frac{n-m}{n})^{n}$ si $n>m\geq 1$, et $u_{m,n}=0$ si $1\leq n\leq m$.
Bonne nuit.
Fr. Ch.
Donner un développement asymptotique de
S(n)- e/(e-1) à trois termes .
Il ne faut pas croire que tu étudies une série dans ton exercice, il s'agit bien d'une suite. Il y a une sacrée différence entre l'étude de la suite $(\sum_{k=1}^n \frac{1}{k})_n$ et celle de $(\sum_{k=1}^n \frac{1}{n})_n$.
Ben, oui ! puisque c'est le même \(n\) qui apparaît deux fois dans la formule ; ta question revient à demander si, lorsque l'on détermine la limite de \(e^{-n}\sin n\) quand \(n\) tene vers l'infini, les deux \(n\) tendent vers l'infini.
L'expression de la suite à étudier est du même genre que l'expression des sommes de Riemann d'une fonction \(f\) sur un intervalle pour une subdivision régulière :
\[S_n = \sum_{k=1}^n f\left(\frac kn\right)\]
et, là aussi, les deux \(n\) tendent vers l'infini…