Exercices : max min sup inf

24567

Réponses

  • Je pense que tu as la tête dans le guidon. On a ramené le problème de départ qui ne semble pas évident, au problème de trouver une fonction qui croît plus vite que $\ln x$ et plus lentement que $x$ (et pas tous les $x^{\alpha}$ comme au début !).
  • Un truc genre $ax$ avec $a \in [0;1]$ ??? Franchement je n'ai aucune idée de ce qu'il faut faire, si c'est censé être simple j'ai loupé un épisode.
  • Le problème de départ c'était les puissances, comment aller plus lentement que toutes les puissances de $x$ ? Ici tu as juste besoin d'être plus lent que $x$. $ax$ ne marchera pas car tu veux être plus lent que tous les $bx$. :-D
  • Ben oui mais les puissances de $x$ les plus petites sont des fonctions "presque constantes", mais les fonctions constantes ne marchent pas. Un truc qui croît "entre" $\ln(x)$ et $x$ sans être $x\ln(x)$, je n'ai vraiment aucune idée de ce que ça pourrait être.
  • Peut-être avec un autre changement de variable $z=\ln(y)$.
  • Mais pour en faire quoi ???
  • Bon je te donne la réponse en blanc alors : $x^{\alpha}$ avec $0 < \alpha < 1$.
  • ...

    Bon, ça ne servait plus à rien de cacher la réponse en blanc à ce stade.

    Mais ça ne me paraît pas logique du tout : tu es en train de me dire que $\dfrac{1}{\epsilon}e^{\beta \ln(\ln(x))} \leqslant e^{\ln(x^{\gamma})} \leqslant \epsilon e^{\alpha \ln(x)}$ ? Sauf si j'ai mal interprété ta réponse.

    $\alpha$ et $\beta$ sont $>0$ quelconques et $\gamma \in ]0;1[$. Le truc du milieu, c'est $e^{\gamma \ln(x)}$. Depuis quand ça croît plus lentement que le truc à droite pour tout $\epsilon$ ???
  • Tu as mal interprété ma réponse :-D

    Je parlais avec une variable $x$ parce que je pensais que tu avais compris, mais reparlons en termes de $y = \ln x$. Tu cherches une fonction de $y$ qui croît plus vite que $\beta \ln y$ et plus lentement que $\alpha y$ (pour tous $\alpha, \beta > 0$), et je te propose $y^{1/2}$ par exemple.
  • OK donc $e^{(\ln(x))^{\gamma}}$ avec un $\gamma$ assez petit. J'ai du mal à concevoir pourquoi en bidouillant des puissances de $x$, on n'arrive à rien, mais en bidouillant des puissances de $\ln(x)$, ça marche. Je n'aurais jamais pensé à faire ça.
  • Bah techniquement c'est une puissance de $x$, mais cette puissance tend vers $0$ avec $x$ (c'est $\ln(x)^{\gamma-1}$).
  • Bon, bref, ça m'a saoulé, encore un truc tout simple que j'aurais dû être capable de trouver en L1 et où je n'ai rien compris, et où on a été obligé de me servir la réponse toute faite. Allez, suivant. :-X
  • Au passage ça fait se poser la question de l'étude de l'ordre défini sur l'ensemble des fonctions définies au voisinage de $+\infty$, avec $f \prec g$ si $f = o(g)$ au voisinage de $+\infty$. Il y a sûrement pleins de choses intéressantes à dire dessus ! L'exercice qu'on vient de regarder laisse penser qu'il s'agit d'un ordre dense par exemple.
  • Je ne connais les ordres denses juste de nom.

    Je connais les histoires d'échelles de comparaison. On cherche une famille de fonctions auxquelles on peut comparer tout le monde au voisinage d'un point/d'un infini. On commence par la famille des $x^n$, plus généralement il faudrait choisir les $x^{\alpha}$, puis on rajoute les logarithmes et les exponentielles pour avoir la famille des $x^{\alpha} (\ln(x))^{\beta}(e^x)^{\gamma}$. J'ai vu ça dans le Gourdon et c'est ça qui m'a permis de comprendre un intérêt du théorème de convergence pour les séries de Bertrand.
  • Eh bien avec cet exercice tu as vu une échelle de grandeur plus fine. ;-) Tu peux ajouter les $(\ln x)^{\alpha} e^{\ln(x)^{\beta}} x^{\gamma} e^{\delta x}$ à ton arsenal. Et bien sûr ça s'itère. On peut ajouter les $(\ln x)^{\alpha x^{\beta}}$ par exemple, et bien d'autres. On voit que l'ordre en question est complètement tentaculaire !

    Un ordre $<$ sur un ensemble $E$ est dense lorsque pour tout $a, b \in E$ tels que $a < b$, il existe $c \in E$ tel que $a < c < b$. C'est le cas de l'ordre usuel sur $\mathbb R$ ou sur $\mathbb Q$ par exemple.
  • Oui, j'ai cherché la définition entre temps, je ne vois juste pas (encore) quel est l'intérêt de la notion, en fait.

    Et oui, on peut "compléter l'arsenal" comme tu dis, mais l'intérêt d'une échelle de comparaison, c'est aussi d'être "gérable", c'est pour ça que les $x^n$ forment une échelle sympathique : les fonctions sont simples à étudier et en quantité dénombrable. Elles ne suffisent pas pour tout, d'où l'intérêt de théorèmes du type séries de Bertrand, mais si on commence à s'enfoncer là-dedans on s'en sortira jamais. Je ne suis pas chercheur en analyse réelle, alors je m'arrête là :-D
  • Précaution pour le 6/ de Calli : faut-il supposer que la limite de $f$ à l'infini est finie ou pas ?
  • Je peux répondre à ma question moi-même : $y : t \longmapsto t$ est définie sur $\mathbb{R}_+$, à valeurs dans $\mathbb{R}$, dérivable, $y'(t) = 1$ s'écrit bien $a+b$ avec $a : t \longmapsto1$ uniformément continue, $b : t \longmapsto 0$ qui tend vers $0$, mais la limite de $y'$ est non nulle à l'infini.

    Je suppose donc que $y$ a une limite finie.

    Je note que $y$ devrait être bornée : elle est définie en $0$, continue, et tend vers une limite finie. Si elle était non bornée, elle devrait atteindre des limites infinies en un point, ce qui est impossible car elle est continue. Pour l'instant, je ne l'écris pas formellement et j'espère que c'est vrai :-D

    Dans ce cas, $y'$ est bornée aussi (sinon, $y$ aurait une discontinuité), ce qui oblige $a$ à être bornée, au moins pour $t$ assez grand.

    Pour la suite, je ne sais pas encore.
  • @Homo Topi je ne sais pas si j'ai bien compris ton raisonnement mais si une fonction est continue et bornée ça ne veut pas dire que sa dérivée est bornée.

    Exemple : $x\mapsto \sin(x^2)$.
  • Je pense que ce contrexemple ne peut pas se produire avec l'énoncé que j'ai, mais je ne sais pas encore pourquoi.
  • moi non plus...
  • N'est-il pas plus simple de prendre un contre-exemple ? Par exemple $y:x\mapsto x$ tend vers $+\infty$ en $+\infty$, et $y' = 1 = a + b$ en prenant $a=1$ et $b=0$. On voit que $a$ est uniformément continue sur $\mathbb{R}_+$ et que $b(t)$ tend vers $0$, pourtant, $y'(t)$ tend vers $1\neq 0$.

    Edit: Ecrit plus haut. Ca m'apprendra à ne pas lire les posts. Je profite tout de même de cette erreur pour remercier Calli pour ces jolis exercices
  • J'apprécie tout particulièrement cet exercice $6/$ car il mélange plein de notions qu'il faut bien savoir distinguer.

    $y'$ n'est pas obligée d'être continue, ni d'avoir une limite, etc... je suis mauvais avec ces trucs-là, je n'ai appris que le B A BA de l'analyse réelle, alors ça fait du bien de se triturer le cerveau avec ça et déconstruire les mauvaises habitudes/préconceptions.
  • Je suis bête, j'ai mal lu, on suppose que $y'$ est somme de deux fonctions $a$ et $b$ continues, ça change pas mal de choses.
  • Je pense avoir trouvé une preuve très lourde à coups de $\varepsilon$ : soit $\varepsilon > 0$.

    En utilisant la continuité uniforme de $a$, on sait qu'il existe $\alpha > 0$ tel que pour tout réels $u,v$ vérifiant $\lvert u - v \rvert \leq \alpha$, on ait $\lvert a(u) - a(v) \rvert \leq \varepsilon / 4$. Prenons un entier non nul $q$ vérifiant $0 < 1/q < \alpha$ et notons $\delta = 1/q>0$.

    Comme $y$ admet une limite finie en $+\infty$, $y(t+\delta) - y(t) \rightarrow 0$ et on peut trouver un entier $N_1$ tel que pour tout $t\geq N_1$, on ait $\lvert y(t+\delta) - y(t) \rvert \leq \delta\varepsilon / 4$. On peut également trouver un entier $N_2$ tel que pour tout $t\geq N_2$, $\lvert b(t) \rvert \leq \varepsilon / 4$. Posons $N = N_1 + N_2$.

    Prenons un réel $c\geq N$. $c$ appartient à un intervalle de la forme $[n, n+1]$, où $n$ est entier, que l'on note $I_n$. Découpons $I_n$ en $q$ petits intervalles $I_n^k = [n+(k-1)\delta, n+k\delta]$ pour $k=1,...,q$. $c$ appartient à l'un des $I^k_n$. Par le théorème des accroissements finis, il existe $c^k_n$ dans $I_n^k$ (ouvert) vérifiant
    $$y'(c^k_n) = \frac{y(n+k\delta) - y(n+(k-1)\delta)}{\delta}$$
    On a par ailleurs
    $$\lvert y'(c) \rvert \leq \lvert y'(c) - y'(c^k_n) \rvert + \lvert y'(c^k_n) \rvert \leq |a(c) - a(c^k_n) \rvert + \lvert b(c) \rvert + \lvert b(c^k_n) \rvert + \lvert y'(c^k_n) \rvert$$
    Comme $c,c^k_n \geq N$ et que $\lvert c^k_n - c \rvert \leq \delta$, chaque terme est inférieur à $\varepsilon / 4$. On arrive donc finalement à
    $$\lvert y'(c) \rvert \leq \varepsilon$$
    Ce qui prouve que $y'(c) \rightarrow 0$ quand $c\rightarrow +\infty$
  • zazou : J'ai donné ces exercices pour que Homo Topi s'entraîne sur l'analyse réelle et il aime bien qu'on le laisse chercher sans donner trop d'indices et, en particulier, sans donner la solution. Evidemment, on est sur un forum public donc tu es libre de poster ta solution si tu en as envie (tu peux toi aussi vouloir t'entraîner sur l'analyse réelle !), mais je pense qu'il serait mieux que mettes ta solution en blanc. Comme ça Homo Topi ne devra pas l'esquiver du regard pour ne pas la lire. On fait ça parfois sur ce forum pour donner sa solution sans spoiler les autres. Pour ça, il faut utiliser le septième bouton de l'éditeur de message. Les lecteurs peuvent voir ton message en le surlignant avec la souris.

    Homo Topi : Dans l'exercice 3, il faut aussi traiter le cas $\inf \{ \frac{u_{n} }{n} \mid n\in \mathbb{N}\} = -\infty$ normalement (j'ai parlé de convergence dans $\overline{\Bbb R}$). Dans l'exercice 6, l'hypothèse de continuité de $b$ peut être enlevée.
  • @Calli et @Homo Topi: Je suis désolé, je serai plus vigilant à l'avenir. J'ai caché mon message sans toutefois réussir à cacher les parties écrites en LaTeX. J'avais simplement cherché l'exercice poussé par la curiosité, et posté mon message dans la foulée.
  • Bon, pour le 3/ où le $\inf \dfrac{u_n}{n} = - \infty$ était passé à la trappe, j'en avais regardé (mais pas retenu... mauvaise mémoire, vous commencez à savoir) la preuve sur Wikipédia, elle utilise des $\liminf$ et des $\limsup$, je ne trouve pas ça très joli mais je n'ai pas encore eu d'autre idée.

    Pour le 6/, je réfléchis encore.

    Et je n'avais pas regardé la solution de zazou, exprès.
  • Les $\liminf$ et les $\limsup$ sont des notions essentielles. C'est très utile quand on veut passer à la limite dans des inégalités, sans avoir besoin que la dite limite existe.
  • Soit $(X\leq)$ un ensemble ordonné (ou même préordonné pour les lecteurs qui savent ce que c'est; ça ne change strictement rien).
    La (resp une dans le cas préordonné) borne supérieure d'une partie est le plus petit majorant de ladite partie (si un tel plus petit majorant existe).

    On en déduit immédiatement la caractérisation opérationnelle suivante:
    Soient $A$ une partie de $X$ et $s\in X$.

    Les énoncés ci-dessous sont équivalents:
    1) $s$ est la borne supérieure de $A$
    2) Pour tout $x\in X$, $s\leq x$ si et seulement si $\forall a\in A$, $a \leq x$.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Je vais potasser un peu la démonstration avec les $\lim \sup/\inf$ du coup, pour m'entraîner un peu. Je n'ai vraiment pas grand-chose sur ces notions dans mes cours. Définition, 4-5 résultats, 1-2 exercices, sans plus.
  • Un petit exercice guidé pour te montrer l'intérêt des $\liminf$ et $\limsup$.

    Soit $f : \mathbb R^+ \to \mathbb R^+$ une fonction croissante telle que $\int_1^{+\infty} \frac{f(x) - x}{x^2} \,\mathrm{d}x$ converge. On va montrer que $f(x) \underset{x\to +\infty}{\sim} x$.

    1) On suppose par l'absurde que $\limsup_{x \to +\infty} \frac{f(x)}{x} > 1$. Montrer qu'il existe une suite $(x_n)_n$ tendant vers $+\infty$ et $\varepsilon > 0$ tels que $f(x_n) \geq (1+2\varepsilon)x_n$ pour tout $n$.
    2) Minorer $\frac{f(x)-x}{x^2}$ pour $x \in [x_n, (1+\varepsilon)x_n]$.
    3) Obtenir une contradiction avec l'hypothèse d'intégrabilité.
    4) On montre de même que $\limsup_{x \to +\infty} \frac{f(x)}{x} \geq 1$. Conclure.

    (C'est l'étape finale dans certaines démonstrations du théorème des nombres premiers, la fonction $f$ étant la fonction $\theta : x \mapsto \sum_{p \leq x} \log p$ de Tchebychev, et le TNP étant facilement équivalent à $\theta(x) \underset{x\to +\infty}{\sim} x$)

    Et tant qu'à faire, tu peux chercher à démontrer la formule d'Hadamard : soit $(a_n)_n$ une suite de nombres complexes. Montrer que le rayon de convergence de la série entière $\sum_n a_n z^n$ est $\frac{1}{\limsup_{n \to +\infty} |a_n|^{1/n}}$.
  • Oui... l'un des problèmes que j'ai dans ce fil, c'est qu'on m'a donné une tonne d'exercices, je n'ai aucune idée de leur vraie difficulté, ni de l'étendue des notions nécessaires pour les traiter. Du coup, c'est difficile d'y réfléchir sans aucun guide. C'est clair que ça me fait travailler, mais je n'arrive vraiment pas à grand-chose entièrement tout seul, c'est quand même un peu frustrant.
  • Bon, alors, pour reformuler le 6/ :

    Soit $y : [0, \infty[ \longrightarrow \mathbb{R}$ dérivable telle que $\displaystyle \lim_{t \longrightarrow \infty} y(t) = l \in \mathbb{R}$, avec $y' = a + b$, où $a$ est uniformément continue et $\displaystyle \lim_{t \longrightarrow \infty} b(t) = 0$.
    Montrer que $\displaystyle \lim_{t \longrightarrow \infty} y'(t) = 0$.

    C'est un poil plus clair pour moi écrit comme ça, même si le contenu est le même. Pour ce qui est de trouver une vraie idée, je n'y suis pas encore.
  • Une solution en blanc :

    Si par l'absurde $y'(t)$ ne tend pas vers $0$ quand $t \to +\infty$, alors il existe $\varepsilon > 0$ et une suite $(x_n)_n$ croissant vers l'infini tels que $|y'(x_n)| > \varepsilon$ pour tout $n$. On a donc $|a(x_n) + b(x_n)| > \varepsilon$ pour tout $n$. Comme $b(t) = o(1)$, on a $|b(t)| < \varepsilon/4$ pour tout $t$ assez grand et donc $|a(x_n)| > 3\varepsilon/4$ pour $n$ assez grand. On écrit $y(x_n + h) - y(x_n) = hy'(x_n + \xi_h) = h(a(x_n+\xi_h) + b(x_n+\xi_h))$ par le théorème des accroissements finis, où $0 < \xi_h < h$. Comme $a$ est uniformément continue, on peut prendre $h$ indépendant de $n$ tel que $|a(x_n+\xi_h) - a(x_n)| < \varepsilon/4$ pour tout $n$, tandis que pour $n$ assez grand on a $|b(x_n+\xi_h)| < \varepsilon/4$.

    Finalement, on obtient $|y(x_n+h) - y(x_n)| \geq h(|a(x_n)| - |a(x_n+\xi_h) - a(x_n)| - |b(x_n + \xi_h)|) \geq \frac{h \varepsilon}{4}$, ce qui contredit le critère de Cauchy pour $y$ en l'infini.
  • Homo Topi : Tu sais qu'il va falloir dégainer les $\varepsilon$ à un moment ? Et le plus tôt sera le mieux. J'ai l'impression que tu attends qu'une idée lumineuse te vienne, mais si tu n'as pas écrit les définitions de la limite et de l'uniforme continuité tu ne t'en sortiras pas.
    PS: J'écris ce message dans l'hypothèse où tu n'as pas lu la solution de Poirot.
  • Je n'ai encore lu aucune des solutions proposées, et j'avais commencé à écrire des $\epsilon$. Je suis encore dessus.
  • Bon, allez.

    Je veux prouver ceci : $\forall \epsilon > 0$, $\exists \eta > 0$, $\forall t > \eta$, $|y'(t)| \leqslant \epsilon$.
    On sait que $y' = a+b$, donc ça se réécrit : $\forall \epsilon > 0$, $\exists \eta > 0$, $\forall t > \eta$, $|a(t)+b(t)| \leqslant \epsilon$.

    Au découpage des $\epsilon$ en quatre près, il suffit de prouver que $|a(t)| \leqslant \epsilon$ et $|b(t)| \leqslant \epsilon$ sous les conditions ci-dessus, mais pour $b$ on sait déjà que ça marche. Donc il suffirait de le montrer pour $a$.

    La continuité uniforme me dit quoi ? $\forall \epsilon > 0$, $\exists \delta > 0$, $\forall (s,t)$, $|s-t| < \delta \Longrightarrow |a(s)-a(t)| \leqslant \epsilon$.
    Je ne sais pas encore trop comment m'en servir.

    Je sais quoi d'autre ? Que $\forall \epsilon > 0$, $\exists \eta > 0$, $\forall t > \eta$, $|y(t) -l| \leqslant \epsilon$

    Et que $f$ est dérivable : $\forall t \in \R_+$, $\forall \epsilon > 0$, $\exists \eta > 0$, $\forall h > 0$, $|t - h| < \eta \Longrightarrow \Big| \dfrac{y(t+h)-y(t)}{h} - a(t) - b(t) \Big| < \epsilon$

    Bon, alors quoi. Je fixe un $\epsilon > 0$. Pour cet $\epsilon$, je sais qu'il existe un $\eta > 0$ tel que pour tout $t > \eta$, on ait :
    1. $|b(t)| \leqslant \epsilon$
    2. $|y(t) - l| \leqslant \epsilon$
    3. $|l - y(t+h)| \leqslant \epsilon$ pour tout $h > 0$

    Donc on a : $|y(t+h) - y(t)| = |y(t) - l + l - y(t+h)| \leqslant |y(t) - l| + |y(t+h)-l| \leqslant 2 \epsilon$. Aucune idée si ça sert...


    ________________________________________

    J'ai envie de bidouiller un truc avec $|a(s)-a(t)|$ mais je ne trouve pas encore quoi écrire.
  • J'ai cherché ce que j'ai comme théorèmes sous le coude. Rolle, ça ne marche pas, accroissements finis, ça ne marche pas, les deux parce que $y$ n'est pas défini sur un intervalle compact. Je n'ai pas de vrai théorème sur la continuité uniforme non plus.

    Si c'est de la pure bidouille de $\epsilon$ qu'il faut faire ici, je ne sais pas par quel bout attaquer le problème.
  • Tu peux relier $y(t+h) - y(t)$ à la valeur de $y'$ en un certain point.
  • Je peux appliquer le TAF sur l'intervalle $[t,t+h]$ qui, lui, est compact pour tous $t$ et $h$, et dire que $y(t+h)-y(t)=hy'(u)$ pour un certain $u \in ]t;t+h[$. Auquel cas je peux écrire : $h|y'(u)| \leqslant 2 \epsilon$, ceci valant pour tout $\epsilon > 0$, pour tout $t$ (et donc $u$) "assez grand", et tout $h > 0$.

    J'ai donc : $\forall \epsilon > 0$, $\exists \eta > 0$, $\forall t > \eta$, $\forall h > 0$, $\exists u \in ]t,t+h[$ : $h|y'(u)| \leqslant 2 \epsilon$.

    Je ne vois absolument pas vers quoi ça doit me mener... si c'est bien ça qu'il fallait écrire.
  • Que vaut $y'(u)$ ?
  • $y'(u)=a(u)+b(u)$, avec $b$ qui tend vers $0$, mais je ne comprends pas comment m'en servir :-S
  • Ok, maintenant est-ce que tu peux dire des choses sur $y'(v)$ (on commence à manquer de lettres !) avec $v \in [t, t+h]$ ?
  • Toujours en supposant $t$ assez grand, comme $b$ tend vers $0$, $b$ va être bornée, et comme $a$ est uniformément continue (donc continue) sur $[t;t+h]$ qui est compact, $a$ est bornée aussi, donc $y'(v)$ est borné sur $[t;t+h]$ ?
  • Je te rappelle que tu veux dire que $y'(v)$ est petit plus tôt que borné. Tu sais dire des choses sur $y'(u)$, reste à voir ce que tu peux en déduire sur $y'(v)$.
  • $\def\Lim#1{\lim\limits_{#1}}$
    Calli a écrit:
    Homo Topi : Tu sais qu'il va falloir dégainer les $\varepsilon$ à un moment ? Et le plus tôt sera le mieux.

    Par forcément, c'est encore un exemple où les limsup simplifient la rédaction : en notant $\omega$ le module de continuité uniforme de $a$, l'inégalité des accroissements finis [*] donne facilement :
    $$
    \forall h > 0,\forall x\geq 0,\quad \left|\frac{y(x+h)-y(x)}{h} - a(x)\right| \leq \omega(h) + \sup_{t \in \left[x;+\infty\right[} |b(t)|.
    $$
    Puisque $\Lim{+\infty} y = \Lim{+\infty} b = 0$, on obtient donc : $\forall h > 0,\ \limsup\limits_{x\to+\infty} |a(x)| \leq \omega(h)$, d'où $\limsup\limits_{x\to+\infty} |a(x)| = 0$ car $\Lim{h\to0} \omega(h) = 0$.

    [*] L'hypothèse de continuité de $b$ n'est pas nécessaire. En fait, elle semble même un peu étrange dans cet énoncé puisque $b$ est alors uniformément continue aussi. Ou bien ai-je raté un truc ?
  • Les $\lim \sup$, je ne connais ça que pour les suites, donc je n'ai pas trop compris. Et tu supposes que $y$ tend vers $0$ aussi...

    J'essaie de comprendre ce que Poirot veut que je comprenne.
  • Oui désolé, j'ai oublié de préciser que ça ne mange pas de pain de supposer $\lim y = 0$. Mais de toute façon, on utilise juste l'hypothèse : $\forall h > 0,\ \lim\limits_{x\to+\infty} (y(x+h) - y(x)) = 0$.

    Les limsup de fonctions $E \to \mathbb R$ se définissent de la même façon pour toutes les notions de convergence sur $E$ (donnée par une base de filtre).
  • @HT : Je t'explique mon raisonnement "à l'envers" pour trouver comment résoudre l'exercice. On nous donna $a$ uniformément continue, donc il va falloir se servir du fait que l'on contrôle les accroissements de $a$, autrement dit avoir du $a(u)-a(v)$ pourra être utile.

    À partir de là on rentre encore plus dans le spoil : Pour tous $t$ suffisamment grand, et $h > 0$, on a $y(t+h)-y(t) = hy'(u)$ avec $t < u < t+h$. Ça te donne la taille de $y'(u)$ (puisque $y(t+h)-y(t)$ est petit pour $t$ grand) pour un $u$, mais ce qui nous intéresse c'est de dire que tous les $y'(v)$ sont petits pour $v$ assez grand. Bon bah pour chaque tels $v$, on prend "le $u$" le plus proche et avec un peu de chance $y'(u) - y'(v)$ sera petit...
Connectez-vous ou Inscrivez-vous pour répondre.