Existence, unicité et non-existence.

Bonjour.
J'ai retrouvé dans des papiers le problème suivant.

1) Démontrer qu'il existe une seule fonction $f$ continue sur $[0,1[$ telle que : $\forall x\in [0,1[,f(x)+f(x^{2})=x$.
2) Démontrer qu'il existe une seule fonction $g$ continue sur $]0,1]$ telle que : $\forall x\in ]0,1],g(x)+g(x^{2})=x$.
3) Démontrer qu'il n'existe pas de fonction $h$ continue sur $[0,1]$ telle que : $\forall x\in [0,1],h(x)+h(x^{2})=x$.

Les deux premières questions se font en définissant les fonctions $f$ et $g$ par des séries de fonctions.
Mais pour la troisième, je ne sais que la traiter numériquement en exhibant un $ x_0\in ]0,1[$ tel que $f(x_0)\neq g(x_0)$.
Ne voyez-vous pas une autre méthode pour cette dernière question ? Par exemple en étudiant les limites aux bornes ?
Et question rituelle : références pour ce problème ?

Bonne journée.
F. Ch.

Réponses

  • les fonctions vérifiant (3) appartiennent à l'intersection des 2 premiers ensembles ...
  • Bonjour,

    C'est un très joli exercice, si je n'ai pas fait de faute de calculs, on a:
    \[f(x)=\sum_{k=0}^\infty(-1)^kx^{2^k},\ \textrm{et}\ g(x)=\frac{1}{2}+\sum_{k=1}^\infty(-1)^k(1-x^{2^{-k}}).\]

    Je pensais avoir un argument simple, mais il était basé sur de stupides erreurs de calculs, corrigées finalement,
    mais du coup l'argument ne tiens plus.
    La fonction différence est intrigante:


    Je serai ravi d'avoir des références aussi.

    Bonne journée,

    Le p'tit bonhomme46093
  • @ P'tit bonhomme
    En effet, cet exercice est intéressant. C'est un collègue qui me l'avait communiqué il y a des lustres, et que j'ai retrouvé en rangeant des papiers.

    Je l'ai posé en colle avant-hier en PSI, seulement la première question. L'élève ne voyait pas de prime abord le lien entre cette fonction $f$ dont on doit établir l'existence et l'unicité, et le programme de la semaine : "suites et séries de fonctions". Il était comme une poule qui aurait trouvé un couteau. Je lui ai donné les indications idoines. Il a été très intéressé par ces $2^k$ qui donnent du mouvement et ces $(-1)^k$ qui mettent du télescopage là où il n'y en avait pas.

    La fonction différence $\varphi (x)=f(x)-g(x)$ vérifie : $\varphi (x^{2})=-\varphi (x)$ d'où : $\varphi (x^{4})=\varphi (x)$. Il serait intéressant de détailler son graphe sur $[\frac{1}{4},\frac{1}{2}]$, valeurs qui donnent toutes les autres.

    Ce serait sympa aussi de donner le graphe de $f$ et $g$ pour voir leur comportement aux bornes respectives $1$ et $0$.
    En fait j'ai l'impression que la meilleure preuve de l’inexistence de $h$ c'est la non-nullité de $\varphi$ et ça, une colle au tableau ne le peut, c'est du boulot pour Python.

    Bonne journée.
    F. Ch.
  • Bonjour,

    Voilà en Python:
    import numpy as np
    import matplotlib.pyplot as plt
    
    def f(n,x):
        som = x
        sgn = 1
        for k in range(1,n):
            sgn = -sgn
            x = x**2
            som += sgn*x
        return som
    
    def g(n,x):
        x = np.sqrt(x)
        som = - (1-x)
        sgn = -1
        for k in range(1,n):
            sgn = -sgn
            x = np.sqrt(x)
            som += sgn*(1-x)
        return 0.5+som
    
    n=50
    xpas=0.001
    x = np.arange(xpas,1,xpas)
    yf= [f(n,xx) for xx in x]
    yg= [g(n,xx) for xx in x]
    ydiff= [f(n,xx)-g(n,xx) for xx in x]
    plt.plot(x,yf,'b',x,yg,'r')
    
    plt.figure()
    plt.plot(x,ydiff,'m')
    

    Ce qui donne, f en bleu et g en rouge, puis f-g en magenta:

    59y6n8.png

    2coo0zq.png

    Cordialement,

    Rescassol
  • Des zooms sur les deux extrémités. Les oscillations au voisinage de $1$ sont beaucoup plus faciles à capturer numériquement que les oscillations au voisinage de $0$.46147
    46149
  • L'oscillation suivante en $0$ (en fait, je ne suis même pas sûr que ça oscille en $0$...).46151
  • L'oscillation suivante (dans la mesure où l'on peut faire confiance au calcul en virgule flottante avec tous ces télescopages).46159
  • Soit $d(x)=f(x)-g(x)$ sur $]0,1[$. Alors $u(x)=\cos(\frac{\pi(x+c)}{\log 2}) d(e^{-e^x})$ est une fonction continue et $\log 2$-périodique pour tout $c$. Elle est nulle ssi $f=g$ et en fait il faut s'attendre à ce que l'oscillation de la différence $d$ soit la même en $1$ et $0$ (et qu'elle soit nulle ou "assez grande")
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • En gros peut exploiter le changement de variable suivant(c'est aussi ce qui explique les profils en sinusoïde des courbes obtenues plus haut): $x \in \R \mapsto e^{-e^x} \in ]0,1[$. L'exo est équivalent au suivant: soit $h: \R \to \R$ continue, telle que $\forall x,h(x)+h(x+ \log 2)= e^{-e^x}$. Alors $h$ ne peut avoir de limite réelle à la fois en $-\infty$ et $+\infty$.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Foys écrivait:

    > il faut s'attendre à ce que l'oscillation de la différence $d$ soit la même en $1$ et $0$

    Ce n'est pas du tout ce qui ressort expérimentalement.
  • J'ai beau me relire je vois pas où j'ai pu me tromper. si $0<x<1$ on a $d(x)+d(x^2)=0$ avec $d=f-g$. Donc $d(x^4)-d(x)=d(x^4)+d(x^2)-d(x^2)-d(x)=0$. Donc s'il existe $x,y$ avec $d(x)<d(y)$ on a $d(y^{4^n})=d(y)$, $d(x^{4^n})=d(x)$ et $x^{4^n}, y^{4^n}$ tendent vers $0$ avec $n$...
    En fait $x \to d(e^{-e^x})$ est $\log (4)$- périodique. J'ai l'impression que le calcul numérique de $g$ en $0$ pose problème.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Je suis d'accord avec ton calcul, bien sûr. Si on s'intéresse aux zéros de $d$, ils vont donc s'accumuler vers $0$ comme $x_0^{4^n}$ pour un certain $0<x_0<1$ (en supposant que l'on a bien extrait la périodicité minimale) donc très durs à capturer car tendant très très vite vers $0$, et vers $1$ comme $x_0^{4^{-n}}$. À chaque itération, on divise le log par $4$, mais au voisinage de $1$, le log est essentiellement linéaire. Donc (grossièrement), les oscillations sont beaucoup plus sympas, disons géométriques.
  • Grâce à JLT j'ai trouvé l'explication des oscillations de la fonction $d=f-g$.
    On peut écrire pour $0<x<1$: $d(x)=-\frac12+\displaystyle\sum_{k\in\Z}\varphi(k)$ avec $\varphi(t)=x^{4^t}(1-x^{4^t})$.
    On peut appliquer la formule de Poisson à cette fonction $\varphi$.
    On calcule $\widehat{\varphi}(0)=\displaystyle\int_{\R}\varphi(t)dt=\frac12$ (voir ce fil).
    On peut alors approcher $d(x)$ par $\widehat{\varphi}(1)+\widehat{\varphi}(-1)=A\cos(\frac{\pi}{\ln(2)}\ln(-\ln(x)))+B\sin(\frac{\pi}{\ln(2)}\ln(-\ln(x)))$ avec $A=2\displaystyle\int_{\R}4^{-4^t}(1-4^{-4^t})\cos(2\pi t)dt \approx 0.002747734$ et $B=2\displaystyle\int_{\R}4^{-4^t}(1-4^{-4^t})\sin(2\pi t)dt\approx 0.000090427$ (les autres termes sont négligeables).

    En fait j'ai seulement observé par un calcul approché avec Maple que $\widehat{\varphi}(2)=0$ et que $|\widehat{\varphi}(3)|<10^{-9}$.
  • Tiens, j'étais passé à côté de cette question. Les calculs standards de transformée de Mellin donnent
    $$
    \frac{1}{2i\pi}\int_{c-i\infty}^{c+i\infty} \frac{\Gamma(s)}{1+2^s}\frac{ds}{y^s} = \begin{cases}
    f(e^{-y}), & \text{si } c > 0\\
    g(e^{-y}) - \frac 1 2, & \text{si } -1 < c < 0.
    \end{cases}
    $$
    Sauf erreur, le théorème des résidus conduit alors à la forme
    $$
    f(x)-g(x) = \frac{2}{\ln 2} \sum_{k=0}^{+\infty} \Re\left[\Gamma\left(i\frac{\pi(2k+1)}{\ln 2}\right) \exp\left( - i\frac{\pi(2k+1)}{\ln 2} \ln \ln \frac 1 x\right)\right]
    $$
    qui permet de voir d'où viennent les oscillations.

    Les premiers termes devraient donnent une bonne approximation car la fonction $|\Gamma(it)|$ décroit exponentiellement vite lorsque $t \to +\infty$.
Connectez-vous ou Inscrivez-vous pour répondre.