Constante fondamentale de l'arithmétique

Bonjour, soit $\color{red}{r= e^{-\gamma}}$ quand $x\to \infty$ on a $$\frac{\pi(x)}{x}\sim \frac{\pi(x)-\pi(x^r)}{x-x^r}\sim \prod_{p\le x^r} (1-p^{-1})\sim \prod_{p\le \color{red}{ x^r}}Pr(p\nmid n)\tag{1}$$
Le membre de droite se lit comme la probabilité qu'un entier $n$ tiré aléatoirement uniformément dans $]x^r,x]$ ne soit divisible par aucun nombre premier $\le x^r$, donc la probabilité que $n$ soit premier. C'est donc le modèle aléatoire des nombres premiers, où on suppose que $n \bmod p$ est uniformément distribué dans $0,\ldots p-1$, ce qui est une petite approximation, et que $n\bmod p$ est indépendant d'un $p$ à l'autre, ce qui cette fois est une énorme approximation, vu que l'indépendance impliquerait que $n$ peut prendre toutes les valeurs $\bmod \prod_{p\le x^r} p$, impossible vu que $n$ est beaucoup plus petit.

$(1)$ est une relation fondamentale parce qu'on l'utilise ensuite pour conjecturer : l'hypothèse de Riemann, la densité des premiers jumeaux, la densité de premiers dans les valeurs d'un polynôme, Goldbach, etc.

Par exemple la proportion conjecturée de premier jumeaux $\in ]x^r,x]$ c'est $$\prod_{p \le \color{red}{ x^r}} Pr(p \nmid n,p\nmid n+2) \sim (1-2^{-1})\prod_{3\le p\le x^r} (1-2 p^{-1})\sim \frac{2C_2}{\log^2 x}$$ $$ \text{où}\qquad 2C_2 = \lim_{x\to \infty}\frac{ \prod_{p \le x^r} Pr(p \nmid n,p\nmid n+2)}{1/\log^2 x}=\lim_{x\to \infty}\frac{(1-2^{-1})\prod_{3\le p\le x^r} (1-2 p^{-1})}{\prod_{p\le x^r} (1-p^{-1})^2}$$ est la constante des nombres premiers jumeaux.

On ne peut pas remplacer $r$ par une autre valeur puisque le PNT dit $\frac{\pi(x)}{x}\sim \frac1{\log x}$ et Mertens dit $\prod_{p\le x^r}(1-p^{-1})\sim \frac{e^{-\gamma}}{ \log x^r}$. Voyez-vous une autre interprétation de pourquoi $e^{-\gamma}$ (et pas $1/2$ ou une autre constante $<1$) apparaît dans la probabilité que $n\in ]x^r,x]$ soit premier, et pourquoi c'est le même $r$ quand on compte la densité de nombres premiers jumeaux ?

Réponses

  • Je dirais que tout vient de l'omniprésence des produits eulériens, et par là-même de l'égalité
    $$\prod_{p \leqslant x} \left( 1 - \frac{1}{p} \right)^{-1} = \sum_{P^+(n) \leqslant x} \frac{1}{n}$$
    qui est une traduction analytique du théorème fondamental de l'arithmétique.
  • C'est quand même étrange que
    $n$ est premier ssi aucun premier $\le n^{e^{-\gamma}}$ ne divise $n$, $\quad$ et $n\bmod p$ est indépendant d'un $p$ à l'autre
    soit censé donner des prédictions cohérentes et valides pour la distribution des nombres premiers dans tout un tas de suites, et que si on remplace $e^{-\gamma}$ par autre chose alors ça devient faux.
  • Comme vous la mentionnez, le choix de $r=e^{-\gamma}$ est fait pour lier le théorème des nombres premiers avec le 3ème théorème de Mertens.
    Puis on trouve que ces considérations marchent aussi pour estimer les densités de certains ensembles en relation avec les nombres premiers.
    Mais il faut voir que ces densités sont données pour la première fois par Hardy-Littlewood en 1923 en utilisant la méthode de cercle.
    Et Hardy-Littlewood ne publient pas cette article qu’après des vérifications numériques solides.

    Donc arriver à ces mêmes densités par le modèle aléatoire des nombres premiers donne "une légitimité" à cette méthode.

    On ne peut pas nier le comportement quasi-aléatoire des nombres premiers, mais la vérité se perd dans les considérations d'indépendance des $n \pmod p$ de $p$ à l'autre et la distribution uniforme de $n \pmod p$ dans $0,1,\cdots, p-1$.
    Donc je ne pense pas qu'on puisse expliquer le terme $r=e^{-\gamma}$ en utilisant cette méthode.

    J'ai construit un autre modèle qui se base sur le théorème des restes chinois & TNP et qui propose une relation non-triviale entre les nombres premiers $\leq x$ et les nombres criblés jusqu'au rang $\log(x)$ et $\leq x$.
    Dans ce modèle on doit expliquer aussi ce terme $r=e^{-\gamma}$ qui est sans doute qui cache le mystère.
    https://lagrida.com/conjecture_k_uple.html
  • Pour rendre le modèle plus proche de la réalité il faut utiliser une fonction du type Buchstab pour prédire $f(\prod_{p\le k} p,x)$ le nombre d'entiers $\le x$ qui sont premiers avec $\prod_{p\le k} p$

    dans ce cas il n'y a plus besoin de borne : pour $k\in [x^{1/2},x^{1-\epsilon}]$, quand $x\to \infty$ alors $\pi(x)\sim\pi(x)-\pi(k) \sim f(\prod_{p\le k} p,x)$,

    mais on perd l'indépendance et l'uniformité des $n\bmod p$ ce qui interdit de l'utiliser pour prédire la densité de nombres premiers jumeaux.

    Ce que j'ai essayé alors c'est de changer l'ordre où on crible : au lieu d'enlever les multiples de $2$ puis de $3,5,7...$ de commencer par les premiers les plus grands ou de choisir un ordre aléatoire sur les premiers $\le k$ et ça change complètement le modèle à utiliser pour $f(\prod_{j\le k} p_j,x)$.

    C'est difficile à estimer mais asymptotiquement quand on prend la moyenne sur tous les ordres possibles j'ai l'impression qu'on se rapproche bien du modèle aléatoire indépendant uniforme.
  • @reuns
    c'est hors les mathématiques actuel de cribler avec un ordre aléatoire de nombres premiers.
    Mais on peut changer l'ordre des nombres premiers avec lesquels on crible.

    Soit $p,q$ deux nombres premiers.
    Soit $I_{q}(n)$ le nombre des éléments inférieures à $n$ et premiers avec $p_1,p_2,\ldots,q$.

    On définit $u_{p}(n)$ par le nombre des éléments inférieur à $n$ et qui ont $p$ comme plus petit diviseur, alors:

    On montre facilement que $\forall n \in \mathbb{N}^* \, : n-1 = \displaystyle\sum_{\substack{p \leq n \\ p \text{ premier}\\}} u_{p}(n)$

    Et pour n'importe quel nombre premier $2 \leq q \leq n$ on a : $$
    \begin{array}{rcl}
    I_{q}(n) & = & n - \displaystyle\sum_{\substack{p \leq q \\p \text{ premier}\\}}u_{p}(n), \qquad (1) \\ \\
    & = & 1 + \displaystyle\sum_{\substack{q < p \leq n \\p \text{ premier}\\}}u_{p}(n). \qquad (2)
    \end{array}

    $$ Soit $q=p_k$, donc on peut cribler par $2, 3, 5, \ldots, q$ comme on peut cribler par $p_{k+1}, p_{k+2},\cdots,p_m$ ($m$ est le plus grand indice tel que $p_m \leq n$).

    Le problème est qu'on ne peut pas estimer $u_{p}(n)$ d'une façon efficace, et la meilleur façon c'est pour $p$ petit ($u_{p}(n)$ a une grande valeur et le terme d'erreur est négligeable).

    Pour $p$ grand alors on a $u_{p}(n)$ est petit, donc c'est très difficile d'estimer la formule $(2)$.
    Utilisant la formule de Legendre : $$
    I_{q}(n) = \left\lfloor \frac{n}{q} \right\rfloor - \sum_{p < q}\left\lfloor \frac{n}{p q} \right\rfloor + \cdots + (-1)^{\pi(q)-1} \bigg\lfloor \frac{n}{{\small \prod_{\substack{p \leq q \\ p\text{ premier}}} {\normalsize p}}} \bigg\rfloor.$$
  • Le PNT je présume que c'est le TNP, Théorème des Nombres Premiers ?
    Le théorème fondamental de l'arithmétique est ici :
    https://fr.wikipedia.org/wiki/Théorème_fondamental_de_l'arithmétique
  • Chaurien cette constante est fondamentale à cause de la façon dont on l'utilise : elle permet de prédire la distribution de premiers jumeaux, de premiers dans les valeurs d'un ou plusieurs polynômes, et même le nombre de solutions à $2n=p+q$, l'hypothèse de Riemann généralisée, et de répondre à peu près à toutes les questions qu'on se pose sur les nombres premiers.

    Et ce n'est pas moi qui l'ai inventé, toutes ces grandes conjectures reposent implicitement dessus
Connectez-vous ou Inscrivez-vous pour répondre.