Intégrales d'Euler

J'ai décidé de changer d'approche pour progresser en analyse. Je n'aime pas faire des calculs de séries ou d'intégrales "juste comme ça", même si le résultat est notable, je ne sais pas, ça ne m'anime de loin pas autant que FdP et les autres fanatiques de ces choses-là. Cependant, j'aime bien élargir ma culture mathématique, et si ça peut me donner une motivation pour me forcer un peu à faire du calcul, autant faire d'une pierre deux coups.

Je voulais commencer à m'intéresser aux fonctions spéciales. Je sais depuis longtemps que ça existe, mais je ne les ai jamais étudiées à l'université. Je pensais commencer par les fonctions Beta et Gamma, donc les "intégrales d'Euler" comme on les appelle apparemment.

Je poserai sûrement dans ce fil tout un tas de questions d'ordre technique pour me débloquer dans les calculs, ça c'est à parier. Mais avant ça, j'ai déjà une question complètement différente : ces deux intégrales, elles sortent d'où, en fait ? J'aime bien savoir pourquoi telle fonction a été introduite dans la conscience collective des mathématiques, ça donne plus de perspective aux résultats des calculs, je trouve.

Je connais la fonction Gamma parce qu'elle apparaissait en probas. Cependant, de 1, je ne sais absolument pas quel genre de situation concrète on représente avec une variable aléatoire de loi Gamma (je ne suis pas contre une explication !), et de 2, j'ai cru comprendre que ce n'est pas du tout comme ça qu'elle est apparue historiquement. Donc voilà, ma première question, c'est : les fonctions Beta et Gamma, quel(s) problème(s) ont amené les mathématiciens à les étudier ? Un peu de culture pour entrer doucement en la matière, les questions de maths pures et dures ça sera pour plus tard.

Merci (:D
«13

Réponses

  • Pour commencer sur l'histoire de la fonction Gamma : https://fr.wikipedia.org/wiki/Fonction_gamma#Histoire
  • Ce texte m'a hautement perturbé. Les formulations et notations sont tout sauf naturelles, au début j'ai cru qu'il parlait d'une série...
  • Bonjour ,j'ai trouvé un article qui explique mais en anglais Histoire Fonction Gamma., c'est maintenant que j'essaye de le lire..
  • Cet article m'a l'air plus digeste que la lettre sur Wikipédia, ne serait-ce que par sa modernité, je vais le lire également, merci.
  • L'apparition de la fonction Gamma est, me semble-t-il, le résultat d'une tentative pour donner un sens à "$r!$" quand $r$ n'est pas entier.
  • À l'époque j'avais acheté L'Analyse au fil de l'histoire de Hairer, Wanner. Voici comment ils introduisent la fonction gamma :124258
  • Je trouve ça vraiment particulier, cette idée de chercher une factorielle pour les non-entiers. C'était censé servir à quelque chose, ou c'était une curiosité comme ça de sa part ?

    En attendant, je n'ai pas lu la toute fin : je sais que j'ai du mal avec les intégrales impropres de ce type-là, alors je veux vérifier moi-même comment et pourquoi $\Gamma$ est définie, d'abord sur les réels et après sur les complexes. Je sais déjà que j'en aurai mal au crâne, mais j'ai besoin de savoir le faire.
  • Homo Topi a écrit:
    C'était censé servir à quelque chose, ou c'était une curiosité comme ça de sa part ?

    Euler était un analyste, donc il faisait surement une fixette sur le "prolongement des factorielles" ...
  • On a un peu l'impression qu'Euler a fini par avoir un gros coup de bol avec son IPP sur l'image de raoul, même si je comprends que le livre n'ait pas vocation à détailler la procédure.
  • Bon... avant de vouloir définir $\Gamma$ sur les complexes, je regarde déjà le cas réel, j'ai déjà du mal avec ça.

    Soit $n \in \mathbb{N}^*$. Soit $R > 0$. Une IPP et un passage à la limite dans $\displaystyle \int_0^R t^{n}e^{-t}dt$ montrent que $\Gamma(n+1)=n \Gamma(n)$ si ça existe. Comme $\Gamma(1)=1$, ça existe et on a bien $\Gamma(n+1)=n!$. Jusque-là, pas de problème.

    Les problèmes commencent quand on prend $x$ réel : $t^x = e^{x \ln(t)}$ est défini pour $t > 0$ et $x$ quelconque, mais mon intégrale impropre nécessite maintenant une étude aux deux bornes.

    Je vais découper mon intégrale en deux. Je prends $0 < a \leqslant 1$ et je regarde $\displaystyle \int_a^1 t^{x-1}e^{-t}dt$ pour commencer. Si $x-1 \geqslant 0$, donc si $x \geqslant 1$, on a $t^{x-1}e^{-t} \leqslant 1$ donc $\displaystyle \int_a^1 t^{x-1}e^{-t}dt \leqslant 1-a$, donc $\displaystyle \int_0^1 t^{x-1}e^{-t}dt = 1$. Quand $x \leqslant 1$, $t^{x-1}$ n'est pas majoré pour $0 < t \leqslant 1$, donc j'ai encore besoin de réfléchir pour trouver un majorant. L'intégrale est censée exister pour $x > 0$...
  • Tu dois avoir déjà vu dans ta vie le critère d'intégrabilité de $t \mapsto t^{\alpha}$ au voisinage de $0$.
  • Je ne suis pas un expert des probabilités, mais il me semble que les lois Gamma apparaissent dans des modélisations de test de fiabilité. Les lois Gamma sont reliées aux lois du $\chi^2(n)$ qui sont importantes dans les tests statistiques, ont les lois exponentielles comme cas particulier (qui ont une interprétation en terme de "sans mémoire"), et il y a des propriétés de stabilité des lois Gamma / Beta par somme (voir les énoncés exacts, je ne les ai plus en tête, depuis 25 ans que je ne les ai pas croisées !).
  • Oui, c'est vrai, je connais. Je ne sais pas où j'avais la tête...
  • Bonjour

    historiquement la factorielle de l'entier "n" notée "n! = 1.2.3.4.........n" est apparue au 17ème siècle
    avec les travaux de Pascal sur la loi binomiale publiés par Huyghens mathématicien hollandais

    Newton avec ses recherches sur le binôme de degré n : $(1 + x)^n$
    avait ouvert la voie aux probabilistes (triangle arithmétique de Pascal)

    en fait Euler qui n'était pas spécialement probabiliste était préoccupé au 18ème siècle
    par le type de croissance de cette suite notée n!
    et il souhaitait trouver ses propriétés asymptotiques (lorsque n tend vers +oo)
    il connaissait l'équivalent de Moivre (ou Stirling) avec la constante $\sqrt{2\pi}$ déterminée par Wallis

    il voulait aller plus loin dans ses recherches analytiques et le calcul intégral qu'il maîtrisait fort bien,
    a été l'occasion pour lui de trouver une forme concise et exacte à l'interpolation de la factorielle de n
    avec pour x > 0 l'intégrale génératrice (elle accouche d'une fonction continue)
    $\int_0^{+oo}e^{-t}t^{x-1}.dt$ qui pour x = n + 1 donne n!
    plus tard Legendre mathématicien français baptisa Gamma(x) cette intégrale étudiée par Euler dont il avait subodoré l'importance

    au 19ème siècle Gauss et Riemann mathématiciens allemands ont montré l'omniprésence de cette fonction Gamma
    et les liens avec les fonctions circulaires sinus et cosinus et aussi avec la fonction Zéta que Riemann venait de mettre au point
    quant à la fonction Béta, elle n'a de présence que par ses liens avec Gamma sinon elle est subalterne

    pour conclure sur Gamma : elle constitue avec Zéta de Riemann
    et les fonctions trigonométriques (circulaires et hyperboliques)
    un ensemble fonctionnel très riche qui fait qu'on ne peut pas parler à propos de Gamma
    d'une fonction spéciale mais bien d'une fonction primordiale
    au même titre que l'exponentielle de base e et aussi la fonction logarithme népérien

    Cordialement
  • Bien, reprenons. Toujours avec $x$ réel pour l'instant.

    $\displaystyle \int_1^{\infty} t^{x-1}e^{-t}dt$ existe au moins dès que $x < 0$ d'après le critère sur les fonctions de Riemann (en majorant $e^{-t}$ brutalement par $1$). Cependant, quand $x<0$, comme $e^{-t} > \dfrac{1}{e}$ sur $[0;1]$, $\displaystyle \int_0^1 t^{x-1}e^{-t}dt$ majore $\displaystyle \dfrac{1}{e}\int_0^1t^{x-1}dt$ qui est divergente, donc $\displaystyle \int_0^1 t^{x-1}e^{-t}dt$ est divergente par comparaison. Donc la fonction $\Gamma$ ne peut être définie que pour $x \geqslant 0$.

    Pour $x=0$, je "sais" (merci GeoGebra) que je dois trouver que $\displaystyle \int_0^1 \dfrac{1}{te^t}dt$ est divergente. Je dois trouver la bonne justification.

    $\displaystyle \int_0^1 t^{x-1}e^{-t}dt$ existe au moins dès que $x > 0$ d'après le critère sur les fonction de Riemann (en majorant $e^{-t}$ brutalement par $1$). Il me reste donc à montrer que $\displaystyle \int_1^{\infty} t^{x-1}e^{-t}dt$ existe encore quand $x > 0$.

    J'ai du mal avec ces choses-là, mais ne me donnez pas encore trop d'indices.
  • Bonsoir
    Je pense que tu procèdes mal en voulant déterminer les réels pour lesquels la fonction gamma existe.
    Il suffit dans un premier temps de repérer les bornes impropres ici $0$ et $+\infty$, puis de faire l'étude au voisinage.
    Au voisinage de $+\infty$, il suffit de regarder le comportement de $t^{\alpha}.f(t)$ où ${\alpha}$
  • Sans avoir lu la partie en blanc dans ton message, j'ai un certain pressentiment. S'il faut utiliser des $o$, $O$, $\sim$, j'ai énormément de mal avec ça et il va falloir que je reprenne mon cours depuis le début pour le faire.

    Ensuite, ce n'était peut-être pas nécessaire de me restreindre aux réels pour commencer, mais ça me rassure de faire comme ça.
  • Au passage, il n'est pas pertinent de se demander si « la fonction gamma est définie en $x$ ». Il vaut mieux se demander si « l'intégrale est bien définie ». En effet, l'étape suivante consiste à définir $\Gamma(x)$ pour $x\in\left]-1,0\right[$ par $\Gamma(x)=\Gamma(x+1)/x$ : en un tel $x$, la fonction gamma est bien définie mais sa valeur n'est pas l'intégrale qui elle, n'existe pas.
  • Ben, puisqu'elle est définie par l'intégrale, ça m'avait l'air d'être la bonne approche... je ne crois pas avoir vu ton histoire d'extension à $]-1,0[$ auparavant, donc j'ai été surpris par ton message à vrai dire.
  • Homo Topi a écrit:
    S'il faut utiliser des $o,O,\sim$ j'ai énormément de mal avec ça...

    Les "o" & Co. servent juste à rédiger des preuves plus courtes mais ils n'apportent rien d'autre. D'ailleurs ici on peut s'en passer. D'ailleurs je suis aussi un gros nul avec les "o" & Co., je ne les ai jamais appris et je les déteste (:D.
  • La méthode proposée par Math Coss est la méthode permettant de prolonger la fonction $\Gamma$ en une fonction méromorphe sur $\mathbb C$, mais ce n'est pas le genre de questions que tu te poses pour le moment.

    Oui, à un moment il va falloir utiliser les $o, O$ et $\sim$, ce sont les méthodes de base pour établir des intégrabilités ! Je te suggère de les travailler sérieusement, ce sont des notations absolument fondamentales.
  • Poirot a écrit:
    à un moment il va falloir utiliser les $o$...

    Pourquoi ce dogmatisme ? Pour montrer que l'intégrale est bien définie pour $x>0$ on peut sans problème se passer des ooooooo.
  • L'argument que tu vas me donner sera exactement un argument de type $O$ voire $o$, tu ne voudras juste pas employer le terme.
  • Voilà c'est exactement ça, aucun $O,o$.

    Mais attendons de voir ce qu'Homo Topi fera, peut-être qu'il préférera passer du côté des $O$.
  • Bonjour,

    Il faudrait (re)lire la Source et la Sonde.

    Cordialement,

    Rescassol
  • C'est que j'ai du mal avec les héroïnes féminines, je ne peux pas m'identifier...
  • On s'en moque, la littérature sert justement à sortir de soi pour acquérir la subjectivité d'un autre.
  • @RLC tu t'en moques...


    Je peux "sortir de moi" seulement jusqu'à un certain point.
  • Je dois dire que je ne vois pas bien l'intérêt de lire si ce n'est pour cette raison, condition nécessaire à toute vie spirituelle.
    Si la conversation t'intéresse j'imagine que nous devons poursuivre en privé pour éviter le détournement de fil, ou pas. En tous cas ça m'intéresse, fais comme tu voudras.
  • Bon, je vais essayer de recommencer.

    Soit $z \in \C$. Je pose $z=x+iy$. Alors : $t^{z-1}e^{-t} = ... = t^{x-1}e^{i.y\ln(t)}e^{-t}$, donc $|t^{z-1}e^{-t}| = |t^{x-1}e^{-t}| = t^{x-1}e^{-t}$.
    Je me retrouve bien à traiter le cas d'un argument $x \in \R$, au moins pour essayer de voir directement si l'intégrale est absolument convergente.

    $\displaystyle \int_1^{\infty}t^{x-1}e^{-t}dt$ est impropre à cause de la borne $\infty$. Je n'avais pas pensé à l'astuce d'écrire $t^{x-1}e^{-t} = (t^{x-1}e^{-t/2})e^{-t/2}$, cf le fil de Poirot sur les $o$ et $O$. Je rappelle les arguments ici : $t^{x-1}e^{-t/2}$ est bornée sur $[1,\infty[$ car continue et de limite $0$, donc $(t^{x-1}e^{-t/2})e^{-t/2} = e^{-t/2} \times O(1)$, donc $(t^{x-1}e^{-t/2})e^{-t/2} = O(e^{-t/2})$. Or, $e^{-t/2}$ est intégrable : $\displaystyle \int_1^{\infty}e^{-t/2}dt = ... = \dfrac{2}{\sqrt{e}}$. Donc : $\displaystyle \int_1^{\infty}t^{x-1}e^{-t}dt$ existe pour tout $x \in \R$.

    $\displaystyle \int_0^1 t^{x-1}e^{-t}dt$ est impropre à cause de la borne $0$. En majorant $0 < e^{-t} \leqslant 1$, on obtient $\displaystyle \int_0^1 t^{x-1}dt$ qui est convergente si, et seulement si, $x>0$.

    Conclusion partielle : Avec le critère de convergence absolue, on sait déjà que $\displaystyle \int_0^{\infty}t^{z-1}e^{-t}dt$ existe au moins quand $\text{Re}(z) > 0$.

    Il reste à voir pourquoi $\displaystyle \int_0^1 t^{x-1}e^{-t}dt$ est divergente dès que $x \leqslant 0$. J'avais déjà fait ça, mais je le réécris ici : $e^{-t} \geqslant \dfrac{1}{e}$, donc $t^{x-1}e^{-t} \geqslant \dfrac{1}{e}t^{x-1}$, et $\displaystyle \int_0^1 t^{x-1}dt$ est divergente dès que $x \leqslant 0$. Donc c'est bon, par comparaison, $\displaystyle \int_0^1 t^{x-1}e^{-t}dt$ est divergente dès que $x \leqslant 0$.

    Conclusion : $\displaystyle \int_0^{\infty}t^{z-1}e^{-t}dt$ existe si, et seulement si, $\text{Re}(z) > 0$.

    Voilà, donc on peut déjà définir $\Gamma$ par $\Gamma(z) := \displaystyle \int_0^{\infty}t^{z-1}e^{-t}dt$ sur le demi-plan $\text{Re}(z) > 0$.

    La suite (prolongement analytique), ça sera pour plus tard.
  • Tiens, à propos du prolongement analytique. Pour pouvoir m'intéresser à ça, il faudrait que je prouve que $\Gamma$ est dérivable. A priori, ça a l'air immédiat puisqu'elle est définie par une intégrale (impropre, quand même, ça risque de compliquer les choses) mais le théorème fondamental de l'analyse que je connais, je n'en ai vu une démonstration que dans le cas des fonctions d'une variable réelle (et avec des intégrales pas impropres).

    EDIT avant de me faire engueuler : je précise que j'entends "fonctions d'une variable réelle" au sens où le théorème dit que $F(x) = \displaystyle \int_a^x f(t)dt$ est dérivable [...] où $F$ est une fonction d'une variable réelle. Ici, on n'a pas cette situation.

    Je connais des résultats de dérivation sous le signe intégrale, mais il va falloir que je fouille dans ma mémoire (c'est-à-dire dans mes bouquins) pour voir si j'ai un théorème qui s'applique dans le cas présent.
  • Je note $\Gamma(z) = \displaystyle \int_0^{\infty}f(z,t)dt$, avec donc $f : D\times]0~;~\infty[ \longrightarrow \C$, $(z,t) \longmapsto t^{z-1}e^{-t}$ où $D = \{z \in \C \mid \text{Re}(z) > 0\}$.

    L'application $f_z : t \longmapsto f(z,t)$ est mesurable car continue.

    L'application $f_t : z \longmapsto f(z,t)$ est holomorphe dans $D$ : $f'_t(z) = e^{-t} \ln(t)t^{z-1} = \ln(t)f_t(z)$.

    Pour appliquer le théorème d'holomorphie sous le signe intégrale de mon bouquin, il me faut une fonction $g \in \mathscr{L}^1(]0;\infty[,\R)$ telle que $|f(z,t)| \leqslant g(t)$ pour tout $z \in D$ et presque tout $t \in ]0;\infty[$. Comme $|f(z,t)| = t^{\text{Re}(z)-1}e^{-t}$, je ne sais pas encore comment m'en sortir pour me débarrasser du $z$. Je vais y réfléchir.

    [size=x-small]Petit pense-bête pour moi : page 279.[/size]
  • L'holomorphie est une propriété locale. Est-ce que l'ouvert $D_r = \{z \in \C \mid 0<\text{Re}(z) < r\}$ avec $r>0$ n'est pas plus sympathique?
  • Je veux montrer que $\Gamma$ est dérivable, en appliquant mon théorème... il faut bien que je montre que $\Gamma$ est dérivable partout sur $D$ si je veux en fabriquer un prolongement analytique après, non ?
  • Homo Topi: la propriété de dérivation est locale.

    Si tu veux montrer qu'une fonction est dérivable sur un ouvert $U$ qui est égal à une réunion d'ouverts, il te suffit de montrer que cette fonction est dérivable sur chacun desdits ouverts, non?

    PS:

    $\displaystyle \{z \in \mathbb{C} \mid \text{Re}(z) >0\}=\bigcup_{r>0} \{z \in \mathbb{C} \mid 0<\text{Re}(z) < r\}$
  • J'ai un peu l'impression de tricher en faisant ça, mais ça rendrait effectivement la chose évidente.
  • Ce n'est pas de la triche, tu ne peux pas obtenir de majoration uniforme sur tout le demi-plan $\{s \in \mathbb C \mid \mathfrak{Re}(s) > 0\}$.
  • Oui, du coup ça simplifie les choses si je peux appliquer mon théorème d'holomorphie sous le signe intégrale "tranche par tranche". Il suffit de borner $t^{\text{Re}(z)-1}$ sur le $D_r$ de FdP par une constante $a_r$ et poser $g(t)=a_re^{-t}$, on obtient bien une fonction $g$ intégrable sur $]0;\infty[$ qui majore $f$ partout où il faut.

    Du coup, $\Gamma$ est holomorphe "tranche par tranche" (donc partout sur $D$) et la dérivée est la même partout :

    $\Gamma'(z)= \displaystyle \int_0^{\infty} \dfrac{\partial f}{\partial z}(z,t)dt = \int_0^{\infty} f'_t(z)dt = \int_0^{\infty} \ln(t)t^{z-1}e^{-t}dt$.

    J'ai vu sur Wikipédia qu'ils définissent une fonction digamma $\psi = \dfrac{\Gamma'}{\Gamma}$, et ils écrivent $\Gamma' = \Gamma \times \psi$, mais du coup, $\Gamma' = \Gamma \times \dfrac{\Gamma'}{\Gamma}$ je ne sais pas si c'est très utile comme information. Je n'ai pas trouvé d'autre formule particulière pour $\Gamma'$, est-ce que ça vaut la peine de chercher si j'arrive à bidouiller l'intégrale $\displaystyle \int_0^{\infty} \ln(t)t^{z-1}e^{-t}dt$ ou bien c'est peine perdue ?

    Je précise : je ne veux pas mettre la fonction digamma à la poubelle "pour elle-même", je suis sûr qu'elle vaut la peine d'être étudiée, mais là je demande juste s'il y a une formule plus simple pour $\Gamma'$.
  • La dérivée de gamma on s'en moque un peu non ? La fonction digamma par contre a plein de propriétés bien meilleures que la relation triviale de wiki. Notamment formule de Weierstrass (je crois que c'est lui).
  • Oui, la dérivée de $\Gamma$ ne me sert a priori à rien, mais j'ai le droit d'être curieux. Pour l'instant, je m'intéresse à la fonctiom Gamma, la fonction digamma (et autres polygamma, bien sûr) je les regarderai après.

    En tout cas, j'ai fait ce qu'il fallait pour montrer que $\Gamma$ est holomorphe sur le domaine que j'ai appelé $D$. Maintenant, il faut que je comprenne cette histoire de prolongement analytique. J'ai bien un théorème de prolongement analytique sous la main [size=x-small](pense-bête pour moi : page 403)[/size] mais il faut encore que je comprenne les détails.

    Visiblement, il faut que je montre (avec une IPP, je l'ai déjà fait pour les arguments entiers) que $\Gamma(z+1)=z\Gamma(z)$. L'idée après, c'est quoi ? Montrer qu'il existe une fonction analytique $f$ sur $\C\setminus(-\N)$ qui vérifie $f(z+1)=zf(z)$ et $f(1)=\Gamma(1)$ ? Je crois que je n'ai pas bien compris le principe...
  • Bonjour, je propose ceci :

    Nous avons $\Gamma(z)=f(z)/z$ avec $f(z):=\Gamma(z+1)$ qui est analytique sur le domaine $\Omega=\{\text{Re}(z)>-1\}$. Donc $f(z)/z$ est l'unique prolongement analytique de $\Gamma$ sur $\Omega\setminus\{0\}$. On poursuit le raisonnement pour finalement en déduire que $\Gamma$ admet un prolongement analytique sur $\C$ privé des entiers négatifs.

    Deuxième approche, qui me semble plus intéressante, en part de la formule de Weierstrass : pour tout $\text{Re}(z)>0$ on a :
    \[1/\Gamma(z)=ze^{\gamma z}\prod_{n=1}^{+\infty}(1+\frac{z}{n})e^{-z/n}\]
    (la démonstration est relativement élémentaire). Ensuite, en utilisant les théorèmes qui concernent les produits infinis de fonctions holomorphes, on dit que le membre de droite définit une fonction holomorphe sur tout le plan complexe, et qui s'annule sur les entiers négatifs uniquement, puis on en arrive à la même conclusion qu'avant (avec en prime le fait que les entiers négatifs sont exactement les pôles de $\Gamma$ après prolongement).
    Homo Topi a écrit:

    constante $a_r$ et poser $g(t)=a_re^{-t}$

    Ton $a_r$ va en fait dépendre de $t$, et donc la domination par une fonction intégrable n'est pas aussi immédiate ce ça.
  • Bonjour
    Homo Topi c'est une très bonne idée que de t'intéresser aux propriétés de la fonction $\Gamma$.

    Ceci dit, je t'incite vivement à t’entraîner à manipuler les $o$, les $O$ et les équivalents pour être très familier avec ces symboles, ca t'aidera beaucoup dans la suite de ta vie mathématique ! Tu peux t’entraîner en relisant un cours et en faisant des petits exercices, puis rédiger une preuve synthétique du caractère bien défini, dérivable ou holomorphe de $\Gamma$ en utilisant ces outils.

    Bon courage.
  • Je sais, il y a un fil de discussion sur ça qui a été ouvert spécifiquement pour moi.
  • Bon, je reprends ici. L'histoire de la formule de Weierstrass, je préfère ne pas m'en occuper maintenant. Je la trouve intéressante mais je n'aime pas l'idée de l'introduire ici. On n'a aucun moyen de la faire apparaître naturellement dans le raisonnement, et je n'aime pas les démonstrations parachutées. Je préfère étendre "tranche par tranche" avec $\dfrac{\Gamma(z+1)}{z}$. Je ne comprends pas encore pourquoi avec cette approche, on n'aurait pas directement que les entiers négatifs sont les pôles du prolongement... on sait que les pôles du prolongement sont au plus les entiers négatifs, ça c'est sûr. Y a-t-il vraiment un travail à fournir pour montrer qu'ils le sont tous ? Il faudra voir.

    En attendant, il faut que je règle cette question de majorant intégrable. Donc.

    Sur $D_r = \{z \in \C \mid 0 < \text{Re}(z) < r\}$, je veux majorer $t\longmapsto t^{z-1}e^{-t}$ par une fonction intégrable sur $]0;\infty[$ indépendante de $z$.

    Autrement dit : pour $x \in ]-1;r-1[$, je veux majorer $t\longmapsto t^x e^{-t}$ par une fonction intégrable sur $]0;\infty[$ indépendante de $x$. Effectivement, ça va demander réflexion... je verrai ce que j'arrive à trouver.
  • Comme je suis tombé dessus hier, je mets juste ici un commentaire de mon prof de prépa dans un DM sur la fonction $\Gamma$: la formule de Weierstrass permet de montrer une formule un peu analogue, du style $\displaystyle x \Gamma(x)=\prod_{k=1}^{+ \infty}\big(1+\tfrac{1}{k}\big)^{x}\big(1+\tfrac{x}{k}\big)^{-1}$. Il s'avère que c'est la formule qu'Euler aurait prise vers 1729 pour développer la théorie de la factorielle réelle (bien avant de tomber sur la version intégrale proposée au début du post).
    On peut aussi faire le lien avec une formule proposée par Gauss (vers 1811) pour les complexes, qui est $\displaystyle \Gamma(z)=\lim_{+\infty}\frac{n!\, n^{z}}{z(z+1)\cdots(z+n)}$ (pour une partie réelle positive). En gros, Euler a bien anticipé le comportement de la factorielle.
  • Intéressant, ça vaudra la peine d'être creusé, ça aussi. En attendant, je peine avec mon histoire de majorant intégrable.
  • Bonjour,
    Polka a écrit:
    Il s'avère que c'est la formule qu'Euler aurait prise vers 1729 .........

    Euler a-t-il choisi volontairement cette année là :-D ? après les hôtesses, les taxis ...

    Cordialement,

    Rescassol
  • *Homo Topi.
    Autrement dit : pour $x \in ]-1;r-1[$, je veux majorer $t\longmapsto t^x e^{-t}$ par une fonction intégrable sur $]0;\infty[$ indépendante de $x$.

    Pour $t\in ]0;1]$, $ t^{r-1} \leq t^x \leq t^{-1}$.
    Pour $t\in [1;+\infty[$, $t^{-1} \leq t^x \leq t^{r-1}$.
  • Homo Topi a écrit:
    Autrement dit : pour $x \in ]-1;r-1[$, je veux majorer $t\longmapsto t^x e^{-t}$ par une fonction intégrable sur $]0;\infty[$ indépendante de $x$

    c'est plus facile si tu choisis $\alpha\in ]0,1[$ et que pour pour $x \in ]-\alpha;0[$ tu majores $t\longmapsto t^x e^{-t}$ par une fonction intégrable sur $]0;\infty[$. Tu auras ainsi démontré le caractère holomorphe de $\Gamma$ sur $\{z \in \C \mid 1-\alpha<\text{Re}(z) < 1\}$ pour tout $\alpha\in ]0,1[$. Donc tu auras en fait démontré le caractère holomorphe de $\Gamma$ sur $\{z \in \C \mid 0<\text{Re}(z) < 1\}$.
  • Mais ça ne répondra pas entièrement à la question...
Connectez-vous ou Inscrivez-vous pour répondre.