C'est exact, et les méthodes de démonstrations de l'une et l'autre sont similaires. J'ajoute que la première est utilisée dans le calcul de la seconde.
De tête pour ne pas tout gâcher à ceux qui veulent trouver : pour $\displaystyle \int_{1}^{+\infty} {\psi(x) \over x^2} dx$ avec $\displaystyle \psi(x) = x-E(x)-1/2$ on utilise la relation de Chasles : $\displaystyle \int_{1}^{+\infty} \leadsto \sum_{n \geq 1} \int_{n}^{n+1}$ et on intègre sans peine ; pour sommer la série, on ouvre les yeux pour trouver deux termes télescopiques (un logarithmique, un fractionnaire) et ceux qui restent sont d'abord sommer de $1$ à $\displaystyle N \geq 1$, puis on fait tendre $N$ vers l'infini... résultat classique sur la somme des inverses des nombres entiers non nuls.
@jandri
As-tu une de belle à nous proposer ? Je vous propose de calculer astucieusement $$
\int_0^{+\infty} \sin(x^2)dx =\frac 12\sqrt{\frac{\pi}2}.
$$ Ma favorite : montrer que $\forall t>0$, $$
\int_0^1 \ln\Big(\frac{\Gamma(x+t)}{\sqrt{2\pi}}\Big) dx=t\ln(t)-t
$$ (le résultat est donné pour vérifier seulement vos calculs).
Attention à l'emploi abusif du vocable "classique"...Certes, l'intégrale
$$\int_1^\infty \frac{\psi(x)}{x^2} \, \textrm{d}x = \frac{1}{2} - \gamma$$
est indéniablement "classique" pour un arithméticien, sans doute aussi pour un analyste. Et d'ailleurs l'autre intégrale
$$J = \int_1^\infty \frac{\psi(x) \log x}{x^2} \, \textrm{d}x$$
est tout aussi classique chez nous, tout comme toute intégrale de ce type, comme peut l'être par exemple l'intégrale
$$\int_1^\infty \frac{\psi_2(x)}{x^3} \, \textrm{d}x = \frac{1}{4} - \frac{\gamma}{2}$$
où $\displaystyle \psi_2(x) := \int_0^x \psi(t) \, \textrm{d}t = \frac{\psi(x)^2}{2} - \frac{1}{8}$.
En revanche, elle l'est certainement beaucoup moins pour quiconque n'ayant pas eu affaire à ce résultat qui, somme toute, n'est pas d'un si grand intérêt.
J'ai donné la réponse pour $I$, je ne l'ai pas donnée pour $J$, si jamais des intervenants sont volontaires, sachant que $I$ sert pour $J$...
Bien sûr, on peut être tenté par la décomposition en éléments simples, mais est-ce bien raisonnable ?
Et en 1905, il n'y avait pas de logiciel de calcul formel pour vous donner la solution ...
Avant que ce sujet ne tombe dans l'oubli et que je ne l'oublie moi-même, voici une réponse concernant l'intégrale $J$ ci-dessus. Je rappelle que $\lfloor t \rfloor $ désigne la partie entière de $t \in \mathbb{R}$. Par sommation partielle, pour tout $x \geqslant 2$
\begin{align*}
\sum_{k \leqslant x} \frac{\log k}{k} &= \sum_{2 \leqslant k \leqslant x} \frac{\log k}{k} = \int_1^x \frac{\log t}{t} \, \textrm{d} \lfloor t \rfloor\\
&= \int_1^x \frac{\log t}{t} \, \textrm{d} t - \int_1^x \frac{\log t}{t} \, \textrm{d} \psi(t) \\
&= \tfrac{1}{2} (\log x)^2 - \left( \left[ \frac{\psi(t) \log t}{t} \right]_1^x + \int_1^x \frac{\log t - 1}{t^2} \, \psi(t) \, \textrm{d}t \right)
\end{align*}
et donc
$$ \sum_{k \leqslant x} \frac{\log k}{k} - \tfrac{1}{2} (\log x)^2 = - \frac{\psi(x) \log x}{x} - \int_1^x \frac{\log t - 1}{t^2} \, \psi(t) \, \textrm{d}t.$$
On fait alors tendre $x$ vers $\infty$. Le membre de gauche tend par définition vers $\gamma_1 \approx - 0,07 \, 281 \dotsc$ la $1$ère constante de Riemann-Stieltjes, tandis que le membre de droite tend vers $I-J$, d'où
$$J = I - \gamma_1 = \tfrac{1}{2} - \gamma - \gamma_1 \approx - 0,150 \, 031 \dotsc$$
Mais attention, on ne s'autorise pas l'usage de nombres complexes et du théorème des résidus (autrement ce serait trop facile). Je ne mets aucune autre restriction.
NB:
Je suis convaincu que c'est possible bien que je n'ai pas encore finalisé le calcul qui je pense permet en respectant "le cahier des charges" que je me fixe de prouver ce résultat.
PS:
On n'a pas non plus recours à des propriétés qui dissimulent l'usage du théorème des résidus, de nombres complexes pour être démontrées.
Gebrane:
C'est beaucoup plus amusant comme ça. B-)
Je pense (ce n'est pas seulement en levant un doigt mouillé, j'ai entamé cette escalade de la face nord) que c'est tout à fait possible.
NB:
Je calcule lentement. Il est fort possible que quelqu'un me double dans cette ascension. (et mon employeur ne me paie pas pour calculer des intégrales, hélas). B-)-
Bonjour,
J'ai un problème dans mes calculs et j'ai la tête comme une pierre ce matin
Je pose $I(a)=\int_0^\pi e^{a\cos x}\cos(x-a\sin x) dx$
On a $$I'(a)=\int_0^\pi e^{a\cos x}\big[\cos(x)\cos(x-a\sin x) +\sin(x)\sin(x-a\sin x)\big]$$
On peut transmormer en remarquant que
$$\frac{\partial }{\partial x} (e^{a\cos x}\sin(x-a\sin x))=e^{a\cos x}
\cos(x-a\sin x)-ae^{a\cos x}\big[\cos(x)\cos(x-a\sin x) +\sin(x)\sin(x-a\sin x)\big] $$
et en integrant
$$\int_0^\pi \frac{\partial }{\partial x} (e^{a\cos x}\sin(x-a\sin x))dx=\int_0^\pi e^{a\cos x}
\cos(x-a\sin x)dx-a\int_0^\pi e^{a\cos x}\big[\cos(x)\cos(x-a\sin x) +\sin(x)\sin(x-a\sin x)\big] dx $$
ce qui donne $0=I(a)-aI'(a)$ ce qui est contradictoire avec $I(0)=0$
edit il n y a pas de contradiction, j’étais assommé et ca donne $I(a)=k.a$
J'aurais aimé trouver cette solution. Elle est superbe. :-)
J'avais pensé à utiliser un paramètre mais je l'avais mis qu'à la gauche du $\sin x$ :-D
Quoiqu'il en soit je pense que j'ai une autre solution très différente. B-)-
C'est grâce à ton message Une indication: Maman les p´tits bateaux hot smiley que j'ai eu l'idée de dérivation: De loin un bateau à voile ressemble à un croissant de lune donc une ' donc une dérivation
Prouver que l'intégrale est convergente et calculer sa valeur (qui s'exprime simplement en fonction de constantes très connues). Toute technique autorisée (mais pour que vous ne partiez pas dans n'importe quelle direction, sachez tout de même qu'il existe une solution "élémentaire").
De $I(a)=aI^\prime (a)$ on prouve par dérivation que $aI^{\prime\prime}(a)=0$
et on peut en déduire que pour $a>0,I^{\prime\prime}(a)=0$. Le problème est pour la valeur $a=0$ me semble-t-il.
PS:
Un calcul direct permet de montrer, me semble-t-il, que $I^{\prime\prime}(0)=0$
Avec ma méthode initiale De $I(a)=aI^\prime (a)$ on trouve ( c'est une équation du premier ordre ) $I(a)=K.a$et il n y a pas de contradiction avec$I(0)=0$
Commet chercher le k ? (si on ne voit pas que $i'(a)=$cst)
edit PS j'ai démontre que $I''(a)=0$ en dérivant directement $I'(a)$
Tu n'as pas compris ce que j'ai voulu dire
Hier quand j'ai obtenu $I(a)=aI'(a)$ il m'a semblé que c'est contradictoire avec $ I(0)=0$ le blême c'est que j'avais noté que $I(a)=c.a$ et je ne sais pas pour quelle raison, ça me semblais contradictoire. Le pire, (hier) je ne voyais pas comment trouver le $c$ ( l idée de voir que $I'(a)$ est constant m'a échappée hier)
Pour celui de Skyffer
tu fais les calculs et je fais la convergence ca marche?
Bonjour
Est ce que quelqu'un a trouvé une solution à la question de skyffer?. je n'ai pas encore regardé par manque du temps. Cela va m'encourager si quelqu’un a réussi .
FDP
Ce qui est drôle dans cette preuve, c'est que pour prouver le cas particulier a=1, on passe par le cas général a quelconque.
Les mathématiques sont folles !
Gebrane: ta preuve est géniale mais elle ne déchaine pas pour le moment un torrent d'enthousiasme.
Ce sont les joies de M.E. Tu passes du temps à chercher une solution, tout le monde s'en fiche. :-D
(cela doit manquer d'imaginaire ou c'est une preuve pas assez prétentieuse et pédante)
Si vous aimez les intégrales avec des logarithmes:
Prouvez que:
\begin{align}\int_0^1 \frac{\ln^2(1+x)}{x(1+x^2)}\,dx=\frac{1}{4}\zeta(3)-\frac{1}{24}\ln^3 2-\frac{1}{96}\pi^2\ln 2\end{align}
NB:
J'ai obtenu cette "égalité" empiriquement. Je n'ai pas de preuve à cette heure.
Je viens de reflechir sur l'integrale de skyffer
$$\int_{0}^{+\infty} \left( \dfrac{1}{x} - \dfrac{1}{e^x - 1}\right)^2 \, \mathrm{d}x=\int_{0}^{+\infty} \left( \dfrac{1}{x^2}-\dfrac{2}{x(e^x - 1)} + \dfrac{1}{(e^x - 1)^2}\right) \, \mathrm{d}x$$
Pour se débarrasser des x en dénominateur, je procède par dérivation. Soit donc $$F(a)=\int_{0}^{+\infty} \left( \dfrac{1}{x^2}-\dfrac{2}{x(e^x - 1)} + \dfrac{1}{(e^x - 1)^2}\right) e^{-ax}\, \mathrm{d}x$$ alors
$F''(a)=\int_{0}^{+\infty} \left( 1-\dfrac{2x}{(e^x - 1)} + \dfrac{x^2}{(e^x - 1)^2}\right) e^{-ax}\, \mathrm{d}x$
Réponses
De tête pour ne pas tout gâcher à ceux qui veulent trouver : pour $\displaystyle \int_{1}^{+\infty} {\psi(x) \over x^2} dx$ avec $\displaystyle \psi(x) = x-E(x)-1/2$ on utilise la relation de Chasles : $\displaystyle \int_{1}^{+\infty} \leadsto \sum_{n \geq 1} \int_{n}^{n+1}$ et on intègre sans peine ; pour sommer la série, on ouvre les yeux pour trouver deux termes télescopiques (un logarithmique, un fractionnaire) et ceux qui restent sont d'abord sommer de $1$ à $\displaystyle N \geq 1$, puis on fait tendre $N$ vers l'infini... résultat classique sur la somme des inverses des nombres entiers non nuls.
As-tu une de belle à nous proposer ?
Je vous propose de calculer astucieusement $$
\int_0^{+\infty} \sin(x^2)dx =\frac 12\sqrt{\frac{\pi}2}.
$$ Ma favorite : montrer que $\forall t>0$, $$
\int_0^1 \ln\Big(\frac{\Gamma(x+t)}{\sqrt{2\pi}}\Big) dx=t\ln(t)-t
$$ (le résultat est donné pour vérifier seulement vos calculs).
$$\int_1^\infty \frac{\psi(x)}{x^2} \, \textrm{d}x = \frac{1}{2} - \gamma$$
est indéniablement "classique" pour un arithméticien, sans doute aussi pour un analyste. Et d'ailleurs l'autre intégrale
$$J = \int_1^\infty \frac{\psi(x) \log x}{x^2} \, \textrm{d}x$$
est tout aussi classique chez nous, tout comme toute intégrale de ce type, comme peut l'être par exemple l'intégrale
$$\int_1^\infty \frac{\psi_2(x)}{x^3} \, \textrm{d}x = \frac{1}{4} - \frac{\gamma}{2}$$
où $\displaystyle \psi_2(x) := \int_0^x \psi(t) \, \textrm{d}t = \frac{\psi(x)^2}{2} - \frac{1}{8}$.
En revanche, elle l'est certainement beaucoup moins pour quiconque n'ayant pas eu affaire à ce résultat qui, somme toute, n'est pas d'un si grand intérêt.
J'ai donné la réponse pour $I$, je ne l'ai pas donnée pour $J$, si jamais des intervenants sont volontaires, sachant que $I$ sert pour $J$...
Calculer
$$\int\frac{4t^9+21t^6+2t^3-3t^2-3}{(t^7-t+1)^2}\,dt.$$
Bien sûr, on peut être tenté par la décomposition en éléments simples, mais est-ce bien raisonnable ?
Et en 1905, il n'y avait pas de logiciel de calcul formel pour vous donner la solution ...
C'est simple avec la methode d'Ostrogradsky
voici un exemple http://www.nabla.hr/Z_MemoHU-128.htm
https://archive.org/details/integrationoffun00hardrich/page/n3
\begin{align*}
\sum_{k \leqslant x} \frac{\log k}{k} &= \sum_{2 \leqslant k \leqslant x} \frac{\log k}{k} = \int_1^x \frac{\log t}{t} \, \textrm{d} \lfloor t \rfloor\\
&= \int_1^x \frac{\log t}{t} \, \textrm{d} t - \int_1^x \frac{\log t}{t} \, \textrm{d} \psi(t) \\
&= \tfrac{1}{2} (\log x)^2 - \left( \left[ \frac{\psi(t) \log t}{t} \right]_1^x + \int_1^x \frac{\log t - 1}{t^2} \, \psi(t) \, \textrm{d}t \right)
\end{align*}
et donc
$$ \sum_{k \leqslant x} \frac{\log k}{k} - \tfrac{1}{2} (\log x)^2 = - \frac{\psi(x) \log x}{x} - \int_1^x \frac{\log t - 1}{t^2} \, \psi(t) \, \textrm{d}t.$$
On fait alors tendre $x$ vers $\infty$. Le membre de gauche tend par définition vers $\gamma_1 \approx - 0,07 \, 281 \dotsc$ la $1$ère constante de Riemann-Stieltjes, tandis que le membre de droite tend vers $I-J$, d'où
$$J = I - \gamma_1 = \tfrac{1}{2} - \gamma - \gamma_1 \approx - 0,150 \, 031 \dotsc$$
\begin{align}\int_0^\pi e^{\cos x}\cos(x-\sin x) dx=\pi\end{align}
Mais attention, on ne s'autorise pas l'usage de nombres complexes et du théorème des résidus (autrement ce serait trop facile). Je ne mets aucune autre restriction.
NB:
Je suis convaincu que c'est possible bien que je n'ai pas encore finalisé le calcul qui je pense permet en respectant "le cahier des charges" que je me fixe de prouver ce résultat.
PS:
On n'a pas non plus recours à des propriétés qui dissimulent l'usage du théorème des résidus, de nombres complexes pour être démontrées.
Pourquoi tu nous interdit les complexes :-D
C'est beaucoup plus amusant comme ça. B-)
Je pense (ce n'est pas seulement en levant un doigt mouillé, j'ai entamé cette escalade de la face nord) que c'est tout à fait possible.
NB:
Je calcule lentement. Il est fort possible que quelqu'un me double dans cette ascension. (et mon employeur ne me paie pas pour calculer des intégrales, hélas). B-)-
Ok pour ton cahier de charge
Tu vas aimer le voyage. B-)-
NB:
Une indication: Maman les p´tits bateaux X:-(
J'ai un problème dans mes calculs et j'ai la tête comme une pierre ce matin
Je pose $I(a)=\int_0^\pi e^{a\cos x}\cos(x-a\sin x) dx$
On a $$I'(a)=\int_0^\pi e^{a\cos x}\big[\cos(x)\cos(x-a\sin x) +\sin(x)\sin(x-a\sin x)\big]$$
On peut transmormer en remarquant que
$$\frac{\partial }{\partial x} (e^{a\cos x}\sin(x-a\sin x))=e^{a\cos x}
\cos(x-a\sin x)-ae^{a\cos x}\big[\cos(x)\cos(x-a\sin x) +\sin(x)\sin(x-a\sin x)\big] $$
et en integrant
$$\int_0^\pi \frac{\partial }{\partial x} (e^{a\cos x}\sin(x-a\sin x))dx=\int_0^\pi e^{a\cos x}
\cos(x-a\sin x)dx-a\int_0^\pi e^{a\cos x}\big[\cos(x)\cos(x-a\sin x) +\sin(x)\sin(x-a\sin x)\big] dx $$
ce qui donne $0=I(a)-aI'(a)$ ce qui est contradictoire avec $I(0)=0$
edit il n y a pas de contradiction, j’étais assommé et ca donne $I(a)=k.a$
T'es aveugle ou quoi? j'ai donnée plusieurs façons avec les complexes
Je ne vois pas dans cette égalité $0=I(a)-aI'(a)$ de contradiction avec le fait que $I(0)=0$.
&=\cos(a\sin x)
\end{align}
me semble-t-il.
Ce qui fait que: $\displaystyle I^\prime (a)=\int_0^\pi \text{e}^{a\cos x}cos(a\sin x)\,dx$
https://www.wolframalpha.com/input/?i=integrate+exp(1.245*cos(x))*cos(x-1.245*sin(x)),x=0,Pi
https://www.wolframalpha.com/input/?i=integrate+1.245*exp(1.245*cos(x))*cos(1.245*sin(x)),x=0,Pi
Une deuxième série de valeurs:
https://www.wolframalpha.com/input/?i=integrate+exp(7.113*cos(x))*cos(x-7.113*sin(x)),x=0,Pi
https://www.wolframalpha.com/input/?i=integrate+7.113*exp(7.113*cos(x))*cos(7.113*sin(x)),x=0,Pi
Youppi
clique sur le visage souriant de mon premier message
J'aurais aimé trouver cette solution. Elle est superbe. :-)
J'avais pensé à utiliser un paramètre mais je l'avais mis qu'à la gauche du $\sin x$ :-D
Quoiqu'il en soit je pense que j'ai une autre solution très différente. B-)-
Prouver que l'intégrale est convergente et calculer sa valeur (qui s'exprime simplement en fonction de constantes très connues). Toute technique autorisée (mais pour que vous ne partiez pas dans n'importe quelle direction, sachez tout de même qu'il existe une solution "élémentaire").
Tu prouves qu'on peut lire ce qu'on veut dans une phrase cryptique comme celle-ci. :-D
Cette phrase appartient à une comptine pour enfants:
Toi je t'aime bien, tu nous autorise tout
Merci
De $I(a)=aI^\prime (a)$ on prouve par dérivation que $aI^{\prime\prime}(a)=0$
et on peut en déduire que pour $a>0,I^{\prime\prime}(a)=0$. Le problème est pour la valeur $a=0$ me semble-t-il.
PS:
Un calcul direct permet de montrer, me semble-t-il, que $I^{\prime\prime}(0)=0$
Commet chercher le k ? (si on ne voit pas que $i'(a)=$cst)
edit PS j'ai démontre que $I''(a)=0$ en dérivant directement $I'(a)$
On a précisément:
\begin{align}I^{\prime \prime}(a)&=\int_0^\pi e^{a\cos x}\cos(x+a\sin x) dx\\
I^\prime(a)&=\int_0^\pi e^{a\cos x}\cos(a\sin x) dx\\
I^\prime(0)&=\pi\\
I(0)&=0\\
\end{align}
Hier quand j'ai obtenu $I(a)=aI'(a)$ il m'a semblé que c'est contradictoire avec $ I(0)=0$ le blême c'est que j'avais noté que $I(a)=c.a$ et je ne sais pas pour quelle raison, ça me semblais contradictoire. Le pire, (hier) je ne voyais pas comment trouver le $c$ ( l idée de voir que $I'(a)$ est constant m'a échappée hier)
Pour celui de Skyffer
tu fais les calculs et je fais la convergence ca marche?
Je ne suis pas fan des intégrales dans lesquelles interviennent la constante d'Euler ou autres constantes de Stieltjes.
Donne moi le résultat de l'intégrale de Skyffer ( wolphi ne me dit rien )
IL y a jandri qui aime ces constantes ( sauf si)
Est ce que quelqu'un a trouvé une solution à la question de skyffer?. je n'ai pas encore regardé par manque du temps. Cela va m'encourager si quelqu’un a réussi .
\begin{align}\int_0^\pi \text{e}^{\cos x}\cos(x-\sin x) dx&=\int_0^\pi\text{e}^{\cos x}\cos x\cos(\sin x)dx+\int_0^\pi\text{e}^{\cos x}\sin x\sin(\sin x)dx\\
&=\Big[\sin(\sin x)\text{e}^{\cos x}\Big]_0^\pi+2\int_0^\pi\text{e}^{\cos x}\sin x\sin(\sin x)dx\\
&=2\int_0^\pi\text{e}^{\cos x}\sin x\sin(\sin x)dx\\
&=2\int_0^\pi\cosh(\cos x)\sin x\sin(\sin x)dx+2\int_0^\pi\sinh(\cos x)\sin x\sin(\sin x)dx\\
&=2\int_0^\pi\cosh(\cos x)\sin x\sin(\sin x)dx\\
&=4\int_0^{\frac{\pi}{2}}\cosh(\cos x)\sin x\sin(\sin x)dx\\
&=4\int_0^{\frac{\pi}{2}}\left(\left(\sum_{n=0}^\infty\frac{(-1)^n\sin^{2n+2}x}{(2n+1)!}\right)\left(\sum_{m=0}^\infty\frac{\cos^{2m} x}{(2m)!}\right)\right)\,dx\\
&=4\sum_{n=0}^\infty \left(\sum_{j=0}^n\frac{(-1) ^j}{(2j+1)!(2(n-j))!}\int_0^{\frac{\pi}{2}}\sin^{2j+2}x\cos^{2(n-j)}x\,dx\right)
\end{align}
Pour $p,q$ entiers,
\begin{align}\int_0^{\frac{\pi}{2}}\sin^{2p}x\cos^{2q}x\,dx&=\frac{1}{2}\text{B}\left(p+\frac{1}{2},p+\frac{1}{2}\right)\\
&=\frac{1}{2}\frac{\Gamma\left(p+\frac{1}{2}\right)\Gamma\left(q+\frac{1}{2}\right)}{\Gamma\left(p+q+1\right)}\\
&=\frac{\pi}{2}\times \frac{(2p)!(2q)!}{2^{2(p+q)}(p+q)!p!q!}
\end{align}
Ainsi, pour $n\geq 0$, entier,
\begin{align}C_n&=\sum_{j=0}^n\frac{(-1) ^j}{(2j+1)!(2(n-j))!}\int_0^{\frac{\pi}{2}}\sin^{2j+2}x\cos^{2(n-j)}x\,dx\\
&=\frac{\pi}{2^{2(n+1)}(n+1)!}\sum_{j=0}^n\frac{(-1)^j}{j!(n-j)!}\\
&=\frac{\pi}{2^{2(n+1)}(n+1)!n!}\sum_{j=0}^n\frac{(-1)^jn!}{j!(n-j)!}\\
&=\frac{\pi}{2^{2(n+1)}(n+1)!n!}\sum_{j=0}^n (-1)^j\binom{n}{j}
\end{align}
Remarquer que, $C_0=\dfrac{\pi}{4}$ et, pour $n>0$, entier,
\begin{align}C_n&=\frac{\pi}{2^{2(n+1)}(n+1)!n!}(-1+1)^n\\
&=0
\end{align}
Finalement,
\begin{align}\int_0^\pi \text{e}^{\cos x}\cos(x-\sin x) dx&=4\times \frac{\pi}{4}\\
&=\boxed{\pi}
\end{align}
NB:
Pour $n\geq 0$, entier
\begin{align}\Gamma\left(n+\frac{1}{2}\right)=\frac{(2n)!}{2^{2n}n!}\sqrt{\pi}\end{align}
Pour $x$ réel,
\begin{align}\cos(\pi-x)=-\cos x\\
\sin(\pi-x)=-\sin x\\
\end{align}
$\text{B}$ désigne la fonction Bêta d'Euler.
je vais mettre la mienne au dessous de la tienne sur ME
Je préfère ta solution
J'ai besoin de quelques Up :-D
Je t'ai apporté ma contribution
j'espere ne pas subir des "downs-votes"
Ce qui est drôle dans cette preuve, c'est que pour prouver le cas particulier a=1, on passe par le cas général a quelconque.
Les mathématiques sont folles !
C'est un phénomène courant en mathématiques. Démontrer un résultat dont la démonstration d'une généralisation est plus simple à établir.
Ce sont les joies de M.E. Tu passes du temps à chercher une solution, tout le monde s'en fiche. :-D
(cela doit manquer d'imaginaire ou c'est une preuve pas assez prétentieuse et pédante)
Prouvez que:
\begin{align}\int_0^1 \frac{\ln^2(1+x)}{x(1+x^2)}\,dx=\frac{1}{4}\zeta(3)-\frac{1}{24}\ln^3 2-\frac{1}{96}\pi^2\ln 2\end{align}
NB:
J'ai obtenu cette "égalité" empiriquement. Je n'ai pas de preuve à cette heure.
$$\int_{0}^{+\infty} \left( \dfrac{1}{x} - \dfrac{1}{e^x - 1}\right)^2 \, \mathrm{d}x=\int_{0}^{+\infty} \left( \dfrac{1}{x^2}-\dfrac{2}{x(e^x - 1)} + \dfrac{1}{(e^x - 1)^2}\right) \, \mathrm{d}x$$
Pour se débarrasser des x en dénominateur, je procède par dérivation. Soit donc $$F(a)=\int_{0}^{+\infty} \left( \dfrac{1}{x^2}-\dfrac{2}{x(e^x - 1)} + \dfrac{1}{(e^x - 1)^2}\right) e^{-ax}\, \mathrm{d}x$$ alors
$F''(a)=\int_{0}^{+\infty} \left( 1-\dfrac{2x}{(e^x - 1)} + \dfrac{x^2}{(e^x - 1)^2}\right) e^{-ax}\, \mathrm{d}x$
A suivre
Ajout 1 D'apres wollfram $\int_{0}^{+\infty}\dfrac{xe^{-ax}}{(e^x - 1)} dx=\zeta (2,a+1)=\sum_{n\ge 1} \frac 1{(n+a)^2}$