Jolies formules, beaux théorèmes
Bonjour à tous! Je lance une nouvelle série de messages, si vous le voulez bien! Chacun, s'il le veut, balance les formules ou les théorèmes qu'il trouve les plus beaux. Et chacun peut demander, s'il le désire, des références sur les formules et les théorèmes qu'il aura lu ici.
Moi il y a une formule que j'aime par-dessus tout, c'est la formule des compléments : $\Gamma(x)\Gamma(1-x)=\frac{\pi}{sin(\pi*x)}$, avec $x$ entre 0 et 1 strictement.
Moi il y a une formule que j'aime par-dessus tout, c'est la formule des compléments : $\Gamma(x)\Gamma(1-x)=\frac{\pi}{sin(\pi*x)}$, avec $x$ entre 0 et 1 strictement.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
D'ailleurs, si quelqu'un connaît une démo... :-)
PS j'espère que \sqrt donne bien une racine carrée, sinon je vous l'écrit sans LaTeX :
Pour n entier, il existe p entier tel que (1+sqrt(2))^n = sqrt(p)+sqrt(p+1).
Il existe aussi une version complexe de la formule de Stirling : $$\log \Gamma(z) = \left ( z - \frac {1}{2} \right ) \log z - z + \frac {1}{2} \log (2 \pi) - \int_{0}^{\infty} \frac {t - [t] - 1/2}{t+z} \, dt,$$ où $\log$ est la détermination principale du log complexe sur $\C - \R_{-}$.
Borde.
Sylvain
Et ma démonstration, qui n'est pas signée de moi, je tiens à le signaler tout de même, est extraordinaire :
On pose, pour n dans Z/2Z et x dans G :
n.x=x si n=1, e sinon.
Ainsi, (G,*,.) est un espace vectoriel sur Z/2Z, forcément de dimension finie! et je vous laisse terminer!!!
Après on peut raffiner avec $\sum_{p \leq x }^{} \frac{1}{p} \sim \ln(ln(x))$ qui n'est pas mal non plus de ce point de vue.
Pour ce qui est des résultats importants, j'aime bien le théorème de Sylow (et la preuve est jolie aussi, celle avec l'action de $G$ sur $G/S$ ou $S$ est un $p_$Sylow), le prolongement de $\zeta$ (mais pas avec la formule de Poisson, celle où on la multiplie par $\Gamma$ pour tomber sur une intégrale qu'on decoupe en méromorphe+holomorphe, dailleurs si quelqu'un a une référence pour cette preuve la, je suis preneur) ou encore la théorème de Weierstrass ($\R[X]$ dense dans $C_c(\R)$)
Et pour la preuve la plus jolie, je citerais bien le théorème de Sophie Germain (cas particulier du grand théorème de Fermat sauf que le $n>2$ est remplacé par un $p$ premier tel que $2p+1$ est premier). La preuve utilise des outils quasiment à la portée d'un élève de terminale mais c'est d'une astuce incroyable.
Pour les infinités de nombres premiers tels que..., il y a le théorème de Dirichlet qui affirme que si $a$ et $b$ sont premiers entre eux, alors il existe une infinité de nombres premiers dans la progression $a+bk$. Pour la preuve, je l'ai jamais vu mais elle est pas à la portée du premier venu à ce qu'il parait.
Sinon en résultat récent (donc preuve incompréhensible pour le commun des mortels) il y a l'infinitude des nombres de Carmichael ou le théorème de Grenn-Tao qui affirme qu'il existe des progressions arithmétiques de toute longueur dans l'ensemble des nombres premiers et certainement beacoup d'autres que j'ignore..
J'ai tout de même une formule à proposer, et dont j'ai la démonstration, qui est plutôt longue mais que je trouve magnifique : $\Gamma'(1)=-\gamma$, où $\Gamma$ est la fonction bien connue, et $\gamma$ est la constante d'Euler.
Ou encore toutes les méthodes possibles du calcul de l'intégrale sur $\R$ de $e^{-t^2}$.
Si on prend $a_{n}z^{n}$ une série entière, dont on note $g$ la somme dans le disque ouvert de convergence, supposé non réduit à {0}, donner une expression mettant en jeu $g$ de :
$\sum_{n=0}^{\infty}a_{pn}z^{pn}$
où $p$ est un entier naturel non nul.
D'ailleurs, si quelqu'un en a, je suis preneur!
$$\mbox{ La probabilité que deux entiers soient premiers entre eux est } \frac{6}{\pi^2}$$
formule qui fait intervenir $\pi$.
x^0=1, et aussi 0!=1, ces deux resultats sont extrordinaires et fondamentaux.
et maintenant$\frac{6}{\pi^2}$ Je me demande si la personne qui a decouvert Le$\pi$ n'etait pas de ce monde que ce qu'il serait d'aujourdhui?
Le $\pi$ est n'importe ou et la ou on s'attend le moins c'est vraiment etrange!!
Mais Pour Le 0^0=1 car il existe une application qui transforme le vide en le vide mais il y a certaines calclulatrices qui donnent ERROR pour 0^0
Peut-être elles considèrent 0^(-0)
1) deux jolies formules trouvées par Ramanujan:
---> la limite de la première somme infinie est intrigante,
---> la présence de 9801 dans la seconde est singulière ; de plus , cette relation a été démontrée 75 ans après sa découverte.
\lien{http://fr.wikipedia.org/wiki/Srinivasa_Ramanujan#Formules}
2)j'aime aussi:
$$e^{\pi \sqrt{163}}=262.537.412.640.768.744$$
à $10^{-12}$ près.
de plus , ce n'est pas du hasard...
Bonne journée
La présence du $\pi$ est ici somme toute assez normale, puisque ta "probabilité" (qui est en fait une densité, plutôt) se calcule via la formule d'inversion de Möbius, et fait donc intervenir dans les calculs la valeur de la série $\displaystyle {\sum_{n=1}^{\infty} \frac {\mu(n)}{n^2}}$ qui vaut, comme tu le sais sans doute, $\displaystyle {\frac {1}{\zeta(2)} = \frac {6}{\pi^2}}$.
Ceci dit, Joyeux Noël à toi et à toute ta famille !
Borde.
Mais le calcul de $\zeta(2)$ fait apparaître lui-même $\pi$, et ça, s'est en soi ipressionnant. D'ailleurs, existe-t-il une quelconque explication au fait que si on somme tous les inverses des carrés des nombres entiers, on obtienne $\frac{\pi^{2}}{6}$?
Ou encore, comment se fait-il que l'intégrale sur $\R$ de $e^{-t^2}$ fasse intervenir $\pi$?
Les maths ne sont tout-de-même pas magnifiques?
soit $U_n$ une suite reccurente d'ordre $p$
$U_n=\sum_{i=1}^{n} a_i U_i$
alors $$U_{n + 1} = \prod\limits_{i = 0}^{P - 1} {\sum\limits_{K_{(i + 1)} = 0}^{\left[ {\frac{{n - \left( {\sum\limits_{R = 0}^i {((P + 1) - R)K_R } } \right)}}{{(P - i)}}} \right]} {\left( {a_1 ^{n - \left( {\sum\limits_{i = 0}^{P - 1} {((P + 1) - i)K_i } } \right)} \times \left( {\prod\limits_{i = 2}^P {a_i ^{K_{((P + 1) - i)} } } } \right) \times \left( {\prod\limits_{R = 0}^{P - 2} {\mathop C\nolimits_{\sum\limits_{i = 0}^{R + 1} {K_i } }^{\sum\limits_{i = 0}^R {K_i } } } } \right) \times \mathop C\nolimits_{n - \left( {\sum\limits_{\alpha = 0}^P {\alpha K_{P - \alpha } } } \right)}^{\sum\limits_{i = 0}^{P - 1} {K_i } } } \right)} } $$
L'explication est la suivante : les calculs de $\zeta(2n)$ (et pas seulement $\zeta(2)$) s'appuient sur {\bf l'équation fonctionnelle de $\zeta$}, qui, elle-même, contient $\pi$. En soi, ce serait donc cette équation fonctionnelle qui devrait être considérée comme "plus belle formule", car les autres proviennent d'elle.
Mais, en terme de "plus beau", je me garderai bien d'intervenir dans tel ou tel choix, c'est, je crois, à chacun de définir et déterminer "la plus belle formule" qu'il considère, un tel choix étant nécessairement subjectif.
Borde.
Alors qu'au contraire, il est presque intuitif de dire que la somme des $\frac{1}{2^k}$ pour $k \geq 0$ converge vers 1 : si on prend un fil qu'on coupe à la moitié, et dont on met de côté la première moitié, puis qu'on coupe la deuxième moitié en 2, et qu'on met de côté la première nouvelle moitié, etc... alors "à la fin" on aura mis de côté tout le fil ; mais pour interpréter la somme des inverses des carrés, sans essayer de comprendre les étapes du calcul qui nous a mené au résultat, c'est une autre histoire...
Et quelle est cette équation fonctionnelle de $\zeta^$, au fait?
$$\displaystyle{\sum_{PGCD(k,n)=1,k=1}^n k = \frac{n\phi(n)}{2}}$$
Prend $s=2n$, ajoute la formule $\displaystyle {\zeta(-n) = - \frac {B_{n+1}}{n+1}}$ valable pour tout entier $n \geqslant 1$, et tu obtiens : $$\zeta(2n) = (-1)^{n+1} 2^{2n-1} (\pi)^{2n} \frac {B_{2n}}{(2n)!}.$$
Borde.
Si $A, B$ sont deux matrices carrées sur un corps $\K$, telles que $AB=BA$ et si on note $P$ le polynôme à deux indéterminées sur $\K$ défini par : $P(X,Y)=det(AY-BX)$, alors, comme pour le théorème de Cayley-Hamilton, on a : $P(A,B)=0$.
Le polynôme à $n^2$ indéterminées sur un corps $\K$ défini par :
$P(X_{1,1}, ... ,X_{n,n}) = det((X_{i,j})_{1 \leq i,j \leq n}$ est irréductible sur $\K$.
Si, pour $n\in\N$, on note $N$ le nombre de ses diviseurs, et $\Pi$ le produit de tous ses diviseurs, alors on a la belle relation :
$$\Pi=n^{\frac{N}{2}}$$.
Merci Borde, pour cette réponse. Je remaque en effet le $\pi$ dans la formule. Mais il faut que je l'étudie, je ne la connaissais pas. Ni l'une, ni l'autre d'ailleurs.
En outre, j'ai toujours travaillé sur [1;+$\infty$], en ce qui concerne $\zeta$, bien que je sache qu'elle est défini en tout complexe de partie réelle strictement plus grande que 1. Donc avant de me plonger dans ces deux formules, j'ai un peu de travail...
On montre de plus que $\zeta$ se prolonge analytiquement dans $\C$ en une fonction méromorphe ayant pour unique singularité un pôle simple en $s=1$ (de résidu égal à $1$). Lorsque $s \in \C$ tel que $\Re s >1$, $\zeta(s)$ coïncide avec la somme traditionnelle $\sum_{n=1}^{\infty} n^{-s}$ (mais, bien sûr, en-dehors de ce demi-plan, $\zeta(s)$ ne se représente plus ainsi).
Borde.
Et j'avoue que je ne sais pas trop ce qu'est une foction méromorphe. Je ne suis qu'en début de "L3", et je n'ai pas encore commencé les cours ; c'est d'ailleurs pour cette raison que je suis souvent sur ce forum : les maths me manquent terriblement!!! :-)
A mon avis, cela ne saurait tarder...
Good luck,
Borde.
C'est fou tout ce qu'on peut faire a partir de ca...
En ce qui concerne la décomposition de Dunford, c'est vrai qu'il s'agit là d'un résultat fantastique! En plus, la démonstration est abordable, à condition de ne pas avoir peur des sous espaces caractéristiques...
$$displaystyle{\sum_{n=1}^{\infty} \frac{sin(n)}{n} = \sum_{n=1}^{\infty} \frac{sin(n)^2}{n^2}}$$
et le même résultat, {\bf LE MÊME}, avec des intégrales :
$$\displaystyle{\int_{1}^{+\infty} \frac{sin(t)}{t} dt = \int_{1}^{+\infty} \frac{sin(t)^2}{t^2} dt}$$.
Le fait de retrouver exactement la même chose en discret et en continu m'épate.
Il me semble bien plus pertinent de distinguer les résultats qui ont de nombreuses conséquences dans des domaines variés comme par exemple le théorème des valeurs intermédiaires, la formule de Cauchy, le lemme de Poincaré ou encore le théorème de Riesz.
En toute sincérité,
Victor-Emmanuel.
Bon ce que je dis n'a sûrement pas grand intêret (interêt ?) et vu l'heure tardive je ferais mieux d'aller me coucher !
apophtegme de D. Hilbert au sujet d'un de ses etudiants qui avait abandonne les maths pour la poesie.
Un nouveau résultat que je trouve intéressant :
Si H est un hyperplan de Mn(R), alors H contient au moins une matrice inversible.
Une démonstration consiste à prendre f forme linéaire dont H soit le noyau, et étudier l'ensemble des matrices dont l'image par f est >0, puis celles dont l'image est <0.
Ce qui me fait drôlement penser au théorème des valeurs intermédaires : si dans GLn(R), il existe M tq f(M)<0 et N tq f(N)>0, alors ...
Problème : GLn(R) n'est pas connexe, sinon son image par l'application continue det le serait ; or R* n'est pas connexe!
En revanche dans Mn(C), une telle démo doit être possible!
Je trouve ça joli! :-)
Dans Mn(R) sinon je considère les matrices nilpotentes qui sont dans H. Et cette démo a, il me semble, un copyright à présent! ;-)
$$\Gamma(s)\zeta(s)=\int_{0}^{infty} frac{t^{s-1}}{e^{t}-1}$$
Un changement de variable permet d'ailleurs d'obtenir,
$$\zeta(3)*6=\int_{0}^{infty} frac{(ln t)^{2}}{(t-1)t}$$
Et personnellement, puisque je trouve surprenant que l'on n'aie aucune egalite concernant zeta(3) qui soit "aussi parlante" que zeta(2)=(pi^2)/6, j'aime bien toutes les egalites concernant zeta(3)...
De plus, l'integrale de droite parait calculable par le theoreme des residus, si c'etait le cas on aurait une ,magnifique egalite concernant zeta(3)....
$\frac{n^{x}n!}{x(x+1)...(x+n)}$ qui tend vers $\Gamma(x)$ quand $n$ tend vers $+\infty$, peut-on montrer facilement la formule des compléments?
effectivement à partir de cette limite on peut trouver la formule des compléments de Gamma
on part en fait de la définition de Gamma sous forme de produit infini donnée par Weierstrass
et déduite de la limite que tu indiques ($\gamma$ est la constante d'Euler)
$\frac{e^{-\gamma.x}}{\Gamma(1+x)} = \frac{1+x}{exp(x)}\frac{1+x/2}{exp(x/2)}......\frac{1+x/n}{exp(x/n)}......$
si on change x en - x on obtient un autre produit infini et si on multiplie les deux produits infinis
(la convergence ne pose pas de problème) il vient:
$\frac{1}{\Gamma(1+x).\Gamma(1-x)}=(1 - x^2)(1 - \frac{x^2}{2^2}).......(1 - \frac{x^2}{n^2}).........$
on a reconnu au second membre le produit eulérien de $\frac{sin\pi.x}{\pi.x}$
d'où : $\frac{sin\pi.x}{\pi.x} = \frac{1}{\Gamma(1+x).\Gamma(1-x)}$
et puisque $\Gamma(1+x)=x.\Gamma(x)$ il vient la formule des compléments
cordialement
Sylvain
$\displaystyle \zeta(3).6=\int_{1}^{+ \infty} \frac{(\ln t)^{2}dt}{(t-1)t}$
et je te conseille Gradshtein et Ryzhik (le GR) pour savoir si cette intégrale est calculable mais:
$$ \int_{1}^{+ \infty} \frac{(\ln t)^{2}}{(t-1)t}dt = \int_{1}^{+ \infty} \frac{(\ln t)^{2}}{t-1}dt - \int_{1}^{+ \infty} \frac{(\ln t)^{2}}{t}dt$$
et $ \displaymath \int_{1}^{+ \infty} \frac{(\ln t)^{2}}{t}dt$ se calcule facilement mais je doûte que la lumière se fasse sur $\zeta(3)$.
ta première intégrale avec le produit Gamma(s).Zéta(s) est correcte
par contre la seconde avec s=3 est fausse;
en fait après changement de variable on obtient:
2.Zéta(3)=intégrale de 0 à 1 de ln²t.dt/(1-t)
comme le dit gilles benson la méthode des résidus ne permet pas de trouver un résultat numérique avec les constantes classiques
Z(3) (comme d'ailleurs Z(5), Z(7)....) est bien présente en calcul intégral
mais ce calcul intégral ne permet pas de l'expliciter
cordialement
Après tout, on ne peut guère donner d'autre expression simple de ln(2) que...ln(2). Peut-être en est-il de même de Zeta(3) ?