Popoviciu
Une question que je me suis posée sous la douche ce matin et dont j'ai trouvé la réponse sur Wikipedia.
On a envie de dire que la loi de Bernoulli $B(\frac{1}{2})$ est la moins déterministe de toutes les variables à valeurs dans $[0;1]$.
Est-il vrai que cette loi est la seule sur $[0;1]$ à avoir une variance $\ge \frac{1}{4}$ ?
(questions intermédiaires en photo jointe)
On a envie de dire que la loi de Bernoulli $B(\frac{1}{2})$ est la moins déterministe de toutes les variables à valeurs dans $[0;1]$.
Est-il vrai que cette loi est la seule sur $[0;1]$ à avoir une variance $\ge \frac{1}{4}$ ?
(questions intermédiaires en photo jointe)
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Et t'as pris cette photo dans le miroir de ta salle de bain ? :-P
Faudra quand même m'expliquer comment c'est possible d'inverser une image sans le faire exprès.
Et le titre, je ne comprends pas non plus. :-S
(Après, c'est vrai que certaines lettres retournées, font un peu bizarre à la tête :)o)
-- Non, non, je ne plaide pas l'accident, c'est de l'anti-divulgâchage !)
Ou alors c’est le livre qui a fait un selfie.
De toute façon, la variance n'est pas la bonne mesure du caractère "aléatoire" d'une v.a., elle mesure plutôt sa dispersion géométrique. Mieux vaut utiliser l'entropie (cf web; voir aussi la divergence de Kullback-Leibler et les théorèmes de Gibbs et de Sanov). L'entropie maximale d'une variable aléatoire sur $[0,1]$ par rapport à la mesure de Lebesgue est atteinte pour une variable aléatoire uniforme par exemple.
PS: À un moment j'ai pensé que Popovicu pouvait être le verlan de je sais pas quoi... Mais d'accord, maintenant je sais que c'est une personne.
Personnellement j'appelle formule de König-Huygens la formule selon laquelle pour tout trinôme $t(x)$ avec $\deg(t)=2$ pour de vrai 2, pas 1 ni 0 !, on a
$$\frac{t''(0)}{2} \cdot \text{var}(X) = E[t(X)] - t(E[X])$$
C'est joli comme les commutateurs de ma jeunesse !
Montrer que, pour tous événements $A,B$, on a $\left| P(A \cap - P(A) \times P(B) \right| \leqslant \frac{1}{4}$.
On peut changer les images en les renversant (symétrie axiale horizontale ou verticale) et aussi les tourner (rotation).
$0\leq \mathbb{E}(X(1-X))=m(1-m)-\sigma^2\leq \frac{1}{4}-\sigma^2.$$ Ce mathematicien a d'autres titres de gloire, on souhaite.
Dans cet article, la référence à Popoviciu est [4], cité comme un « preprint » en 2000, mais je pense que ce texte se trouve dans :
R. D. H. Heijmans, D. S. G. Pollock, A. Satorra (Eds), Innovations in Multivariate Statistical Analysis, A Festschrift for Heinz Neudecker, Springer, 2000 https://link.springer.com/book/10.1007/978-1-4615-4603-0
Si je ne me trompe, c'est le premier texte de ce recueil : Gülhan Alpargu, George P. H. Styan, Some Comments and a Bibliography on the Frucht-Kantorovich and Wielandt Inequalities, pp. 1-38.
Bonne après-midi.
Fr. Ch.
Popoviciu, Sur Les Équations Algébriques Ayant Toutes Leurs Racines Réelles, Mathematica (Cluj) 1935 9:129–145.
On en trouve ici des références :
https://en.wikipedia.org/wiki/Talk:Popoviciu's_inequality_on_variances
https://scholar.google.ro/citations?user=O9xaR74AAAAJ&hl=en
http://math.ubbcluj.ro/~mathjour/cont09-1935.html
Mais malheureusement je n'arrive pas à trouver le texte de cet article.
Bonne après-midi.
Fr. Ch.
Soient $X,Y$ deux variables telles que $0\le X,Y \le 1$.
Alors $- \frac{1}{4} \le \text{cov}(X,Y) \le \frac{1}{4}$, et cet encadrement est optimal des deux côtés.
Bhatia et Davis auraient mieux fait de nous parler de cette version sans majorer uniformément par $\frac{1}{4}$, plutôt que de fanfaronnner sur leurs $C^*$ algèbres, je trouve !