Moindre action, entropie maximale etc.
Bonsoir,
Une fois que Christophe aura bien digéré non pas son repas au restau promis dans le fil sur le théorème de Noether mais les explications de Cyrano qui y figurent, pourra-t-il me dire si le principe de moindre action et le principe d'entropie maximale sont deux cas particuliers d'un principe général d'optimalité ? Je pose la question car en physique l'entropie ne peut qu'augmenter au fil du temps, hors [or] les maths ne sont pas soumises au temps donc peuvent être vues comme "la physique à la fin de l'univers" quand le passage du temps ne change plus rien (et donc on retrouve un paramètre continu dont la valeur n'a aucune incidence sur la valeur d'une fonction qui en dépend).
Merci d'avance et bonne nuit.
Edit : merci AD d'avoir corrigé cette énorme faute qui me couvre de honte. Je ne me ferai pas seppuku mais ne suis quand même pas fier sur ce coup.
Une fois que Christophe aura bien digéré non pas son repas au restau promis dans le fil sur le théorème de Noether mais les explications de Cyrano qui y figurent, pourra-t-il me dire si le principe de moindre action et le principe d'entropie maximale sont deux cas particuliers d'un principe général d'optimalité ? Je pose la question car en physique l'entropie ne peut qu'augmenter au fil du temps, hors [or] les maths ne sont pas soumises au temps donc peuvent être vues comme "la physique à la fin de l'univers" quand le passage du temps ne change plus rien (et donc on retrouve un paramètre continu dont la valeur n'a aucune incidence sur la valeur d'une fonction qui en dépend).
Merci d'avance et bonne nuit.
Edit : merci AD d'avoir corrigé cette énorme faute qui me couvre de honte. Je ne me ferai pas seppuku mais ne suis quand même pas fier sur ce coup.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Mais après il faut travailler. La preuve que l'identité est constante sur F2 en dérivant formellement le polynôme X^2 ne risque pas de te rapporter un prix Nobel en l'État, mais ça dit quelque chose probablement.
A la "fin de l'univers" (en supposant une fin assez lointaine), la physique prédit un désordre total (entropie maximale) : les maths sont-elles un désordre de ce type ou plutôt...le contraire ?
Il faudrait donner plus de sens/cohérence à ta question. Tu sembles confondre "atemporel" et "à temps infini".
Bien sûr, ça n'empêche pas Cc de répondre.
Oui, comme dériver toutes les vitesses possibles et imaginables en physique relativiste et y voir à chaque fois une valeur physique ("observateur en temps propre") derrière...
Il reste à prouver que les maths dépendent du réel (ce n'est pas exclu mais 99.999% des pros pensent que 19 sera encore un nombre premier dans 5000 ans et que la preuve de la transcendance de pi existait déjà en -3000 avant JC même si personne ne l'avait encore écrite)
Par ailleurs parler de désordre est assez trompeur. Le démon de Maxwell illustre une finesse plus en amont. Sans Carnot on n'a rien de probant en fait. Seule la frontière singulière de Carnot avec peu d'hypothèses est probante. Et pour tuer le démon de Maxwell il faut que les milieux soient continus.
Évoquer Boltzmann est donc très "scienceetvisque" mais assez stérile (le milieu continu qui rend Boltzmann pertinent est celui du nuage d'indétermination quantique) et montre un manque de pratique de la thermodynamique (bon j'enfonce une porte ouverte on te connaît tu n'es pas avare de messages :-D )
Que l'entropie soit maximale et constante à la fin de l'univers (devenu alors une sorte de gaz isolé gigantesque) ne signifie pas que les événements ne dépendent plus du temps. Tu peux encore avoir par exemple des trajectoires variées de particules chaotiques, qui sont fonction du temps...
Les résultats de Boltzmann sont juste des résultats de probas en bonne et due forme ...
Par contre , en ce qui ME concerne je visais à signaler tout à fait autre chose: je précise donc.
1/ La thermodynamique N'est pas une théorie dite "fondamentale". Son statut est d'être "à toute fin pratique". D'où utilisation des statistiques.
2/ Boltzmann DEVIENT BIEN FONDAMENTAL mais SEULEMENT EN TQ où ça a un vrai sens absolu de perdre une information (en TQ elle disparaît au sens propre indépendamment de tout observateur elle n'est pas juste ignorée c'est dans le formalisme, il y a remplacement et non pas addition)
3/ Il est important de bien comprendre QU'AUCUN théorème de physique ni aucune loi physique n'établit le slogan "l'entropie monte". C'est un constat bête et méchant que l'on fait et qui est MYSTERIEUX. La plupart des physiciens disent que c'est parce qu'on est parti d'un univers Très ordonné. Autrement dit l'entropie ne monte ACTUELLEMENT que parce qu'on est à BASSE entropie. C'est une variable de "constat". Je rappelle que les lois de la physique sont REVERSIBLES (l'histoire du monde passée à l'envers respecte TOUTES les lois de la physique. Suffit juste de remplacer i par -i)
4/ La théorie de Boltzmann a l'avantage d'être simplissime (on met juste un log pour ne pas avoir des nombres trop grands) MAKS TROMPEUSE puisque seule la TQ dit qu'il y a "un nombre fini" de "configurations"
5/ Elle s'applique très mal à autre chose que des fluides perçus (et c'est discutable) comme à la période prequantique. Mais elle marche très bien post quantique (le paradigme quantique à tout fluidifié en quelque sorte :-D)
6/ Les thermodynamiciens ne l'utilisent que théoriquement pour des calculs de valeurs. Mais la bonne approche est celle de Carnot.
7/ L'un des petits cours de Feynman est limpide dur ce chapitre (et il range gentiment Boltzmann dans un paragraphe discret et raisonne complètement avec Carnot.
Dit comme ça c'est incorrect : Boltzmann utilise des probabilités classiques, qui admettent aussi bien les pertes "absolues" d'information (au sens quantique) que celles résultant de notre ignorance (les probas classiques ne présupposent rien là-dessus dans leurs axiomes).
Pardon, mais...encore plus faux. C'est justement la théorie de Boltzmann qui démontre, à partir de la statistique, la validité de la formule d'augmentation de l'entropie macroscopique d'un système (due à Clausius, pas Carnot) :
$$dS = \frac{\delta Q}{T} > 0$$
($dS$ est la variation d'entropie, $\delta Q$ la chaleur échangée, $T$ la température).
Prends un gaz dans une boîte séparée par une cloison en deux compartiments égaux A et B. Le gaz est supposé dans A à l'état initial $t_0$, alors que B est vide. Boltzmann va alors compter le nombre $\Omega$ de complexions ou états microscopiques possibles du système, au sens où chaque particule est soit dans A, soit dans B. Au temps initial, $\Omega = 1$. Une fois ouvert le passage, l'équilibre se fait au bout d'un temps $t$ assez grand. Pour $N$ particules, on aura $\Omega = 2^N$ possibilités, c'est-à-dire, si $N$ est grand, énormément plus d'états possibles où le gaz s'est diffusé dans A et B que d'états où il n'est que dans l'un des compartiments (comme en $t_0$). C'est de la pure statistique.
A partir de là, Boltzmann va réussir à relier via un logarithme le nombre de complexions $\Omega$ du système à son entropie macroscopique $S$ (déjà définie par Clausius) : $S = k_B\ln \Omega$, où $k_B$ est la constante de Boltzmann.
L'augmentation d'entropie n'est alors plus un "constat" mais une démonstration à partir d'axiomes simples de statistique.
Ce n'est pas la théorie quantique mais...un résultat de base en dénombrement qui dit qu'un gaz à nombre fini de particules "incassables" doit avoir un nombre fini d'états possibles au sens du nombre de complexions (voir ci-dessus).
Rappel : pour $N$ particules, il y a $\Omega = 2^N < +\infty$ possibilités (chaque particule est soit dans A, soit dans B, à l'équilibre). Où vois-tu que la MQ donne un "nombre fini de configurations" ? Tu confonds peut-être avec le phénomène de quantification (le fait qu'une particule par exemple prenne des valeurs discrètes d'énergie en MQ, mais là encore, "valeurs discrètes" d'une grandeur ne signifie pas "valeurs en nombre fini").
Que veux-tu dire par là ? Carnot ne connaissait pas la notion d'entropie et n'en a jamais proposé aucune formule, même s'il a pressenti (1832) l'importance de minimiser les pertes de chaleur pour maximiser le rendement (ou rapport travail fourni/chaleur apportée) de sa machine motrice. Ce phénomène ne sera théorisé que plus tard (vers 1854) par Clausius, avec la définition de l'entropie (irréversibilité propre à la chaleur et non au travail) et le second principe de la thermodynamique.
Tu n'arrives toujours pas à renoncer à l'idée qu'il serait indispensable qu'il existe une sorte de force qui contraindrait la nature à "se compenser" car "sinon" les pièces "n'auraient pas 50% de pile mais 35%, 82%" etc (énoncés analogues avec des dés, ou des gaz à l'équilibre ou ce que vous voudrez).
C'est un peu cette erreur que commettaient les anciens quand ils pensaient que la chaleur est un fluide (à leur corps défendant ils n'avaient aucun moyen d'investigation physique, il a fallu des siècles pour comprendre ce qui se passe).
Les probas n'étudient pas des phénomènes causaux (et n'ont jamais prétendu le faire) mais décrivent des raretés de certains arrangements du réel.
Le gaz rentre spontanément dans 10% du volume de l'enceinte après un temps moyen de 10^(100^100000) ans (au pif) et il n'y a plus de paradoxe. Pareil pour la blague du démon de Maxwell ou de l'oeuf cassé qui retourne dans sa coquille. Tout est affaire d'ordres de grandeur de durée.
Dans la même veine en fait l'entropie n'augmente pas sauf sur des périodes courtes (devant 10^100^1000 mais quand même très longues par rapport à une vie humaine).
On peut définir l'entropie pour des densités.
Soit $(X,\mathcal A,\mu)$ un espace mesuré et $f: X \to \R_+$ intégrable telle que $\int_X fd\mu = 1$. Alors on définit l'entropie comme étant le nombre $S(f):= \int_{u \in X} -f(u)\log \left ( f(u)\right) d\mu(u)$.
En fait $\mu$ est l'unité de volume de $X$ et $H$ mesure la dispersion de $f$ (par ex- avec $\mu(X)$ fini, $H(f)$ va être maximal et égal à $\log \left (\mu(X) \right)$ si et seulement si $f$ est constante, $S(f)$ est petit lorsque $f$ est très concentrée; si $N$ est grand les parties de $X^N$ qui ont un volume le plus petit possible au sens de $\mu^{\otimes N}$ mais quasiment égal à $1$ au sens de $f$, ont un $\mu$-volume dont le log est environ égal à $NS(f)$ etc).
Je ne comprends pas pourquoi tu mets le démon de Maxwell dans le même groupe que les arguments de [Poincaré?] sur le retour périodique du gaz. D'un PC je rappellerai ce qu'est la contine du démon de Maxwell.
Je pense que tu te trompes sur comment tu perçois ma position sur le chaos déterministe. Ce n'est pas que "je n'arrive pas à renoncer à" c'est juste que je rappelle une ABSENCE DE DEDUCTION à tel ou tel endroit des argumentation. C'est toi qui ne sembles pas vouloir "brusquer" les formalismes.
Entièrement d'accord avec tes maths mais pas d'accord avec tes interprétations.
Mais surtout: il manque un paramètre ce qui est un peu plus embêtant car la TEMPÉRATURE est une variable importante. Or rien n'oblige sans autre hypothèse à penser que la température va monter quand on va forcer les petits gremlins à tenir dans un enclos 10 fois plus petit (les forces de réaction ne travaillent pas, le rebond sur une paroi se décrit par des vecteurs à énergie (qui n'est pas orientée) constantes). La température N'EST PAS l'énergie (somme des énergies cinétiques des gremlins inconnus cognant dur les parois). Pour accéder vraiment à l'entropie il faut préciser si on les a vite ou doucement changés d'enclos car ça impacte sur l'énergie potentielle qu'on a fourni pour se faire en appuyant sur la paroi MAIS SURTOUT attribuer aux gremlins des TEMPERAMENTS: Plus ils ont tendance ENTRE AUTRE à se cogner les uns dans les autres sans se passer à travers avec accompagnement d'énervement (ils ne s'aiment pas les uns les aurres) , plus une énergie qu'on a livré à 3euors le joule va être complètement perdue pour nous. (Les profs bordelises le savent). Et comme pour respecter la.conservation on va devoir le mettre dans le tableau comptable on va estimer qu'une température à augmenté (et c'est confirmé par les faits).
MAIS ON NE PEUT PAS LAISSER LE LECTEUR CROIRE qu'on accède à la notion d'entropie par de la statistique basique dur des points matériels abstraite indivisibles.
Mon positionnement est strictement logique (je rappelle où des hypothèses sont faites ou encore de manière équivalente où des trucs ne sont pas A PRIORI pour ce que j'en sais DÉDUITS du reste. )
Ce n'est pas vraiment en rapport avec la discussion mais ça fait toujours ça de culture générale en plus pour briller en dîners mondains.
Il existe des phénomènes physiques qui violent l'invariance par symétrie du temps :
Un article de vulgarisation : https://physicsworld.com/a/babar-makes-first-direct-measurement-of-time-reversal-violation/
L'article arxiv : https://arxiv.org/pdf/1410.1742.pdf
La même chose existe pour les symétries de charge et d'orientation.
Je suis quand même obligé de signaler aux lecteurs intéressés (mais tu m'as sous entendu toi même) qu'il n'y a aucune VRAIE brisure de symétrie dans ces exemples.
En effet la TQ repose sur l'utilisation des nombred complexes et "un oeil binaire" repondant oui à U et non aux vecteurs orthogonaux à U attribuera au vecteur V la "aproba" x+iy de lui être égal alors que en intervertissant V et U on obtient x-iy.
Ce n'est pas symétrique!!! Des le fondement théorique. (Ça a juste le même module, mais les probas réelles ne conviennent pas à la TQ, je ne comprends d'ailleurs toujours pas pourquoi on les garde ça induit des malentendus)
Par la théorie (c'est un théorème pas un axiome de plus) est bien symétrique (hors RO of course) par rapport au temps quand on change i en -i.
Exemple: quand U se souvient de V on obtient bien le conjugué de quand V se souvient de U
1.1/ A l'arrivée, ie après Boltzmann, c'est juste (le log de)
$$Entropie(A) := card(\{X\mid ApparenceDe(X) = A\})$$
Comme on gère des grands nombres, on prend le log de ça.
En particulier, si $A,B$ sont deux apparences indépendantes, on a :
$$Entropie( (A*B) )=Entropie(A)\times Entropie(B)$$
car on traduit "indépendantes" par
$$\forall X\in ApparenceDe(A), \forall Y\in Apparence(B): (X,Y)\in ApparenceDe(A*B)$$
l'autre inclusion étant une hypothèse beaucoup plus en amont, et l'opération $*$ étant là pour mettre un signe, rien de plus, et qui est souvent traduit par "et" dans la vie populaire.
1.2/ Attention, dans les livres académiques, vous lirez un signe $+$, car on a pris le log. Mais fondamentalement, on joue avec des nombres entiers (même si foys a introduit une mesure de l'absence de grumeaux dans la pâte à crêpes) et que ce n'est fondable sérieusement que quantiquement.
2/ Très bien. Mais que s'est-il passé avant et pourquoi jouer à ça?
2.1/ Tout le monde ou presque est d'accord qu'il n'est pas si facile (on a même créé un loi de la Nature pour dire que c'est impossible, sauf chemin ultraparticuliers) de modifier une forme d'énergie en une autre. Et d'ailleurs, si ces modifications étaient "à discrétion", on pourrait carrément créer de l'énergie (je vous passe les détails) à partir de rien en un certain sens à cause de la non invariance de l'énergie par rapport au repère où on regarde.
2.2/ La "vraie loi constatée et populaire" n'est non pas "l'énergie se conserve", mais bel et bien "l'énergie va en diminuant"***
2.3/ Le moment où c'est le plus facile de le voir, c'est face à deux récipients dotés d'un conduit qu'on peut ouvrir ou fermer. Jouons à Gainsbourg, brulons des billets de banque. On a un récipient A contenant 1000000 joules à 100 degrés et un autre B contenant pareil, mais à 10 degrés. Ouvrons le conduit, laissons de l'énergie circuler et refermons-le. Disons que 50 joules sont passés.
2.4/ Tout le monde pariera qu'elle a circulé de A vers B. Si on suppose que le conduit est totalement hermétique et peut juste être ouvert ou fermé, ce qu'on vient de faire est en pure perte: on vient de perdre bêtement 50 joules
2.5/ C'est juste de là que vient la pertinence de la notion d'entropie: on estime que les 50 joules qui étaient initialement à 100 degrés viennent "d'être perdus" en étant jetés dans une poubelle à 10 degrés qui les a récupérés. L'unité d'entropie permet (en négligeant le réchaouffement de B et le refroidissement de A) de dire que notre action a couté, dans le sens "a fait augmenter l'entropie de" 0.555 joules par degré environ.
3/ Comment réunir la notion informationnelle et "quantique qui ne s'avoue pas" de Boltzmann avec la création d'une unité de mesure que je viens de faire?
3.1/ C'est des maths. En prenant le log dans le paragraphe1, on obtient une hypothèse assez proche de la forme
$$ \forall x,y: f(x+y) = f(x)+f(y)$$
3.2/ En intégrant dans le paragraphe2, on va obtenir essentiellement
$$ \forall x,y: g(x+y) = g(x)+g(y)$$
3.3/ Des hypothèses de continuité, etc, en tout genre, conduiront alors déductivement en : [large]$f=g$[/large], enfin plus précisément $f$ est proportionnelle à $g$ et on va créer une constante de la physique pour désigner $f/g$
4/ Mais attention: ça ne démontre en rien que l'entropie monte. Ca a même tendance à prouver "in some sense" qu'elle est constante, en exagérant. Par exemple, un piston basé sur un gaz parfait se comportera de manière théoriquement réversible en utilisant $PV = nRT$ (l'entropie du gaz ne variera pas)
*** l'énergie UTILE va en diminuant et la température augmente (provisoirement)
http://www.les-mathematiques.net/phorum/read.php?16,1700134,1700820#msg-1700820
Attention, le paramètre de la température est parfaitement bien inclus dans la formule d'entropie de Boltzmann : le nombre de complexions $\Omega$ tient compte à la fois du volume et de la température macroscopiques (il s'agit simplement au niveau microscope de six degrés de liberté accordés à chaque particule pour définir sa complexion).
Les approches microscopique de Boltzmann et macroscopique de Clausius pour l'entropie sont tout à fait compatibles (c'est à la base de la thermodynamique) et c'est la première qui a justifié physiquement la seconde (les physiciens recherchent naturellement à poser leurs axiomes dans "l'infiniment petit").
Je n'ai pas trop le temps mais le reste de tes propos est également très discutable (au bas mot, pour rester gentil).
Je préciserais pour la physique une fois sur un PC.
De mon téléphone.
Je reviens afin de te donner quelques éléments de réflexion. Comme je disais, on peut passer de l'entropie $S$ de l'équation de Boltzmann (fonction de grandeurs microscopiques comme la position r et la vitesse v des particules), $S = k_B \ln \Omega$, à une entropie fonction de grandeurs macroscopiques - l'énergie interne $U$ (somme des énergies cinétiques de toutes les particules), la température $T$ (mesure de l'agitation des particules, intimement liée à $U$) et le volume $V$ : c'est l'entropie au sens de Clausius.
1) L'approche microscopique fait intervenir 6 degrés de liberté par particule (3 de position + 3 de vitesse), d'où $6N$ degrés de liberté au total pour un gaz de $N$ particules.
2) L'approche macroscopique quant à elle n'utilise que 3 degrés de libertés : $U$ ou $T$, $V$ et $N$.
Pour justifier l'approche 1) à partir de l'approche 2), il faut réussir à exprimer le nombre de complexions $\Omega$ (nombre d'états microscopiques possibles du système) à l'aide de grandeurs macroscopiques.
C'est ce que réalise l'équation générale dite de Sackur-Tetrode (1912) :
$$S = Nk_B \left[ \ln \left(\frac{V}{N} \right) + \frac{3}{2}\ln \left(\frac{U}{N} \right) + \frac{3}{2}\ln \left(\frac{4\pi m}{3 h^2} \right) + \frac{5}{2} \right]$$
où $h$ est la constante de Planck, $m$ la masse de chaque particule.
Les deux derniers termes tiennent compte des caractéristiques internes "fixes" des particules et du principe d'incertitude de la mécanique quantique : elles ne dépendent pas des grandeurs macroscopiques. L'approche purement statistique de Boltzmann, ignorant ces caractéristiques, avait conduit à :
$$S = Nk_B \left[ \ln \left(\frac{V}{N}\right) + \frac{3}{2}\ln \left(\frac{U}{N}\right) + s_0\right] \quad (1)$$
où $s_0$ est une constante non déterminée jusqu'à Sackur et Tetrode, mais prédite par Boltzmann. Elle prend en compte le volume élémentaire sur lequel discrétiser l'espace des phases (position et vitesse des $N$ particules) : $V_0$ pour la position et $U_0^\frac{3}{2}$ pour la vitesse, constantes laissées inconnues par la physique classique (non quantique). Ces constantes sont nécessaires pour a-dimensionner les nombres de complexion.
Je ne détaille pas la démonstration un peu longue de $(1)$ (mais qui ne fait intervenir que des distributions statistiques classiques, dites de Boltzmann-Maxwell, des particules suivant leurs énergies, ainsi que des opérations de pur dénombrement).
Remarquons simplement que l'équation $(1)$ s'obtient entièrement à l'aide de la formule d'entropie de Boltzmann $S = k_B\ln \Omega$.
En effet, faisons d'abord apparaître à partir de la constante $s_0$ les volumes des phases élémentaires $V_0$ et $U_0^\frac{3}{2}$ respectivement pour la position et la vitesse d'une particule, en définissant une nouvelle constante $s'_0$ par : $s_0 = \ln s'_0 - \ln V_0 - \frac{3}{2}\ln U_0$.
Alors $(1)$ est équivalente à :
$$S = k_B \ln \left[ \left(\frac{V}{NV_0} \right)^N \right] + k_B \ln \left[ \left(\frac{U}{NU_0} \right)^{\frac{3N}{2}}\right] + k_B \ln \left(s'^N_0 \right)$$
qui peut s'écrire :
$$S = S_V + S_T + S_0\quad (2)$$
où $S_V = k_B \ln \Omega_V$, $S_T = k_B \ln \Omega_T$ et $S_0 = k_B \ln \Omega_0$.
Or, on peut montrer que $S_0=0$ grâce au 3ème principe de la thermodynamique (l'entropie est nulle à la température du zéro absolu ou $0 K$) : en effet, à $0 K$ toutes les entropies sont nulles car tout mouvement microscopique est littéralement "figé", soit $S=S_V = S_T=0$, d'où la valeur de la constante $s'_0=1$ et :
$$S = S_V + S_T\quad (2')$$
L'équation $(1)$ est donc équivalente à
$$S = k_B \ln \left[ \left(\frac{V/N}{V_0} \right)^N \right] + k_B \ln \left[ \left(\frac{U/N}{U_0} \right)^{\frac{3N}{2}} \right] \quad (1')$$
L'essentiel est de reconnaître dans les deux sous-entropies respectives du système, $S_V$ et $S_T$ (obéissant à l'équation de Boltzmann), les nombres de complexions : $\Omega_V = \left(\frac{V/N}{V_0} \right)^N$, lié au volume, et $\Omega_T = \left(\frac{U/N}{U_0} \right)^{\frac{3N}{2}}$, lié à la température.
Chacun d'entre eux exprime au niveau microscopique le nombre d'états possibles à l'équilibre de $N$ particules identiques où chacune aurait $\frac{V/N}{V_0}$ possibilités pour sa position, et $\left( \frac{U/N}{U_0} \right)^{\frac{3}{2}}$ possibilités pour sa vitesse dans les trois directions de l'espace.
En effet, tout se passe comme si à l'équilibre chaque particule avait à sa disposition un volume $V/N$ dont elle ne peut plus sortir (c'est-à-dire que les $N$ particules se partagent équitablement le volume total $V$). Or, chacun de ces petits volumes est composé de volumes élémentaires $V_0$, ce qui fait bien $\frac{V/N}{V_0}$ possibilités pour la position de la particule.
Même raisonnement pour la vitesse : on distribue à l'équilibre l'énergie interne $U$ entre les $N$ particules, on élève à la puissance $3/2$ pour avoir un volume de vitesses (dans l'espace 3D des vitesses), enfin on divise le résultat $(U/N)^\frac{3}{2}$ par le volume de vitesses élémentaire $(U_0)^\frac{3}{2}$.
Le nombre total d'états possibles des $N$ particules est alors (en respectant leurs degrés de libertés) : $\Omega = \Omega_V. \Omega_T$.
Il est alors facile de voir (règle de linéarisation des produits par les logarithmes) que :
$$S = k_B \ln (\Omega) = k_B \ln \left(\Omega_V.\Omega_T \right) = S_V + S_T$$
où l'on reconnaît l'équation $(2')$.
Sachant que l'on a la relation : $$U = 3N<\frac{1}{2}m v_x^2> = \frac{3}{2}N k_B T$$ (issue du théorème d'équipartition de l'énergie interne par degré de liberté), on peut aussi exprimer $U$ en fonction de la température :
$$S = Nk_B \left[ \ln \left(\frac{V}{NV_0} \right) + \frac{3}{2}\ln \left(\frac{3}{2U_0} k_B T \right) \right] \quad (3)$$
A présent, on peut montrer que cette relation est équivalente à la relation macroscopique de Clausius pour la variation d'entropie totale d'un gaz parfait lors d'une réaction réversible :
$$dS = \frac{\delta Q}{T} \quad (4)$$
L'entropie étant une grandeur extensive, on peut toujours se ramener à ce cas réversible pour calculer la variation d'entropie d'une transformation quelconque (réversible ou non).
D'après le second premier principe de la thermodynamique, la variation d'énergie interne est égale à la somme du travail et de la chaleur échangés par le système :
$$dU = \delta W + \delta Q$$
Par ailleurs, on sait que pour une transformation réversible :
$$\delta W = -PdV$$
En effet, la pression $P$ du gaz est une force surfacique $F/S$ travaillant lorsque le volume varie : la force $F$ est d'intensité égale mais de sens opposé à la force $F_{ext}$ due à la pression extérieure $P_{ext}$ dans le cas réversible. D'où le travail des forces extérieures sur le gaz parfait : $\delta W = P_{ext}dV = -PdV$.
Ainsi, $(4)$ est équivalente à :
$$dS = \frac{P}{T}dV + \frac{1}{T}dU \quad (5)$$
Maintenant, pour retrouver $(5)$ (entropie de l'approche macroscopique), nous allons différentier $(1)$ (entropie issue de l'approche microscopique), d'où :
$$dS = Nk_B \left[ \frac{dV}{V} + \frac{3}{2} \frac{dU}{U} \right] \quad (6)$$
Or, d'après ci-dessus : $U = \frac{3}{2}N k_B T$, d'où le second terme de $dS$ dans $(6)$ :
$$\frac{3}{2}Nk_B \frac{dU}{U} = \frac{1}{T}dU$$
Par ailleurs, d'après la loi des gaz parfaits : $$\frac{P}{T} = \frac{nR}{V}$$
où $n = \frac{N}{N_A}$ est le nombre de moles du gaz, $N_A$ la constante d'Avogadro et $R$ la constante des gaz parfaits telle que $k_B = \frac{R}{N_A}$, d'où : $Nk_B = nR$ et, pour le premier terme de $dS$ :
$$Nk_B \frac{dV}{V} = \frac{nR}{V}dV = \frac{P}{T}dV$$
En remplaçant dans $(6)$, on retrouve bien enfin la relation macroscopique $(5)$ :
$$dS = \frac{P}{T}dV + \frac{1}{T}dU$$
Les "deux" entropies sont donc strictement identiques, mais seulement grâce à l'approche atomique de Boltzmann. Comme je l'ai dit, elle permet de retrouver les grandeurs macroscopiques telle que la température $T$ (que tu croyais "réservée" à Clausius/Carnot), d'expliquer pourquoi l'entropie augmente et pour quelle raison l'équilibre du système est atteint à entropie maximale : c'est simplement l'état où il y a le plus de configurations microscopiques possibles, ou complexions $\Omega$ (grâce à la formule de Boltzmann, $dS \geq 0 \Leftrightarrow d\Omega \geq 0$).
A l'équilibre ($dS = 0$), le système devient stable et homogène, au sens où le nombre d'états microscopiques correspondant à son état macroscopique est maximal : il deviendra très "difficile" de faire sortir la Nature d'un tel état à l'aide de petites perturbations (irréversibilité).
Je te laisse avec ça pour l'instant (c'est déjà pas mal). Ne pas hésiter pour toute question.
Édits : précisions sur l’a-dimensionnement des nombres de complexion dans l'équation de Sackur-Tetrode. Justification de leur obtention par dénombrement des états possibles de positions-vitesses des particules. Démonstration de $S_0 =0$. Quelques détails de rédaction.
De plus une de tes dernières phrases semble en attester puisque (malgré le flou qui te caractérise souvent) tu SEMBLES affirmer une irréversibilité là où TRES EXACTEMENT on a une RÉVERSIBILITÉ : (un gaz parfait restitué justement le travail , il se comporte de manière élastique quand on s'en sert comme piston)
Mais surtout plus globalement tu ignores OU VEUX ignorer ce que signifie déduire. Si on pouvait déduire "Boltzmann" de Clausius ça se saurait et réciproquement idem. Encore une fois si ce que tu viens d'écrire était correct c'est un prix Nobel décennal créé spécialement qui te serait attribué l'unanimité.
Tu aurais entre autre relié la physique classique à la constante de Planck et unifié toutes les science à dures (où je rappelle que continu VS discret est affaire d'axiomes et pas des moindre)
Et PAR AILLEURS je rappelle que la perte d'énergie maniable avec le temps n'est pour l'heure PAS PROUVABLE de l'avais de tous. Il faut le supposer.
Les liens entre Clausius et Boltzmann je les ai donné à mon post d'hier matin et on est très loin de "deductions pures"
En reformulant peut être seras tu plus suivable?
Oui, oh tu sais, les préjugés c'est pas ça qui te manque...
Sérieusement, je pense que c'est un domaine où tu as beaucoup de mal, Cc. Mon intention était juste de te donner des éléments de réflexions. Je m'attendais un peu à ta réaction, mais quand même, quelle gratitude...
Il n'existe que certaines conditions très précises (suite très lente et infinie d'états d'équilibre) dans lesquelles la transformation d'un gaz parfait se fait de manière réversible. Tu pensais que c'était un cas général ?
Eh bien, justement ça se sait, Cc. Tant pis pour le découvreur de cette déduction, il n'aura pas eu l'un des tout premiers prix Nobel de physique. C'est vraiment du classique de base de la thermodynamique statistique.
Hum, à ce point ? Alors bravo à Sackur et Tetrode et bien d'autres...
En "décodage" cela donne quoi ?
Oui, effectivement : on en est très très loin...
Sinon, je n'aurais pas besoin d'intervenir autant sur tes posts de physique - même si je n'ose espérer faire mieux en matière de précision que les histoires de "tempérament de greemlins", de conservation de l'énergie in some sense pour compenser la "température" (!), d'"hypothèses de continuité, etc, en tout genre", de jeux avec des nombres entiers qui ne sont "fondable sérieusement que quantiquement" (sic), de gaz parfaits toujours "réversibles si on s'en sert comme d'un piston" (ah bon, quelle que soit la vitesse du piston ?), ou encore de 50 joules de billets verts brûlés jetés à la poubelle (tu aurais dû me les donner)...
Tu connais ma méthode scientifique : si tu n'es pas arrivé à me suivre alors, pas de soucis, mais au lieu de disserter sur tes premières impressions, reprends mon texte et indique-moi la première ligne qui te pose problème.
La première est: Je reviens vers toi afin de te donner quelques éléments de réflexion
Ca veut dire quoi précisément "me donner des éléments de réflexion" si ce n'est pas pour argumenter? Mettre quelques noms savants sur quelques formules???? :-S Est-ce que tu crois que quand on ne connait pas une formule, juste la lire va faire avancer le schmilblick?
La deuxième est: Comme je disais, on peut passer de l'entropie S de l'équation de Boltzmann (fonction de grandeurs microscopiques comme la position r et la vitesse v des particules), S = klnomega, à une entropie fonction de grandeurs macroscopiques
Ca veut dire quoi "on peut passer"? Moi je passe sans problème de 5pesetas à 10^60 euros. J'efface le chiffres 5 et les lettres pesetas et j'écris un 1, un zéro, etc
Ces deux premières lignes "qui me posent problème" sont les deux premières phrases de ton post
Je ne continue, tout est à l'avenant. Il n'y a rien qui distingue ton post d'un dialogue ou monologue de roman de science fiction: des phrases vides, et des formules savantes (probablement recopiées dans des documents fiables). Je ne parle même pas de ton incompréhension de la notion de degrés de liberté (encore un endroit où tu te risque à être précis et où tu chutes) et ta façon de les introduire comme différence entre macro et micro (mais comment tu peux écrire une idiotie pareille alors que probablement ton souci est au moins de donner le change :-S :-S ).
:-S, c'est dingue en plus, même les coquilles de l'auteur original du texte tu les recopies sans recul: exemple collector:
Et je suis TOUT SAUF un expert en thermodynamique!!!!! Faut vraiment y aller pour perdre ma confiance dans un domaine où on a tout à m'apprendre.
Je m'arrête avec une dernière "interprétation" (??) signée par toi Ltav:
Annexe: je voulais écrire "de l'avis de tous" et non "de l'avais de tous"
Rapidement :
- Ta 1ère ligne : les éléments de réflexion c'est pour corriger un peu tes dires précédents, lancer la discussion et jauger à quel niveau je peux discuter avec toi de thermodynamique. Bon, pas trop de surprise, comme le reste (tu n'es pas le seul) : tu t'intéresses à des choses diverses, c'est très bien, mais il faut savoir approfondir de temps en temps, plume à la main et de façon sérieuse. Ce genre de domaines très délicats de la science prennent des semestres, voire des années de formation universitaire et professionnelle. On n'y voit pas que des greemlins ou des démons de Maxwell.
- Ta 2nde phrase : "passer de...à" signifie simplement démontrer mathématiquement une équation d'entropie macroscopique. J'ai donné l'idée de cette démonstration pour que tu puisses ressentir et rechercher par toi-même la fiabilité des préjugés cités dans mon post.
Pour les degrés de liberté et la différence macro/micro : tu plaisantes ? Si tu as besoin de références sophistiquées sur ces notions académiques, il n'y a pas de soucis.
Les deux entropies identiques sont celles de Clausius et de Boltzmann, ce qui augmente c'est cette entropie commune lors de transformations irréversibles : par hasard, j'espère que tu ne croyais pas que je...parlais des bornes $S_1$ et $S_2$ dans $\Delta S$, d'où un nouveau..."paradoxe" ?
J'arrête là.
Bonne journée.
Tu n'as même pas corrigé ta coquille et je soupçonne que tu ne la vois pas.
Ni les lecteurs du forum ni moi ne te disons tout ce que tu révéles de manière "criarde" avec tes notations et je pense ne pas être le seul à croire que tu souffres corporellement je veux dire. Je ne peux même pas me mettre à la place en imagination de quelqu'un qui recopié des formules savantes mais doit ronger son frein en se demandant s'il doit écrire plutôt << ln(2^3)>> ou plutôt << ln(2)^3>> : le mal aux yeux, au dos, aux mains qui résultent de ces corveed n'est en rien négligeable.
La seule "civilisation" que je connaisse qui souffre face à des parenthèses est celle composée des ados français de 15ans en première ES en 2018.
Etc etc. Bref, mon "bonne chance" est sincère et sans arrière pensée.
On n'en doute pas ! Mais pour qui a un rapport raisonnable aux réalités du monde qui l'entoure, le passage aboutirait plutôt à 0,03 euro.
http://www.les-mathematiques.net/phorum/read.php?16,1700134,1701640#msg-1701640
J'ai amélioré mon texte ci-dessus. Je ne pouvais pas faire l'économie de l'a-dimensionnement des nombres de complexion (ouf, le travail est fait).
Quelques références sérieuses qui montrent bien comment on démontre, depuis Boltzmann, Sackur et Tetrode, une équation d'entropie "macroscopique" de type Clausius, à partir de l'équation d'entropie "microscopique" de Boltzmann $S = k_B\ln \Omega$. Il suffit d'exprimer le nombre $\Omega$ de micro-états possibles (ou configurations, ou encore complexions) d'un état macroscopique en fonction de grandeurs macroscopiques (température $T$ ou énergie interne $U$, volume $V$, nombre total de particules $N$) :
https://arxiv.org/pdf/1112.3748.pdf
http://physicspages.com/pdf/Schroeder/Schroeder Problems 02.31-33.pdf
C'est à la fois joli et très "classique". On peut retrouver des détails sur l'étape de dénombrement combinatoire (+ l'approximation de Stirling $\ln N! = N(\ln N - 1)$) que j'avais un peu laissée au lecteur.
Je peux apporter plus de précisions sur demande.
Les vois-tu lesdites coquilles au moins? (J'en ai évoqué deux, et me cité une). As-tu une pratique des parenthèses complètement étrangère aux conventions connues en Europe? Auquel cas ça mérite d'être explicité.
http://www.les-mathematiques.net/phorum/read.php?16,1700134,1701640#msg-1701640
J'ai encore précisé mon approche synthétique de la thermodynamique en vue de mieux expliquer l'identité entre entropies "microscopique" (ou statistique, au sens de Boltzmann) et "macroscopique" (au sens de Clausius).
N.B. Grâce au 3ème principe de la thermodynamique, il était possible de démontrer que l'entropie constante $S_0$ (voir lien) était nulle.
N'hésitez pas pour toute précision.
Au lieu de t'intéresser aux coquilles, tu as là une belle occasion de plus de poser des questions techniques utiles, apprendre un peu de physique sérieuse et même "vérifier mon niveau" si ça te chante. N'est-ce pas plus intéressant que de me pousser vers des exercices de CM2 ou collège qui n'arrangeront rien à ta pathologie sur les préjugés ?
Ici, je te propose directement d'échanger sur de la science de niveau universitaire - en sachant que tu avais déjà raté les occasions sur la MQ et la relativité, où j'avais bien compris que tu n'arrivais pas à suivre, ni à apprendre, en partie aussi à cause de tes préjugés. Essaie de faire mieux si possible.
Alors conseil: évite , tu as déjà été très lourd. N'oublie pas que même si "Tes juges" sur place y connaissent rien en science tu as déjà laissé pas mal de traces sur le forum qui sont publiques et si tes contraigneurs locaux veulent d'évaluer il ne leur serait pas difficile de trouver DANS LEIR ENVIRONNEMENT proche quelqu'un pour les informer.
** Il te faudrait des heures pour effacer tous tes posts et en plus ce serait interprété à charge.
Précision: si tu places mal tes parenthèses et ne parviens pas à réparer (c'est plus cinquième que CM2 comme tu dis) comment veux tu qu'on sache ce que tu veux dire.
Tu parles d'avoir des "preuves" de mon niveau alors que tu souhaiterais ardemment d'un autre côté que je te le "prouve".
Tu parles aussi d'un "gourou" du Moyen-Orient qui doit faire des fausses maths parce qu'il "risquerait sa vie". Mais, où ailleurs qu'en France est-il possible de prendre des risques à enseigner les vraies maths ?
Ça n'a rien de scientifique et j'ai déjà posté plus en détails mon cheminement dans l'autre fil hier il me semble. TANT MIEUX si je me trompe!
Mais du coup ça n'explique pas pourquoi tu simules comme ça (et le temps inouï que ça te prend quand on imagine que tu n'arrives même pas à choisir entre ln(2^3) et ln(2)^3 et le stress que ça induit de devoir choisir au hasard avec risque de plante) et ce que tu gagnes ou perds.
Bon, s'il te plaît : tu vas arrêter 5mn de broder (je n'ai pas encore dit "délirer") et de tourner indéfiniment autour du pot.
Tu voulais m'"évaluer" ? Le post technique que j'ai élaboré est à la fois riche, compact et simplifié par rapport à la littérature. J'ai montré avec assez de détails maintenant que l'entropie de Clausius est entièrement déductible de l'entropie de Boltzmann. Il y aurait déjà beaucoup de choses passionnantes à dire dessus. D'abord, quel(s) point(s) précis ne comprends-tu pas ? Si tu as tout compris (je vérifierai), le(s)quel(s) contestes-tu ? Voyons-les un à la fois.
Merci et bonne soirée.
Evidemment c'est $\ln(x^N) = N.\ln(x)$ qui est vrai.
Mais il en reste et que tu auras du mal à faire passer pour de la typo car elles sont écrites .en français.
Enfin il y en a même au moins une qui ne peut même pas être vue comme une étourderie car tu l'as soutenue deux fois dont une en réponse à un passage que tu as cité de moi. Il reste l'espoir que tu corrigeras l'autre (j'attends de.voir quelle excuse tu trouveras de ne pas l'avoir corrigée avant malgré de nombreuses modificationss de ton post "technique". :-D )
Remarque forumique: quand on corrigé on barre et fait un édit visible , on n'efface pas!!
http://villemin.gerard.free.fr/Wwwgvmm/Analyse/Logarith.htm#propr
http://www.mescours.info/maths-exponentielle__logarithme_neperien-30.xhtml
http://www.mathwarehouse.com/logarithm/rules-and-formula.php
etc.
Les deux notations semblent possibles tout en faisant attention aux ambiguïtés (espaces, etc.). J'avais considéré que la puissance $N$ avait la plus grande priorité (règle bien connue), tout simplement. J'ai quand même mis les crochets dans mon post pour éviter que le débat tourne inutilement autour d'une convention. Merci à petit-o pour l'échange privé sympa que l'on a eu sur cette question.
La seconde option est la bonne : l'utilisation des parenthèses n'est pas si particulière. Par contre, l'incompréhension de la physique est suffisamment totale pour s'attarder sur de petits détails de notation (*).
Cc : continue à tourner tout seul autour du pot. J'en conclus naturellement que soit tu n'as pas compris ma démonstration - comme d'habitude -, soit tu n'y vois aucune faille sérieuse (sinon tu penses bien que tu aurais sauté explicitement sur l'occasion). Cela me rappelle la fable du "renard et des raisins", je crois.
Aux vrais "sceptiques" (au sens scientifique noble) qui comprennent, je demande à nouveau de vérifier les preuves.
[small](*) Cyrano, tu ne trouves pas que ma "réputation" sur le forum est déjà assez "salie" comme ça par quelques ignorants et leurs complices ? Que veux-tu de plus ?[/small]
Et comme déjà dit, je t'ai signalé 2 autres problèmes. Dont un qui compromet vraiment tout le sens que tu voudrais voir attribué à tes copies collés de morceaux d'articles. Je ne suis sauté sur rien du tout justement.
*revêt ou revêtent ? Ça va me torturer longtemps je le sens.