on ne peut pas rigoureusement définir d’entropie statistique de l’univers. En effet, pour le faire, il faut définir des probabilités pour chaque état de l’univers, ce qui nécessite un observateur externe. L’entropie statistique n’est pas une caractéristique d’un système, mais une caractéristique des la connaissance qu el’observateur a du système. Si l’observateur connaît parfaitement l’état du système, l’entropie est nulle, sinon elle est élevée.
Je vais prendre l’exemple d’un système quantique qui comporte 2 niveaux d’énergie |a> et |b>. Supposons que le système est dans l’état |a>+|b>. (je ne tiens pas compte de la normalisation). Si l’observateur sait que le système est dans l’état |a>+|b>, alors l’entropie est nulle. Par contre si l’observateur connaît seulement la probabilité d’être dans l’état |a> ou l’état |b>, alors l’entropie est maximale.
Est-ce que vous pouvez développer un peu sur la boîte, parce que j’ai l’impression de ne pas avoir compris quelque chose ? Si on considère 2 détentes adiabatiques, une rapide et une lente, il faut un échange de travail avec un système extérieur pour réguler la vitesse de la détente... L’entropie thermodynamique est une variable d’état, donc si les états sont les mêmes à la fin, l’entropie est la même. ??