De l’entropie en veux-tu en voilà
Le moins que l’on puisse dire, c’est que le terme entropie n’inspire pas de bons souvenirs chez ceux qui l’ont abordée en milieu scolaire. C’est probablement la grandeur courante considérée comme la plus absconse d’une discipline nommée thermodynamique ; discipline que le physicien allemand Arnold Sommerfeld décrit parfaitement :
La thermodynamique est un truc marrant :
- La première fois que vous l’abordez, vous ne comprenez rien.
- Le seconde fois que vous l’abordez, vous pensez tout comprendre, sauf un ou deux points.
- La troisième fois que vous l’abordez, vous savez que non, vous n’avez rien compris, mais ce coup-ci vous avez l’habitude et vous n’en avez plus rien à fiche.
En fait, c’est la manière d’aborder cette discipline, la manière statistique, qui complique considérablement les choses.
[...] c’est dommage parce que l’entropie est un concept des plus intéressants.
Thermodynamic-mac
Le moins que l’on puisse dire, c’est que le terme entropie n’inspire pas de bons souvenirs chez ceux qui l’ont abordée en milieu scolaire. C’est probablement la grandeur courante considérée comme la plus absconse d’une discipline nommée thermodynamique ; discipline que le physicien allemand Arnold Sommerfeld décrit parfaitement :
La thermodynamique est un truc marrant :
- La première fois que vous l’abordez, vous ne comprenez rien.
- Le seconde fois que vous l’abordez, vous pensez tout comprendre, sauf un ou deux points.
- La troisième fois que vous l’abordez, vous savez que non, vous n’avez rien compris, mais ce coup-ci vous avez l’habitude et vous n’en avez plus rien à fiche.
texte original
En fait, c’est la manière d’aborder cette discipline, la manière statistique, qui complique considérablement les choses.
On vous parle de température, de chaleur, d’énergie (jusque là c’est facile), puis de ce truc (l’entropie) qui caractérise un système, mais qui ne décroit jamais. Qui a rapport avec le désordre. Qui explique que le mouvement perpétuel n’existe pas. Vous ne savez pas exactement ce que c’est, mais vous allez faire plein de calculs compliqués autour de ça.
Et c’est dommage parce que l’entropie est un concept des plus intéressants.
L’ouverture de Ludwig B.
Avec Ludwig Boltzmann, tout devient simple :
Fi des statistiques, le physicien sort sa loupe et s’intéresse aux micro-états.
Pour comprendre, intéressons-nous à la cuisson des pommes sarladaises :
Supposons que vous soyez maladroit (hypothèse 1) mais pas trop (hypothèse 2) et que vous fassiez cuire des pommes de terre en tranche dans une poêle.
L’idéal est que chaque tranche soit cuite sur ses deux faces. Pour retourner les tranches, vous n’avez droit qu’à manipuler la poêle (spatule interdite).
- Au départ, toutes les tranches sont crues, et la cuisson commence bien.
tout est en ordre.
- Puis vous remuez la poêle de manière à retourner les patates. Chaque tranche a une chance sur deux de se trouver sur sa face non grillée (vous êtes maladroit, par hypothèse 1). Et donc, il y a dans la poêle un mélange de tranches dans le bon sens, et de tranches dans le mauvais sens. Mais comme vous n’êtes pas trop maladroit (par hypothèse 2), il y a davantage de tranches dans le bon sens.
c’est un peu en désordre.
- Vous cherchez à corriger le tir, secouez à nouveau la poêle, pour tenter de mettre toutes les patates ou presque dans le bon ordre. Le résultat est pire qu’avant.
c’est un gros désordre.
- Si vous renouvelez l’opération, ça ne changera rien : il y aura toujours à peu près une tranche sur deux d’inversée.
vous avez atteint le désordre maximal.
Si les patates s’étaient collées les unes aux autres dès le départ, les choses auraient été différentes. Il était facile de toutes les retourner à la fois. Mais les tranches sont libres.
Trente tranches dans une poêle représentent 230 = 1 073 741 824 états possibles.
Et si les patates étaient coupées en dés (6 faces), on aurait 630 = 221 073 919 720 733 357 899 776 états possibles.
L’entropie représente la capacité d’un truc à atteindre un niveau de désordre maximal plus ou moins élevé, et dépend du nombre d’états possibles. Et comme le nombre d’état croit exponentiellement avec le nombre de patates, on utilise le logarithme pour retrouver le nombre de patates à partir du nombre d’états.
Car l’entropie compte en fait les patates. C’est pratique, parce que si on a deux poêlées, l’entropie des deux poêlées ensemble est la somme de l’entropie de chacune des poêlées.
Bref, sur la tombe de Boltzmann est écrit S = k ln W, maintenant vous savez pourquoi.
Revenons à notre cuisson :
A chaque transformation (on remue la poêle), la probabilité de désordonner est supérieure à celle d’ordonner. Et on aboutit petit à petit au désordre maximal.
- Si le désordre maximal est faible (patates collées), il est possible de revenir en arrière.
- S’il est élevé, c’est "presque impossible" au sens des probabilités, et c’est impossible en vrai. On dit que la transformation est irréversible.
Équivalence patate énergie
L’énergie d’un truc peu aussi être décomposé en diverses formes d’énergie. Des formes ordonnées comme l’élan du truc, ou désordonnées lorsque par exemple des particules de ce truc tournent sur elles-mêmes. Alors, cette part désordonnée de l’énergie n’est pas récupérable, est gâchée. Plus il y a moyen de placer de l’énergie sous forme désordonnée, plus le truc a une entropie élevée.
Si tout est bloqué, immobile, collé, à -273°C par exemple, le truc a une entropie nulle.
Mais plus on secoue le truc et plus on risque de donner la liberté à des particules, qui vont en profiter pour stocker égoïstement de l’énergie dans leur coin. J’ai bien dit "on risque", parce que selon la nature du truc, on gâche plus ou moins l’énergie qu’on lui donne.
Illustration :
- Dans le cas du bocal en plastique, la structure moléculaire est très élastique, et est conservée pendant l’élongation. L’énergie de la chute est facile à récupérer. Ainsi le pneu a permis le développement de la bicyclette en améliorant son rendement énergétique.
- Dans le cas du verre, une fois la rupture atteinte, beaucoup de morceaux sont libérés, et chacun part avec son bout d’énergie pour le dilapider en frottements.
D’une manière générale, plus la structure d’un truc est faible, plus il y a de niches à énergie "égoïste", plus son entropie est susceptible de croître, et plus ça gâche de l’énergie. Et à partir de quelques particules libres, on est déjà dans ce cas.
- Ceci explique pourquoi, à l’échelle "humaine" de la mécanique, le mouvement perpétuel n’existe pas. A chaque transformation, on gaspille un peu d’énergie, et le mouvement s’arrête quand tout est converti en chaleur.
- Si le truc est simple, fortement structuré, très petit, on a plus de chance d’éviter le gâchis d’énergie. On peut alors voir, dans les nano-technologies, une clef importante pour la sobriété énergétique.
Time
La puissance du concept d’entropie est telle que c’est grâce à elle qu’on explique l’existence du temps (qui s’écoule).
- Du point de vue de la physique, si l’on considère l’univers comme une grosse poêle remplie de trucs divers (dont les patates sarladaises évidemment), on admettra que chaque transformation même infime conduit à un niveau de désordre supplémentaire. Par conséquent, sans retour possible. Le temps ne recule pas, ne bégaye pas, et s’écoule continument dans le même sens. On appelle ça la flèche du temps thermodynamique.
- Du point de vue psychologique, Stephen Hawking a cherché à établir un lien entre la mémorisation et ses conséquences en dépense d’énergie, mettant ainsi la flèche du temps psychologique dans le même sens que la flèche thermodynamique. Ainsi, on se rappelle le passé, mais non l’avenir. Cette approche peut sembler un peu tordue. Cependant la notion d’avant et d’après, et notamment le discernement entre leurs interprétations temporelles et spatiales, sont très liés au culturel, voire altérés par la dyslexie. Passer par le mémoriel évite ce piège.
Extension du domaine de l’entropie
Le concept d’entropie, parce qu’il apporte à la fois la notion d’irréversibilité et celle de complexité, a fait l’objet d’analogies dans des domaines très variés. Quelques exemples :
- Le mathématicien Claude Shannon a développé une théorie de l’information codée par des signes, sous forme binaire par exemple, dans laquelle l’entropie représente la quantité d’information du message. Sans rentrer dans les détails, disons qu’il n’est pas une communication numérique, un codage digital, un algorithme de compression ou de traitement du signal qui ne s’appuie sur les travaux de Shannon. Un grand monsieur. La notion d’entropie de l’information explique par exemple pourquoi le code morse utilise un seul signe pour le "e" et quatre pour le "q", pourquoi chaque métier a son jargon, ou en quoi le langage SMS est bon pour l’environnement.
- Dérivée de l’entropie de Shannon, l’entropie écologique, ou encore indice de Shannon, mesure la biodiversité d’un ensemble de spécimens, en se basant sur leur distribution. L’entropie quadratique, dérivant de cette notion, prend en plus en compte la dissimilarité entre les individus pour calculer cette diversité. Ces notions vont probablement se développer dans les décennies à venir.
Parmi les analogies les plus inquiétantes, au sens de ce qu’elle trimballe de totalitarisme, est la notion d’entropie sociale. Celle-ci considère qu’une société est structurée par une organisation sociale.
- L’entropie sociale mesure la décomposition de cette organisation en observant, entre autres, la disparition des distinctions sociales. Et elle représente l’énergie nécessaire pour maintenir cette organisation, grâce aux institutions, à l’éducation, voire aux média.
Lorsque l’entropie est maximale, c’est l’anarchie.
Si le système est isolé, c’est à dire sans qu’on lui injecte de l’énergie, ce qui implique notamment un accès au pétrole à bon marché, ce système perd sa cohérence et bascule dans l’anarchie. Cela qui met le pic pétrolier au cœur du débat...
Cette théorie fumeuse fait partie des scories du domaine assez douteux des sciences prédictives. Elle s’appuie sur une analogie formelle et pas toujours explicitée entre la sociologie et la thermodynamique. Mais elle exprime, je trouve, l’angoisse propre à la civilisation occidentale face à l’éventualité de disparition d’une certaine forme de gavage.
Libre
L’analogie qui me semble pourtant la plus naturelle, puisqu’on aborde avec l’entropie des thèmes comme la liberté ou le désordre, la transformation et le temps, est l’évolution des opinions. Ce qu’on pourrait appeler l’entropie idéologique.
Aborder un thème sociologique par une vision statistique m’a toujours posé problème. Mais si l’on raisonne au niveau de l’individu, c’est à dire que l’on s’intéresse à son libre arbitre, sa capacité à développer sa propre pensée, il me semble que l’on ne s’éloigne pas trop de la réalité.
Considérons alors que l’individu,
- par son accès croissant à l’éducation,
- assimilée grâce au développement de l’esprit critique - le rôle de la pub et/ou de la propagande dans le développement contemporain de l’esprit critique est considérable, bien qu’involontaire, en générant des "anticorps" au matraquage ,
- et nourrie par un nombre croissant de sources d’information - internet, réseaux sociaux,
considérons donc que cet individu pense de plus en plus par lui-même, et sur la base de données indépendantes.
On peut alors en déduire que son "degré de liberté" va s’accroitre, que son opinion est de moins en moins prédéterminée, bref qu’un groupe de personne va représenter une plus grande diversité idéologique.
Dans une telle évolution, on pourra alors observer tout ce qui fait justement le concept de l’entropie :
- une complexité de société croissante, liée à la diversité idéologique,
- une plus grande difficulté à convaincre les foules, donc à canaliser idéologiquement les personnes
- et ce de manière irréversible, car la mémoire conserve l’idée et l’envie de liberté.
Si cette évolution est inéluctable, on peut alors en tirer les conclusions suivantes :
- Il existe une évolution irréversible des opinions qui tend vers une indépendance maximale : L’Histoire des idées suit la flèche du temps.
- Les grands mouvements idéologiques collectifs, comme à l’époque de la lutte des classes, ne se reproduiront pas.
Du point de vue politique, croire à cette hypothèse conduit bien évidemment à changer radicalement de stratégie. Les discours collectivistes sont caducs. Et même, la démocratie à travers le suffrage majoritaire n’est plus qu’une coquille vide, inerte. Et il faut donc imaginer d’autres manières de convertir des idées en progrès social.
Pour cette raison (tout ça pour ça...), je suis convaincu que l’expression des changements les plus signifiants dans notre société ne se feront plus au travers des grands soirs, des victoires électorales, ou d’autres formes populaires d’action de masses.
Ou parce que l’évènement tant attendu n’arrivera jamais, ou parce que l’évènement qui arrivera ne peut être qu’un malentendu.
Il faut donc organiser notre société sans la nécessité du recours à la majorité, et donc de manière à ce que les bonnes volontés (source d’énergie) puissent s’exprimer individuellement ou en minorités. Travailler à un niveau plus faible d’entropie, pour pouvoir en récupérer les fruits.
- La multiplication des associations conforte cette idée.
- La capacité des phalanstères à générer davantage de social l’exprime également.
- La proposition de légalisation d’accueil d’un étranger allait dans ce sens.
Inversement :
- L’échec de la construction européenne constitue un exemple malheureux du sort de ceux qui ignorent cette évolution. L’entropie idéologique européenne semble bien être arrivée au taquet.
- L’ONU est un autre exemple de paralysie entropique...
La liberté individuelle est peut-être trop récente pour que nous ayons les bons outils pour en profiter. Ça viendra.
Irréversible. C’est le concept.
32 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON