• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile


Commentaire de Dudule

sur Putain de révolution ! En finir avec l'entropie ! Le déséquilibre de l'information et l'énigme des transformations naturelles


Voir l'intégralité des commentaires de cet article

Dudule 27 mars 2013 15:11

Encore une fois, Mr Dugué, la théorie de l’information a été inventé par des mathématiciens pour des informaticiens. Ce n’est pas de la physique. Ce n’est même pas de la science, c’est de la technologie. Des maths appliqués pour des ingénieurs informatiques. Ceci dit sans aucun mépris : c’est bien utile à ceux qui les appliquent, ce genre de concept. Mais c’est dangereux de vouloir faire de la physique avec.

http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_l%27information

Je cite en italique, je commente en gras, et c’est moi qui souligne :

La théorie de l’information, sans précision, est le nom usuel désignant la théorie de l’information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d’un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

Parmi les branches importantes de la théorie de l’information de Shannon, on peut citer :

  • le codage de l’information,
  • la mesure quantitative de redondance d’un texte,
  • la compression de données,
  • la cryptographie.
Dans un sens plus général, une théorie de l’information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données.

Plus loin :

De façon étonnante, l’équation par laquelle Shannon définit l’entropie de l’information coïncide, mais de signe inverse, avec l’équation de Boltzmann-Gibbs définissant l’entropie S en thermodynamique (S = K log p). C’est un log népérien, mais passons...

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l’application de la fonction de Shannon à la thermodynamique et à l’information est un hasard de rencontre de l’application d’une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d’univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

Mais n’y ai jamais parvenu. Pourtant, Brillouin, c’était pas n’importe qui...

Les morceaux soulignés n’apparaissent pas dans la prévisualisation. On verra bien...


Voir ce commentaire dans son contexte





Palmarès