Mais M. Baty, il faut bien lire ce que vous envoyez. Si vous lisez la partie qui concerne l’entropie de Shannon, vous trouvez un lien vers l’article http://fr.wikipedia.org/wiki/Entropie_de_Shannon où vous pouvez lire :
« L’entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d’information contenue ou délivrée par une source d’information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique
quelconque (collection d’octets). Du point de vue d’un récepteur, plus
la source émet d’informations différentes, plus l’entropie (ou
incertitude sur ce que la source émet) est grande, et vice versa. Plus
le récepteur reçoit d’information sur le message transmis, plus
l’entropie (incertitude) vis-à-vis de ce message décroît, en lueur de ce
gain d’information. La définition de l’entropie d’une source selon
Shannon est telle que plus la source est redondante, moins elle contient
d’information. En l’absence de contraintes particulières, l’entropie
est maximale pour une source dont tous les symboles sont équiprobables. »
Puis, vous pouvez lire dans http://fr.wikipedia.org/wiki/Entropie :
« Plus récemment, le concept d’entropie a été généralisé, et étendu à de nombreux domaines, tels que par exemple :
Puis, plus loin dans le même article, le paragraphe intitulé Entropie et désordre.
Donc, c’est bien ça. Vous voulez me balader.