• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile


Commentaire de Mor Aucon

sur Comment David Rockefeller et ses amis dirigent le monde


Voir l'intégralité des commentaires de cet article

Mor Aucon Mor Aucon 1er décembre 2011 14:19

Mais M. Baty, il faut bien lire ce que vous envoyez. Si vous lisez la partie qui concerne l’entropie de Shannon, vous trouvez un lien vers l’article http://fr.wikipedia.org/wiki/Entropie_de_Shannon où vous pouvez lire :

« L’entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d’information contenue ou délivrée par une source d’information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (collection d’octets). Du point de vue d’un récepteur, plus la source émet d’informations différentes, plus l’entropie (ou incertitude sur ce que la source émet) est grande, et vice versa. Plus le récepteur reçoit d’information sur le message transmis, plus l’entropie (incertitude) vis-à-vis de ce message décroît, en lueur de ce gain d’information. La définition de l’entropie d’une source selon Shannon est telle que plus la source est redondante, moins elle contient d’information. En l’absence de contraintes particulières, l’entropie est maximale pour une source dont tous les symboles sont équiprobables. »

Puis, vous pouvez lire dans http://fr.wikipedia.org/wiki/Entropie :

« Plus récemment, le concept d’entropie a été généralisé, et étendu à de nombreux domaines, tels que par exemple :


Puis, plus loin dans le même article, le paragraphe intitulé Entropie et désordre.

Donc, c’est bien ça. Vous voulez me balader.


Voir ce commentaire dans son contexte





Palmarès