• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile


Commentaire de Christophe

sur L'information et la cognition


Voir l'intégralité des commentaires de cet article

Christophe Christophe 4 octobre 2008 19:19

@Le Sudiste,

La théorie de l’information de Shannon, utile en physique statistique, pour valider la théorie empirique de Boltzmann, est mal interprétée (à mon avis) dans les écoles de journalisme

Il me semble, mais je ne suis pas journaliste, que notre auteur fasse référence à l’entropie d’un message. Boltzman a introduit la notion de probabilité après l’apport de Clausius (celui qui a définit l’entropie à partir des travaux de Carnot) en réalisant une approche permettant d’associer la croissance irréversible de l’entropie d’un système à un désordre moléculaire. C’est une approche aujourd’hui très restrictive puisqu’elle ne concerne que l’étude de systèmes clos, donc non systémique. Depuis Onsager et Prigogine ont fait évoluer la thermodynamique. Mais disons qu’il faut retenir de cette phrase que les écoles de journalisme interprètent mal la théorie de l’informationqui n’est pas utilisée uniquement en physique statistique.

Pour bien comprendre, il est donc nécessaire de connaître un minimum ce qui est connu vulgairement comme la théorie de l’information issue de the mathematical theory of communication (C. Shannon & E. Weaver, University of Illinois Press, 1963).

Ce que nous dit cette théorie, sans entrer dans les formulations mathématiques, est que nous pouvons calculer différents éléments permettant de mesurer la nature et la force d’un message que nous transmettons à un récepteur.

  • Le calcul entropique d’un message permet de mesurer la quantité moyenne d’informations permettant de limiter l’incertitude du récepteur.
  • L’incertitude du récepteur permet d’évaluer (par calcul) la quantité d’informations nécessaire pour qu’un récepteur interprète convenablement le message de l’émetteur.
Ainsi nous pouvons calculer la quantité statistique d’informations que le récepteur recevra du message émis : c’est l’entropie à laquelle nous soustrayons l’incertitude du récepteur.

J’espère avoir concurru à une meilleure compréhension de votre part sur cette phrase. Mais il faudrait peut-être avoir confirmation de notre auteur !

Voir ce commentaire dans son contexte





Palmarès