• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile


Commentaire de Mor Aucon

sur Du PC à la Voie Lactée : les performances de nos ordinateurs


Voir l'intégralité des commentaires de cet article

Mor Aucon Mor Aucon 21 décembre 2011 13:32

« Le stock de données n’est rien. C’est la gestion simultanée de leurs changements qui pose problème. »

Rien de plus vrai. Surtout quand on est conscient du fait que dès que l’on essaye de modéliser la nature, on se trouve face à la tâche d’intégrer les mécanismes d’évolution d’un système chaotique dont les calculs prédictifs ne peuvent être basés que sur la probabilité qu’une cause produise un certain effet et non un autre ou pas d’effet du tout. C’est cette incertitude probabiliste qui provoque la majeure partie du besoin d’incrément de la puissance de calcul et pas vraiment le nombre de données définissant les objets présents dans le système.

Pour faire une analogie facile à comprendre, c ’est un peu la différence entre écrire un bitmap qui se décrit ( sans tenir en compte une éventuelle compression ) pixel à pixel et une description vectorielle qui ne reprend que les lois de construction et les coordonnées du point de départ et des points de passage les plus importants. Le vectoriel est beaucoup plus léger mais requiert une puissance de calcul beaucoup plus grande que le bitmap. Si a cela, on ajoute une incertitude de type probabiliste quant aux paramètres que manie ces lois internes au système que l’on représente, on se trouve très vite face à un besoin énorme de puissance de calcul.

Sur ce point, on peut rattacher à la discussion les systèmes informatisés modélisant le comportement de l’économie et commencer à essayer d’évaluer la justesse des modèles utilisés, par exemple, pour décrire le comportement du marché continu. On n’a pas fini de rire ( jaune ), à mon avis.


Voir ce commentaire dans son contexte





Palmarès