Une nouvelle théorie menace de dynamiter les lois de la physique
Selon Robert Laughlin, Prix Nobel 1998 de Physique, les lois du monde macroscopique sont indépendantes de celles du monde microscopique et résultent uniquement de comportements collectifs. En d’autres termes, aucune loi ne peut être hiérarchisée ou considérée comme fondamentale si on augmente l’échelle de complexité à l’infini. Cette nouvelle théorie dite de l’émergence s’oppose au réductionnisme conventionnel selon lequel les lois de la physique sont déduites des propriétés des particules élémentaires et de leur interaction. Aujourd’hui de nombreux physiciens se rallient à cette cause tout en piétinant les intérêts des grands pontifes de la Physique.
"Le tout est plus que la somme des parties"
Aristote, 350 av. JC
-
Le holisme : dès l’antiquité, Aristote soutient dans le cadre de la pensée platonicienne (l’atomisme) que l’on ne peut pas prédire le comportement d’un ensemble par l’analyse de ses parties.
-
Le vitalisme : en 1806, le médecin Paul Joseph Barthez réfute la thèse mécaniste en postulant que la vie ne peut pas être réduite à un ensemble de phénomènes physico-chimiques.
-
L’émergence : en 1875, le philosophe George Henry Lewes introduit le concept d’émergence pour décrire des phénomènes qui ne peuvent pas être expliqués par un modèle mécaniste. 50 ans plus tard un autre philosophe anglais, Charlie Dunbar Broad va plus loin en affirmant que "les propriétés émergentes d’un système sont déterminées par l’ensemble des interactions de ses composants" en citant l’exemple de l’eau, dont les propriétés ne peuvent pas être déduites de celles de ses composants (l’oxygène et l’hydrogène).
-
La survenance : en 1984, le philosophe Richard Mervyn Hare devient le père de ce nouveau concept. Selon lui, une propriété (biologique par exemple) survient en se superposant sur une autre (chimique dans notre cas) si elle subit des variations qui impliquent un changement dans la seconde, mais la réciproque n’est pas nécessairement vraie.
L’émergence selon Laughlin
Dans un interview de la revue La Recherche [1], Robert Laughlin explique sa propre vision, qui repose sur "la perfection émergeant de l’imperfection", en faisant l’analogie avec un tableau impressionniste de Monet (le jardin de Giverny) :
Concrètement, un exemple de phénomène physique mettant en avant cette théorie est celui de la cristallisation :
"Il est facile d’expliquer que les atomes tendent à cristalliser parce qu’ils interagissent les uns avec les autres selon des règles bien définies...Nous nous reposons sur les lois de la rigidité..., même si, autant que je sache, il est impossible de les déduire de la physique atomique".
la conclusion de Laughlin vise le fondement même de la physique, science expérimentale et bastion du réductionnisme. Elle est née de l’observation de phénomènes naturels et de leurs postulats sous-jacents, de la même manière que dans la légende bien connue d’Isaac Newton découvrant la loi de la gravitation en voyant une pomme tomber d’un arbre. Pour lui l’ère du réductionnisme a clairement sonné [2] ; toutes les théories actuelles ont en fait émergé les unes des autres en s’appuyant sur des axiomes déterministes.
Le déclin du déterminisme
Le déterminisme universel, un des plus forts symbôles du réductionnisme du XIXème siècle, s’appuie sur le principe de causalité :
-
Tout phénomène a une cause
-
Dans les mêmes conditions, les mêmes causes sont suivies des mêmes effets.
Le déterminisme a été remis en cause au siècle suivant par deux grandes théories : la mécanique quantique et un peu plus tard le chaos déterministe.
La première a entraîné le principe d’incertitude de Heisenberg (1927) qui implique qu’il n’est pas possible de connaître avec exactitude à la fois la position et la quantité de mouvement (masse fois vitesse) d’une particule. Il faut avoir recours au calcul probabiliste.
La seconde décrit un système déterministe non prédictible. C’est l’application de la sensibilité aux conditions initiales, découverte au XIXème siècle par Poincarré, qui a permis de mitiger les conséquences du principe de causalité et de développer la théorie du chaos déterministe :
Une modification infime des conditions initiales peut provoquer des résultats imprévisibles sur le long terme.
Le chaos déterministe s’appuie d’ailleurs sur la mécanique newtonienne et ne la remet nullement en cause. Elle donne par exemple une explication à un problème aussi simple que la description des mouvements du double pendule [3]. La métaphore du papillon énoncée en 1972 par le météorologue Lorenz illustre bien ce principe : "Prédictibilité : le battement d’aile d’un papillon au Brésil peut-il déclencher une tornade au Texas ?".
Si l’on se base sur la pensée de Laughlin, la mécanique quantique et le chaos déterministe sont en fait des systèmes réductionnistes "émergés". A l’heure actuelle, la seule théorie déterministe qui pourrait aboutir à une unification de toutes les autres est le modèle des supercordes qui postule que toute particule ou force fondamentale peut être décrite comme l’interaction d’un ensemble de vibrations infinitésimales. Malheureusement il est impossible de vérifier cette théorie purement abstraite par l’expérience ou l’observation. Là encore les conflits d’intérêts ou l’échec de l’outil mathématique détermineront (feront émerger ?) l’avenir de l’émergence ou des supercordes. Comme le dit Robert Laughlin on en revient finalement à un débat idéologique, puisque "même les scientifiques adhèrent à des sytèmes de croyance". Entre les bonnes vieilles supercordes de papy et le multiverse féérique d’Andrei Linde [4], il revient à chacun de se faire sa propre opinion.
[1] La Recherche n° 405, février 2007
[2] Robert Laughlin, A différent universe : reinventing Physics from the bottom down, Basic Books, 2005
[3] http://www.youtube.com/watch?v=8VmTiyTut6A
[4] http://www.stanford.edu/ alinde/
59 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON