La « démocratisation des études », comme ce que Maurin appelle l’élitisme ont leurs avantages et leurs inconvénients. Il faut arrêter d’être binaire et de ne voir que les bons côtés de SA solution. L’élitsme laisse des élèves faibles sur le bas côté tandis que la democratisation des etudes tue l’ascenceur sociale et favorise la reproduction sociale.
La mise en place du collège unique sur les dernières décennies s’est bien traduite par une diminution flagrante du nombre d’élèves issus des classes populaires dans les filières les plus cotées.
"C’est sur que le système de publication des revues s’embarasser de vérifications et revérifications avant de soumettre leurs données. Sur un sujet un peu chaud, celui qui ne revérifiera rien publiera très certainement avant celui qui a fait le boulot proprement. Donc on risque d’aller de plus en plus faire des articles incomplets, douteux et donc pas réllement exploitables.
Dans les solutions possibles, certains journaux et non des moindres exigent désormais que chaque auteur précise sa contribution dans un article. Outre le fait que ça permet d’éliminer les signatures « de complaisance » (je fournis un anticorps et en échange je veux mon nom sur le papier), cela permettra surtout de trouver rapidement le responsable en cas de fraude sur un papier : souvent, seuls 1 ou 2 auteur d’un papier sont réellement fraudeurs, les autres étant parfaitement honnêtes. On parle également de lever partiellement l’anonymat des referees mais ce n’est pas forcement une bonne idee...
« @sven : il faut avoir fait de la recherche pour mesurer toute la relativité du processus de reviewing ! »
Ca tombe bien, justement...
" C’en est à un tel point de nos jours que lorsque vous envoyez votre article, et même à Nature, vous suggérez des noms de scientifiques pour le relire et vous indiquez les noms des scientifiques à qui vous interdisez de le relire.
Et celà à la demande des revues scientifiques ! Alors imaginez l’objectivité de reviewers d’un article qui remet tous leurs travaux à zéro. Et la pratique n’était pas en vigueur à l’époque de Benveniste."
Le processus de reviewing est très certainement améliorable, sinon il n’y aurait pas de problème de reviewing.
Justement, si le processus de reviewing était parfait, l’article de Benveniste n’aurait pas été publié, même avec un encart. Si en 1985 les techniques utilisées dans l’article n’étaient pas encore très connues, ce type d’expériences fait aujourd’hui partie des outils de base de la biologie. N’importe quel biologiste de 2007 hurlerait en voyant comment cette technique a été (mal) utilisée.
J’ai lu personnellement l’article dans Nature et notamment la fameuse expérience dans laquelle il observe un effet à une concentration, puis plus d’effet en diluant, puis à nouveau un effet en diluant plus etc... Cette expérience est la clef de voute de l’article et c’est justement dans celle-là qu’il y a une énorme erreur expérimentale, on ne peut rien conclure à partir de ce résultat (si ce n’est que Benveniste et ses collaborateurs ne savent pas faire un Elisa).
Sinon, juste un mot à partir du fait qu’on peut « choisir » ses referees : autant je suis contre le fait qu’on puisse proposer des referees potentiels, autant il est indispensable qu’on puisse exclure un ou deux noms (tant que ça reste raisonnable bien sur). Si on sait qu’un referee possible est un concurrent travaillant exactement sur le même problème, on n’a bien entendu pas envie qu’il est accès à des données confidentielles non encore publiées (forcément !) qu’il puisse réutiliser à son compte. Il y a eu un certain nombre de cas d’auteurs voyant leur article rejeté dans un journal sans vraies raisons et voyant six mois plus tard quasiment le même article publié par le concurrent... Donc ça me semble un garde-fou essentiel, même si le nombre de scientifiques malhonnetes est heureusement faible.
« Le vrai problème est que personne n’a été capable de démontrer que Benveniste avait tord »
Ca m’a pris cinq minutes pour voir la faille dans l’article sans avoir été prévenu avant. J’ai du le lire en 2002 ou 2003, donc j’avais bien entendu l’avantage par rapport aux referees de 1985 de bien mieux connaitre ce type d’expériences.
« Ensuite, ne pas arriver à reproduire les expériences d’autres scientifiques est un phénomène fréquent en sciences. Surtout dans des domaines très pointus. Cela ne veut pas dire que l’autre à tort. »
Dans ce cas précis, les expériences n’avaient rien d’extrêmement complexe dans leur réalisation. En 2007, une bonne partie des labos français de bio ont l’équipement nécessaire pour refaire l’expérience moyennant 500 à 1000 euros d’achat de matériel. L’expérience en elle-même est ensuite très rapide et très simple à réaliser.
« Je fais le pari à tous que nous en entendrons de nouveau parler. »
« et les résultats concernant...la »mémoire« de l’eau. On ne va pas refaire l’histoire, mais un résumé possible est : la communauté scientifique n’était pas prête (n’est) à accueillir des résultats aussi dérangeants. »
J’imagine que vous faites reference a Benveniste. Cette affaire a ete traitee exactement comme il se devait a mon sens :
- Nature (un des deux plus grands journaux scientifiques mondiaux) recoit un article presentant une decouverte majeure (la memoire de l’eau) mais qui remet en cause quasiment deux siecles de physique et de chimie
- Le processus normal est d’envoyer l’article a deux ou trois specialistes du domaine qui vont decortiquer l’article et l’ausculter dans ses moindres details. Ils envoient alors un rapport a Nature disant ce qu’ils pensent de l’article (interessant/pas interessant, donnees solides/pas solides, informations supplementaires necessaires ou pas ...). Nature recoit les differents rapports et decide alors de publier ou non l’arrticle. En pratique, moins de 10% des articles soumis a Nature sont in fine publies
- Dans le cas Benveniste, Nature recoit donc les commentaires des referees qui disent en substance que si les resultats sont justes, c’est une decouverte revolutionnaire. Ils disent par ailleurs que les resultats les laissent perplexes mais qu’ils ne voient pas de faille dans le raisonnement.
- Etant donne qu’aucune faille n’a ete trouve, Nature decide finalement de publier l’article mais ils ajoutent un encart precisant qu’ils ne sont pas convaincus par l’article et qu’ils n’engagent pas la credibilite du journal sur cet article (a ma connaissance, c’est la seul fois qu’un journal a fait ca et ca montre bien le malaise qu’il y a du avoir dans le comite eidtorial).
- L’article est publie mais en parallele une enquete est conduite au sujet de ces donnees. Il s’avere que les resultats sont irreproductibles (Aie !) et des specialistes des techniques employees dans l’article detectent une mauvaise utilisation de cette technique (re-Aie). Au minimum, les resultats sont faux pour des raisons purement techniques
- Une enquete plus approfondie permet alors de montrer que les donnees ont ete fabriquees et qu’elles n’ont donc bien entendu aucune valeur.
En conclusion, heureusement que la science n’accepte pas des resultats majeurs sans les examiner sous toutes les coutures ... Deja que certains fraudeurs arrivent a passer entre les mailles du filet malgre un examen sans concession, je ne prefere meme pas imaginer ce que ca serait si on relachait les conditions ...
Sur les cinq dernieres annees, il y a eu au moins deux cas majeurs, pour des travaux qui auraient merite des prix Nobel si les resultats avaient ete reels :
- le premier concernait JH Schon, un jeune physicien des materiaux qui avaient sorti une serie de papiers retentissants dans le domaine de la supraconductivite, de la semi-conducivite,etc... En a peine deux ans, il avait publie la bagatelle de 17 articles en position clef rien que dans Science et Nature, les connaisseurs apprecieront. Pour les non connaisseurs, le scientifique francais le plus performant de ces dernieres annees doit etre a 6 ou 7 articles dans ces meme revues en cinq ans, soit legerement au-dessus de 1 par an (ce qui est bien sur exceptionnel). Mais la belle histoire de JH Schon a tourne court, il s’est avere que tous ses « resultats » avaient ete fabriques de toute piece et qu’il avait fraude de A a Z.
- Plus recemment, c’est le (ex-)professeur Hwang de Coree du Sud qui a defraye la chronique en publiant « le plus important article scientifique de ces dix dernieres annees » qui decrivait une percee fulgurante dans le domaine des cellules souches. Pas de chance, il s’est avere egalement que les resultats avaient ete bidonnes. Dans ce cas, il y a egalement des problemes ethiques graves qui se sont rajoutes, a savoir que les ovules utilises pour les experiences avaient ete preleves sur ses etudiantes qui parait-il n’avaient pas eu reellement le choix.
Il y a quelques autres cas beaucoup moins retentissants mais le probleme est qu’ils peuvent ralentir beaucoup d’autres chercheurs. Un article est cense etre construit sur des fondations solides pour que les collegues puisssent s’appuyer dessus. Si un article s’effondre, ca peut etre le travail de dizaines de collegues honnetes qui s’ecroule aussi. Dans les deux cas que je decris, les consequences en temps et en argent ont du etre tres lourdes...