Le projet d’encyclopédie Wikipedia (en général) est un des objets de
l’univers internet qui attire le plus les regards du public, étiqueté
geek ou non. Et bien sûr, par ricochet, des journalistes. Hélas, comme
pour de nombreux autres sujets, les imprécisions ou pires, informations
erronées, traduisent au mieux une méconnaissance du sujet sur lequel on
disserte. Cette (mauvaise) pratique a pour conséquence immédiate de
donner un aperçu fantaisiste de cette entreprise. Dernière preuve en
date : l’introduction de contrôles supplémentaires sur l’introduction
de nouvelles données.
La dernière information d’importance concernant Wikipedia (ou plutôt, sa
version en anglais) est la mise en place d’un système de vérification des modifications apportées par les internautes (contributeurs) à l’encyclopédie libre. Information reprise et diffusée par nombres de publications et sites parmi lesquels figurent le
New York Times,
le Point,
Europe 1 ou encore
le Monde, et autres bien plus modestes (comme
mon blog ou celui de l’association
Wikimedia France).
On sait qu’il se passe quelque chose ...
La première remarque qui s’impose est cette reprise d’information massif, dans plusieurs dizaines de médias, dans diverses langues. La constatation s’impose : Wikipedia est devenue l’un des points de mire de l’activité d’internet. Mais elle reste finalement, bien que le projet soit ouvert à tous depuis son origine,assez méconnue quant à son fonctionnement (règle, us et coutumes, etc.) et, quand on y pense, à sa finalité même (
y compris pour ses contributeurs). Et bien que le premier point en tout cas soit assez simple à rattraper, encore en faut-il se donner la peine. Malheureusement, ce n’est pas cette fois-ci que cela sera fait. Surtout que la chose est un peu plus subtile qu’à l’accoutumée. A tel point que votre serviteur s’est
joyeusement trompé dans ses propres explications. Et des journalistes de métier n’ont pas forcément été creuser.
Alors on en parle ...
L’information en question a été (mal) diffusée selon trois orientations principales :
- Wikipedia introduit une méthode de filtrage des nouvelles informations (ici, par exemple).
- Wikipedia réforme ses méthodes de construction (là par exemple).
- Wikipedia teste un nouveau logiciel pour faire du filtrage (là, par exemple).
Autant l’écrire tout de suite : ces trois voies sont soit partiellement, soit totalement erronées. Explications sommaires.
Wikipedia ne teste
rien. C’est aussi faux que de dire : Windows (ou autre système d’exploitation) teste une nouvelle mise en page. Wikipedia, c’est le nom d’un site (ou plutôt d’un ensemble de sites), pas celui de la communauté d’utilisateurs qu’il y a derrière ou de la fondation américaine qui l’héberge (la
Wikimedia Foundation). Plus que ça, Wikipedia est un site fonctionnant grâce à un logiciel dédié (Wikimedia) libre et largement employé tant pour d’autres sites de la Wikimedia Foundation que pour des sites "hors fondation". L’information exacte (concernant les points 1 et 3) est alors : une nouvelle extension
du logiciel mediawiki est testée pour Wikipedia (version anglophone) afin de limiter la possibilité d’ajouts aberrants à certains articles de l’encyclopédie en ligne.
Concernant le point n°2, il semble que l’introduction d’un système de modération (je prends un raccourci généralisant pour faire simple) soit perçu par certaines personnes comme une modification plus ou moins radicale de la contribution à Wikipedia. C’est tout simplement faux. La participation reste libre (libre aux conditions de la licence sous laquelle se place Wikipedia, pas libre d’y écrire n’importe quoi) et ouverte, mais la modération existait déjà. Non pas par une classe de contributeurs dédiés à cette tâche (on ne se place pas dans un cadre social), mais simplement au regard des principes de vérifiabilité et de neutralité de l’information. Et normalement de l’objectif de construction d’une encyclopédie.
L’information est donc ...
La réalité est donc la suivante. La communauté de Wikipedia (en version anglaise) va tester une extension du logiciel mediawiki appelée
flagged protections qui permettra, si besoin est, de filtrer des ajouts sur des pages qualifiées de sensibles par validation de contributeurs expérimentés. Cette extension est légèrement différente de l’extension
flagged revisions mise en place sur la version germanophone de Wikipedia et sur d’autres sites de la Wikimedia Foundation (comme par exemple
Wikinews francophone), qui elle demande une validation pour tout ajout sur l’ensemble des pages de l’espace "principal" (c’est-à-dire hors discussions) par des contributeurs expérimentés.
Deuxième information : la réalité Wikipedia est souvent (voire très souvent) mal décrite pour le grand public, et ce site est souvent assimilé à un épouvantail avec deux thématiques privilégiées : l’aculture (sans faute) et la fin de la vie privée. Avec un saupoudrage de propagande, évidemment, sinon ce ne serait pas drôle. Hors, il est facile de contacter soit les "Wikipédiens", soit les associations locales construites autour de Wikipedia (Wikimedia France, Wikimedia CH en Suisse, Wikimedia Deutschland, etc.) si on ne peut contacter la Wikimedia Foundation elle-même. A condition toutefois de comprendre qu’il ne s’agit que de voix parmi d’autres.
Est-il alors encore utile d’émettre le voeu que les transmetteurs d’information le fassent de façon la plus objective possible et ne se contentent pas de relayer (et déformer) ce qu’ils ont trouvé chez les confrères, dans tel ou tel blog ou même des témoignages qui leur sont proposés ? A ce propos, je n’ai pas pu m’empêcher de sourire quand j’ai vu la similarité entre le titre proposé par 20 minutes :
Wikipédia ne veut plus enterrer les vivants et celui d’Europe 1 :
Wikipedia ne veut plus déterrer les morts.