Internet 1.0 : le rêve oublié
Le web d'aujourd'hui ressemble à une rivière gelée. Les choses se sont stratifiées et figées : quelques gros sites concentrent l'essentiel du trafic et l'innovation ne se rencontre plus que dans la création de nouveaux modèles de rentabilité, de nouveaux concepts lucratifs. L’effervescence créatrice et l'enthousiasme désintéressé des débuts du web ne sont plus qu'un souvenir lointain.
Reprenons depuis le début : tout a commencé au siècle dernier dans les années 90. L'aventurier d'alors disposait d'un territoire vierge à conquérir, équipé de son modem 28,8Kbits/s (vitesse de transfert maximum : 3,2Ko/s !). Il faisait bon vivre dans le web 1.0 intimiste et peu peuplé. C'était un espace de liberté totale : un refuge hors de toute logique mercantiliste et un formidable espoir, un rêve dont nous étions tous les constructeurs. Evidemment il n'y avait alors sur le web que des pages html : pas de vidéo ni même de moteurs de recherche. On utilisait des catalogues de liens en se refilant les bonnes adresses. Pour héberger un site c'était gratuit : altern.org fut le premier à proposer ce service en France, ne demandant rien en échange, même pas quelques informations.
Puis la loi s'en est mêlée. Je me souviens que beaucoup de webmasters de l'époque avaient été scandalisés quand il est devenu obligatoire de fournir un email pour héberger un site. Au final le mythique altern.org à été contraint de fermer suite à des procès insensés, faisant les frais des tâtonnements juridiques des autorités d'alors. Ce fut le signal de départ, la fin de l'isolement : la meute et sa cohorte de lois allait bientôt débarquer chez nous avec ses exigences de rentabilité.
Nous on était bien peinard à faire du html quand la guerre à éclaté. Fin des années 90 : le navigateur Netscape règne en maître, ayant supplanté depuis longtemps l'antique Mosaic. C'est alors que l'ours Microsoft décide de venir mettre ses sales pattes sur le web, après en avoir réalisé tardivement le potentiel. Internet Explorer sort, directement intégré dans Windows. Supporté par une effroyable puissance de feu marketing il gagne de plus en plus de terrain face à Netscape. Là les problèmes sérieux ont commencés : Microsoft s'est mis à faire sa propre version de html, ne respectant pas les standards. Les pages web créées avec du html propre s'affichaient mal dans Explorer, à dessein bien sûr, dans une tentative ignoble de privatiser les standards. Explorer gagnant de plus en plus de parts de marché, on a bien été obligés de s'adapter, réduits à bricoler des pages pour Explorer tout en conservant le html normal pour Netscape. Puis un jour Netscape est mort, écrabouillé par le monstre : Microsoft avait pris le pouvoir, on était dans la merde. Heureusement après quelques temps de flottement Firefox, digne héritier de Netscape, a brillamment repris le flambeau. On peut dire que Firefox a sauvé le web des griffes de Microsoft, rétablissant la balance et obligeant l'ennemi à mieux respecter les formats standards. La première guerre mondiale du web était terminée, le mal avait été repoussé.
Vers la fin du siècle le réseau était plus que jamais perçu comme un objet de fascination. Nous avions plongés dedans avec enthousiasme, travaillant à son édification porteuse d'espoirs démesurés. Soutenus par l'optique du logiciel libre, fonctionnant en communautés soudées et passionnées on construisait le nouveau monde.
Puis les loups ont débarqué : la ruée vers l'or commença. Une époque formidable : la France découvrait internet, les boursiers se léchaient les babines devant tant de juteuses perspectives et l'argent affluait de partout. C'était la folie des start-ups : un type avec une idée sous le bras et un peu de bagou pouvait lever des millions en une après-midi. Les acteurs financiers investissaient dans n'importe quoi, pourvu que ça se passe sur internet et que ce soit bien présenté. Des fortunes se créaient ou disparaissaient en quelques mois. Tout ce cirque a duré pendant un an environ, et la bulle a éclaté. Après s'être pris quelques bananes mémorables les financiers se sont calmés. Ce fût la fin d'une époque, celle de l'internet libre et désintéressé. La pomme était croquée.
Ils commencèrent à coloniser l'internet : de grosses sociétés émergèrent, à commencer par Google. La démocratisation de l'accès internet depuis l'arrivée de l'adsl a permis de mettre en place de nouveaux modèles de rentabilité. Ils allaient transformer notre île exotique en supermarché géant. La pub a débarqué en force sur les sites, et les données ont commencées à être exploitées. Aujourd'hui une poignée de sites concentre l'essentiel de l'activité grand public, à commencer par Facebook. Cela pose un problème à divers titres : internet se ferme et se vend au plus offrant. La dérive récente des jeux en ligne vers toujours plus de pognon à essorer est symptomatique.
Le web 2.0 apporte néanmoins des innovations positives, permettant au grand public d'éditer facilement des informations sur le net grâce aux blogs et wikis.
La marchandisation des données va bon train : beaucoup de sites demandent de plus en plus d'informations à l'utilisateur, parfois obligé de les fournir s'il veut accéder à du contenu dans les réseaux sociaux. Absolument tout est stocké : chaque action de l'utilisateur 2.0 est enregistrée et recoupée, le moindre clic. En soi la valeur de ces données est nulle, par contre leur exploitation sur des masses considérables par des techniques de data mining produit de la valeur échangeable en termes d'informations. Il est probable que Facebook en sache plus sur un utilisateur que lui-même. Cela pose évidemment un problème de confidentialité, le websurfeur d'aujourd'hui étant traqué et profilé à chaque instant. Que vont devenir ces données, propriété des sites en question, dans quelles mains vont-elles atterrir ?
Du même tonneau une autre super innovation : le tracking multi-sites. La démocratisation de javascript dans les navigateurs a permis aux gros sites, qui concentrent aujourd'hui l'essentiel de l'audience, de développer des outils pour pister l'utilisateur. Enormement de sites chargent à chaque page des petits scripts étranger qui envoie des infos aux maisons mères. Facebook et Google sont partout : ils collectent tout sur tout le monde. Ici même sur Avox chaque page chargée lance 3 scripts Google : pour la pub, la syndication et les stats. J'ai rien contre mais je préfère les stats à l'ancienne produites par le serveur web lui-même : ce sont mes informations pas celle de Google. Je me rappelle avec nostalgie les jours où les cookies (petits fichiers innocents dans le navigateur pouvant stocker des informations) étaient regardés avec la méfiance qui prévaut face à une intrusion dans la vie privée. On en est à un autre stade aujourd'hui : l'intrusif est la règle, il faut se protéger. La parade existe : Firefox équipé du module No Script, qui bloque systématiquement tout les scripts sauf ceux des sites que l'utilisateur a autorisés. Voila déjà un problème résolu : encore merci Firefox sur ce coup là. Au passage un autre module Firefox très utile : Adblock pour bloquer les pubs.
Les robots collecteur de données qui se baladent sur les réseaux, les bots, évoluent aussi rapidement.
Je parle même pas des systèmes d'interception et d'analyse de flux, pouvant conduire aux pires dérives sécuritaires étatiques : surveillance et censure sont techniquement possibles. Tout cela vendu dans un premier temps pour lutter contre les hackers chinois pédophiles, puis étendu en douce selon la méthode classique.
Bon c'est moche tout ça mais pensons au futur. Pour l'instant le web a chopé le cancer : son aspect universel, de caractère quasi-sacré pour les anciens, est en train de foutre le camp. Le problème se situe dans l'accès aux données, qui devient en quelque sorte privatisé. Je dois entrer un peu dans la technique pour expliquer. Exemple : je suis programmeur et je souhaite accéder à des données sur Facebook. Or cela n'est possible uniquement qu'en utilisant les outils fournis par Facebook, alors qu'il existe des formats standards, universels, élaborés et reconnus par le W3C, l'organisme mondial de normalisation. Métaphoriquement je ne peux accéder à des données Facebook que si je parle le Facebook, et non par un langage universel.
Pour nous c'est la seconde guerre mondiale du web : formats contre API (Application Programing Interface : outils, méthode d'accès spécifiques à un site pour faire simple). Que faire ? Lutter, défendre notre vision, et continuer à construire le réseau.
Tout espoir n'est pas perdu, loin s'en faut. La Rébellion dispose d'armes puissantes à l'abri dans un autre recoin de la galaxie : le web sémantique. Des outils se développent afin d'améliorer la qualité des données : les transformer en connaissances. Tout cela tourne autour du format RDF, base de développement d'autres formats. Cela consiste en gros à définir mieux les relations entre données au travers de triplets de type sujet/verbe/complément : la relation est ainsi qualifiée, par exemple : untel->est l'auteur de->tel article. L'information prend alors une valeur sémantique : il ne s'agit pas de présenter des données mais de les définir dans une acception plus humaine.
Perso je fonde beaucoup d'espoirs dans OWL (Ontolgy Web Language) qui permet de modéliser des ontologies, et d'automatiser une partie du traitement de l'information avec ce qu'on appelle un raisonneur. Exemple : ontologie modélisant une famille : le programme peut savoir que la sœur de ma mère est ma tante. Il effectue des déductions à partir des relations d'inférence définies dans les données ainsi modélisées. Cela ouvre des perspectives énormes et tout cela est encore en développement et reste un peu underground, cependant le potentiel est là. Je me lancerais bien à tester l'écriture d'un petit visionneur OWL sous forme de module Firefox, histoire de voir si c'est faisable en javascript, et surtout dans le but de présenter dans un format intelligible tous ces machins sémantiques.
On bosse sur le 3.0 pendant qu'ils se remplissent les fouilles, et comme d'habitude on finira par gagner parce qu'on est plus forts, et ils verront rien venir : l'internet restera libre et ouvert quoi qu'il arrive. Le net est une évolution anthropologique majeure : l'invention de l'écriture a permis d'externaliser la mémoire, celle de l'imprimerie de la démocratiser, et celle de l'internet de la mutualiser.
Vu les enjeux pas question de laisser le réseau se minitéliser de plus en plus. Le net appartient à tout le monde et n'en est qu'à ses balbutiements. Tant de choses sont encore possible.
39 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON