Quand j’ai commencé à m’intéresser au référencement, en 2003, c’était plutôt simple. C’est même devenu carrément rigolo en 2004 quand j’ai participé à mon premier concours de référencement qui fût le mythique « mangeur de cigogne » où j’ai terminé à l’honorable 3ème place. En 2004, j’ai recyclé le site de ma défunte société en mode d’emploi du référencement. A l’époque, 7-dragons.com était le premier site à expliquer simplement comment optimiser et positionner des pages (WRI était le premier forum sur le référencement dès 2003, mais 7-dragons expliquait en une page ce qu’il fallait piocher sur plusieurs fils de discussion WRI ou Abondance) . Depuis plus d’un an, j’ai laissé tomber la mise à jour de ce site car il me semblait que je n’avais plus grand chose à dire sur le sujet. D’autres ont pris le relais avec beaucoup plus de motivation que moi. Bien sûr, le secteur est toujours en évolution, mais les fondamentaux ne changent pas. Comme toujours, il faut construire un site pour l’internaute, rédiger un contenu unique/pertinent, augmenter sa popularité, blablabla…
Les sites qui ont peu de valeur ajoutée ne sont pas pérennes. Les modèles style annuaire, buzzeur de vidéos ou publication de communiqués de presse s’effondrent les uns après les autres. D’ailleurs, la plupart ne pointent même pas le bout d’une page sur les requêtes concurrentielles, mais ceux qui y arrivent sont encore moins sûr d’y rester.
Plus effrayant encore, j’ai des amis éditeurs de sites et j’avais un employé développeur qui ont été la cible directe de pénalités Google. C’est-à-dire que le propriétaire ou le webmaster est personnellement flaggé, donc tout ce qu’il met en ligne ou qui est déjà présent sur la Toile sera fortement dévalorisé – absent des bonnes positions sur les résultats de recherche du moteur puisque relégué au fin fond des abysses de l’index Google. Tout un réseau de sites peut s’effondrer du jour au lendemain, me faisant réfléchir sur la manière de surmonter ce danger potentiel.
Pour ma part, j’ai généralement échappé aux foudres de Google. Parfois, un site tombe temporairement, mais il remonte toujours. Franchement, je n’ai aucune idée des raisons qui poussent Google à laisser mes sites tranquilles, tandis qu’il s’acharne sur d’autres. Peut-être que mon jour viendra où je vais voir mes statistiques tomber proches du zéro absolu puisqu’il faut savoir que, pour certains sites, Google compte pour 90 % du trafic.
En prévision d’un tel désastre, je construis un modèle de visibilité qui peut se passer de la présence sur les moteurs de recherche. Désormais, il est vital de pouvoir subvenir sans trafic moteur. Si Google & Co. me ramènent du trafic salvateur, je ne vais pas cracher dessus. Par contre, si mon site se casse la gueule dans les résultats de recherche, je peux continuer sereinement à travailler puisque mon Core Business ne dépend pas uniquement du trafic moteur.
Tout le monde me dit que je suis cinglé de jouer au poker, mais j’affirme que le référencement est largement plus aléatoire que le poker. En fait, le référencement est une partie de poker où les règles sont inconnues, tout en sachant qu’elles changent en permanence sans que nous soyons informés. Vous iriez miser un centimes sur un tel jeu ? J’y joue assidûment depuis plus de quatre années, et j’en vois nettement les possibilités se restreindre.
Le temps où des individuels comme moi pourront creuser leur petit trou sur la Toile est révolu. Maintenant, il faut se battre dix fois plus afin d’arriver au même résultat, sans savoir si les objectifs sont dans le domaine du possible. Auparavant, il était quasiment garanti de pouvoir tirer son épingle du jeu, tandis qu’aujourd’hui je sens profondément que la fête est finie. Le terrain de jeu était trop génial pour rester ouvert à des opportunistes travailleurs qui n’ont pas un sou à investir dans la publicité.
En fait, je dois avoir beaucoup de chance. Depuis que je fais ce métier, j’ai toujours senti le vent tourner. Les évolutions sont permanentes, mais il faut pouvoir ressentir quels sont les petits détails à valoriser pour être gagnant. Il faut bien comprendre que des milliers de paramètres sont compris dans l’optimisation « on page » et « off page ». Le boulot du référenceur consiste à proposer le contenu des pages aux moteurs de la manière la plus performante possible. N’importe qui peut s’informer sur le référencement. La méthode sera simple : optimiser des endroits clés du code source, rédiger des pages, et populariser le site. Sauf que cela ne suffit plus pour réussir. Aujourd’hui, il faut présenter des atouts bien plus puissants que la méthode de base qu’il est possible de connaître en lisant quelques fils de discussions sur les forums adéquats. Depuis deux ans, la notion de visibilité remplace celle de référencement car la seule présence dans les pages de résultats de recherche ne suffit plus. Désormais, il faut utiliser d’autres canaux afin d’être toujours plus visible.
Sans compter que la concurrence devient de plus en plus féroce. Les grosses requêtes sont quasiment acquises aux dix premiers, laissant peu de place aux nouveaux. À chaque fois qu’une personne me demande comment il faut faire pour être en première page sur tel ou tel mot clé, je réponds qu’il faut se mettre à la place du moteur, décidant si votre page mérite de remplacer un des résultats positionnés depuis des années sur cette requête. De quel droit la nouvelle page mérite de gicler un résultat existant ? Sur les milliers de paramètres pris en compte par l’algorithme de Google, votre nouvelle page peut-elle clamer sa totale supériorité ou l’évidence de certaines faiblesses apparait ?
Ainsi, pour être présent parmi les meilleurs, il faut être le plus pertinent possible. Tout de suite, les plus malins vont me répondre que les résultats de recherche Google sont pollués par de nombreuses pages peu pertinentes qui squattent les bonnes positions. En fait, il faut prendre l’index dans sa globalité. Dans ce sens, la pollution est infime, considérant que l’internaute trouve toujours une réponse satisfaisante à sa requête.
De plus, les pages remarquées comme douteuses sont propices à tomber un jour ou l’autre, tandis que des pages solidement construites peuvent se vanter de mettre toutes les chances de leurs côtés afin de rester en bonne position. Pour me faire comprendre, je vais faire une analogie avec l’habitat : je peux acheter un magnifique château qui est superbe vu de l’extérieur, mais la plomberie est rouillée, la charpente est pourrie, et l’électricité date de l’après-guerre. Pour l’instant, le château tient debout, mais pour combien de temps ? Si je n’effectue pas les travaux nécessaires, combien de temps est-ce que ma toiture va tenir ? Et si jamais le système électrique précaire causait un incendie qui détruit totalement ma belle demeure ? Mon joli château était le plus beau du monde, sauf que la face cachée était dans un état tellement pitoyable. Maintenant, ce superbe château ne vaut plus rien depuis qu’il s’est écroulé.
En construisant un site Internet dans les règles de l’art (au sens artisan du terme), j’augmente considérablement mes chances d’obtenir une présence pérenne dans les résultats de recherche. Mon site est solide des fondations à la toiture, en passant par la plomberie et l’électricité. Certains disent que le code source est de la poésie, et j’ai tendance à être d’accord avec eux. Plutôt, je vais dire que le code source doit être travaillé en soufflerie, comme la Formule 1 d’Alonso. Chez moi, rien ne vient entraver ou ralentir le crawl des moteurs de recherche ; tout est fait pour que l’indexation se déroule parfaitement.
Étant donné que le trafic demande de plus en plus d’efforts à acquérir, il faut aussi se poser des questions supplémentaires qui tiennent à la conversion du visiteur. Vous avez dépensé une fortune en temps et/ou en argent pour être positionné sur vos requêtes préférées, mais votre page est tellement mal foutue que la visite de l’internaute est gaspillée. Il faut comprendre les notions d’ergonomie incitative afin de construire des pages performantes, optimisant la conversion du visiteur en prospect ou acheteur. En tout cas, il est contre-indiqué de laisser les facteurs de conversion au bon vouloir de la chance. Trop souvent, j’écoute des gens qui « pensent que ». Comme tout vecteur de communication, les pages Web performantes incluent des méthodes et une stratégie qui optimisent l’efficacité et le résultat. La plupart du temps, le propriétaire ou le responsable d’un site tire de son chapeau la meilleure manière de construire la page ou il prend carrément modèle sur un autre site qui lui plaît. Bien entendu, il ne faut pas procéder ainsi. Comme au poker, je ne veux pas laisser la chance influer plus que nécessaire. En d’autres termes, je préfère mettre la chance de mon côté. Il est impossible de prendre en main l’internaute lors de sa visite comme pour un client dans un magasin. Par contre, il est possible de construire la page de telle manière qu’un chemin est clairement indiqué pour le visiteur, minimisant les distractions afin de l’amener à effectuer l’action que je souhaite qu’il entreprenne. Ne pas penser à l’ergonomie incitative engendre des pages qui ne sont pas aussi performantes que lorsqu’une personne avertie va s’occuper d’appliquer des méthodes qui marchent plutôt que l’idée de génie sortie du chapeau de quelqu’un qui ne connaît rien au Web, même s’il prétend que c’est son métier.
Je procède à l’aide d’outils et d’un savoir qui me permettent la mise en pratique de concepts prouvés pour leur efficacité. À l’inverse de la vaste majorité des autres éditeurs de sites, je construis les miens pour la performance. Certains diront que je coûte trop cher. Je réponds que ce sont plutôt les formules de référencement à 99 € qui sont hors de prix. Par exemple, est-ce que vous trouvez cela cher si je vous facture 15 000€ pour qu’au final, vous gagniez 30 % de parts de marché, vous allez ridiculiser la concurrence et vous allez engranger 150 000 € de bénéfices supplémentaires ? De l’autre côté, en dépensant 99 € pour un référencement dans 1 000 annuaires, vous avez aussi bien fait que pisser dans un violon.
Par contre, je ne suis pas magicien, et Google ne m’appartient pas. Du coup, il m’est impossible de garantir des résultats. Les seules choses que je puisse mettre en valeur sont mes résultats passés et ma réputation. La triste vérité est que 99,99 % du Web est totalement pourri au niveau technique. La vaste majorité des sites ne respectent pas les indispensables fondamentaux du référencement. C’est effarant de voir le désastre en place chez certaines entreprises du CAC 40 au niveau de la visibilité sur Internet. D’ailleurs, je relève le challenge de transformer le site de n’importe quelle entreprise du CAC 40 en véritable Formule 1 du Web en moins d’un an. Je rigole quand je lis que les ténors du CAC 40 pleurnichent parce que Wikipedia leur pique des positions. Ils n’ont qu’à prendre le Web au sérieux plutôt que râler parce qu’une malheureuse encyclopédie en ligne bouffe leur visibilité. Qu’ils me contactent pour comprendre que Wikipedia est vraiment un élément totalement négligeable.
Au départ, je devais expliquer comment être visible sur Internet, mais finalement je vois que j’ai juste fait un billet d’humeur sur les enjeux actuels liés au référencement.
J’ai déjà publié un guide du référencement (co-écrit avec Marie a.k.a. Altiref et Rand a.k.a. SEOmoz ) qui explique les fondamentaux (version PDF disponible sur demande), mais je dois maintenant expliquer comment arriver à générer de la visibilité sans compter sur la présence dans les moteurs de recherche. Désolé de vous laisser languir encore un peu avant d’expliquer les nouveaux secrets de la visibilité sur Internet, mais une encyclopédie ne suffirait pas à rassembler tout ce que j’ai à dire sur le sujet.
Bien entendu, je reste disponible sur les commentaires ou directement par eMail pour répondre aux questions.