samedi 27 décembre 2008

Bilan 2008 : du nouveau dans le référencement naturel ?

C'était déjà le cas en 2007 : le référencement naturel a continué en 2008 de s'imposer comme l'un des leviers majeurs du web marketing. Quelques nouveautés sont apparues cette année, mais les habitudes - bonnes ou mauvaises - n'ont pas beaucoup évoluées.

"N'oubliez pas le référencement naturel !"

Il fait tellement partie du décor chez les grands comptes que l'on se demande parfois pourquoi : tout responsable Marketing Internet se doit de penser au référencement naturel, au même titre qu'il doit penser à consulter ses équipes sécurité ou le secteur juridique pour rédiger les mentions légales du site. Ainsi, on nous demande des conseils pour "faire le référencement" d'un site, y compris pour un jeu concours éphémère ou même... un espace client !

Le travail éditorial est toujours plébiscité

Au-delà de ces cas extrêmes (dans la même veine, consultez également le bêtisier 2008 de WRI), les décideurs sont toujours davantage réceptifs à ce qu'ils peuvent facilement appréhender : le travail sur le wording et le sacro-saint "choix des mots-clés" arrivent alors largement en tête (titre des pages, URL, descriptions, mise en avant des termes clés dans le contenu des pages, etc.).
Le quotidien du référenceur passe ainsi souvent par un échange régulier de fichier Excel avec les webmasters du client, listant pour chaque page d'un site (ou du moins les principales, en fonction du budget) les termes à employer.

Le nouvel outil de suggestion de mots-clés de Google est simple et efficace

Pour mener à bien ce travail, deux objectifs :
- 1. analyser l'environnement concurrentiel, en étudiant le référencement des principaux concurrents et en jugeant les expressions sur lesquelles un bon positionnement est possible
- 2. analyser les attentes de l'internaute, en étudiant les expressions réellement recherchées par les clients (parfois assez lointaine du vocabulaire "officiel").

Parmi les outils susceptibles d'aider à réaliser ce travail, l'outil de suggestion de mots-clés de Google est une belle nouveauté de l'année. Certes, de nombreuses fonctionnalités étaient déjà disponible via adWords et l'API Google, mais cet outil est résolument facile d'accès et d'utilisation.
Toujours chez Google, l'interface "Outils pour les webmasters" offre aux propriétaires de sites des innovations intéressantes, comme une analyse qualitative des titles et descriptions de page ou des fichiers sitemaps, ou encore un paramétrage fin de la vitesse d'exploration.

D'autres évolutions demandent encore d'être confirmées par les faits, parmi lesquelles le concept de recherche universel ou encore SearchMonkey de Yahoo!.

Le travail sur le code : un côté toujours obscur et délaissé à tord

Ce n'est pas vraiment surprenant, mais il est plus facile de proposer un rewording des titres de pages qu'une optimisation du code html et l'ajout subtile de balises "" . Pourtant, c'est souvent le principal talon d'achille des sites des grands comptes : le travail éditorial offre alors des résultats assez faible par rapport au potentiel que représente une optimisation du code des pages. Pour les "connaisseurs" en développement html, regardez par exemple le code source de la page d'accueil LCL, qui commence à accuser le poids des années.

2008 confirme également que les refontes de site s'accompagnent d'un code de plus en plus respectueux des standards, des normes européennes d'accessibilité. La plupart du temps, cela ne peut qu'améliorer le référencement naturel... mais ce n'est pas suffisant. Le nouveau site Société Générale, dont le code serait probablement qualifié de "propre" par les experts, n'est ainsi pas du tout optimisé pour le référencement naturel. Côté Caisse d'Epargne, l'ajout de quelques effets "2.0" ainsi que l'absence de réécriture d'URL n'aident pas non plus.

90% de son trafic par référencement naturel, c'est -évidemment- possible

Besoin d'argument ? Parmi les expériences personnelles, la refonte d'une plate-forme de fournisseurs B2B - qui date pourtant de quelques années - a permis au référencement naturel de de représenter plus de 75% de son trafic ! Plus récemment, une correction des erreurs techniques (sans refonte complète coûteuse) a permis au site PlayStation France de gagner 25% de trafic.

Un travail pluri-disciplinaire

Un bon référencement naturel nécessite de maîtriser, dans le désordre : le métier du client, le web marketing, le développement html et le fonctionnement des moteurs de recherche.

Pour les clients, c'est encore plus complexe : le choix d'un prestataire nécessite d'être un minimum averti des pratiques, par exemple à travers une journée de formation (comme en propose les auteurs des sites Abondance ou WebRankInfo).
Il nécessite également d'avoir un pouvoir de décision sur l'approche "prospect" sur le canal Internet : construction d'une constellation de sites thématiques, fourniture de contenus connexes permettant d'attirer l'internaute, conclusion de partenariats avec des fournisseurs de contenus, ...
En interne, la mise en place d'une stratégie de référencement nécessitera l'investissement des chargés de contenu marketing (et donc souvent les chefs produits), mais aussi la maîtrise d'ouvrage et la maîtrise d'oeuvre pour spécifier et intégrer les optimisations de code.

Avant toute chose, mieux vaut donc établir des objectifs qualitatifs et quantitatifs (gains de trafics attendus, nombre de souscriptions ou CA, puis s'entourer d'un bon pilote pour faire travailler efficacement toutes les compétences nécessaires.

Aucun commentaire:

Enregistrer un commentaire

Pour commenter ce post :