L’année 2015 vient de démarrer et beaucoup de webmasters se demande comment poursuivre le référencement de leur site. 2014 effectivement été une année riche en rebondissements dans la sphère SEO, et, plus que jamais, il est capital d’avoir une stratégie de référencement clairement définie. Faisons un petit tour d’horizon de ce qu’il convient de faire pour être bien positionné dans les moteurs de recherche.
Rechercher ses mots clés
En matière de référencement naturel, il y a des choses qui ne changent pas : même si les moteurs de recherche ont rajouté des couches d’algorithme et de filtres à leurs calculs, ils ne comprennent toujours pas les textes comme un être humain. La seule chose que font les moteurs de recherche, c’est d’extraire des mots-clés et des grappes de mots-clés de vos textes, les passer à travers une série d’algorithmes, pour tenter d’en comprendre le sens.
Si le moteur de recherche ne comprend pas ce qu’il y a sur vos pages, vous ne pourrez pas être classé dans les moteurs de recherche. Il faudra donc veiller à optimiser son wording (on va y venir). Et quitte à optimiser les mots qu’on va utiliser sur la page, autant que ce soit pour une requête qui ramènera un peu de trafic. Il faut donc faire une petite veille, même rapide, sur les mots et expressions clés qu’on va attaquer.
Le keyword planner d’Adwords est très bien pour ça. Il permet d’avoir des suggestions de mots-clés et de se créer une stratégie sur la longue traîne : ça sera plus efficace que de viser les mots-clés concurrentiels. On peut aussi utiliser le keyword grabber de Scrapebox. Si Scrapebox ne donne pas d’indice de popularité ou un indice sur la concurrence pour le mot-clé donné, il sera quand même plus simple à utiliser pour récupérer de nombreux mots-clés sur la longue traîne.
Outils conseillés : Google Adwords Keyword Planner, Scrapebox
Avoir une stratégie de contenu/éditoriale
Une fois que vous avez trouvé une liste d’expressions-clés sur lesquels vous voulez ranker, il faut définir une stratégie éditoriale. Ici, on distinguera le fond de la forme. Le fond, c’est évidemment les sujets qui constitueront l’essentiel de vos pages : essayer de cibler large par rapport à votre niche, sans oublier toutefois de rédiger pour des « persona ». Rédiger pour des archétypes vous permettra d’avoir un taux de conversion supérieur.
La « forme » de votre contenu éditorial, c’est à la fois le format que vous allez utiliser pour créer votre contenu (page, articles, blogs, présences sociales etc.) mais aussi la façon dont vous allez organiser votre contenu, et la façon dont vous allez lier vos éléments entre eux.
Votre stratégie éditoriale sera votre fer de lance pour accroître votre notoriété et voir grandir votre communauté : souvenez-vous que Google aime les sites qui sont régulièrement mis à jour.
Ecrire pour l’internaute
Panda a littéralement tué le keyword-stuffing. Bourrer vos phrases de mots-clés, les placer n’importe où, n’importe comment, c’est l’assurance de voir votre densité pondérée chuter massivement. Il ne sert à rien aujourd’hui de faire du bourrage de mots-clés, c’est contre-productif. Attention de ne pas tomber également dans le travers de la triplette du bourrin, il va falloir la jouer subtil si vous voulez avoir une bonne optimisation sémantique.
Ce qui est paradoxal ici, c’est qu’on est censé écrire pour l’internaute, alors qu’en fin de compte on écrit surtout pour le robot des moteurs de recherche. Évidemment, les algorithmes ont beaucoup évolué et ils sont aujourd’hui capables de repérer les synonymes et les champs sémantiques qu’on utilise pour identifier une empreinte relative aux mots-clés.
Toujours est-il que l’optimisation du wording est un exercice délicat, la recherche d’un équilibre entre une rédaction de qualité (pour l’internaute) et un signal sémantique fort et claire (pour les moteurs de recherche). Pour analyser les mots sur votre page, vous pouvez déjà voir une bonne idée de ce que vous avez fait avec alyze.info. Quant à l’optimisation sémantique, il y a l’excellent Visiblis.fr, qui vous donnera de précieuses indications sur le travail à effectuer.
Outils conseillés : alyze.info, visiblis.fr
User experience
L’expérience utilisateur a une incidence forte sur le référencement. Un taux de rebond élevé, ou du pogo-sticking sur vos pages, c’est un signal très négatif pour Google : cela pourrait signifier que l’internaute ne trouve pas ce qu’il recherche dans votre contenu, et que donc, par conséquent, la page indexée n’est pas pertinente pour la requête demandée.
Il faudra donc faire en sorte que votre taux de rebond soit le plus bas possible, et que vos pages présentent un contenu intéressant : on proposera donc plusieurs liens aux lecteurs vers des sujets connexes, et on essaiera de répondre au maximum à sa demande.
Moyens utilisés : contenu éditorial de qualité, net-linking optimisé, proposition de liens et de contenus en relation avec l’article consulté.
Optimisation on-page
On rentre dans le caractère technique du référencement. L’optimisation on–page, c’est tout ces petits facteurs qui peuvent améliorer la qualité d’un site : absence de 404, meta-title bien écrite, balises alt sur les images, textes suffisamment longs (attention à la limite de 300 mots qui vous font passer en thin-content), pas de fautes d’orthographe etc.
Cette optimisation peut être chronophage, c’est un suivi constant, et il faut de temps en temps revenir sur l’optimisation des pages pour fixer les petites coquilles qui ont pu apparaîtr.
Outils conseillés : SEO Power Suite en général, SEO-Profiler en particulier, Screaming-Frog
Performances du serveur
On sait que Google préfère les sites rapides : un site lent, c’est un site qui est plus difficile à crawler pour Googlebot, donc c’est une dépense en ressources supplémentaires côté Google. Bien entendu, l’impact sur le référencement n’est pas si grand que cela. Néanmoins, la vitesse de chargement des pages à une incidence sur l’expérience utilisateur, car les internautes sont en général pressés. Il faut donc avoir un site rapide, agréable parcourir.
On peut par exemple mettre en place un serveur de cache, ou optimiser les directives de conservation de fichiers côté client, utiliser un CDN etc…
Outils conseillés : GT-Metrix, Pingdom Tools
Auditer régulièrement son site
Auditer un site, ça ne veut pas dire forcément « être collé dessus 24 heures sur 24 ». Le plus simple, c’est d’utiliser un outil comme SEO profiler, ou Website Auditor, pour avoir des rapports hebdomadaires, et savoir sur quoi travailler. Mais l’audit de site, ça n’est pas qu’un audit technique : il faut passer un peu de temps sur Analytics pour connaitre les statistiques de fréquentation (nombre de pages vues, nouvelles visites, zones géographiques, temps moyen passé sur le site, taux de rebond etc.).
Il faut également surveiller les temps de chargement de pages (avec les outils cités ci-dessus, ou plus simplement avec les Google Webmaster Tools). Ici, on tiendra compte à la fois de la technique, du marketing, du graphisme, et des rapports SEO plus conventionnels (backlinks, nombre de pages indexées etc).
Outils conseillés : Tout ceux cités sur cette page !
Penser au référencement local
Pigeon (il est vraiment tout pourri le nom de cet algo…) sort dans quelques semaines, dans quelques mois tout au plus pour la France. Le nouvel algorithme de Google est déjà en cours de déploiement sur tout le monde anglophone. Il y a fort à parier que dans les mois qui vont venir, le référencement local va prendre son envol.
En fonction de votre business plan, et de votre zone géographique, il conviendra d’optimiser certaines pages (ou pas !) pour ranker plus facilement sur des requêtes géolocalisées.
Récupérer des liens
Quoi qu’on en dise, les liens ont encore un rôle très important à jouer sur le positionnement d’une page Web. On pourrait consacrer plusieurs articles à ce seul sujet ! Si on veut rester conforme aux guidelines de Google, la seule chose qu’on fera sera de créer du contenu de très haute qualité pour générer du partage. Si on s’assoit sur les guidelines de Google, on utilisera tous les moyens qu’on en notre possession pour accroître les liens entrants vers le site.
Évidemment, la tâche est complexe, délicate, il faut vraiment savoir ce qu’on fait. Mais même si vous ne faites pas de construction de liens, ça ne vous empêche pas de surveiller votre profil, afin de contrer toute tentative de negative-SEO. Consultez régulièrement notre blog pour mettre en place une stratégie de link-building intéressante pour votre secteur d’activité.
Outils conseillés : SEO Spyglass, Ahrefs, Majestics, SEO-Profiler
Gérer sa communauté
La gestion de communauté, et la génération de trafic via les réseaux sociaux, c’est l’avenir. Il faudra donc avoir une présence forte sur les sites comme Facebook, Twitter, Google+, LinkedIn etc. Il existe déjà de nombreux softs pour gérer ces plates-formes, ce n’est pas la tâche la plus compliquée pour un exploitant de site internet. Néanmoins, cela demeure un impératif.
Outils conseillés : Hootsuite, BuzzBundle
Conclusion :
Rien de bien nouveau sous le soleil ! Quelques petites nouveautés cependant avec la croissance prochaine des requêtes géolocalisées et également le fait de devoir investir un peu plus sur la présence sociale.
Pour le reste, continuez de créer du contenu de qualité, développez votre cercle d’influence sur le Web, étendez votre visibilité sur les plates-formes qui peuvent être intéressantes pour votre société (ça peut très bien être un forum, un blog, un réseau particulier etc.). Quant à la création de liens… faites le buzz ! 😉