Audit SEO à Caen
Pourquoi votre trafic stagne-t-il ?
On cherche, et on trouve !
A quoi sert un audit SEO ?
Depuis quelques années, Google a multiplié les filtres dans ses algorithmes : panda, penguin, hummingbird, pigeon, c’est un véritable zoo…
Cela engendre pas mal de problèmes : sous ces noms sympathiques se cachent en fait de véritables exterminateurs, si vous n’avez pas respecté les consignes aux webmasters de Google.
L’audit de référencement détermine si votre manque de trafic provient d’une sur-optimisation, ou au contraire, d’un manque d’optimisation des facteurs de positionnement.
Nos audits examinent les aspects techniques, sémantiques et ergonomiques du référencement naturel !

Sur quoi porte l’audit de référencement naturel ?
L’audit Technique
Il y a un coté terriblement « mécanique » au référencement naturel. Google et les autres moteurs de recherche fonctionnent de manière très carrée, comme tous les programmes informatiques. Et on peut dire qu’ils n’ont pas encore la même perception d’un texte que nous autres, humains. Du coup, il faut savoir se mettre dans la peau d’un moteur pour appréhender la façon dont il verra un document… Et procéder par étape !

Le serveur web
Comment se porte la machine qui héberge votre site ? Vos pages sont-elles en bonne santé ? Si les robots des moteurs de recherche ne peuvent pas parcourir aisément et rapidement l’ensemble de votre site, vos positions dans les pages de résultat ne seront pas bonnes.
Il est capital que votre serveur envoie les contenus importants de votre site le plus rapidement possible, sans erreur (404, 500 etc.). De la même façon, il faut éviter autant que possible les redirections non nécessaires (301,302 etc.). Nos outils nous permettent d’analyser toutes les URL, données et éléments déterminant pour votre positionnement
Crawl et indexation
Pour les robots comme Googlebot, l’action de parcourir une page s’appelle le crawl. Une fois une page parcourue, elle est ensuite soumise à Google qui décidera ou non de l’indexer, c’est-à-dire de la présenter dans les résultats de recherche, à une position adéquate d’après son analyse.
Là encore, le crawl doit être le plus fluide possible, et surtout il faut l’optimiser : par exemple, vous n’avez pas envie que le robot des moteurs de recherche passe le plus clair de son temps sur la page de vos mentions légales… En effet, cette page n’est pas forcément porteuse pour votre business plan, ne rapportera pas de trafic et ne vous permettra pas d’accroître votre chiffre d’affaires.
Il faut savoir que, pour les robots de Google, la décision de parcourir une page (ou pas) dépend de nombreux facteurs (position du lien, contexte sémantique etc) mais il ne s’agit en aucun cas d’une décision « humaine » ou rationnelle. Les robots, pour le dire autrement, agissent comme… des robots, et prennent des décisions très « carrées », pour ne pas dire autre chose.

Quelque part, l’examen du crawl et de l’indexation d’un site sont la prémisse à une campagne de PageRank Sculpting : l’art et la manière de conduire le robot de Google là où vous avez besoin qu’il soit… Idéalement, c’est lors de la création d’un plan de site que l’on place les contenus importants, qu’on élabore une stratégie de positionnement, en fonction du volume de recherche et de la concurrence sur internet.
Seulement, dans la pratique, peu d’agence web font appel à un référenceur quand elles choisissent les éléments clé d’un site, et c’est fort regrettable car les actions mises en place en amont, lors du travail préparatoire, font vraiment la différence vis à vis de la concurrence !
Profondeur des pages
Puisqu’on parle du PageRank, cette « note » attribuée par Google à une page, et qui lui permet de se positionner dans les SERP (Search Engine Result Page), il faut qu’on parle de la profondeur des pages : plus une page est « enterrée », moins elle reçoit de « jus » (la probabilité de présence de Googlebot à un instant T). L’audit technique permet de voir si un élément est à la bonne position dans votre maillage interne, en fonction de son importance dans votre modèle économique, dans vos contenus, mais aussi en fonction du trafic qu’il peut générer.
Là encore, la notion de stratégie est au coeur du métieur de référenceur : on ne créé pas une architecture de site « au petit bonheur la chance ». Tout est calculé.
Les temps de chargement
Si on peut optimiser le passage des bots pendant le crédit de crawl qui vous est imparti, il est également important d’envoyer un maximum de pages en un minimum de temps. Ainsi, les temps de chargement, et plus particulièrement le TTFB (Time to first Byte), auront un impact sur votre visibilité.

Là encore, le temps de chargement fait l’objet d’une analyse poussée et rigoureuse, pour voir quels sont les « goulots d’étranglement » dans la création du document envoyé aux navigateurs.
Cela fait maintenant quelques années que Google explique attribuer plus de visibilité aux sites qui chargent rapidement, et c’est encore plus vrai aujourd’hui avec les internautes utilisant des terminaux mobiles. Il est important de suivre ces recommandations, largement expliquées dans les consignes aux webmasters.
Les critères de classement ne sont pas donnés explicitement, mais il est facile de construire sa stratégie de référenceur étape par étape en suivant les recommandations de ce guide.
L’audit technique est complexe…
Mais pas de panique, nous vous expliquons tout en détail, sans prise de tête !
La livraison de l’audit se constitue à la fois de documents et d’un brief téléphonique simplifié, qui vous permet de comprendre l’analyse effectué par notre référenceur…
L’audit Sémantique
Si vous avez respecté tous les points relatifs au bon fonctionnement du serveur, que votre structure de site est optimisée, et que vous orientez les robots vers les pages les plus intéressantes pour vous, encore faut-il que ces derniers comprennent de quoi vous parlez…
En effet, les robots des moteurs de recherche ne comprennent pas le langage comme nous, et il faut les aider un peu !
Les balises title
La balise title est la balise la plus importante pour une page Web. Sa mauvaise rédaction peut à elle seule compromettre le référencement de tout votre contenu. Autant dire qu’il ne faut pas la louper, et que son choix ne doit pas être pris à la légère.
Tout comme le choix de vos mots-clés, la balise title doit subir un travail de préparation qui permettra à votre site de se faire son trou dans la niche marketing que vous attaquez…
Les titres
La encore, on ne rédige pas n’importe comment : les titres que vous choisissez, à savoir les balises H1, H2, H3 etc., doivent faire l’objet d’un travail méticuleux. Chaque niveau de titres aidera les robots à comprendre vos contenus, et l’articulation des titres ne doit pas être laissée au hasard.
Il faut également veiller à ce que l’ordre d’apparition des titres soit cohérent et adéquat en fonction de votre sujet et de la position de la page dans votre structure de site.
L’optimisation sémantique
Le reste de vos textes n’échappe pas au travail que nous venons de voir : tout doit être optimisé. En fait, aucun contenu ne doit être choisi au hasard, et il faut éviter à tout prix les figures de style ou autres jeux de mots qui pourraient porter à confusion. Les algorithmes des moteurs ont encore besoin d’un coup de pouce pour comprendre le contexte d’une requête !

Les moteurs de recherche ne comprennent pas le langage, et utilisent de nombreux algorithmes d’analyse sémantique (TF-IDF, OKAPI BM-25, divers algos LSA etc) pour classer une page sur un ensemble de requêtes. Ces outils servent à « comprendre » le contenu d’une page, en effectuant toute une série d’opérations de tri et de classement. Ce qu’il faut retenir, c’est que le contenu est Roi, et qu’un bon contenu est en général récompensé par des visites depuis les résultats de recherche organique. Rédiger pour le SEO, ça ne s’improvise pas vraiment…
Le choix de l’URL
La puissance des EMD (exact match domaine) n’est plus à démontrer : quand vous pouvez placer un ou plusieurs mot clé dans une URL de site, le classement est largement facilité, surtout si vous les avez positionné dans le nom de domaine ! Il faudra toutefois prendre garde à ne pas mettre en place d’actions trop agressives, car Google veille au grain sur ce genre d’adresse.
Meta-Description et autres balises secondaires
Les autres balises et marqueurs HTML ont un poids moindre, mais bien travaillés, ils peuvent faire la différence.
Aussi, on veillera à soigner les éléments suivants :
- Meta description
- Balises Alt sur les images
- Utilisation du gras
- Liste de mots clés
- Ancres de liens
- Emphase et italique
- Balises canonical (si besoin)
- Déclaration du charset
- Choix de la langue dans le head
- Etc
C’est l’ensemble de tous ces points qui compose l’optimisation dite « on site ».
Le rapport d’audit détaille tout, et le débriefing est allégé, vous pouvez continuer votre lecture sans crainte 😉
L’analyse des backlinks
En 1998, Google a publié la première version de son algorithme du Page Rank. C’est ce jour-là que les liens ont pris une importance capitale sur le Web. Pour faire simple, vous allez devoir créer un réseau professionnel, sur internet.
Nombre de liens
Théoriquement, plus vous avez de backlinks, mieux c’est. En effet, ces liens seront autant de chemins qui permettront au robot de Google d’arriver sur votre site. Pendant très longtemps, le référencement consistait principalement à créer ces chemins vers les contenus publiés, la plupart du temps de manière automatisée, et à faire un peu de keyword-stuffing (bourrage de mots clés). Pas besoin d’outil superflu, les données nécessaires étaient simples et les critères de classement peu nombreux.
Le spam a ainsi eu de beaux jours sur Internet, pendant presque 15 ans.
Nombre de domaines référents
Google a changé la donne dans les années 2010, avec l’apparition de pingouin, un algorithme chargé de détecter l’utilisation abusive des backlinks (les liens dont il est ici question).
Aujourd’hui, on regardera justement le ratio « liens – domaines référents ». Plus vous aurez de domaines référents, mieux ce sera. Mais là encore, c’est pour schématiser, car les choses sont un peu plus complexes. Le nombre de liens, de domaines référents, les thématiques liées ainsi que d’autres indicateurs auront un impact for sur le Page Rank de votre nom de domaine.

Le bon lien et le mauvais lien
Aujourd’hui, un lien, ça n’est pas « juste un lien ». Il va falloir prendre en compte de nombreux facteurs pour estimer la valeur qu’il apporte dans votre netlinking :
- Son environnement sémantique
- Le site ou l’URL sur lequel il est posé
- La thématique du site sur lequel il se trouve
- L’endroit du site où il est situé
- L’ancre du lien
- Le nombre et la nature des sites liés aux domaines référents
- L’adresse IP du site
- Son propriétaire
- Son âge
- L’âge du domaine référent
- Etc
Pour faire simple, un « bon lien », c’est un lien apposé « in text », dans un environnement sémantique riche, sur une niche identique ou proche de la vôtre, sur un site puissant, qui a de nombreux liens et qui fait autorité dans son domaine. Autant dire que ce lien là n’est pas facile à obtenir…
Et le mauvais lien, c’est tout le contraire ! Liens en blogroll ou en commentaires de blog, signatures de forums, liens sitewide ou en footer, lien en « display none », texte blanc sur fond blanc, il existe de nombreux outils, parfois frauduleux, pour tromper les moteurs de recherche…

Les différents indicateurs de qualité du netlinking
Pour analyser le risque ou la valeur ajoutée de votre profil de liens, nous allons regarder de nombreux indicateurs :
- Trust flow et citation flow
- Thematic Trust Flow
- Age des liens
- Ancres utilisées
- Niches des sites référents
- Contexte des liens
- Link Velocity (la vitesse d’apparition)
- Nature des liens (do follow ou no follow)
- PageRank estimé des sites référents
- etc
Savoir où vous en êtes par rapport à vos liens est un élément clé dans une stratégie SEO de qualité !
S’ils sont le meilleur moyen de promouvoir votre visibilité sur le web, les liens sont aussi un risque de pénalité !
Là encore, l’audit vous aide à faire le point
Recherche de pénalité
L’audit SEO sert à détecter d’éventuelles pénalités. Oui : Google, ça n’est pas que votre ami ! Il est possible que votre site ait trop tiré sur la corde, et que certaines de vos pages soient déclassées ou filtrées…
Panda
On estime aujourd’hui qu’environ 50 % du web est constitué de Spam. En 2010, Google a réagi fermement à une situation qui devenait problématique (pas assez de puissance informatique pour parcourir et indexer tout le web) : grâce à deux refontes d’infrastructure informatique, puis avec la mise en place de Panda, Google a déclaré la guerre au Spam.
Panda est l’aboutissement de longues recherches pour détecter les pages de « mauvaise qualité ». Il détecte ainsi :
- Les pages qui contiennent trop de fautes d’orthographe
- Le copier-coller
- Les textes qui se ressemblent trop
- Les traductions automatiques
- Les textes « spinnés »
- Et tout un tas d’autres mauvaises pratiques qui servent à créer des pages rapidement…
Bref, si vos pages sont trop légères niveau contenu, que vous avez copié toutes les fiches de vos fournisseurs pour alimenter votre boutique E-commerce, ou que votre site est globalement une copie d’un autre site plus important, il y a des chances pour que vous ayez pris un coup de Panda…
Si vous avez un doute, l’audit vous permettra d’en avoir le cœur net !

Penguin
Le deuxième super lascar de Google, Penguin est une vraie terreur ! Il détecte et pénalise les sites qui ont usé de pratiques de netlinking abusives. La mauvaise nouvelle, c’est un qu’un coup de Penguin, ça fait très, très mal, mais heureusement on peut sortir de cette pénalité.
Negative SEO
Du coup, vous voyez qu’il est possible de faire du mal à ses concurrents en usant justement des techniques bannies par Google. Il est courant, dans certaines niches, de voir certains sites littéralement « pourris » par des techniques de SEO « black hat », mises en place par des concurrents peu scrupuleux.
Là encore, l’audit de site permet de faire le tri entre le spam « naturel », et le spam « délibéré ».
Fred et autres quality update
Il n’y a pas que Penguin et Panda dans les filtres de Google : en fait, les algorithmes de Google sont mis à jour très fréquemment, et il est possible, par retro-engineering, de savoir ce qui a motivé un changement dans les pages de résultats.
Certains outils permettent d’avoir une idée précise du type de pénalité qui peut affecter votre classement, et l’audit sert justement à faire le point.
La remise de votre rapport d’audit
Lors de la livraison de votre audit, vous recevez :
- Un détail complet des audits techniques, sémantique et netlinking de votre site
- Un brief d’une heure avec votre consultant SEO
- Un guide complet des bonnes pratiques à mettre en œuvre
- Un listing des points à appliquer pour remettre votre site d’aplomb !
Comment appliquer les préconisations de votre consultant SEO ?
Si vous n’avez pas les compétences en interne pour effectuer les actions nécessaires, vous pouvez tout à fait les confier à l’agence ! Nous pourrons ainsi établir un devis précis pour chaque point, en priorisant sur les fix urgents ou qui seront les plus avantageux pour vous.
Nos recommandations, et l’audit en général, sont la première étape vers un véritable transfert de compétence : nous vous conseillons également sur le type d’outil que vous pouvez utiliser pour analyser votre trafic, battre vos concurrents et prospérer sur internet !
Analyse sémantique
On ne vous en recommandera qu’un, tant il est bon : l’excellent Yourtext.guru ! Un outil Français, concocté par de véritables virtuoses de l’informatique (et Normands, de surcroit, donc forts sympathiques) !
Analyse du netlinking
SEM Rush, Ahrefs, SEObserver, Majestic SEO : autout d’incontournables pour une analyse détaillée et pertinente !
Analyse technique
L’excellent ScreamingFrog : un véritable outil à tout faire, capable de parcourir votre site en un temps record et de vous servir un max de données (prévoir quelques barrette de RAM en plus) !
Vous avez des questions ? Un besoin ? Vous souhaitez nous envoyer un message ou demander un rappel pour en savoir plus sur ce que nous vous proposons ? C’est ici !
Envoyer un messagePar téléphone