Audit SEO à Caen

Pourquoi votre trafic stagne-t-il ?

On cherche, et on trouve !

A quoi sert un audit SEO ?

Depuis quelques années, Google a multiplié les filtres dans ses algorithmes : panda, penguin, hummingbird, pigeon, c’est un véritable zoo…

Cela engendre pas mal de problèmes : sous ces noms sympathiques se cachent en fait de véritables exterminateurs, si vous n’avez pas respecté les consignes aux webmasters de Google.

L’audit de référencement détermine si votre manque de trafic provient d’une sur-optimisation, ou au contraire, d’un manque d’optimisation des facteurs de positionnement.

Nos audits examinent les aspects techniques, sémantiques et ergonomiques du référencement naturel !

Audit SEO à Caen

Sur quoi porte l’audit de référencement naturel ?

L’audit Technique

Il y a un coté terriblement « mécanique » au référencement naturel. Google et les autres moteurs de recherche fonctionnent de manière très carrée, comme tous les programmes informatiques. Et on peut dire qu’ils n’ont pas encore la même perception d’un texte que nous autres, humains. Du coup, il faut savoir se mettre dans la peau d’un moteur pour appréhender la façon dont il verra un document… Et procéder par étape !

audit-site-complexe

Le serveur web

Comment se porte la machine qui héberge votre site ? Vos pages sont-elles en bonne santé ? Si les robots des moteurs de recherche ne peuvent pas parcourir aisément et rapidement l’ensemble de votre site, vos positions dans les pages de résultat ne seront pas bonnes.

Il est capital que votre serveur envoie les contenus importants de votre site le plus rapidement possible, sans erreur (404, 500 etc.). De la même façon, il faut éviter autant que possible les redirections non nécessaires (301,302 etc.). Nos outils nous permettent d’analyser toutes les URL, données et éléments déterminant pour votre positionnement

Crawl et indexation

Pour les robots comme Googlebot, l’action de parcourir une page s’appelle le crawl. Une fois une page parcourue, elle est ensuite soumise à Google qui décidera ou non de l’indexer, c’est-à-dire de la présenter dans les résultats de recherche, à une position adéquate d’après son analyse.

Là encore, le crawl doit être le plus fluide possible, et surtout il faut l’optimiser : par exemple, vous n’avez pas envie que le robot des moteurs de recherche passe le plus clair de son temps sur la page de vos mentions légales… En effet, cette page n’est pas forcément porteuse pour votre business plan, ne rapportera pas de trafic et ne vous permettra pas d’accroître votre chiffre d’affaires.

Il faut savoir que, pour les robots de Google, la décision de parcourir une page (ou pas) dépend de nombreux facteurs (position du lien, contexte sémantique etc) mais il ne s’agit en aucun cas d’une décision « humaine » ou rationnelle. Les robots, pour le dire autrement, agissent comme… des robots, et prennent des décisions très « carrées », pour ne pas dire autre chose.

spider-web-google

Quelque part, l’examen du crawl et de l’indexation d’un site sont la prémisse à une campagne de PageRank Sculpting : l’art et la manière de conduire le robot de Google là où vous avez besoin qu’il soit… Idéalement, c’est lors de la création d’un plan de site que l’on place les contenus importants, qu’on élabore une stratégie de positionnement, en fonction du volume de recherche et de la concurrence sur internet.

Seulement, dans la pratique, peu d’agence web font appel à un référenceur quand elles choisissent les éléments clé d’un site, et c’est fort regrettable car les actions mises en place en amont, lors du travail préparatoire, font vraiment la différence vis à vis de la concurrence !

Profondeur des pages

Puisqu’on parle du PageRank, cette « note » attribuée par Google à une page, et qui lui permet de se positionner dans les SERP (Search Engine Result Page), il faut qu’on parle de la profondeur des pages : plus une page est « enterrée », moins elle reçoit de « jus » (la probabilité de présence de Googlebot à un instant T). L’audit technique permet de voir si un élément est à la bonne position dans votre maillage interne, en fonction de son importance dans votre modèle économique, dans vos contenus, mais aussi en fonction du trafic qu’il peut générer.

Là encore, la notion de stratégie est au coeur du métieur de référenceur : on ne créé pas une architecture de site « au petit bonheur la chance ». Tout est calculé.

Les temps de chargement

Si on peut optimiser le passage des bots pendant le crédit de crawl qui vous est imparti, il est également important d’envoyer un maximum de pages en un minimum de temps. Ainsi, les temps de chargement, et plus particulièrement le TTFB (Time to first Byte), auront un impact sur votre visibilité.

Vitesse chargement site web

Là encore, le temps de chargement fait l’objet d’une analyse poussée et rigoureuse, pour voir quels sont les « goulots d’étranglement » dans la création du document envoyé aux navigateurs.

Cela fait maintenant quelques années que Google explique attribuer plus de visibilité aux sites qui chargent rapidement, et c’est encore plus vrai aujourd’hui avec les internautes utilisant des terminaux mobiles. Il est important de suivre ces recommandations, largement expliquées dans les consignes aux webmasters.

Les critères de classement ne sont pas donnés explicitement, mais il est facile de construire sa stratégie de référenceur étape par étape en suivant les recommandations de ce guide.

L’audit technique est complexe…

Mais pas de panique, nous vous expliquons tout en détail, sans prise de tête !

La livraison de l’audit se constitue à la fois de documents et d’un brief téléphonique simplifié, qui vous permet de comprendre l’analyse effectué par notre référenceur…

L’audit Sémantique

Si vous avez respecté tous les points relatifs au bon fonctionnement du serveur, que votre structure de site est optimisée, et que vous orientez les robots vers les pages les plus intéressantes pour vous, encore faut-il que ces derniers comprennent de quoi vous parlez…

En effet, les robots des moteurs de recherche ne comprennent pas le langage comme nous, et il faut les aider un peu !

Les balises title

La balise title est la balise la plus importante pour une page Web. Sa mauvaise rédaction peut à elle seule compromettre le référencement de tout votre contenu. Autant dire qu’il ne faut pas la louper, et que son choix ne doit pas être pris à la légère.

Tout comme le choix de vos mots-clés, la balise title doit subir un travail de préparation qui permettra à votre site de se faire son trou dans la niche marketing que vous attaquez…

Les titres

La encore, on ne rédige pas n’importe comment : les titres que vous choisissez, à savoir les balises H1, H2, H3 etc., doivent faire l’objet d’un travail méticuleux. Chaque niveau de titres aidera les robots à comprendre vos contenus, et l’articulation des titres ne doit pas être laissée au hasard.

Il faut également veiller à ce que l’ordre d’apparition des titres soit cohérent et adéquat en fonction de votre sujet et de la position de la page dans votre structure de site.

L’optimisation sémantique

Le reste de vos textes n’échappe pas au travail que nous venons de voir : tout doit être optimisé. En fait, aucun contenu ne doit être choisi au hasard, et il faut éviter à tout prix les figures de style ou autres jeux de mots qui pourraient porter à confusion. Les algorithmes des moteurs ont encore besoin d’un coup de pouce pour comprendre le contexte d’une requête !

confused-bot

Les moteurs de recherche ne comprennent pas le langage, et utilisent de nombreux algorithmes d’analyse sémantique (TF-IDF, OKAPI BM-25, divers algos LSA etc) pour classer une page sur un ensemble de requêtes. Ces outils servent à « comprendre » le contenu d’une page, en effectuant toute une série d’opérations de tri et de classement. Ce qu’il faut retenir, c’est que le contenu est Roi, et qu’un bon contenu est en général récompensé par des visites depuis les résultats de recherche organique. Rédiger pour le SEO, ça ne s’improvise pas vraiment…

Le choix de l’URL

La puissance des EMD (exact match domaine) n’est plus à démontrer : quand vous pouvez placer un ou plusieurs mot clé dans une URL de site, le classement est largement facilité, surtout si vous les avez positionné dans le nom de domaine ! Il faudra toutefois prendre garde à ne pas mettre en place d’actions trop agressives, car Google veille au grain sur ce genre d’adresse.

Meta-Description et autres balises secondaires

Les autres balises et marqueurs HTML ont un poids moindre, mais bien travaillés, ils peuvent faire la différence.

Aussi, on veillera à soigner les éléments suivants :

  • Meta description
  • Balises Alt sur les images
  • Utilisation du gras
  • Liste de mots clés
  • Ancres de liens
  • Emphase et italique
  • Balises canonical (si besoin)
  • Déclaration du charset
  • Choix de la langue dans le head
  • Etc

C’est l’ensemble de tous ces points qui compose l’optimisation dite « on site ».

Le rapport d’audit détaille tout, et le débriefing est allégé, vous pouvez continuer votre lecture sans crainte 😉

L’analyse des backlinks

En 1998, Google a publié la première version de son algorithme du Page Rank. C’est ce jour-là que les liens ont pris une importance capitale sur le Web. Pour faire simple, vous allez devoir créer un réseau professionnel, sur internet.

Nombre de liens

Théoriquement, plus vous avez de backlinks, mieux c’est. En effet, ces liens seront autant de chemins qui permettront au robot de Google d’arriver sur votre site. Pendant très longtemps, le référencement consistait principalement à créer ces chemins vers les contenus publiés, la plupart du temps de manière automatisée, et à faire un peu de keyword-stuffing (bourrage de mots clés). Pas besoin d’outil superflu, les données nécessaires étaient simples et les critères de classement peu nombreux.

Le spam a ainsi eu de beaux jours sur Internet, pendant presque 15 ans.

Nombre de domaines référents

Google a changé la donne dans les années 2010, avec l’apparition de pingouin, un algorithme chargé de détecter l’utilisation abusive des backlinks (les liens dont il est ici question).

Aujourd’hui, on regardera justement le ratio « liens – domaines référents ». Plus vous aurez de domaines référents, mieux ce sera. Mais là encore, c’est pour schématiser, car les choses sont un peu plus complexes. Le nombre de liens, de domaines référents, les thématiques liées ainsi que d’autres indicateurs auront un impact for sur le Page Rank de votre nom de domaine.

page-rank-sculting-google

Le bon lien et le mauvais lien

Aujourd’hui, un lien, ça n’est pas « juste un lien ». Il va falloir prendre en compte de nombreux facteurs pour estimer la valeur qu’il apporte dans votre netlinking :

  • Son environnement sémantique
  • Le site ou l’URL sur lequel il est posé
  • La thématique du site sur lequel il se trouve
  • L’endroit du site où il est situé
  • L’ancre du lien
  • Le nombre et la nature des sites liés aux domaines référents
  • L’adresse IP du site
  • Son propriétaire
  • Son âge
  • L’âge du domaine référent
  • Etc

Pour faire simple, un « bon lien », c’est un lien apposé « in text », dans un environnement sémantique riche, sur une niche identique ou proche de la vôtre, sur un site puissant, qui a de nombreux liens et qui fait autorité dans son domaine. Autant dire que ce lien là n’est pas facile à obtenir…

Et le mauvais lien, c’est tout le contraire ! Liens en blogroll ou en commentaires de blog, signatures de forums, liens sitewide ou en footer, lien en « display none », texte blanc sur fond blanc, il existe de nombreux outils, parfois frauduleux, pour tromper les moteurs de recherche…

bon-lien-mauvais-lien

Les différents indicateurs de qualité du netlinking

Pour analyser le risque ou la valeur ajoutée de votre profil de liens, nous allons regarder de nombreux indicateurs :

  • Trust flow et citation flow
  • Thematic Trust Flow
  • Age des liens
  • Ancres utilisées
  • Niches des sites référents
  • Contexte des liens
  • Link Velocity (la vitesse d’apparition)
  • Nature des liens (do follow ou no follow)
  • PageRank estimé des sites référents
  • etc

Savoir où vous en êtes par rapport à vos liens est un élément clé dans une stratégie SEO de qualité !

S’ils sont le meilleur moyen de promouvoir votre visibilité sur le web, les liens sont aussi un risque de pénalité !

Là encore, l’audit vous aide à faire le point

Recherche de pénalité

L’audit SEO sert à détecter d’éventuelles pénalités. Oui : Google, ça n’est pas que votre ami ! Il est possible que votre site ait trop tiré sur la corde, et que certaines de vos pages soient déclassées ou filtrées…

Panda

On estime aujourd’hui qu’environ 50 % du web est constitué de Spam. En 2010, Google a réagi fermement à une situation qui devenait problématique (pas assez de puissance informatique pour parcourir et indexer tout le web) : grâce à deux refontes d’infrastructure informatique, puis avec la mise en place de Panda, Google a déclaré la guerre au Spam.

Panda est l’aboutissement de longues recherches pour détecter les pages de « mauvaise qualité ». Il détecte ainsi :

  • Les pages qui contiennent trop de fautes d’orthographe
  • Le copier-coller
  • Les textes qui se ressemblent trop
  • Les traductions automatiques
  • Les textes « spinnés »
  • Et tout un tas d’autres mauvaises pratiques qui servent à créer des pages rapidement…

Bref, si vos pages sont trop légères niveau contenu, que vous avez copié toutes les fiches de vos fournisseurs pour alimenter votre boutique E-commerce, ou que votre site est globalement une copie d’un autre site plus important, il y a des chances pour que vous ayez pris un coup de Panda…

Si vous avez un doute, l’audit vous permettra d’en avoir le cœur net !

panda-filtre

Penguin

Le deuxième super lascar de Google, Penguin est une vraie terreur ! Il détecte et pénalise les sites qui ont usé de pratiques de netlinking abusives. La mauvaise nouvelle, c’est un qu’un coup de Penguin, ça fait très, très mal, mais heureusement on peut sortir de cette pénalité.

Negative SEO

Du coup, vous voyez qu’il est possible de faire du mal à ses concurrents en usant justement des techniques bannies par Google. Il est courant, dans certaines niches, de voir certains sites littéralement « pourris » par des techniques de SEO « black hat », mises en place par des concurrents peu scrupuleux.

Là encore, l’audit de site permet de faire le tri entre le spam « naturel », et le spam « délibéré ».

Fred et autres quality update

Il n’y a pas que Penguin et Panda dans les filtres de Google : en fait, les algorithmes de Google sont mis à jour très fréquemment, et il est possible, par retro-engineering, de savoir ce qui a motivé un changement dans les pages de résultats.

Certains outils permettent d’avoir une idée précise du type de pénalité qui peut affecter votre classement, et l’audit sert justement à faire le point.

La remise de votre rapport d’audit

Lors de la livraison de votre audit, vous recevez :

  • Un détail complet des audits techniques, sémantique et netlinking de votre site
  • Un brief d’une heure avec votre consultant SEO
  • Un guide complet des bonnes pratiques à mettre en œuvre
  • Un listing des points à appliquer pour remettre votre site d’aplomb !

Comment appliquer les préconisations de votre consultant SEO ?

Si vous n’avez pas les compétences en interne pour effectuer les actions nécessaires, vous pouvez tout à fait les confier à l’agence ! Nous pourrons ainsi établir un devis précis pour chaque point, en priorisant sur les fix urgents ou qui seront les plus avantageux pour vous.

Nos recommandations, et l’audit en général, sont la première étape vers un véritable transfert de compétence : nous vous conseillons également sur le type d’outil que vous pouvez utiliser pour analyser votre trafic, battre vos concurrents et prospérer sur internet !

Analyse sémantique

On ne vous en recommandera qu’un, tant il est bon : l’excellent Yourtext.guru ! Un outil Français, concocté par de véritables virtuoses de l’informatique (et Normands, de surcroit, donc forts sympathiques) !

Analyse du netlinking

SEM Rush, Ahrefs, SEObserver, Majestic SEO : autout d’incontournables pour une analyse détaillée et pertinente !

Analyse technique

L’excellent ScreamingFrog : un véritable outil à tout faire, capable de parcourir votre site en un temps record et de vous servir un max de données (prévoir quelques barrette de RAM en plus) !


Besoin de plus d’infos ?

Vous avez des questions ? Un besoin ? Vous souhaitez nous envoyer un message ou demander un rappel pour en savoir plus sur ce que nous vous proposons ? C’est ici !

Envoyer un messagePar téléphone