04
Juin

Pourquoi mon site subit-il une baisse de trafic ?

Combien de fois arrive-t-il de lire sur les forums ou autres communautés liés à la thématique de référencement naturel la question suivante : “c’est curieux, j’ai une chute subite de fréquentation, d’où cela peut-il venir, svp “ ? A l’heure de la version 4.0 de Panda, essayons de trouver la ou les causes d’une baisse de visites sur un site Web. Pour cela, il faut revenir sur les 3 axes fondamentaux du référencement organique. Ces derniers tracent la feuille de route pour cerner la ou les sources du problème. Autrement dit, le site est-il techniquement disponible ? Le contenu qu’il génère est-il encore pertinent pour la cible d’internautes ? Son niveau de popularité est-il engagé ? Pas moins de 9 outils seront impliqués pour répondre à ces questionnements.

constat

Faire un point sur l’état technique du site

Le DNS et l’hébergement sont-ils fiables tout le temps ? Y a-t-il des moments dans la journée où le site génère des erreurs de diffusion ? Voici les principaux codes d’erreurs …

  • Erreur serveur (500) : incident technique de l’hébergeur dû à des attaques ou faiblesses techniques internes (travaux, maj)

faute-hebergeur

  • Fausses erreur 5XX : parfois, le monitoring de site peut laisser apparaître une erreur 500, mais qui en fait, cache une faille dans le paramétrage du site. Un exemple, l’instruction +FollowAllLinks dans un fichier htaccess peut générer ce genre d’erreur (correction : AllowOverride All).
  • Page 404 : bien que n’étant pas une faute sensible, l’accumulation de page 404 envoie un signal négatif aux bots de Google, donc, les minorer.
  • Rupture de charge : de moins en moins fréquentes, mais une configuration serveur trop fragile (processeurs, cache, accès base de données ralenti, bande passante de l’hébergeur) lors de pic de fréquentation peut nuire sensiblement au trafic.
  • Lenteur du site : les pages du site cumulent-elles des lourdeurs dans leur chargement ? Un scan avec pagespeed donne une première idée sur les optimisations des pages du site. Il faut alors vérifier tous les appels de fichiers externes au site et notamment les plugins et autres scripts (techniques ou sociaux), les bannières de monétisation (bien que souvent chartées dans leur configuration, certaines sont sources de ralentissement.)

scoring-affichage

  • Fichiers journaux : il convient de lire les fichiers journaux du serveur afin de mettre le doigt sur la période à laquelle se produisent des baisses de flux visiteurs. Google Webmaster Tools donne aussi des renseignements sur la disponibilité du site.

disponibilite-google-webmaster-tool

 Evaluer la pertinence des contenus

Il est déjà difficile de produire des contenus « frais » pour l’ogre Google. Mais au-delà de l’audience directe globale, les pages produites suscitent-elles de l’engagement ?

  • Partage(s) : suivre les « shares » des contenus est un minimum. Sans trop de difficulté technique, des plugins donnent tous des rapports de clics comme addThis par exemple…

mesurer-partage-contenu

  • Viralité : les liens émis sur les médias sociaux sont-ils cliqués et à nouveau partagés ? Une plateforme comme Bitly permet de suivre les actions de sa communauté.

viralite-des-liens

  • Fidélité : que se passe-t-il derrière les abonnés à un flux Rss ? Y a-t-il constance des abonnés dans la lecture des nouvelles pages du site ?

taux-lecture-rss

Google Analytics permet de mesurer le taux de fidélité, sa progression dans le cadre d’un rapport de dates à dates. Par exemple ici, le mois d’avril 2013 vs 2014 montre une nette progression des visiteurs fidèles.

fidelite-nouveau-visiteur

Evaluer les sources de trafic

Le trafic organique est-il fautif ?

Vu qu’en France l’univers de la recherche passe à 95% par Google, il faut être à l’écoute des battements de son algorythme. Un outil pratique, dénommé Barracuda, met en parallèle le trafic organique relevé par Google Analytics et le pouls des MAJ de Google. Dans l’illustration ci-dessous, on peut se poser la question si Pingouin n’est pas la cause de cette chute de trafic.

maj algo google

Quel volume de trafic pour quelle requête ?

Un petit tour dans GA montre que le site obtient 85 % de son trafic grâce à une seule page, sur un type précis de requête, équilibre trop précaire, qui peut basculer, soit à cause de la concurrence ou suite à un filtre sur un certain type de requêtes jugées spammy !

canibalisation de la requete

Qualité du trafic référent ?

Lié justement aux filtres anti-spam de Google, le trafic référent n’envoie-t-il pas un signal négatif d’un point de vue « SEO » ? Google webmaster tool (outil de désavoeu), et des outils spécialisés comme linkdetox, cognitive seo permettront de faire le ménage de ses backlinks… douteux.

désavouer-liens

La popularité via les « BackLinks » est-elle défaillante ?

Prendre la mesure du nombre de ces backlinks dans Majestic Seo permet de constater si la proportion des liens acquis et perdus s’équilibre.

popularite-backlink

On pourrait rajouter d’autres facteurs, sources de baisse de trafic, comme :

  • La saisonnalité du marché
  • Les tendances de recherche sur un temps plus long
  • Les modifications de structure du site (bouleversant les urls indexées)

Donc, pas de coupable lambda pour répondre à une baisse d’audience, mais seul un audit sur les trois piliers du SEO peut apporter un début de réponse !

Top

2 Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *