Réécrire ses meta descriptions grâce à la fonction Requêtes de recherche de Google Webmaster Tool

11 Commentaires

Au début de l’année, on a découvert un Google Webmaster Tool plus complet, notamment grâce à la fonction Requêtes de recherche. Fonction d’autant plus appréciable qu’avec la croissance du not-provided, on ne trouvera bientôt aucune indication sur ses sources de trafic naturel dans Google Analytics !

Requetes de recherche de GWT

Cette fonction indique notamment le CTR (Click-through rate ou taux de clic en français) des requêtes ayant généré du trafic vers le site internet. J’ai donc réfléchis à une manière d’exploiter ces données pour détecter les meta descriptions mal rédigées (ne poussant pas au clic).

L’idée est de déterminer pour chaque position moyenne, la moyenne du CTR. Pourquoi ? Si le CTR moyen d’un mot clé en position 3 est de 10%, alors, on peut considérer qu’il y a un problème pour les mots clés en position 3 donc le CTR est inférieur à cette moyenne.

Il suffit donc d’exporter les données de GWT et de calculer le CTR par position moyenne (pour les plus paresseux, je peux vous envoyer mon fichier XLS avec les formules toutes prêtes).

Or, qu’est-ce qui influe majoritairement sur le CTR dans les SERP ? J’ai fait l’hypothèse que ce sont les meta descriptions, étant les parties les plus longues et visibles des pages de résultats de Google. On peut donc utiliser ces données pour adapter les meta descriptions d’une page pour les mots clés dont le CTR est en dessous de la moyenne.

D’ailleurs, dans la page de support au webmasters de Google pour la fonction Requêtes de recherche, Google conseille bien d’utiliser la donnée de CTR pour adapter ses méga descriptions.

Comment retraiter le ficher ?

Déjà, il faut retirer du fichier (grâce à un filtre) les mots clés donc la position moyenne est supérieure à 10 (au delà, la modification de la meta descriptions ne changera pas le CTR).

Je vous conseille d’ajouter une variable de tolérance (multiplicatrice de la moyenne) afin d’isoler les gros écarts avec le CTR moyen de chaque position.

Si vous avez des suggestions d’amélioration de cette méthode ou que vous voyez des limites à l’exploitation de ces données, n’hésitez pas à ajouter vos remarques en commentaire que l’on puisse en discuter…

Abonnez-vous à notre Newsletter !

Les champs avec une * sont obligatoires
11 Commentaires
  1. A peine l’heure de la rentrée sonnée, les sites e-commerce sont déjà dans les starting-blocks pour ne pas manquer le rendez-vous des fêtes de fin d’année. Avec plus de 10 milliards d’euros dépensés par les Français sur Internet en 2013 durant la période de Noël, l’effervescence règne. Pourtant, une crainte envahit nombre de dirigeants d’e-commerce…

    • Cédric
    • 12 août 2014
    Répondre

    J’utilise différents outils de tracking pour suivre mes positions et sur ce mot-clé en particulier, j’oscille entre la 9e et 15e place. Si j’étais premier ou deuxième sur un mot-clé avec un tel volume de recherche, je serais le roi du pétrole … cela dit, cette discussion m’a donné quelques pistes à creuser et qui pourraient expliquer ces données. Mais je vais devoir faire quelques tests avant d’affirmer quoi que ce soit 😉

      • Guillaume DOKI-THONON
      • 12 août 2014
      Répondre

      Cédric, je viens de penser à quelque chose : ta screen-shot correspond-elle à l’onglet « Requêtes les plus fréquentes » ou « Pages les plus populaires » ? Car dans le second cas, il ce peut que ta position moyenne soit bien de 1,4 car tu peux être premier sur plein de petits mots clés mais 15ème sur le gros, tous ces mots clés visant la même page. Ainsi, la position moyenne de la page est bien de 1,4 mais tu reste 15ème sur le mot clé le plus important donc le CTR reste très faible.

      Qu’en penses tu ?

      Guillaume.

    • Cédric
    • 11 août 2014
    Répondre

    Oui, ce qui m’étonne ce n’est pas l’arrondi. Simplement 0,2% de taux de clic pour résultat en position 1 ou 2 c’est plus qu’improbable. Surtout quand la même page positionnée en 3, 4 ou 5 génère un taux de clic entre 18 et 49%. Bref … je passe pas mal de temps sur GWT, mais s’il y a bien une info dont je ne tiens jamais compte, c’est bien la position moyenne 🙂

      • Guillaume DOKI-THONON
      • 11 août 2014
      Répondre

      Oui c’est sûr que 0,2%, c’est difficile à croire en 2ème position, sinon je pense même que Google aurait déclassé le résultat !
      Je n’ai pas eu le temps de comparer aux données de MyPoseo pour voir si il y a un écart dans la position moyenne. L’as tu déjà fait ?

  2. Répondre

    Reste à savoir si les données communiquées par Google Webmaster Tools sont fiables … et malheureusement, il y a des raisons de penser que non. Voici un exemple de mon interface GWT (extrait à l’instant) : http://goo.gl/YcT0Mv … Difficile de croire que ma page classée en moyenne entre la 1e et la 2e position génère 0% de clics. D’autre part, lorsque l’on compare les données d’outils de suivi de positionnement et les données de GWT, les écarts sont souvent conséquents.

      • Guillaume DOKI-THONON
      • 11 août 2014
      Répondre

      Bonjour Cédric,

      Je suis d’accord avec toi sur la fiabilité des données de GWT, on sait déjà que ce n’est pas irréprochable sur les backlinks… Concernant ton screen shot, on voit que le CTR correspond au calcul de [Clic] / [Impression] arrondi à l’entier inférieur (pour le premier, ça donne 1774/3590 = 49,4% donc 49%), donc pour ta troisième requête, cela donne 0,2% arrondi à 0%.

      Guillaume.

    • Guillaume DOKI-THONON
    • 4 août 2014
    Répondre

    Bonjour Patrice,

    Merci pour ton commentaire. Les outils de crawl type Screaming Frog et Botify permettent aussi de répérer les méta-descriptions trop courtes et dupliquées. Je pense que Sacha détaillera le fonctionnement de ces outils dans un prochain article puisqu’il les utilise régulièrement.

    Guillaume.

    • Répondre

      D’autant plus que ces « Améliorations » HTML sont moyennement fiables : elles sont rarement à jour et détectent rarement des Titles trop longs.
      En effet Screaming Frog fait bien son boulot, d’autant mieux qu’il surveille la longueur « visuelle » en pixels des Titles/Descr , qui est la limite réelle d’affichage, plutôt que le nombre de caractères. Il permet également d’en simuler des nouvelles pour vérifier si ça dépasse.

      Pour la création d’un site, rien ne vaut un tableau Excel avec des fonctions NBCAR pour rédiger ses Titles et Descr 😀

      • Patrice Krysztofiak
      • 5 août 2014
      Répondre

      Merci, j’attends cet article sur les outils avec impatience !

    • Patrice Krysztofiak
    • 4 août 2014
    Répondre

    Bonjour, je trouve que vous auriez du ajouter un petit complément à l’article, car sur le menu situé au dessus de celui sélectionné dans votre capture d’écran de webmaster tools il y a un menu « améliorations HTML », qui donne des informations très utiles au webmaster, notamment les meta descriptions trop courtes et dupliquées. Ce petit menu discrétement planqué est une véritable mine d’or pour l’optimisation d’un site et il est complémentaire ( prioritaire ? ) sur l’optimisation que vous conseillez.

 

Ajouter un commentaire