Le SERP Bounce : le critère de positionnement le plus sous-estimé ?

31 Commentaires

La majorité des articles traitant des critères de positionnement ne le mentionne même pas, et pourtant, c’est selon moi l’un des plus importants critères de positionnement et la condition sine qua non au bon positionnement d’une page sur les moteurs de recherche.

Le SERP Bounce

SERP Bounce

Le SERP Bounce c’est le pourcentage d’utilisateurs qui vont cliquer sur un résultat présent sur la page de résultats d’une requête donnée, puis revenir à cette même page de résultats pour en choisir un autre. Plus il est bas, mieux vous serez positionné.

L’inverse pourrait être le taux de satisfaction du résultat pour une requête, correspondant au pourcentage d’internautes qui vont taper cette requête et ne pas revenir à la page de résultats (l’internaute est satisfait). Plus il est élevé, mieux vous serez positionné.

Pourquoi Google utiliserait-il le SERP Bounce dans son algorithme ?

Pourquoi ne pas simplement utiliser le taux de rebond et le temps de visite ?

Le SERP Bounce va beaucoup plus loin que le taux de rebond, car il intègre d’autres dimensions qui le rendent plus pertinent pour classer des résultats : la requête tapée par l’internaute et la page de destination.

Votre page peut être pertinente et avoir un taux de rebond important. C’est le cas des sites de recettes de cuisine ou des sites de parole de musiques. En revanche si quelqu’un recherche les paroles d’une musique, clique sur le premier résultat, revient à la page de résultats, clique sur le deuxième résultat parce qu’il n’a pas trouvé ce qu’il cherchait (une vidéo pour chanter en même temps que la musique par exemple) et que la majorité des internautes font comme lui, le deuxième résultat a de grande chance de passer devant, sans lien ou optimisation interne supplémentaire.

De la même façon, si je recherche les ingrédients de la recette du pain perdu, je vais rester quelques secondes sur le site de recettes et cela n’enlève rien à la pertinence de la page.

Prenez donc du recul par rapport à ces métriques qui dépendent de chaque thématique, de chaque page, du chemin de l’internaute avant de trouver cette page et de l’intention de l’internaute.

C’est un critère de pertinence efficace

Faisons un sondage. Mettez-vous à la place de Google, dont le second but après la vente de publicité, est d’afficher les résultats les plus pertinents afin de vendre encore plus de publicité sur le long terme.

Dans quel ordre positionneriez-vous ces 5 pages à popularité et autorité égale (en théorie) sur la requête [blouson de moto] :

  1. La page d’accueil d’un site qui ne vend rien directement mais redirigeant les internautes vers Amazon et Ebay via des liens d’affiliation, accompagné de contenu optimisé pour les mots clés mais qui n’aide pas réellement l’internaute dans sa recherche de blouson de moto
  2. La page d’accueil d’un guide/comparatif des différents types de blousons de moto et renvoyant vers différents sites e-commerce via des liens d’affiliation
  3. La page d’accueil d’un site e-commerce proposant tous les types de blousons (cuir, synthétique) à tous les prix
  4. La page d’accueil d’un site e-commerce proposant uniquement des blousons en cuir haut de gamme
  5. Une page Wikipédia sur les blousons de moto

Je n’ai pas fait de sondage précis auprès de motards mais je serai prêt à parier que l’ordre de ces pages classées par SERP Bounce de façon croissante serait le suivant :

  1. La #3, parce qu’elle répond à la majorité des internautes qui ont l’intention d’acheter (et c’est une requête à forte intention d’achat)
  2. La #2 parce qu’elle répond à la majorité des internautes qui ne se seraient pas encore décidés
  3. La #1 en dessous des deux autres parce que Google n’a aucun intérêt à positionner un site sans valeur ajoutée augmentant d’un clic le parcours de l’internaute
  4. La #4 parce qu’elle répond à un segment minoritaire des internautes tapant cette requête
  5. La #5 parce que malgré l’autorité de Wikipédia, il est peu probable que l’internaute soit intéressé par des renseignements encyclopédiques sur les blousons de moto…

C’est un critère de pertinence simple et peu couteux

Techniquement, la récupération de ces données comportementales est très simple et peu couteuse comparé au coût lié au développement d’une intelligence artificielle. Google n’a pas besoin non plus d’aspirer et de décortiquer tout le trafic de Chrome pour le calculer. Et s’il le fait, c’est à but de profilage publicitaire, arrêtons la parano SEO deux minutes !

Google ne peut pas se baser uniquement sur ce critère

Si ce critère est si magique que cela, on pourrait se demander pourquoi Google ne laisserait-il pas tomber ses autres critères de positionnement comme le HTTPS (lol) ou les liens entrants, critère dont il a tant de mal à enrayer la manipulation ?

Quelques éléments de réponse :

  • Le site doit être un minimum optimisé pour que Google comprenne de quoi il parle.
  • Il faut que Google considère le site, un ou deux liens d’annuaires ne suffisent pas à lui donner assez d’autorité pour que Google le considère un minimum.
  • Il doit avoir un minimum de données comportementales pour calculer le SERP Bounce, et ses résultats doivent tout de même être pertinents pour les requêtes qui sont tapées pour la première fois ou peu tapées.
  • Enfin, lorsque deux sites sont de qualité équivalente, d’autres critères rentrent en compte : la qualité des liens (autorité) et le nombre (popularité) par exemple.

La question que tout le monde se pose alors : est-ce manipulable ?

Photo de Hacker tout ce qu'il y a de plus naturel

Oui, les hackers portent un costume et une cagoule devant leur ordinateur.

J’aurai tendance à dire que oui, c’est manipulable, mais plus complexe et moins légal (utilisation de botnets) que les liens.

On pourrait imaginer que pour s’en prémunir, Google ne récolte seulement les données des utilisateurs connectés avec une activité naturelle (réception d’emails, envoi d’emails, navigation régulière). Il éviterait ainsi la majorité des tentatives de manipulation.

Le plus simple reste encore de l’influencer plutôt qu’essayer de le manipuler en surpassant ses concurrents (des call-to-action qui donnent envie, des contenus de meilleure qualité, des contenus similaires à consulter, des réponses aux besoins de tous les internautes, etc.). Cela a un réel intérêt puisque ces changements impactent aussi positivement votre business.

Ceci explique cela…

Pourquoi vous n’arrivez pas à nettoyer votre e-réputation

SERP BOUNCE ! Qui n’est pas friand d’histoires sensationnelles sur une personne ou une société dont on recherche le nom sur Google ? Personne ! Et voilà pourquoi ces pages restent parfois très longtemps, malgré un travail d’e-réputation acharné.
La solution ? Consolider à l’avance la première page de résultats sur votre nom avec des pages fortes en autorité, de façon à ce qu’un simple article négatif n’arrive jamais en première page. Si l’actualité est reprise sur plusieurs journaux, c’est un travail perdu d’avance avec la prime que ces sites reçoivent lorsque Google détecte une vague d’actualité pour un sujet donné.

Pourquoi LinkedIn est généralement mieux positionné que Viadeo sur le nom d’une personne ? (constat totalement arbitraire)

Viadeo Vs Linkedin

SERP BOUNCE ! Il faut s’inscrire pour voir le profil Viadeo de quelqu’un, contrairement à LinkedIn qui affiche au moins une partie des informations… notamment la photo de ladite personne. Ce dernier satisfait donc la majorité des internautes. Deux résultats simples à départager pour Google !

Pourquoi Google est meilleur que Bing

Bing Vs Google

Si l’on oublie le fait que Bing soit édité par Microsoft, la principale raison pour laquelle Google est meilleur que Bing et n’importe quel autre moteur est sa part de marché écrasante grâce à laquelle il peut accumuler beaucoup plus de données de comportement utilisateur et ainsi mieux les exploiter pour classer les résultats de façon plus précise et pertinente.

Cassons certains mythes !

Non, Google n’utilise pas les données de Google Analytics ou Chrome pour son algorithme.

Tous les sites n’utilisent pas Google Analytics et le calcul du SERP Bounce sans ces données est immensément plus simple et moins couteux. De plus, manipuler les données de Google Analytics est un jeu d’enfant.

Oui, vous pouvez vous positionner avec des liens non naturels.

Quel intérêt pour Google de pénaliser un site plus pertinent qu’un autre ? Le résultat final n’est-il pas de satisfaire l’internaute ? A moins qu’il veuille en faire un exemple, ce n’est vraiment pas dans son intérêt. Et c’est d’ailleurs pour cela que les gros sites sanctionnés reviennent dans les bonnes grâces quelques semaines après la pénalité, malgré un nettoyage de liens sommaire. Je pense notamment à l’affaire RapGenius, un site de paroles de musique clairement meilleur que les autres (signification des paroles, commentaires, vidéos, expérience utilisateur générale) qui a été pénalisé parce qu’une affaire de lien factice était devenue publique et que Google devait agir pour les apparences. Le site était revenu 10 jours après

Non, de bons liens et une bonne structure interne ne suffisent pas.

Votre page doit répondre exactement à la requête de l’internaute. Par exemple, certains plombiers travaillant dans un ou deux arrondissements de Paris vont s’obstiner, à coup de milliers d’euros de SEO dans le vent, à essayer de se positionner sur la requête [plombier paris] alors qu’il est plus logique d’afficher prioritairement des sociétés intervenant dans tous les arrondissements ou des annuaires. Ce n’est pas ce qui manque.

Non, Google ne comprend pas vos textes.

Robot chat

Google est un robot, et restera un robot. Certes, il peut détecter assez facilement quand un texte est dupliqué ou généré automatiquement et vous déclasser pour cela, mais le meilleur lien du monde et un texte de 2000 mots rédigé par le meilleur rédacteur de l’univers n’auront aucun effet si vous ne répondez pas à ce que recherche la majorité des internautes. Il comprend l’intérêt de vos textes par l’analyse des comportements de l’internaute.

Non, le nombre de clics n’influe pas sur votre positionnement.

Ne me faîtes pas dire quelque chose que je n’ai pas dis ! C’est la qualité des clics qui compte, pas la quantité. Comme les liens en fait. Le résultat de cette étude de Moz est à prendre avec des pincettes, la majorité des participants ayant certainement cliqué sur le résultat demandé.

Non, le temps de chargement ne sert pas qu’à améliorer le nombre de pages crawlées.

C’est secondaire. Le temps de chargement influence surtout l’expérience utilisateur, comme le montre cette infographie de KissMetrics. Si votre site est trop lent, les internautes iront consulter un autre résultat et à terme cela influencera négativement votre positionnement.

Comment observer ce phénomène ?

J’observe ce phénomène depuis fin 2011, l’utilisation de ce critère est particulièrement évidente dans les cas suivants :

Les fluctuations quotidiennes sur les requêtes « marque »

In and Out

Vous pensiez que tout le monde s’arrêtait au premier résultat sur une requête contenant le nom d’un site (« zalando », « badoo », etc.) ? Vous vous trompez, même si le taux de clics est en baisse suite au passage de ces pages à 7 résultats et à la démocratisation des mega-sitelinks, une part non négligeable du trafic revient aux sites situés sous le site officiel. Le SERP Bounce étant toutefois catastrophique (à moins que le résultat soit « choc » ou « négatif »), Google ne sait plus quel résultat afficher. Il n’est pas rare de voir les résultats de ces requêtes changer complètement d’un jour à l’autre, avec de toutes nouvelles pages propulsées du jour au lendemain, comme si Google ne pouvait rien faire de ces données utilisateurs et essayait de nouveaux résultats dans l’objectif d’en trouver un plus pertinent.

L’arrivée d’un résultat disruptif

Une start-up bouscule un marché en divisant les prix par deux, ou en abordant différemment un marché ? Si son site se positionne rapidement sur des requêtes concurrentielles, ce n’est certainement pas à cause d’une hypothétique « prime fraîcheur ». C’est juste parce que ce qu’il propose est meilleur que ses concurrents.

Un exemple concret

Il fut un temps où j’éditais des sites de rencontre. J’ai eu l’idée d’insérer un chat gratuit et sans inscription sur toutes les pages avec une base commune à tous les sites pour plus d’activité. Du jour au lendemain, la durée moyenne d’une visite a doublé, le taux de rebond a fortement diminué (et le SERP Bounce a très certainement baissé) et les positions ont fortement progressé.
Et vous, que pensez-vous de ce critère de positionnement ?

Abonnez-vous à notre Newsletter !

Les champs avec une * sont obligatoires
31 Commentaires
    • Gaëtan
    • 10 septembre 2014
    Répondre

    Excellent article pour moi qui n’avait plus lu quoique ce soit sur le SEO depuis plus d’1 an !

    2 questions :
    – Le SERP bounce concerne-t-il également les annonces AdWords ? J’imagine que oui…
    – Tu dis que les stats GA ne sont pas prises en compte : je pense que c’est un pot de miel trop alléchant pour GG. Il doit bien y jeter un oeil non ? Comment peux-tu dire que ce n’est pas pris en compte avec tant de force ?

      • Maxime DOKI-THONON
      • 11 septembre 2014
      Répondre

      Merci Gaëtan !

      1) Oui, c’est pris en compte dans le quality score il me semble.
      2) Parce qu’il peut faire mieux et moins cher avec d’autres données moins facilement manipulables.

        • Gaëtan
        • 11 septembre 2014
        Répondre

        Merci pour tes réponses.

        Je viens de tomber sur une vidéo de Matt Cutts répondant à cette question : « Will using Google Analytics have a negative effect on my ranking? »

        https://www.youtube.com/watch?v=LLmO1GE4GvI

  1. Répondre

    Bonjour,

    De mon côté la dernière conférence de Bing à laquelle j’ai participé. Bing annonçait plus ou moins officiellement qu’il prenait en compte ce critère. Pour moi c’est une évidence que ce critère est pris en compte.

    Jérôme

    • vincent
    • 15 août 2014
    Répondre

    je présume qu’il n’y a aucune technique pour mesurer le serp bounce? détection du bouton back du browser en javascript? ou encore détection de sortie du champ « body » ? mais ce ne sont pas des indicateurs 100% fiables… ca pourrait donner la tendance tout au plus.

      • Maxime DOKI-THONON
      • 29 août 2014
      Répondre

      Oui, c’est trop aléatoire, et impossible de savoir si l’utilisateur est allé cliquer sur un autre résultat des SERP… A moins que vous soyez le seul sur la première page 🙂

    • Maximilien
    • 12 août 2014
    Répondre

    Rien à redire Max, juste un excellent article. Plein de bon sens et de choses dont on devrait parler plus souvent dans la sphère SEO ! Tu n’écris pas souvent sur le blog, mais quand c’est le cas, c’est pas pour rien 😉

  2. Répondre

    J’attire votre attention sur le terme « légal » utilisé dans votre phrase :

    « La question que tout le monde se pose alors : est-ce manipulable ? J’aurai tendance à dire que oui, c’est manipulable, mais plus complexe et moins légal (utilisation de botnets) que les liens. »

    Manipuler Google n’est pas illégal.

      • Maxime DOKI-THONON
      • 12 août 2014
      Répondre

      Evidemment.
      Ma phrase n’était peut-être pas claire, j’ai voulu dire que contrairement aux liens, l’utilisation d’un botnet pour manipuler les résultats est illégal. C’est l’utilisation du botnet qui est illégal, pas la manipulation des résultats.

  3. Répondre

    Bonjour,

    Bel article, mais qu’est-ce qu’un bon taux de rebond ? Quel est la limite selon vous à atteindre pour que la relation bounce/ serp permette une élévation dans le coeur de GG ?

      • Maxime DOKI-THONON
      • 11 août 2014
      Répondre

      Il n’y a pas de SERP Bound idéal, l’important est d’avoir un SERP Bound meilleur que ses concurrents.

  4. Personnellement j’en parlais sur mon blog (cf lien de signature) en 2010 avec, à l’époque, 12 ans de retard puisque le sujet a déjà très largement été soulevé, débattu, infirmé en partie par Google, etc. Depuis sa création.

    Ce n’est qu’une toute petite partie, qu’une petite mesure non pertinente permettant de savoir si un internaute à été satisfait d’un résultat.

    Avec la navigation privée, le multi onglets, le fait qu’on peut éteindre l’ordi puis reprendre au même endroit plus tard, etc, rien ne serait plus hasardeux que de se baser la dessus.

    Ça ne peut qu’alimenter un « faisceau d’indices » comme on dit en matière juridique.

    Et puis il y a tellement plus précis comme source de données : données structurelles partagées volontairement dans Google Analytics, adsense, Chrome, google+, Gmail, chrome mobile proxy, etc.

    De la lecture 🙂 https://www.google.fr/search?q=pogo+sticking+seo&client=ms-android-htc-rev&espv=1&source=lnt&tbs=cdr%3A1%2Ccd_min%3A1%2F1%2F1999%2Ccd_max%3A2008&tbm=

      • Maxime DOKI-THONON
      • 11 août 2014
      Répondre

      Oui, c’est quelque chose certainement déjà abordé plusieurs fois mais le fait d’étonner certains professionnels du webmarketing (qui ne s’en doutaient pas) quand j’en parle m’a donné envie d’écrire cet article. Et dans les listing de critères influençant le positionnement qu’on retrouve communément dans les infographies qui « font le buzz », personne n’en parle vraiment.
      Je pense qu’on a plus débattu sur les effets des réseaux sociaux sur le SEO que sur la prise en compte de l’expérience utilisateur en provenance des SERP. Et c’est dommage, selon moi en tout cas.

      Il n’y a aucun soucis techniquement à gérer le multi onglet, et même d’autres cas plus complexes (cliquer sur un résultat, bug du navigateur, réouverture, taper la même requête, recliquer sur un autre résultat) ou la navigation privée (la pondération doit être différente en fonction de la « qualité » de l’internaute).

    • Julien
    • 11 août 2014
    Répondre

    @Maxime : pas de souci : c’est en échangeant et en confrontant ses idées qu’on avance ! Je suis en plein expérience en ce qui concerne le fait de positionner sur une requête concurrentielle avec un nouveau site, je te tiendrai au courant des résultats si tu le souhaite 🙂

      • Maxime DOKI-THONON
      • 11 août 2014
      Répondre

      Oui, j’en serai ravi, merci 😉

    • fabien
    • 11 août 2014
    Répondre

    Je suis d’accord avec Julien ca marche mieux si nous sommes en mode connecté .
    Ca marche très bien, sur de l’actualité un article google news qui sort dans les serps recherche dès que l’actu est fini comme par hasard le site se place ensuite assez bien dans les serps.

    • Maxime DOKI-THONON
    • 11 août 2014
    Répondre

    @Julien et @Cédric
    Merci pour le terme « pogo sticking » que j’avais du lire une fois et que j’ai oublié. Effectivement, c’est le même concept.

    Je préfère le terme SERP Bounce pour plusieurs raisons :
    -Ils parlent aux webmarketeurs en général vu que ça se rapproche du Bounce Rate
    -Il intègre le mot SERP dedans parce que c’est un critère important, ce n’est pas l’expérience utilisateur « en général » mais bien le taux de satisfaction sur une SERP pour un mot clé donné, pour une zone géographique donnée.

    @Julien
    Je suis plus ou moins d’accord avec toi. J’ai tout de même l’impression qu’il est beaucoup plus simple aujourd’hui, comparé à 2010-2011, de se positionner sur une requête concurrentielle avec un nouveau site, avec un minimum de mentions (des liens de presse et blogs spécialisés), dû au fait que Google essaye de « tester » de nouveaux sites.

  5. Répondre

    Un article très intéressant sur un aspect pas assez développé à mon gout.
    En reprenant l’exemple du chat, je trouve qu’il n’est malheureusement pas toujours aussi si simple d’observer de façon claire, ce type de phénomène et ses retombées. Les actions d’optimisations effectuées sur les sites sont généralement peu isolées, et s’inscrivent dans uns stratégie globale.

    • Sylvain Richard
    • 11 août 2014
    Répondre

    Plein de +1 !!

    Ce critère est primordial dans l’algo à mon avis.
    Il est tellement facile à prendre en compte pour Google et tellement significatif à la fois, GG serait idiot de ne pas l’utiliser. D’où l’importance d’avoir des landingpages parfaitement adaptées aux requêtes sur lesquelles ont souhaite se positionner. Si l’internaute est satisfait, Google le sera.

    Après, on pourrait discuter sur d’autres critères que tu cites. J’avais fait un peu de prospective ici http://blog.axe-net.fr/google-analyse-comportement-internaute/ Dans certains cas, je ne sais vraiment pas si GG utilise ou pas les possibilités qui lui sont offertes.
    Dans d’autres, je dirais plutôt oui. C’est le cas par exemple pour Chrome.
    Tu dis dans l’article que tu penses que Google n’utilise pas les données en provenance de ce mouchard, mais tu n’étayes pas alors je ne sais pas trop à quoi m’en tenir 🙂

    J’ai quand même testé et pu constater que GG tenait compte de Chrome pour indexer des URL.
    On peut donc aisément penser qu’il peut aussi s’en servir pour analyser un taux de clic sur un lien.
    Çà serait peu couteux et assez efficace pour juger de l’intérêt des utilisateurs, non ?

    Sinon, encore bravo pour cet article !

      • Maxime DOKI-THONON
      • 11 août 2014
      Répondre

      Merci !

      Effectivement, je n’ai pas abordé l’aspect « Landing Pages », vaste sujet qui pourrait faire l’objet d’un autre article car on peut se demander s’il vaut mieux faire une tonne de landing pages spécialisées (qui peut être interprété comme de la suroptimisation par Google) ou une landing page énorme interactive répondant aux besoins de tous les types d’internautes.

      Je pense que c’est assez couteux de traiter tout le trafic en provenance de Google Chrome, surtout s’il ne tient compte qu’une partie des données (celui des utilisateurs « trustés »), et que le résultat est le même s’il le fait directement depuis les SERP. D’autant plus que tout le monde n’a pas Google Chrome.
      En tout cas c’est plus plausible que l’analyse du trafic de Google Analytics pour le SEO (je n’y crois pas une seule seconde).

      • Personnellement j’ai tendance à croire que GG met en place des services gratuits pour en retirer quelque chose au final. Donc Chrome, Gmail, GG et tout le reste doivent bien être exploités d’une manière ou d’une autre, et de plus en plus à mesure que le temps passe. La PdM de Chrome en fait un outil tout à fait exploitable pour en tirer des stats et les décliner en actions.

          • Maxime DOKI-THONON
          • 29 août 2014
          Répondre

          Salut Florence,

          Je suis globalement d’accord avec toi sur le fait que les outils de Google ont tous un but précis. Mais je pense que l’utilisation qu’en fait Google pour le SEO est largement surestimée (pas pour l’indexation en revanche).

          Au plaisir,
          Maxime.

  6. Répondre

    Serp Bounce ou Pogo-sticking, c’est une donnée précieuse et riche d’enseignement mais qui est très fluctuante. Je pense que l’impact est amoindri si on consulte les Serps de façon non ceonnect-ée à son compte. Ce qui revient à dire que la bulle de personnalisation de Google, une fois connecté, tient compte de ce facteur de manière plus importante. Malgré cela, est-ce pour autant un critère fiable ? Sur les requêtes concurrentielles, et donc plus sujettes à des tentatives de manipulation, je pense qu’il doit y avoir une pondération supplémentaire…

      • Patrice
      • 12 août 2014
      Répondre

      Ce pogo sticking semble aussi s’appliquer sur des requêtes non concurrentielles, j’ai plusieurs clients qui sont frappés de ce mal, leur site est hélas inintéréssant pour l’internaute ( pages insipides ), et malgrè l’énorme travail d’optimisation et de netlinking, le site ne tiens jamais en page 1, il retombe inévitablement en page 2 , à chaque fois il faut le ramener par la force brute, je n’aime pas trop ça mais bon, il va falloir rééduquer pas mal de monde sur ce qu’est un « site internet utile »…

        • Maxime DOKI-THONON
        • 12 août 2014
        Répondre

        C’est clair, et la force brute coûte cher (sans compter ses effets négatifs qui peuvent arriver plus tard)… Parfois plus qu’améliorer son site. Mais comme tu le souligne bien à la fin de ton commentaire, les mentalités sont compliquées à changer…

    • Niko
    • 11 août 2014
    Répondre

    En fait, tu nous conseilles de faire ce que Google prêche depuis des années : faire son site pour l’utilisateur et pas pour le moteur, non ?
    en tout cas très bon article qui fait réfléchir à un point tellement logique que très peu de monde y aura pensé

      • Maxime DOKI-THONON
      • 11 août 2014
      Répondre

      Carrément 😀
      Sauf que le discours de Matt Cutts est un peu plus ambigu, il dit de faire un site pour les internautes, dans le but d’obtenir des liens naturels (ce qui arrive rarement…).
      Moi je dis plutôt que ça ne sers à rien de travailler +/- artificiellement les liens et bosser à fond la structure du site si le site n’est pas fait pour l’utilisateur.

  7. Répondre

    Que dire de plus ? Je suis à 100% d’accord avec ton article. Je rejoins notamment ton point de vue sur le fait que Google n’utilise pas les données Analytics ou Chrome et que par conséquent, ce que tu appelles SERP Bounces, et certainement le meilleur indicateur de pertinence. Pour ma part, j’ai toujours utilisé le terme pogostinking, mais l’idée est la même.

  8. Répondre

    Hello,

    Si aucun référenceur n’en parlait et si depuis quelques jours pas mal de tests SEO ont lieu concernant ce facteur de ranking, c’est juste parce qu’un test aux USA a mentionné son impact sur le ranking. Du coup, tout le monde en parle depuis 10 jours et c’est devenu important pour tous les référenceurs. Alors que logiquement un résultat qui obtient d’avantage de clics, notamment quand il n’est pas premier ou second, c’est assurément un résultat de qualité ! Et ceux, depuis le début de Google -_-

      • Maxime DOKI-THONON
      • 11 août 2014
      Répondre

      Salut,
      Oui, je mentionne ce test dans l’article qui est plus orienté sur la quantité des clics que la qualité… Mais je trouve cela étrange que peu monde l’ait évoqué avant ce test. Mes collaborateurs savent que je n’ai que ce mot à la bouche avant de parler de liens et d’optimisation structurelle 😉

      • Salut Max,

        Personne n’en parle ou n’en fait mention peut-être justement parce que ça peut vraiment conférer un avantage ? Peut-être aussi parce qu’il n’y a pas d’outil sur le marché pour simuler des comportements utilisateurs ? Je me rappelle d’un expert en référencement autoproclamé très en vue dans le milieu SEO français qui m’avait rembarrée sur cette question avec un « Si personne n’en parle c’est que ça n’influe pas sur les positionnements. » – ça m’avait bien amusée à l’époque et je m’étais dit « tant mieux si tout le monde pense ça, ça nous laisse de l’avance. »

        Nous avons développé un outil pour 3 de nos clients en 2009 et c’est une démarche quand même assez coûteuse, non seulement en coût de développement (~25 K€) mais aussi parce qu’il faut une bardée de proxys, sachant que les clients pour lesquels on le fait tourner sont positionnés sur des requêtes tapées plusieurs centaines de milliers de fois en exact-match tous les mois. On n’est vraisemblablement loin d’être tout seul à utiliser ce genre de tools en dév perso aujourd’hui et Google s’est plusieurs fois adapté entretemps, en ne prenant plus en compte les internautes connectés via un proxy par exemple, ou qui n’ont pas le profil d’utilisateurs réels, chose que Google sait parfaitement évoluer maintenant. Du coup, on déploie aujourd’hui d’autres moyens pour amener des internautes à taper en masse une requête donnée et atterrir sur le site du client via cette requête, chercher quelque chose de précis sur le site, etc. Je ne peux pas en dire plus mais il suffit d’un peu d’imagination pour deviner ce qu’on peut faire.

        Bon courage à tous !

        Amicalement,
        Floflo du lac.

 

Ajouter un commentaire