Le SERP Bounce : le critère de positionnement le plus sous-estimé ?

Publié le 11 août 2014
Partager

La majorité des articles traitant des critères de positionnement ne le mentionne même pas, et pourtant, c’est selon moi l’un des plus importants critères de positionnement et la condition sine qua non au bon positionnement d’une page sur les moteurs de recherche.

Le SERP Bounce

position zéro featured snippet

Le SERP Bounce c’est le pourcentage d’utilisateurs qui vont cliquer sur un résultat présent sur la page de résultats d’une requête donnée, puis revenir à cette même page de résultats pour en choisir un autre. Plus il est bas, mieux vous serez positionné.

L’inverse pourrait être le taux de satisfaction du résultat pour une requête, correspondant au pourcentage d’internautes qui vont taper cette requête et ne pas revenir à la page de résultats (l’internaute est satisfait). Plus il est élevé, mieux vous serez positionné.

 

Pourquoi Google utiliserait-il le SERP Bounce dans son algorithme ?

Pourquoi ne pas simplement utiliser le taux de rebond et le temps de visite ?

Le SERP Bounce va beaucoup plus loin que le taux de rebond, car il intègre d’autres dimensions qui le rendent plus pertinent pour classer des résultats : la requête tapée par l’internaute et la page de destination.

Votre page peut être pertinente et avoir un taux de rebond important. C’est le cas des sites de recettes de cuisine ou des sites de parole de musiques. En revanche si quelqu’un recherche les paroles d’une musique, clique sur le premier résultat, revient à la page de résultats, clique sur le deuxième résultat parce qu’il n’a pas trouvé ce qu’il cherchait (une vidéo pour chanter en même temps que la musique par exemple) et que la majorité des internautes font comme lui, le deuxième résultat a de grande chance de passer devant, sans lien ou optimisation interne supplémentaire.

De la même façon, si je recherche les ingrédients de la recette du pain perdu, je vais rester quelques secondes sur le site de recettes et cela n’enlève rien à la pertinence de la page.

Prenez donc du recul par rapport à ces métriques qui dépendent de chaque thématique, de chaque page, du chemin de l’internaute avant de trouver cette page et de l’intention de l’internaute Tactee SEO vous en dit plus sur cet élément.

C’est un critère de pertinence efficace

Faisons un sondage. Mettez-vous à la place de Google, dont le second but après la vente de publicité, est d’afficher les résultats les plus pertinents afin de vendre encore plus de publicité sur le long terme.

Dans quel ordre positionneriez-vous ces 5 pages à popularité et autorité égale (en théorie) sur la requête [blouson de moto] :

  1. La page d’accueil d’un site qui ne vend rien directement mais redirigeant les internautes vers Amazon et Ebay via des liens d’affiliation, accompagné de contenu optimisé pour les mots clés mais qui n’aide pas réellement l’internaute dans sa recherche de blouson de moto
  2. La page d’accueil d’un guide/comparatif des différents types de blousons de moto et renvoyant vers différents sites e-commerce via des liens d’affiliation
  3. La page d’accueil d’un site e-commerce proposant tous les types de blousons (cuir, synthétique) à tous les prix
  4. La page d’accueil d’un site e-commerce proposant uniquement des blousons en cuir haut de gamme
  5. Une page Wikipédia sur les blousons de moto

Je n’ai pas fait de sondage précis auprès de motards mais je serai prêt à parier que l’ordre de ces pages classées par SERP Bounce de façon croissante serait le suivant :

  1. La #3, parce qu’elle répond à la majorité des internautes qui ont l’intention d’acheter (et c’est une requête à forte intention d’achat)
  2. La #2 parce qu’elle répond à la majorité des internautes qui ne se seraient pas encore décidés
  3. La #1 en dessous des deux autres parce que Google n’a aucun intérêt à positionner un site sans valeur ajoutée augmentant d’un clic le parcours de l’internaute
  4. La #4 parce qu’elle répond à un segment minoritaire des internautes tapant cette requête
  5. La #5 parce que malgré l’autorité de Wikipédia, il est peu probable que l’internaute soit intéressé par des renseignements encyclopédiques sur les blousons de moto…

C’est un critère de pertinence simple et peu couteux

Techniquement, la récupération de ces données comportementales est très simple et peu couteuse comparé au coût lié au développement d’une intelligence artificielle. Google n’a pas besoin non plus d’aspirer et de décortiquer tout le trafic de Chrome pour le calculer. Et s’il le fait, c’est à but de profilage publicitaire, arrêtons la parano SEO deux minutes !

Google ne peut pas se baser uniquement sur ce critère

Si ce critère est si magique que cela, on pourrait se demander pourquoi Google ne laisserait-il pas tomber ses autres critères de positionnement comme le HTTPS (lol) ou les liens entrants, critère dont il a tant de mal à enrayer la manipulation ?

Quelques éléments de réponse :

  • Le site doit être un minimum optimisé pour que Google comprenne de quoi il parle.
  • Il faut que Google considère le site, un ou deux liens d’annuaires ne suffisent pas à lui donner assez d’autorité pour que Google le considère un minimum.
  • Il doit avoir un minimum de données comportementales pour calculer le SERP Bounce, et ses résultats doivent tout de même être pertinents pour les requêtes qui sont tapées pour la première fois ou peu tapées.
  • Enfin, lorsque deux sites sont de qualité équivalente, d’autres critères rentrent en compte : la qualité des liens (autorité) et le nombre (popularité) par exemple.

La question que tout le monde se pose alors : est-ce manipulable ?

J’aurai tendance à dire que oui, c’est manipulable, mais plus complexe et moins légal (utilisation de botnets) que les liens.

On pourrait imaginer que pour s’en prémunir, Google ne récolte seulement les données des utilisateurs connectés avec une activité naturelle (réception d’emails, envoi d’emails, navigation régulière). Il éviterait ainsi la majorité des tentatives de manipulation.

Le plus simple reste encore de l’influencer plutôt qu’essayer de le manipuler en surpassant ses concurrents (des call-to-action qui donnent envie, des contenus de meilleure qualité, des contenus similaires à consulter, des réponses aux besoins de tous les internautes, etc.). Cela a un réel intérêt puisque ces changements impactent aussi positivement votre business.

Ceci explique cela…

Pourquoi vous n’arrivez pas à nettoyer votre e-réputation

SERP BOUNCE ! Qui n’est pas friand d’histoires sensationnelles sur une personne ou une société dont on recherche le nom sur Google ? Personne ! Et voilà pourquoi ces pages restent parfois très longtemps, malgré un travail d’e-réputation acharné.
La solution ? Consolider à l’avance la première page de résultats sur votre nom avec des pages fortes en autorité, de façon à ce qu’un simple article négatif n’arrive jamais en première page. Si l’actualité est reprise sur plusieurs journaux, c’est un travail perdu d’avance avec la prime que ces sites reçoivent lorsque Google détecte une vague d’actualité pour un sujet donné.

Pourquoi LinkedIn est généralement mieux positionné que Viadeo sur le nom d’une personne ? (constat totalement arbitraire)

Logo des réseaux sociaux Linkedin et Viadeo
SERP BOUNCE ! Il faut s’inscrire pour voir le profil Viadeo de quelqu’un, contrairement à LinkedIn qui affiche au moins une partie des informations… notamment la photo de ladite personne. Ce dernier satisfait donc la majorité des internautes. Deux résultats simples à départager pour Google !

Pourquoi Google est meilleur que Bing

Logo des plateformes Ads Google et Bing

Si l’on oublie le fait que Bing soit édité par Microsoft, la principale raison pour laquelle Google est meilleur que Bing et n’importe quel autre moteur est sa part de marché écrasante grâce à laquelle il peut accumuler beaucoup plus de données de comportement utilisateur et ainsi mieux les exploiter pour classer les résultats de façon plus précise et pertinente.

Cassons certains mythes !

Non, Google n’utilise pas les données de Google Analytics ou Chrome pour son algorithme.

Tous les sites n’utilisent pas Google Analytics et le calcul du SERP Bounce sans ces données est immensément plus simple et moins couteux. De plus, manipuler les données de Google Analytics est un jeu d’enfant.

Oui, vous pouvez vous positionner avec des liens non naturels.

Quel intérêt pour Google de pénaliser un site plus pertinent qu’un autre ? Le résultat final n’est-il pas de satisfaire l’internaute ? A moins qu’il veuille en faire un exemple, ce n’est vraiment pas dans son intérêt. Et c’est d’ailleurs pour cela que les gros sites sanctionnés reviennent dans les bonnes grâces quelques semaines après la pénalité, malgré un nettoyage de liens sommaire. Je pense notamment à l’affaire RapGenius, un site de paroles de musique clairement meilleur que les autres (signification des paroles, commentaires, vidéos, expérience utilisateur générale) qui a été pénalisé parce qu’une affaire de lien factice était devenue publique et que Google devait agir pour les apparences. Le site était revenu 10 jours après

Non, de bons liens et une bonne structure interne ne suffisent pas.

Votre page doit répondre exactement à la requête de l’internaute. Par exemple, certains plombiers travaillant dans un ou deux arrondissements de Paris vont s’obstiner, à coup de milliers d’euros de SEO dans le vent, à essayer de se positionner sur la requête [plombier paris] alors qu’il est plus logique d’afficher prioritairement des sociétés intervenant dans tous les arrondissements ou des annuaires. Ce n’est pas ce qui manque.

Non, Google ne comprend pas vos textes.

Google est un robot, et restera un robot. Certes, il peut détecter assez facilement quand un texte est dupliqué ou généré automatiquement et vous déclasser pour cela, mais le meilleur lien du monde et un texte de 2000 mots rédigé par le meilleur rédacteur de l’univers n’auront aucun effet si vous ne répondez pas à ce que recherche la majorité des internautes. Il comprend l’intérêt de vos textes par l’analyse des comportements de l’internaute.

Non, le nombre de clics n’influe pas sur votre positionnement.

Ne me faîtes pas dire quelque chose que je n’ai pas dis ! C’est la qualité des clics qui compte, pas la quantité. Comme les liens en fait. Le résultat de cette étude de Moz est à prendre avec des pincettes, la majorité des participants ayant certainement cliqué sur le résultat demandé.

Non, le temps de chargement ne sert pas qu’à améliorer le nombre de pages crawlées.

C’est secondaire. Le temps de chargement influence surtout l’expérience utilisateur, comme le montre cette infographie de KissMetrics. Si votre site est trop lent, les internautes iront consulter un autre résultat et à terme cela influencera négativement votre positionnement.

Comment observer ce phénomène ?

J’observe ce phénomène depuis fin 2011, l’utilisation de ce critère est particulièrement évidente dans les cas suivants :

Les fluctuations quotidiennes sur les requêtes « marque »

Vous pensiez que tout le monde s’arrêtait au premier résultat sur une requête contenant le nom d’un site (« zalando », « badoo », etc.) ? Vous vous trompez, même si le taux de clics est en baisse suite au passage de ces pages à 7 résultats et à la démocratisation des mega-sitelinks, une part non négligeable du trafic revient aux sites situés sous le site officiel. Le SERP Bounce étant toutefois catastrophique (à moins que le résultat soit « choc » ou « négatif »), Google ne sait plus quel résultat afficher. Il n’est pas rare de voir les résultats de ces requêtes changer complètement d’un jour à l’autre, avec de toutes nouvelles pages propulsées du jour au lendemain, comme si Google ne pouvait rien faire de ces données utilisateurs et essayait de nouveaux résultats dans l’objectif d’en trouver un plus pertinent.

L’arrivée d’un résultat disruptif

Une start-up bouscule un marché en divisant les prix par deux, ou en abordant différemment un marché ? Si son site se positionne rapidement sur des requêtes concurrentielles, ce n’est certainement pas à cause d’une hypothétique « prime fraîcheur ». C’est juste parce que ce qu’il propose est meilleur que ses concurrents.

Un exemple concret

Il fut un temps où j’éditais des sites de rencontre. J’ai eu l’idée d’insérer un chat gratuit et sans inscription sur toutes les pages avec une base commune à tous les sites pour plus d’activité. Du jour au lendemain, la durée moyenne d’une visite a doublé, le taux de rebond a fortement diminué (et le SERP Bounce a très certainement baissé) et les positions ont fortement progressé.
Et vous, que pensez-vous de ce critère de positionnement ?

Elaine Goldfarb
Directrice de production à l'agence Tactee. Mon expertise s'étend sur la supervision de refontes de sites internet, l'UX, le design et le développement. J'ai eu l’occasion de piloter la transformation digitale pour plus de 150 clients, en me concentrant sur l'innovation et la qualité. Mon rôle ? Être le moteur derrière chaque projet, en veillant à ce que nous livrions des solutions digitales qui surpassent les attentes.
Autres articles qui pourraient vous intéresser