Faire un audit on-site en 1h chrono

9 Commentaires

En général, j’ai l’habitude de passer au minimum une journée sur mes audits on-site (ce qui peut suffire pour certains petits sites vitrines) et jusqu’à 5 ou 6 jours sur des sites complexes avec de grands chantiers et des problématiques importantes. Je me suis toujours demandé ce que j’arriverai à faire si j’avais une seule heure pour faire un audit.

Compte à rebours pour un audit SEO on-site

Oui, 60 minutes, vous avez bien compris…

 

Top départ : lancement du crawl

Je commence par lancer un crawl pour le site tout entier avec mon crawler favori Screaming Frog. Je ne compte pas le temps de crawl car si le site a plus de 100 000 pages (environ), on a déjà plus d’une heure de crawl… Et puis, je ne reste pas regarder bêtement l’outil parcourir les URLs unes à unes. Je reviendrai une fois que le site tout entier aura été crawlé.

-58:32 : J’épure ma check-list

On va devoir épurer sa check-list. Tous les points peuvent avoir leur importance mais il ne me reste 58 minutes et je sais pertinemment que je ne pourrais pas tout traiter.

Le maillage interne, on garde, mais ça restera du basique on vérifiera juste les liens de navigation et qu’il soient bien en HTML. Pas le temps pour vérifier les liens INTEXT, le rapprochement entre les différents types de pages…

Les balises dans le HEAD : TITLE on garde c’est trop important et c’est surement ce qui peut se traiter le plus rapidement au vu de son poids dans le positionnement. Les META DESCRIPTION et  META KEYWORDS (du moins, leur suppression), on garde aussi ça peut se traiter de façon standard mais on ne rentrera pas dans le détail tout comme pour le TITLE.

Je vais regarder très brièvement le code http des pages voir s’il y a quelque chose d’anormal. Par contre je ne le signalerai que s’il y a quelque chose de disproportionné comme plus de 10-15% de 404 ou 500.

La duplication de texte on-site on va le garder mais je ne passerai pas plus de 3 minutes à l’analyser. Il faudra que les formats dupliqués nous sautent aux yeux sinon ce ne sera pas possible.

La duplication externe, là par contre je supprime de ma check-list. C’est plus important que la duplication interne mais d’expérience je sais que ça peut être long à définir. Eventuellement je peux m’occuper uniquement de la page d’accueil.

Les réseaux sociaux, les images, le référencement local et international, je passe…

Reste la structure de balisage interne HN, là je ne vais regarder que la présence des H1 sans rentrer dans le détail et pour le contenu éditorial pareil, ce sera un check rapide des pages pour juste dire ou non si le site est en manque de contenu.

Ah si, j’oubliais, le robots.txt, et le maillage externe : on y passera 2 minutes maximum pour voir s’il n’y a pas quelque chose d’anormal, sinon on passera à la suite. Le robots.txt n’est pas à négliger mais s’il est trop fourni et contient trop de REGEX, je ne pourrai pas l’analyser en profondeur, c’est triste mais c’est ainsi pour un audit de 60 minutes 🙂

Voici donc ma check-list simplifiée :

  • Response code – 4XX et 5XX
  • Robots.txt
  • Désindexations & Redirections
  • Duplicate Interne
  • Redirect WWW & INDEX
  • Duplicate Externe
  • Contenu Editorial
  • Maillage Interne
  • Pagination
  • Maillage Externe
  • TITLE
  • BALISAGE HN
  • META DESCRIPTION
  • META KW
  • Images
  • Référencement Local
  • Référencement International / Langues
  • Réseaux Sociaux
  • Ergonomie – UX

On a supprimé un peu plus d’1/3 des points mais on sait qu’on ne passera pas plus de 2 minutes sur chaque autres étapes.

Tiens mon crawl est terminé j’ai de la chance le site ne faisait que 1230 pages !

-51:30 : J’analyse les données du crawler

Alors là je me donne 30 minutes maximum, car après il y a la rédaction et la mise en forme de l’audit.

-50:45 Je note le nombre de pages renvoyant une erreur 4XX, idem pour les erreurs 5XX. J’ouvre 2 ou 3 pages de chaque : si je fais le rapprochement entre ces pages et que je détecte un patern tant mieux, je note le format de page concerné en brouillon, si ce sont des problèmes isolés, je ne donnerai pas de détails.

-48:21 Je passe ensuite sur l’onglet URI et sélectionne le filtre Duplicate, cela m’affiche toutes les pages identiques avec la même empreinte hash. Pour continuer sur le duplicate interne, je regarde rapidement les TITLE et META DESCRIPTION dupliqués : je repère un format de pages dupliqué entre ces différents éléments en ouvrant quelques pages au hasard et en regardant les structures d’URL. Si je repère rapidement un ou plusieurs formats de pages dupliquées, je me le note en brouillon sinon, je passe à la suite.

-44:03 Ensuite, je reviens sur les TITLE mais cette fois juste pour voir si un ratio important de pages à cette balise vide. Enfin je fais un scroll rapide de tous les title : le but ? Voir rapidement si toutes les pages ont un format standard de TITLE. Sinon, je recommande souvent celui-ci  :

[titre descriptif de la page] – [branding]

-42:48 On enchaine sur le H1, je regarde uniquement s’ils ne sont pas multiples (même si cela n’est pas toujours gênant quand il reprennent une expression similaire) et s’ils ne sont pas vides pour une proportion importante des pages, sinon, je me le note en brouillon.

Finalement les META DESCRIPTION ne m’auront servi que pour repérer des pages possiblement dupliqués on-site, mais je n’ai pas le temps de regarder si les formats sont pertinents pour chaque type de page.

-40:55 Dans les vérifications de base, je vais regarder également si les redirections sont bien présentent entre la version avec WWW et sans WWW du domaine. Idem pour la page d’accueil avec et sans « /index.html » ou « /index.php » qui doit être redirigé vers la racine du site, tout ça prend 30 secondes.

-39:51 Je vais maintenant regarder à quoi ressemble le site, enfin du moins le code source… Pour la partie maillage interne, je vais regarder l’essentiel, est-ce que les liens des menus principaux horizontaux ou latéraux sont bien de type « a href=“URL“ ». Si le site est un e-commerce je ferais de même en regardant les liens de listing de produit sur les pages catégorie. Je ne mets une note en brouillon qu’en cas de problème.

-34:42 La dernière chose de ma check-list à vérifier sur le site est le contenu. J’ouvre rapidement 10 pages qui me paraissent être importantes d’après le menu de navigation principal et jette un coup d’œil sur chaque page tel un scanner sans lire ce qui est écrit… allez si, je lis quand même la première phrase d’une ou deux pages pour vérifier que c’est écrit en bon français. Là je ne pourrais pas donner de bons conseils éditoriaux mais simplement dire si les pages manquent de contenus ou non de manière globale et en fonction du type de site et de sa thématique (cela se fera uniquement sur mes connaissances personnelles car je n’ai pas le temps de faire une étude concurrentielle et thématique).

-29:18 Je fais une pause et vais boire un verre d’eau car j’ai l’impression d’avoir pris 4h en 1/2 heure…

J'ai soif

Ceci est un verre d’eau

-27:21 Voilà j’ai fais le tour de ce qui est important et peut être vérifié rapidement. J’ai pris des notes sur mon brouillon et il ne me reste plus que 20 minutes pour rédiger l’audit. Ce serait impossible si c’était mon premier audit. Heureusement, ce n’est pas le cas et avec l’expérience, j’ai déjà mon template Word et les explications et solutions pour les problèmes classiques. Je n’ai plus qu’à adapter fonctions des notes prises en brouillon.

-08:07 Il n’y a plus qu’à mettre en pièce jointe l’export des URLs de Screaming Frog, et voilà mon audit d’1h est prêt à être envoyé. Je rédige mon mail mentionnant les points qui me paraissent les plus importants. Ce mail fera office de préambule et sera au final presque aussi important que l’audit au vu du temps passé sur celui-ci.

-01:45 le mail est parti mission accomplie ! Je respecte le délai mais j’ai comme un gout d’inachevé, le sentiment du devoir non accompli. L’heure fut intense mais j’ai l’impression que mon devoir est bâclé. Je parle de devoir car le challenge ressemblait une interro surprise du collège à faire en 1 heure sur un sujet qu’on maitrisait mais pour lequel on n’a pu répondre à 10% des questions.

checker-flags-297188_640

-00:00 : Ligne d’arrivée

L’audit est maintenant entre les mains du client, encore faut-il qu’il soit mis en place correctement (espérons que le DEV ait, lui, plus d’une heure pour tout mettre en place et surtout qu’il réussisse à interpréter les préconisations un peu trop généralistes dans la plupart des cas). Je peux encore accorder une quinzaine de minutes au client 😉

Evidemment, je n’ai jamais eu à faire un audit en 1 heure, mais je trouve que la réflexion est intéressante car elle permet de déterminer les points avec un rapport « efficacité / temps d’analyse + rédaction » élevé.

Exemple : les préconisations de TITLE sont rapides à analyser et expliquer et ont un fort impact sur le positionnement. Au contraire, le maillage interne sémantique est bien plus long à traiter.

Et vous, si vous aviez une heure pour faire un audit, comment vous y prendriez-vous ?

 

 

Abonnez-vous à notre Newsletter !

Les champs avec une * sont obligatoires
9 Commentaires
    • Boris
    • 12 novembre 2014
    Répondre

    Pourquoi supprimer les balises keywords si Google ne les prends pas en compte ? Est ce pénalisant d’en avoir ? Et puis je crois que certain moteurs de recherches les utilisent quand même du coup ce n’est pas grave si on en a nn ?
    On peut expliquer au client qu’il peut ne plus s’embêter à les remplir mais doit on supprimer les anciennes kw ?

    • Répondre

      Bonjour Boris,

      Les balises meta keyword ne sont pas directement pénalisantes pour le site mais elles ne sont pas prises en comptes par les principaux moteurs de recherche comme Google et Bing.

      Les seuls points négatifs si tu laisse les meta keyword remplies :
      – faciliter le travail de recherche de mots clés effectué à ces concurrents qui iraient fouiner dans le code source
      – envoyer un signal supplémentaire de suroptimisation dans le cas de sites qui auraient toutes leur meta keywords remplies avec plus de 20 mots clés et qui aurait d’autres traces de sur-optimisations que ce soit on-site ou off-site. Ce signal de suroptimisation en plus pourraient ou pas pénaliser…

      Si le site de ton client n’a pas les balises remplies excessivement sur chaque page tu peux tout à fait les laisser remplies et lui dire de ne pas remplir les prochaines. S’il y a le mot clé principal sur chaque page, ça n’envoie pas de signal négatif et ça peut seulement aider certains concurrents dans leur recherche de mot-clés… donc ce n’est pas très grave.

      Après oui il y a des moteurs de recherche beaucoup moins connus qui ne ramèneront pas ou peu de trafic (du moins sur les recherches en français) qui utilisent ces balises…

      En plus dans cet article ici le but est de faire « 1 article en 1h chrono » et avec cette contrainte de temps le plus simple et efficace pour moi serait de demander la suppression de la balise.

    • sébastien
    • 21 août 2014
    Répondre

    Très pro, j’en ai profité pour télécharger Screaming Frog 🙂 Merci !

  1. Répondre

    Salut,

    Pas mal le flash audit.
    Et même si tu as l’impression que ton travail est baclé, tous les points évoqués peuvent à eux seuls changer le positionnement du site dans les serps.
    Perso, je suis un peu allergique aux tags, je rajouterai ce point.
    En tout cas, je te ferai confiance pour un audit. 🙂

      • Eric ax6
      • 28 juillet 2014
      Répondre

      Jackie Chun c’est une manie de te répéter avec tes tags 😉 mais au fond tu n’as pas tord, je vois où tu veux en venir, tu axes tout sur le contenu dans la page.
      Sinon l’audit en 1 heure c’est whouahouh… Et combien de temps pour écrire l’article? lol
      Merci pour Screaming Frog que je découvre et qui a l’air top pour l’optimisation on site.
      J’avais jamais vu ce blog et pourtant Seoh c’est du lourd, à bientôt.

      • Répondre

        Bonjour Eric, content de t’avoir fais découvrir cet outil. Si je ne devais en garder qu’un pour mes audits on-site ce serait celui-ci sans hésitations! et le deuxième serait mon navigateur 😉 .
        J’ai mis un peu plus d’1h pour cet article mais je n’avais pas préparer de méthode pour écrire d’article en moins d’1h, j’y réfléchirai pour un prochain article peut-être.

    • Répondre

      Salut Jackie Chun, Merci pour ta suggestion.

      Les Tags c’est un peu délicat car s’ils sont peu nombreux, bien choisis (en petite quantité) et proposent chacun un nombre cohérent d’articles (au moins trois) alors ces pages peuvent se positionner. Il faut aussi regarder leur courbe de trafic pour savoir si cela peut valoir le coup de les garder… Bref tout cela peut prendre plus de 8 minutes dans certains cas. difficile pour un audit « flash » 😉

      Mais on peu effectivement repérer rapidement le bourrinage de TAGs qui est la plupart du temps nocif pour le site : Des pages TAGs trop nombreuses (plus d’une dizaine) et générants trop peu de trafic.

  2. Répondre

    Bonjour, j’aurai ajouté « test de la boite de recherche » dans la liste des points prioritaires à vérifier, comme c’est souvent le principal coupable du contenu dupliqué ou du syndrome du site avec 20000 pages indéxées…. c’est souvent le point que je regarde immediatement et que je demande au client de fixer en priorité absolu ( fix qui ne coute pas cher et qui apporte beaucoup ! ) .

    • Répondre

      Bonjour Patrice, En effet c’est un point que j’aurais pu rajouter dans la partie vérification du contenu dupliqué car il peut se vérifier très rapidement et peut être très néfaste pour le site si le ratio de pages de recherche indexées est trop important.

 

Ajouter un commentaire