L’article Comment réaliser un Audit Technique SEO ? [Etapes et Outils] est apparu en premier sur tactee Agence web.
]]>L’importance de cet audit réside dans sa capacité à identifier des obstacles cachés, tels qu’une structure d’URL mal conçue ou des temps de chargement lents, qui peuvent limiter la visibilité en ligne d’un site. Avec des algorithmes de moteurs de recherche en constante évolution, se tenir informé des dernières pratiques SEO est crucial. En abordant ces problèmes, l’audit assure une meilleure accessibilité pour les moteurs de recherche et améliore l’expérience utilisateur, conduisant à une indexation optimisée, une visibilité accrue, et une augmentation du trafic qualifié.
Il est crucial de noter que l’audit technique SEO se concentre exclusivement sur les aspects techniques du site, tels que le code source, l’optimisation des ressources web, et la compatibilité mobile, sans s’attarder sur les stratégies de mot-clé, de contenu ou la construction de backlinks. Cette approche technique garantit que le site est pleinement exploitable et compréhensible par les moteurs de recherche, offrant ainsi la base nécessaire pour une performance SEO optimale. Un audit technique ne devrait donc pas être vu comme une action isolée, mais comme une composante essentielle d’une stratégie SEO dynamique et continue, adaptée aux changements du paysage numérique et aux exigences spécifiques de votre audience.
Les balises title et meta descriptions sont fondamentales pour le SEO. Elles doivent être uniques, éviter la duplication, et respecter une longueur optimale (entre 50-60 caractères pour les titres et 150-160 pour les descriptions) pour garantir une bonne visibilité dans les SERPs. Concernant la hiérarchie des Hn, il est crucial de s’assurer qu’il n’y a pas de duplication et que chaque page possède une structure logique. Les balises canoniques sont également essentielles, chaque page devant bénéficier d’une auto-canonique, même en l’absence de duplication, pour indiquer clairement à Google la version principale du contenu.
Une arborescence claire et structurée est vitale pour un site. Elle permet de classer le contenu dans des clusters sémantiques cohérents, d’optimiser les niveaux de profondeur pour une meilleure distribution du jus interne, éviter les pages orphelines, et faciliter l’indexation par les moteurs de recherche. Une bonne gestion de l’architecture du site améliore significativement le SEO en rendant le contenu plus accessible et en renforçant la pertinence des pages.
La vitesse de chargement d’un site est cruciale pour le SEO et l’expérience utilisateur. Google le mesure par l’intermédiaire de 4 données que sont les Core Web Vitals. Voici un résumé et les impacts de ces métriques :
Les meta robots ne doivent pas contenir de directive « noindex » sur des pages stratégiques. Un trop grand nombre de directives « noindex » peut nécessiter l’obfuscation. Le fichier robots.txt doit permettre un crawl efficace du site, sans bloquer l’accès à des ressources importantes comme le JS, le CSS, et les images. Un fichier robots.txt bien configuré est essentiel pour diriger correctement le Googlebot.
Un sitemap.xml bien structuré est indispensable pour guider les moteurs de recherche à travers le contenu de votre site, facilitant ainsi une indexation complète et efficace. Il est crucial de s’assurer que le sitemap est à jour et référencé dans le fichier robots.txt pour une découverte optimale. Chaque URL listée dans le sitemap doit renvoyer un code de statut HTTP 200, indiquant que la page est accessible et exempte d’erreurs. Les URLs conduisant à des redirections (3xx) ou à des erreurs (4xx) doivent être éliminées du sitemap pour maintenir sa précision et son efficacité, garantissant que seules les pages valides et pertinentes sont présentées aux moteurs de recherche.
Le contrôle et la correction des erreurs de crawl sont essentiels pour maintenir l’intégrité et la navigabilité de votre site. Les erreurs 404 (Page Non Trouvée) nuisent à l’expérience utilisateur et peuvent affecter négativement le classement SEO de votre site. Les redirections, notamment les 301 (permanentes) et les 302 (temporaires), doivent être utilisées correctement pour diriger l’audience et les moteurs de recherche vers le contenu pertinent. Un suivi régulier via des outils comme Google Search Console permet d’identifier et de corriger ces erreurs, assurant que les ressources importantes sont toujours accessibles et que les liens internes et externes pointent vers des destinations valides.
Google définit le contenu dupliqué comme des blocs substantiels de contenu à l’intérieur ou à travers des domaines qui correspondent complètement à d’autres contenus ou qui sont sensiblement similaires. Bien que Google affirme qu’il ne pénalise pas directement le contenu dupliqué, il peut affecter la visibilité du site en répartissant la valeur du signal entre plusieurs pages similaires, ce qui dilue leur potentiel de classement. Les contextes fréquents de duplication incluent les filtres à facettes sur les sites e-commerce, les fiches produits similaires, les contenus publiés sur plusieurs pages ou domaines, et les contenus multilingues. Utiliser correctement les balises canoniques permet d’indiquer à Google quelle version du contenu est préférée pour l’indexation, aidant ainsi à concentrer la valeur SEO sur la page ciblée et à éviter la dispersion de l’autorité de page.
La mise en œuvre du protocole HTTPS est non seulement cruciale pour la sécurité des données mais aussi un facteur positif pour le référencement, renforçant la confiance des utilisateurs et des moteurs de recherche dans votre site.
Assurer que le site est entièrement fonctionnel et cohérent sur tous les appareils est primordial. Utilisez l’outil de test mobile de Google et la Search Console pour surveiller la compatibilité mobile. Veillez à ce que le contenu soit identique sur mobile et desktop, et évitez la duplication du menu de navigation dans le code source. Vous pouvez utiliser des outils comme Google Lighthouse ou des extensions comme ‘Simulateur téléphone mobile’ qui vont simuler un écran mobile sur votre ordinateur.
Assurez-vous que toutes les versions de votre domaine redirigent correctement vers l’URL principale en HTTPS, y compris les redirections de la version HTTP vers HTTPS et de la version sans www vers la version avec www, pour une cohérence et une efficacité SEO optimales.
L’optimisation du poids des images est un aspect crucial de l’audit technique SEO souvent sous-estimé. Des images trop lourdes peuvent significativement ralentir le temps de chargement d’une page, impactant négativement à la fois l’expérience utilisateur et le classement SEO. Utiliser des formats d’images modernes comme WebP, qui offre une qualité comparable à JPEG ou PNG mais avec des tailles de fichier réduites, est une stratégie efficace. De plus, l’implémentation de techniques telles que le chargement différé (lazy loading) assure que les images ne sont chargées que lorsque l’internaute en a besoin, améliorant ainsi les performances de la page sans compromettre la qualité visuelle. La vérification régulière du poids des images à l’aide d’outils d’optimisation d’images en ligne peut aider à maintenir des temps de chargement rapides et à garantir une expérience optimale, tout en favorisant un meilleur positionnement dans les résultats de recherche.
Un audit technique SEO peut apporter une multitude de bénéfices concrets à un site web, essentiels pour améliorer sa visibilité en ligne, son engagement et sa conversion. Voici une liste des principaux avantages :
L’efficacité d’un audit technique SEO est incontestable, offrant une fondation robuste pour améliorer la visibilité en ligne et transformer le trafic en clients fidèles. Parmi les résultats tangibles, le fait que les sites respectant les Core Web Vitals réduisent le taux d’abandon de chargement d’une page de 24 % est particulièrement significatif. Cela démontre clairement l’importance d’une expérience optimisée pour retenir l’attention des visiteurs, faisant de cet audit un investissement stratégique crucial pour le succès à long terme d’un site web.
Pour un audit technique SEO efficace, l’utilisation d’outils spécifiques est essentielle. Voici une sélection des plus pertinents regroupée par catégorie :
=> En complément de leurs capacités à diagnostiquer les problèmes techniques et de structure, Screaming Frog SEO Spider et Oncrawl offrent également des fonctionnalités avancées pour une analyse de contenu détaillée. Ces outils sont indispensables pour examiner les éléments cruciaux de SEO on-page tels que les balises H1, H2, les titres de pages, et les meta-descriptions. Ils permettent d’identifier rapidement les cas où ces éléments sont trop longs, absents, ou dupliqués à travers votre site.
Il est important de noter que si ces outils fournissent des données précieuses, leur utilité réelle réside dans l’expertise nécessaire pour interpréter ces données et, souvent, dans les compétences de développement requises pour implémenter les améliorations suggérées sur le site. De plus, l’accès à ces outils peut représenter un coût significatif, ce qui constitue un avantage notable à opter pour une agence spécialisée.
Une agence compétente combine trois atouts cruciaux :
Chez Tactee, notre approche minutieuse comprend 75 points de contrôle lors de nos audits techniques SEO, assurant une analyse complète et détaillée de votre site. Notre expertise garantit une identification précise des opportunités d’optimisation et la mise en place de stratégies sur mesure pour renforcer votre présence en ligne.
Prendre contact avec nos experts SEO
L’article Comment réaliser un Audit Technique SEO ? [Etapes et Outils] est apparu en premier sur tactee Agence web.
]]>L’article Cookie first-party : clé de l’expérience utilisateur personnalisée ? est apparu en premier sur tactee Agence web.
]]>Au cœur de cette dynamique se trouvent les cookies first-party, qui sont créés et déployés directement par le site que vous visitez. Contrairement à leurs homologues, les cookies third-party (de tiers), qui sont générés par des domaines extérieurs au site visité, les cookies first-party servent principalement à améliorer votre expérience utilisateur.
Les cookies first-party mémorisent vos préférences : langue choisie, articles ajoutés dans le panier d’achat, informations de connexion, et bien plus encore. Grâce à eux, votre visite suivante peut être plus rapide et plus conforme à vos attentes, créant ainsi un sentiment de familiarité et de confort. Par exemple, un site e-commerce utilisera ces cookies pour se souvenir des produits que vous avez consultés ou achetés, vous proposant des recommandations pertinentes lors de votre prochaine visite.
Mais la valeur des cookies first-party dépasse la simple commodité. Pour les opérateurs de sites web, ils sont une mine d’or d’informations précieuses. En analysant les données collectées, les sites peuvent optimiser leur contenu, leur structure et leurs services pour mieux répondre aux besoins et préférences clients. Cette approche centrée sur l’utilisateur n’est pas seulement bénéfique pour le parcours client, elle est également cruciale pour élaborer des stratégies de marketing digital plus ciblées et efficaces.
Toutefois, l’utilisation des cookies, surtout en ce qui concerne la collecte de données personnelles, soulève des questions importantes de confidentialité et de consentement. La réglementation, comme le Règlement Général sur la Protection des Données (RGPD) de l’Union européenne, impose des directives strictes sur la manière dont les données des visiteurs doivent être gérées et sécurisées, mettant en avant la nécessité pour les sites web d’obtenir un consentement explicite avant de déposer ou d’accéder à des cookies sur les appareils des usagers.
Les cookies first-party, ces petits fichiers texte cruciaux pour une navigation web personnalisée, fonctionnent sur un principe simple mais efficace. Lorsque vous visitez un site web, celui-ci envoie un cookie à votre navigateur, qui le stocke sur votre appareil. Ce processus permet au site de se souvenir de vous et de vos préférences lors de vos visites ultérieures, créant ainsi une session plus fluide et personnalisée.
Dès que vous retournez sur le site, votre navigateur renvoie le cookie au serveur web, fournissant les informations stockées précédemment. Cela inclut des détails comme votre langue préférée, les articles dans votre panier, vos sessions de connexion, et bien plus. Ce mécanisme simple permet une interaction sans heurt entre vous et le site, comme si le site « se souvenait » de vous.
Un aspect crucial des cookies first-party est leur sécurité et leur spécificité au domaine. Étant donné qu’ils sont directement créés et gérés par le site que vous visitez, les risques de suivi et de collecte de données par des tiers sont nettement réduits. Cela rend les cookies first-party plus acceptables pour de nombreux visiteurs et régulateurs, surtout dans le contexte des préoccupations croissantes en matière de vie privée en ligne.
Parcours utilisateur enrichie : Ces petits fichiers permettent aux sites de mémoriser des actions précédentes, comme les préférences clients ou les détails de connexion.
Navigation personnalisée : En collectant des informations sur les habitudes et les interactions avec le site, ces marqueurs numériques aident à ajuster le contenu et les offres présentées, alignant les recommandations avec les intérêts spécifiques de l’utilisateur.
Optimisation grâce à la collecte de données : Les données obtenues fournissent une vue détaillée sur le comportement des visiteurs, y compris les pages les plus fréquentées et le temps passé sur le site.
Marketing ciblé basé sur les données : Les insights comportementaux permettent de concevoir des campagnes marketing sur mesure. Une compréhension approfondie des préférences des visiteurs facilite la création de publicités personnalisées, de promotions et d’offres spéciales, augmentant l’efficacité des initiatives marketing et renforçant la fidélité de la clientèle.
De plus en plus de personnes sont préoccupés par la manière dont leurs données sont collectées, stockées et utilisées en ligne. Par conséquent, les législateurs du monde entier ont mis en place des réglementations strictes, telles que le Règlement Général sur la Protection des Données (RGPD) en Europe, visant à protéger la vie privée des internautes.
Ces réglementations imposent aux sites web de recueillir le consentement explicite des utilisateurs avant de déposer ou d’accéder à des informations sur leurs appareils. Pour les marqueurs first party, cela signifie que les sites doivent non seulement informer les visiteurs de leur utilisation de ces outils mais également obtenir leur accord avant de procéder à la collecte de données. Cette approche vise à garantir une transparence totale et à donner aux visiteurs un contrôle accru sur leurs données personnelles.
En outre, l’évolution des navigateurs web vers une restriction accrue des marqueurs de suivi de tiers renforce l’importance des solutions first party. Ces évolutions technologiques, destinées à améliorer la confidentialité des visiteurs, mettent en lumière la nécessité pour les entreprises de s’adapter et de trouver des méthodes de collecte de données respectueuses de la vie privée.
Le tracking par cookies first-party joue un rôle fondamental dans l’analyse des données (data analytics) des sites web. Il permet aux propriétaires de sites de collecter directement des données précieuses sur le comportement des visiteurs sans s’exposer aux restrictions imposées aux cookies tiers par les navigateurs. Ces données incluent les interactions des utilisateurs avec le site, comme les pages visitées, le temps passé sur chaque page, et les conversions ou actions spécifiques réalisées.
L’usage de ces cookies pour le tracking permet une analyse approfondie via des outils comme Google Analytics ou Matomo, offrant ainsi une compréhension claire de la performance du site et de l’engagement des usagers. En exploitant ces insights, les sites peuvent optimiser leur contenu, améliorer l’expérience utilisateur, et ajuster leurs stratégies marketing pour cibler de manière plus efficace leurs audiences. La clé du succès réside dans l’éthique de collecte des données, assurant la transparence avec les visiteurs concernant le type d’informations collectées et l’usage qui en est fait.
Un exemple illustratif de cookies first-party est le cookie de session, essentiel pour le maintien de la session d’un utilisateur sur un site web. Par exemple, lorsque vous vous connectez à un compte utilisateur, un cookie first-party enregistre votre session, vous permettant de naviguer sans avoir besoin de vous reconnecter à chaque page visitée. Dans le domaine de l’e-commerce, les cookies first-party sont également utilisés pour suivre les articles dans le panier d’achat. Cela permet aux utilisateurs de continuer leurs achats et d’ajouter ou supprimer des articles du panier sans perdre leurs sélections précédentes.
Ces cookies sont cruciaux pour un parcours d’achat en ligne sans accroc, en assurant que les préférences et les actions sont mémorisées tout au long de leur visite. Ces exemples mettent en lumière la capacité des cookies first-party à améliorer significativement l’interaction, en offrant une navigation plus intuitive et un parcours utilisateur personnalisé.
L’article Cookie first-party : clé de l’expérience utilisateur personnalisée ? est apparu en premier sur tactee Agence web.
]]>L’article Création de site internet, découvrez les 7 fondamentaux pour réussir votre projet est apparu en premier sur tactee Agence web.
]]>Dans le paysage numérique actuel, la création d’un site web est devenue une nécessité incontournable pour toute entreprise souhaitant marquer sa présence en ligne. Un site internet bien conçu est un outil puissant pour interagir efficacement avec vos visiteurs et clients, transformant leur expérience et renforçant leur engagement. En effet, les sites internet alliant esthétique et fonctionnalité peuvent augmenter de manière significative leur fidélisation et leur satisfaction client.
Ce guide détaillé vous accompagne dans les étapes fondamentales pour créer un site web réussi. Nous mettrons l’accent sur des éléments cruciaux tels que le choix d’un domaine internet pertinent, la sélection d’une plateforme web adaptée, et l’importance d’un hébergement web fiable. Des plateformes comme WordPress et Wix se distinguent par leur flexibilité et facilité d’utilisation, permettant même aux novices de créer des sites web attrayants et fonctionnels. De plus, choisir un hébergeur compétent est essentiel pour garantir la performance et la sécurité de votre site.
Que votre projet consiste à lancer un site web de quelques pages ou à développer un site internet plus complexe, ces conseils pratiques vous guideront vers la création d’une présence en ligne à la fois efficace et captivante. Nous explorerons comment chaque page de votre site, chaque élément de contenu, et chaque choix de design doivent être méticuleusement pensés pour refléter au mieux les objectifs de votre entreprise dans le domaine internet. Ce faisant, vous serez en mesure de créer un site web non seulement esthétiquement plaisant, mais aussi optimisé pour répondre aux besoins spécifiques de vos visiteurs et clients, renforçant ainsi votre présence en ligne dans votre domaine d’activité.
La première et l’une des étapes les plus cruciales dans la création de votre site web est la définition claire de vos objectifs et la compréhension approfondie de votre public cible. Cette étape est fondamentale, car elle oriente toutes les décisions futures concernant la conception et le contenu de votre site. Que l’objectif de votre site soit de promouvoir votre entreprise, de vendre des produits en ligne, de fournir des informations, ou de servir de plateforme de communication, chaque page doit être méticuleusement conçue pour atteindre ces objectifs spécifiques.
Par exemple, si votre domaine d’activité repose sur une boutique e-commerce, votre site internet doit non seulement être esthétiquement attrayant pour captiver l’attention, mais aussi intuitif et facile à naviguer pour encourager les achats. La compréhension des besoins et des comportements de vos visiteurs est primordiale pour créer des pages web qui répondent efficacement à leurs attentes. Cela implique une recherche approfondie et l’utilisation de données analytiques pour guider la structure et le contenu de votre site internet.
En outre, il est essentiel de réfléchir à la manière dont votre site web s’intégrera dans l’écosystème plus large de votre présence en ligne. Cela inclut la cohérence avec vos canaux de médias sociaux, l’alignement avec votre image de marque et la façon dont votre site web contribue à renforcer votre positionnement dans votre domaine. En identifiant clairement votre public cible, vous pouvez personnaliser l’expérience utilisateur pour répondre à leurs besoins spécifiques, qu’il s’agisse de fournir des informations détaillées sur les produits, des options de support client, ou des contenus éducatifs.
Enfin, chaque élément de votre site, des images aux textes, doit être choisi et conçu en gardant à l’esprit votre public cible. Cela garantit que votre site web ne sera pas seulement une vitrine attrayante, mais un outil efficace pour engager et convertir vos visiteurs en clients fidèles. En suivant ces principes, vous serez en mesure de créer un site web qui non seulement se démarque dans le vaste univers d’internet, mais qui est également un véritable reflet de votre entreprise et de ses valeurs.
Le choix de la plateforme et de la technologie est un facteur déterminant dans la création de votre site web. Cette décision influence non seulement l’apparence et la fonctionnalité de votre site, mais aussi sa facilité de gestion et d’évolution. Dans le vaste univers des différents choix disponibles, des CMS (Content Management Systems) comme WordPress et Wix se distinguent par leur flexibilité et leur accessibilité, permettant même aux utilisateurs sans compétences techniques avancées de créer et de gérer des sites web efficaces.
WordPress, en particulier, est reconnu pour sa polyvalence et sa vaste gamme de plugins, le rendant idéal pour une variété de sites web, des blogs personnels aux sites d’entreprise complexes. Bien que WordPress lui-même soit une plateforme open-source et donc gratuite, les coûts peuvent varier en fonction de l’hébergement, des thèmes premium et des plugins. Par exemple, les tarifs d’hébergement pour WordPress peuvent commencer à partir de quelques euros par mois pour des options de base, et augmenter en fonction des besoins en performance et en sécurité. Les thèmes premium et les plugins peuvent également ajouter au coût, avec des prix allant de quelques euros à plusieurs centaines pour des fonctionnalités plus avancées. D’autre part, Wix est souvent choisi pour sa convivialité et ses designs intuitifs, offrant une solution rapide et facile pour ceux qui cherchent à lancer un site web avec un minimum de tracas. Wix fonctionne sur un modèle d’abonnement avec plusieurs niveaux de tarification, allant d’un plan de base gratuit avec des fonctionnalités limitées, à des plans premium qui commencent à environ 8,50 euros par mois. Ces plans premium offrent des avantages supplémentaires comme la suppression des publicités Wix, l’utilisation d’un domaine personnalisé, et des fonctionnalités e-commerce pour les plans plus coûteux.
Lors de la sélection de votre plateforme, il est également crucial de considérer les options d’hébergement web. Un bon hébergeur, joue un rôle essentiel dans la performance et la sécurité de votre site. Il est important de choisir un hébergeur qui offre un bon équilibre entre performance, support et coût. Des facteurs tels que la vitesse de chargement des pages, la disponibilité du site (uptime), et le support technique sont essentiels pour assurer une expérience utilisateur fluide et sans interruption.
En outre, la plateforme choisie doit permettre une optimisation SEO efficace. Un site bien structuré, avec des URL claires, des balises de titre et de description optimisées, et un contenu de qualité, est essentiel pour un bon référencement sur les moteurs de recherche. Cela garantit que votre site web n’est pas seulement attrayant et fonctionnel, mais aussi visible et bien positionné dans les résultats de recherche sur internet.
En résumé, le choix de la plateforme et de la technologie ne doit pas être pris à la légère, tout comme le fait de choisir ou non une agence pour la création de votre site web. Il s’agit d’une décision stratégique qui doit tenir compte de vos objectifs actuels et futurs, de votre public cible, et de votre capacité à gérer et à faire évoluer votre site au fil du temps. En choisissant judicieusement, vous poserez les bases solides pour un site web qui non seulement répond à vos besoins immédiats, mais qui est également prêt à évoluer avec votre entreprise dans le dynamique monde du web.
Comprendre les clients de votre domaine est essentiel pour la réussite de votre site internet. Cela implique d’analyser les tendances du marché, les préférences des consommateurs et le comportement des visiteurs sur des sites similaires. Utilisez des outils d’analyse pour recueillir des données sur la façon dont les visiteurs interagissent avec des sites dans votre domaine. Ces informations vous aideront à concevoir des pages web qui répondent aux besoins spécifiques de votre public. Par exemple, si vous découvrez que la majorité de vos visiteurs préfèrent des tutoriels vidéo, intégrez ce type de contenu dans votre site internet. De même, si les données montrent une préférence pour les achats mobiles dans votre domaine, assurez-vous que votre site est optimisé pour les appareils mobiles.
La création d’un cahier des charges détaillé est une étape fondamentale dans le processus de création de votre site internet. Ce document doit définir clairement les objectifs, les fonctionnalités attendues, le budget et les délais de votre projet. Par exemple, si vous créez un site e-commerce, votre cahier des charges devra inclure des détails sur les systèmes de paiement, l’intégration de l’inventaire, et les options de livraison. Il est également important de définir le type de contenu que vous prévoyez d’inclure, que ce soit des articles de blog, des descriptions de produits, ou des études de cas. Un cahier des charges bien pensé sert de feuille de route pour votre projet et assure que toutes les parties prenantes ont une compréhension claire des attentes.
Le design et l’expérience utilisateur (UX) sont cruciaux pour le succès de votre site web. Un bon design doit non seulement être esthétiquement plaisant mais aussi fonctionnel, facilitant une navigation aisée sur votre site internet. Par exemple, une page d’accueil bien conçue doit guider intuitivement les utilisateurs vers les sections les plus importantes de votre site. L’UX doit être centrée sur l’utilisateur, avec une attention particulière portée à la facilité d’utilisation et à l’accessibilité. Des éléments tels que la vitesse de chargement des pages, la clarté des appels à l’action, et la cohérence du design à travers différentes pages sont essentiels. Utilisez des outils d’analyse pour tester et améliorer l’UX, en vous assurant que votre site répond aux attentes de vos visiteurs.
Le contenu est véritablement le cœur de votre site internet. Un contenu de qualité engage non seulement vos visiteurs mais joue aussi un rôle crucial dans l’amélioration de votre SEO (Search Engine Optimization). Lors de la rédaction de contenu pour votre site web, il est essentiel de se concentrer sur la création de textes pertinents, informatifs et captivants qui intègrent naturellement des mots-clés liés à votre domaine et à votre entreprise. Par exemple, si votre site est dédié à la vente de produits de beauté en ligne, vos articles de blog, descriptions de produits et pages d’information doivent inclure des mots-clés pertinents pour ce secteur.
En plus de l’utilisation stratégique de mots-clés, assurez-vous que votre contenu est bien structuré avec des titres clairs, des sous-titres, et des balises méta descriptives. Cela aide non seulement les moteurs de recherche à mieux comprendre et indexer le contenu de vos pages web, mais améliore également l’expérience utilisateur. Un bon contenu doit également être régulièrement mis à jour pour rester pertinent et intéressant pour vos visiteurs, ce qui contribue à améliorer le classement de votre site sur les moteurs de recherche.
Il est également important de créer un contenu qui résonne avec votre public cible. Cela signifie comprendre les questions, les préoccupations et les intérêts de vos visiteurs et y répondre de manière efficace à travers vos pages web. En fournissant des réponses et des solutions à travers un contenu de qualité, vous établissez votre site comme une ressource fiable et autoritaire dans votre domaine. Cela renforce la confiance des visiteurs et des clients potentiels, ce qui est essentiel pour convertir le trafic en vente et en engagements à long terme.
Enfin, n’oubliez pas l’importance de l’aspect visuel de votre contenu. Les images, les graphiques et les vidéos peuvent non seulement rendre votre site plus attrayant, mais aussi aider à expliquer des concepts complexes et à maintenir l’engagement des visiteurs. Assurez-vous que ces éléments visuels sont également optimisés pour le web, avec des tailles de fichier appropriées et des balises alt descriptives, pour améliorer à la fois la vitesse de chargement de vos pages et leur référencement sur les moteurs de recherche.
Le SEO technique est un aspect fondamental pour optimiser votre site pour les moteurs de recherche. Il englobe des éléments tels que la structure du site, la vitesse de chargement des pages, la compatibilité mobile, et bien d’autres facteurs qui influencent directement le classement de votre site dans les résultats de recherche sur internet. Par exemple, un site qui charge rapidement et est facile à naviguer sur les appareils mobiles est plus susceptible d’être bien classé par les moteurs de recherche comme Google.
Pour améliorer la vitesse de chargement de votre site, utilisez des outils tels que Google PageSpeed Insights. Ces outils peuvent vous fournir des informations précieuses sur les aspects de votre site qui nécessitent des améliorations pour optimiser les temps de chargement. En outre, assurez-vous que votre site est bien structuré avec une hiérarchie claire, des URL conviviales, et des balises de titre et de description optimisées. Ces éléments aident les moteurs de recherche à indexer votre site plus efficacement et améliorent l’expérience utilisateur.
La compatibilité mobile est également cruciale dans le SEO technique. Avec l’augmentation constante de l’utilisation des appareils mobiles pour accéder à internet, il est essentiel que votre site soit responsive, c’est-à-dire qu’il s’adapte automatiquement à la taille de l’écran sur lequel il est affiché. Cela garantit une expérience utilisateur optimale, quel que soit l’appareil utilisé pour accéder à votre site. En outre, l’optimisation des images joue un rôle important dans le SEO technique. Des images de grande taille peuvent ralentir considérablement la vitesse de chargement de vos pages, affectant négativement l’expérience utilisateur et le classement de votre site. Utilisez des formats d’image optimisés pour le web, comme JPEG ou PNG, et envisagez l’utilisation de techniques telles que le lazy loading, qui ne charge les images que lorsque l’utilisateur fait défiler la page.
Enfin, la sécurité de votre site est un autre aspect important du référencement naturel. Un site sécurisé, notamment avec un certificat SSL, est non seulement essentiel pour protéger les données de vos utilisateurs, mais est aussi un facteur pris en compte par les moteurs de recherche pour le classement des sites. Assurez-vous que votre site utilise HTTPS pour renforcer la confiance des utilisateurs et améliorer votre classement SEO.
La sécurité et la conformité sont des aspects essentiels de tout site web. Il est crucial de protéger les données de vos visiteurs et de votre entreprise contre les menaces en ligne. Assurez-vous que votre site utilise un certificat SSL pour sécuriser les données transmises. De plus, si vous collectez des données personnelles, vous devez être conforme aux réglementations telles que le RGPD. Choisissez un hébergeur fiable qui offre des mesures de sécurité robustes, telles que la protection contre les malwares et les attaques DDoS. Par exemple, Hostinger offre une gamme de fonctionnalités de sécurité pour protéger votre site web. En outre, assurez-vous de mettre régulièrement à jour votre CMS et vos plugins pour éviter les vulnérabilités de sécurité.
L’analyse et l’amélioration continue sont des composantes essentielles pour maintenir et accroître la pertinence et l’efficacité de votre site internet. Dans le monde dynamique du web, il est crucial de rester à l’écoute des performances de votre site et de l’adapter en fonction des retours des utilisateurs et des évolutions du marché.
L’utilisation d’outils d’analyse web comme Google Analytics est fondamentale pour comprendre comment les visiteurs interagissent avec votre site. Ces outils fournissent des données précieuses telles que le nombre de visiteurs, la durée de leurs visites, les pages les plus consultées, et le chemin qu’ils empruntent sur votre site. Par exemple, si vous constatez que la majorité de vos visiteurs quittent votre site à partir d’une page spécifique, cela peut indiquer un problème avec le contenu ou la conception de cette page, nécessitant une révision ou une amélioration.
En plus de l’analyse du trafic, il est important de surveiller le classement de votre site dans les résultats de recherche pour des mots-clés pertinents. Cela vous aidera à comprendre l’efficacité de votre stratégie de référençement et à identifier les domaines qui nécessitent une optimisation supplémentaire. Des ajustements réguliers de vos mots-clés, du contenu de votre site, et de la structure technique peuvent contribuer à améliorer votre visibilité et votre classement dans les moteurs de recherche.
L’amélioration continue implique également de rester à jour avec les dernières tendances du web et les attentes des utilisateurs. Cela peut inclure l’adoption de nouvelles technologies, la mise à jour du design de votre site pour le rendre plus moderne et attrayant, ou l’ajout de nouvelles fonctionnalités pour améliorer l’expérience utilisateur. Par exemple, l’intégration de chatbots pour une assistance client instantanée ou l’utilisation de la réalité augmentée pour les sites de commerce électronique peut offrir une expérience utilisateur enrichie et différenciante.
Enfin, il est essentiel de recueillir et d’analyser les retours des utilisateurs. Les commentaires des visiteurs peuvent fournir des insights précieux sur ce qui fonctionne bien et ce qui peut être amélioré. Que ce soit à travers des enquêtes, des commentaires sur le site, ou des analyses des réseaux sociaux, écouter vos utilisateurs est un moyen puissant d’affiner et d’améliorer votre site web.
En résumé, l’analyse et l’amélioration continue de votre site web ne sont pas seulement des tâches ponctuelles, mais un processus en cours qui nécessite une attention et un engagement constants. En restant proactif et réactif aux données, aux tendances et aux retours des utilisateurs, vous pouvez assurer que votre site reste compétitif, pertinent et efficace dans le paysage en constante évolution d’internet.
En résumé, la création d’un site web réussi implique bien plus que simplement choisir un beau design ou écrire quelques pages de contenu. Cela nécessite une planification stratégique, une compréhension approfondie de votre public cible, et une attention constante aux détails techniques et au contenu. En suivant les étapes décrites dans cet article, vous pouvez créer un site web qui non seulement attire les visiteurs mais les convertit en clients fidèles.
N’oubliez pas que la création d’un site web est un processus évolutif, envisagez d’intégrer des technologies émergentes telles que le chatbot alimenté par l’IA, la navigation par commande vocale, et les interfaces utilisateur adaptatives pour améliorer l’expérience globale de vos visiteurs. Ces technologies peuvent non seulement rendre votre site plus interactif et engageant, mais aussi améliorer son accessibilité, garantissant que tous les utilisateurs, quelles que soient leurs capacités, puissent profiter pleinement de votre site. Soyez prêt à vous adapter et à évoluer avec les tendances du marché et les besoins de vos visiteurs. Nous espérons que ces conseils vous aideront à lancer un site web qui reflète véritablement la valeur et l’unicité de votre entreprise.
L’article Création de site internet, découvrez les 7 fondamentaux pour réussir votre projet est apparu en premier sur tactee Agence web.
]]>L’article Optimiser son SEO grâce au fichier .htaccess : ce qu’il faut savoir est apparu en premier sur tactee Agence web.
]]>En matière d’optimisation SEO, bon nombre de propriétaires de sites web s’attardent uniquement sur leur code HTML et les mots-clés sur lesquels ils souhaitent se positionner. Or, il existe d’autres facteurs importants à prendre en compte pour booster le référencement naturel de son site web. Le fichier .htaccess en fait partie. Qu’est-ce que c’est ? Est-il réellement important dans l’optimisation du classement d’un site web sur les résultats des moteurs de recherche ? Nous faisons le point pour vous aider à mieux comprendre ce fichier peu connu du plus grand nombre.
Il s’agit d’un fichier de configuration destiné aux serveurs fonctionnant sous le logiciel Apache. Il permet par exemple d’indiquer des commandes ou de renforcer la sécurité d’une page web avec un mot de passe. Son usage est multiple, mais en SEO, il permet de gérer certains problèmes tels que :
Intégré directement dans un répertoire, le ficher .htaccess agit sur l’ensemble des sous-répertoires contenus dans ce dernier. C’est pour cette raison que les développeurs le placent le plus souvent à la racine du site pour qu’il agisse sur l’intégralité des répertoires de celui-ci. Il est donc possible de créer plusieurs fichiers .htaccess afin d’agir sur un ou plusieurs répertoires spécifiques du site.
Le fichier .htaccess se trouve généralement à la racine du répertoire du site. Son emplacement varie toutefois selon les plateformes utilisées. Pour l’optimisation SEO d’un site WordPress, par exemple, il est directement accessible dans le répertoire d’installation du système de gestion de contenu (CMS). Il est également possible d’accéder au fichier .htaccess via FTP.
Quant aux plateformes d’hébergement qui utilisent le panneau de configuration cPanel, il suffit de se connecter au gestionnaire de fichiers. Le fichier .htaccess se trouve à la racine du répertoire, mais l’option « Show Hidden Files » doit toutefois être activée pour accéder au .htaccess.
Le fichier .htaccess se présente comme un outil SEO incontournable. Avec des directives précises, il permet de gérer et d’agir directement sur le comportement d’un site web. Bien configuré, il contribue donc grandement à l’optimisation du référencement naturel.
Parmi les modifications possibles, le .htaccess permet par exemple de :
Le fichier .htaccess contribue-t-il vraiment à l’optimisation du référencement naturel ? Pour répondre à cette question, voici une liste non exhaustive des principales raisons d’accorder une attention particulière à ce type de fichier :
Le temps de chargement d’une page fait partie des nombreux critères pris en charge par les moteurs de recherche dans le classement des sites web dans leurs SERPs. C’est également un facteur déterminant aux yeux des internautes, car une page qui tarde à se charger risque de faire fuir l’utilisateur. Il est donc nécessaire d’optimiser la vitesse de chargement pour gagner le haut des résultats des moteurs de recherche comme Google.
En utilisant les actions ExpiresByType et Cache-Control, vous pouvez définir une durée de cache spécifique pour différents types de fichiers, comme les fichiers CSS, JavaScript, et les images. Cette approche aide à réduire le temps de chargement en stockant des versions en cache des ressources fréquemment utilisées dans le navigateur de l’utilisateur. Cela signifie qu’après une première visite, les éléments du site comme les images et les fichiers CSS n’ont pas besoin d’être rechargés à chaque fois, réduisant ainsi la charge sur le serveur et accélérant l’accès aux ressources lors des visites suivantes. Une meilleure vitesse de chargement améliore l’expérience utilisateur, un facteur que Google considère dans son algorithme de classement. Un site rapide est plus susceptible de retenir l’attention des visiteurs, réduisant le taux de rebond et augmentant les chances d’engagement. En outre, une mise en cache efficace peut aider à gérer les pics de trafic, assurant que votre site reste rapide et réactif même lors d’une forte affluence.
Il existe plusieurs techniques pour rendre votre site plus rapide. Parmi celles-ci, la mise en cache est une solution incontournable en matière d’optimisation SEO. Le principe est simple : une fois mise en place, la mise en cache permet de stocker les ressources de votre site dans le navigateur utilisateur, sans les modifier. Pour ce faire, vous devez créer un fichier .htaccess en y intégrant les directives nécessaires à l’activation de la mise en cache.
Dès lors que celle-ci est activité, il est plus facile d’accéder à votre site web, sachant que sa vitesse de chargement est beaucoup plus rapide. En plus d’accélérer votre site, la mise en cache optimise le temps de traitement du serveur.
Avant toute intervention, n’hésitez pas à réaliser un audit SEO de votre site web pour obtenir des idées de stratégies de référencement naturel adaptées.
Au-delà des erreurs de syntaxe et des éventuels problèmes de serveur, les erreurs 404 sont parfois dues à une mauvaise redirection. Pour éviter de nuire à la qualité de navigation sur votre site, et donc réduire le taux de rebond, il est crucial de résoudre ces erreurs 404 (Page introuvable).
Après avoir identifié les liens brisés à l’aide d’outils adaptés tels que Google Search Console ou Dead Link Checker, vous pouvez corriger les erreurs 404. Différentes techniques s’offrent à vous :
Concrètement, vous devez créer un fichier .htaccess pour configurer les redirections. S’il est bien fait, vous aurez la chance de réduire votre taux de rebond tout en améliorant les performances de votre site en matière de SEO.
Bien que la modification du fichier .htaccess permette d’optimiser certaines caractéristiques et fonctionnalités de votre site web, elle n’est pas sans risque. Une simple fausse manipulation et votre site peut ne plus fonctionner correctement, suivi d’un code d’erreur 500. Pour éviter les mauvaises surprises, il est fortement conseillé de sauvegarder vos fichiers .htaccess actuels avant de procéder aux éventuelles modifications.
La personnalisation des pages d’erreur via le fichier .htaccess est une technique efficace pour améliorer l’expérience utilisateur et la gestion des erreurs sur votre site web. En utilisant la directive ErrorDocument, vous pouvez rediriger les erreurs courantes comme les erreurs 404 (Page non trouvée) ou 500 (Erreur interne du serveur) vers des pages d’erreur personnalisées. Cela vous permet de remplacer les messages d’erreur génériques par des pages HTML conçues sur mesure qui s’alignent avec l’esthétique globale de votre site et offrent des options de navigation utiles. Une page d’erreur bien conçue peut atténuer la frustration des utilisateurs lorsqu’ils tombent sur un lien brisé ou une page manquante. Au lieu de les laisser dans une impasse, une page d’erreur personnalisée peut les guider vers d’autres sections de votre site, contribuant ainsi à réduire le taux de rebond et à augmenter le temps passé sur le site. De plus, ces pages personnalisées peuvent être optimisées pour le SEO, en incluant des mots-clés pertinents et des liens internes qui aident à maintenir le flux de trafic et la visibilité sur les moteurs de recherche comme Google.
La sécurisation des fichiers critiques de WordPress via le fichier .htaccess est une mesure de sécurité essentielle pour protéger votre site contre les accès non autorisés et les attaques malveillantes. Par exemple, l’utilisation de directives spécifiques dans .htaccess peut bloquer l’accès à des zones sensibles telles que le répertoire wp_admin, qui contient des fonctions administratives clés de WordPress. En restreignant l’accès à ce répertoire et à d’autres fichiers sensibles comme wp-config.php, qui contient des informations de connexion à la base de données, vous pouvez empêcher les pirates d’accéder à ces fichiers cruciaux. De plus, sécuriser les fichiers de plugin est également essentiel, car ils peuvent souvent offrir un point d’entrée aux attaquants. En ajoutant des règles simples mais efficaces dans votre fichier .htaccess, vous pouvez empêcher tout accès direct à ces fichiers, renforçant ainsi la sécurité de votre site. Ces mesures sont particulièrement importantes pour les sites WordPress en raison de sa popularité et de son utilisation répandue, ce qui en fait une cible fréquente pour les cyberattaques.
La prévention du hotlinking des images via .htaccess est une stratégie clé pour protéger la bande passante de votre serveur et améliorer la performance de votre site. Le hotlinking se produit lorsqu’un autre site utilise directement les liens de vos images, ce qui peut consommer une quantité considérable de bande passante et ralentir votre serveur. En configurant .htaccess pour bloquer ces liens directs, vous pouvez préserver les ressources de votre serveur et maintenir une performance optimale du site. En parallèle, augmenter la limite de mémoire PHP à travers .htaccess est une tactique efficace pour gérer la charge de travail de votre serveur, en particulier pour les sites WordPress qui utilisent des plugins gourmands en ressources comme WooCommerce. En ajustant la directive memory_limit, vous pouvez fournir suffisamment de ressources pour un fonctionnement sans heurts de votre site, ce qui est crucial pour maintenir une bonne expérience utilisateur et la stabilité du site.
La gestion des adresses IP à l’aide du fichier .htaccess est une technique importante pour contrôler qui peut accéder à votre site. Vous pouvez créer une liste noire pour bloquer l’accès de certaines adresses IP indésirables, ce qui est utile pour éloigner les visiteurs malveillants ou les robots spammeurs. Cette méthode est particulièrement utile pour les sites qui reçoivent un trafic indésirable ou sont ciblés par des activités de spam. En plus de bloquer des adresses IP spécifiques, vous pouvez également utiliser .htaccess pour empêcher les spammeurs de publier des commentaires sur votre blog. En utilisant des règles qui refusent les requêtes sans référent, vous pouvez réduire considérablement l’activité des spambots sur votre site. Cette approche est essentielle pour maintenir la qualité et la crédibilité de votre site, en particulier pour les blogs WordPress, où les commentaires jouent un rôle clé dans l’engagement des utilisateurs. En gérant efficacement les adresses IP et en contrôlant le spam, vous pouvez assurer un environnement sûr et accueillant pour vos visiteurs légitimes, tout en protégeant votre site contre les menaces et les nuisances en ligne.
En conclusion, le fichier .htaccess se révèle être un outil polyvalent et puissant pour tout propriétaire de site web, en particulier pour ceux utilisant des systèmes de gestion de contenu comme WordPress. Sa capacité à manipuler la configuration du serveur web ouvre un large éventail de possibilités, allant de l’optimisation SEO à la sécurisation des fichiers PHP critiques. Par des règles de réécriture intelligentes, le fichier .htaccess améliore la lisibilité des URLs, renforçant l’efficacité SEO de votre site auprès de moteurs de recherche comme Google.
De plus, les directives ExpiresByType et Cache-Control jouent un rôle crucial dans l’amélioration des performances du site, en réduisant les temps de chargement grâce à une mise en cache efficace. Les règles Allow et Deny, quant à elles, permettent une gestion précise du trafic, offrant une protection contre les accès non autorisés et les attaques spammeuses, tout en contrôlant l’accès des robots des moteurs de recherche. Ces fonctionnalités, conjuguées à des mesures de sécurité comme la prévention du hotlinking et la gestion de la mémoire PHP, font du fichier .htaccess un composant indispensable pour optimiser et sécuriser votre site web.
Que ce soit pour améliorer l’expérience utilisateur, renforcer la sécurité, ou optimiser le référencement naturel, le fichier .htaccess s’avère être un allié de taille, indispensable pour tout développeur web ou administrateur de site cherchant à maximiser les performances et la sécurité de leur présence en ligne.
L’article Optimiser son SEO grâce au fichier .htaccess : ce qu’il faut savoir est apparu en premier sur tactee Agence web.
]]>L’article Rapport SEO : Comment créer un modèle efficace de suivi ainsi que ses KPI de référencement ? est apparu en premier sur tactee Agence web.
]]>Quel que soit le projet SEO que l’on engage, à partir du moment où ce dernier dure dans le temps, il convient de mettre en place un suivi des performances cohérent et efficace. En définissant des bons KPI personnalisés et en choisissant les meilleurs outils du marché SEO, vous serez en mesure de prendre des décisions stratégiques par la suite. Voici quelques rappels utiles sur le sujet.
Un rapport SEO est un tableau de bord détaillé qui compile et analyse diverses données relatives à la performance de votre site web dans les moteurs de recherche. Il s’agit d’un outil essentiel pour évaluer l’efficacité de vos efforts en matière de référencement naturel, mais aussi pour résoudre les problèmes potentiels ou encore pour identifier les opportunités de croissance
Pour automatiser les analyses et gagner du temps
L’automatisation des rapports SEO vous permet de collecter et de présenter régulièrement des données pertinentes sans avoir à les extraire manuellement. Cela vous fait gagner du temps et vous permet de vous concentrer sur l’analyse et l’action plutôt que sur la collecte des données en tant que telles.
Pour être alerté rapidement en cas d’anomalie
Un bon rapport SEO, s’il est bien configuré et personnalisé, vous permet d’identifier rapidement toute anomalie dans vos performances web. Une chute de positionnement sur un mot-clé ? un taux de conversion en baisse ? un chiffre d’affaires irrégulier ? En vous pré-mâchant l’analyse, le rapport SEO vous guidera rapidement sur des insights afin de rectifier la stratégie, de corriger une problématique technique, voire de commencer un travail d’audit SEO.
Pour croiser plusieurs sources de données
En regroupant au même endroit des données provenant de différentes sources telles que Google Analytics, Google Search Console, et des outils de suivi de classement SEO, vous obtiendrez une vue plus complète de la performance de votre site.
De cette manière, vos processus d’analyse iront bien plus loin que si vous aviez simplement étudié plusieurs volets de chiffres dans différentes fenêtres de votre ordinateur, en cherchant plusieurs heures durant les dénominateurs communs les plus évocateurs..
Pour modaliser et mieux comprendre la data
La visualisation des données sous forme de graphiques et de tableaux, vous aidera à mieux comprendre la data, à identifier les tendances et à prendre des décisions éclairées. Vous pouvez jusqu’à personnaliser les éléments en reprenant les couleurs de votre charte graphique, ou en intégrant votre logo, ce qui permet par ailleurs de mieux s’approprier le rapport.
Partager les mêmes données avec ses collaborateurs
La création d’un rapport SEO permet de partager facilement les données avec vos collaborateurs, hiérarchiques, clients, partenaires, etc, ce qui favorise la collaboration et la compréhension mutuelle. Si des pôles ou BU de votre entreprise ne doivent pas avoir accès à certaines données sensibles, ou si ces dernières sont trop complexes et risquent de créer de la confusion, alors vous pouvez choisir de personnaliser leurs accès : enlevez des pages de votre rapport, désactivez des tableaux, des graphiques, sans pour autant modifier la version source du document.
Pour créer un rapport SEO efficace, vous devez définir les indicateurs clés de performance (KPI) qui correspondent à votre typologie de site et à vos objectifs. Voici quelques catégories de KPI SEO à considérer :
Les KPI techniques
Les aspects techniques du SEO, tels que le budget de crawl, la vitesse de chargement, et la qualité de l’indexation, sont cruciaux. Ils garantissent que votre site est bien compris par les moteurs de recherche et qu’il offre une expérience utilisateur optimale. Ainsi, il est courant de retrouver dans les rapports SEO des kpi techniques comme par exemple :
Vous pouvez personnaliser votre tableau de bord à outrance en ajoutant des indicateurs techniques, selon votre niveau SEO et votre implication dans les optimisations que vous ou votre agence appliquez au gré de la stratégie.
Les KPI sémantiques
Il est également important de jauger la pertinence sémantique de votre site tel que Google l’entend. Ainsi, vous pouvez surveiller si certaines pages sont dénuées de puissance par rapport aux mots-clés qu’elles traitent dans les contenus, ou encore dans les balises html. Voici quelques indicateurs que nous retrouvons dans l’ensemble des rapports SEO traditionnels :
Ces éléments contribuent à l’optimisation on-page de votre site.
Les KPI de notoriété (backlinks)
Enfin, si vous souhaitez la puissance offpage de votre site, alors il est impératif de monitorer la manière dont les sites web ou les réseaux sociaux font écho de votre marque. Cela vous permettra de voir rapidement si vous avez mauvaise presse, si vous êtes victime de spam, si vous avez perdu la faveur d’un site web à forte autorité, …
Les indicateurs-clés offpage sont différents selon les outils de suivi de notoriété que vous utilisez (CT, TF, TTF, UR, AR, …), mais dans l’ensemble, voici ce que vous pouvez intégrer à votre modèle d’audit seo :
Ces données jouent un rôle crucial dans la détermination de votre classement dans les moteurs de recherche, car vous le savez, il s’agit de marqueurs sociaux qui révèlent la confiance que Google peut accorder à votre expertise.
Ce type de rapport vous permet de vérifier si vos actions d’optimisation (ou celles de votre agence, de votre freelance, …) portent leurs fruits. Déployer une stratégie SEO sans s’appuyer sur cette data, et sans vérifier le moindre de ses impacts, c’est comme naviguer à vue. C’est perdre de l’argent. Trois grandes parties sont incontournables :
La visibilité Google et les positions sur les mots-clés
Suivre la position de votre site web dans les résultats de recherche pour les mots-clés ciblés est essentiel pour évaluer l’efficacité de votre stratégie et de vos actions. En fonction des variations, vous pouvez d’un rapide coup d’oeil observer si votre contenu est assez riche, si un concurrent a mieux travaillé, si un core update vous a été préjudiciable, …
Dans un rapport de visibilité type, nous retrouvons des indicateurs de ranking tels que
L’objectif premier de ce volet de données est de suivre votre performance de positionnement dans le temps, et d’étudier les pertes ou les gains de positions, pour vous assurer que votre site répond toujours aux besoins de recherche de votre public cible.
Les données de trafic
Si vous gagnez des positions sur Google et que vous avez bien choisi vos mots-clés, alors cela doit avoir une incidence positive sur l’audience de votre site web. Pour vérifier ce flux de nouveaux visiteurs, rien de plus simple, il suffit de monitorer dans votre modèle de rapport les informations suivantes :
Petite astuce indispensable pour vos insights : séparez l’analyse du trafic marque de votre trafic hors marque.
Les données de conversion
Évidemment, si vous avez gagné du trafic, et que ces nouveaux utilisateurs ont tapé les bons mots-clés sur Google, alors l’engagement de votre audience sera elle aussi en croissance.
Pour en avoir le cœur net, voici quelques indicateurs importants à faire figurer dans votre rapport de suivi :
Identifier les conversions, qu’il s’agisse d’objectifs de clics d’interaction, de ventes ou de leads, vous aidera à évaluer la qualité du trafic collecté, et à renforcer in fine votre stratégie de référencement ou d’ux.
Les données concurrentielles
Comparer votre performance à celle de vos concurrents vous donne un aperçu de votre position sur le marché et des opportunités d’amélioration. Si votre stratégie SEO est efficace, alors vous verrez votre site gagner des parts de marché sur Google, ce qui ne manquera pas de faire mouche auprès de votre direction.
Quels indicateurs concurrentiels mettons-nous dans un rapport SEO ? La plupart du temps, il s’agit des données de visibilité :
Les données offpage permettent également de savoir quel site dispose de la meilleure réputation à l’instant T. On retrouvera a minima :
Le choix des outils pour créer votre rapport de référencement est crucial, car selon ceux que vous choisissez, vous disposerez de tout ou de seulement une partie de données kpi. Voici quelques outils marché reconnus comme étant fiables par la communauté SEO :
En résumé, la création d’un rapport de performance SEO efficace est essentielle pour maximiser votre visibilité en ligne, améliorer votre classement dans les moteurs de recherche, et optimiser votre stratégie de référencement. En utilisant les KPI appropriés et les bons outils, vous pouvez surveiller et ajuster votre stratégie SEO de manière proactive pour obtenir des résultats toujours en progression !
L’article Rapport SEO : Comment créer un modèle efficace de suivi ainsi que ses KPI de référencement ? est apparu en premier sur tactee Agence web.
]]>L’article Les microdonnées : JSON-LD, la nouvelle norme du W3C est apparu en premier sur tactee Agence web.
]]>Il y a quelques mois, nous vous avons proposé un article sur le concept des micro datas, aussi appelées microdonnées. Aujourd’hui, nous vous proposons d’aller plus loin, en nous attardant sur le format JSON-LD. En effet, il s’agit de la nouvelle norme imposée par le W3C : si vous voulez mettre en place les microdonnées sur votre site Internet, il peut donc être judicieux de choisir ce format plutôt que RDFa ou Microdata.
Dans un premier temps, revenons sur la définition des microdonnées. Comme vous le savez peut-être, le web sémantique a pris de plus en plus d’importance ces dernières années. Et cela se matérialise notamment avec l’adoption des microdonnées.
Vous vous demandez pourquoi intégrer les micro datas aux différents contenus présents sur votre site Internet ? L’explication est simple : cela va vous permettre de faciliter la compréhension de vos contenus pour les moteurs de recherche. Autrement dit, des contenus enrichis et qui font sens. Que vos pages parlent d’un livre, d’un film ou encore d’une société, le résultat sera le même : le moteur de recherche sera en mesure de le comprendre et ainsi de mettre à la disposition des internautes les informations les plus pertinentes.
Vous comprenez l’utilité des micro datas. Beaucoup moins comment ces dernières se matérialisent dans le code HTML. En réalité, ce n’est pas très compliqué : vos données doivent être contenues dans une structure préalablement définie. Pour cela, plusieurs choix s’offrent à vous. Vous pouvez choisir le Microdata, le RDFa, mais aussi le JSON-LD. Quelle que soit la syntaxe d’écriture privilégiée, vous devrez utiliser les microdonnées définies par Schema.org.
Il faut savoir que le W3C considère que le format JSON-LD est la nouvelle norme à respecter lorsque l’on souhaite mettre en place des microdonnées sur son site Internet. JSON-LD est une variante du format d’échange de données par défaut du Javascript : JSON. Contrairement aux formats RDFa et Microdata, la structure n’est donc pas intégrée au HTML, mais au code en Javascript.
Vous vous demandez sans doute pourquoi le W3C incite à utiliser JSON-LD plutôt que le Microdata ou le RDFa. L’explication est plutôt simple. JSON-LD est un format qui permet l’interaction avec les bases de données en NoSQL, de plus en plus utilisées par les grands noms du web, comme Amazon, Twitter, mais aussi Google. L’outil de validation des données structurées de Google prend en charge la validation du balisage JSON-LD.
L’implémentation des données structurées, en particulier dans le format JSON-LD, implique des décisions techniques essentielles qui affectent la performance SEO et la clarté du code. Le format JSON-LD se distingue par sa capacité à organiser les données de manière structurée et lisible, contrairement aux formats traditionnels qui intégraient les données directement dans le code HTML. Ce choix de structure allège le code HTML, le rendant plus propre et plus facile à maintenir. Un aspect crucial de l’utilisation de JSON-LD est son alignement avec les recommandations de Google, faisant de ce format un choix privilégié pour les moteurs de recherche. En regroupant toutes les données structurées dans un script unique, JSON-LD facilite l’indexation et l’interprétation des informations par les moteurs de recherche, y compris Google et Bing. Cette méthode améliore significativement la compréhension du contenu des pages web, essentielle pour un bon référencement.
L’adoption de JSON-LD est également influencée par la flexibilité et la compatibilité des CMS utilisés. Les systèmes de gestion de contenu comme WordPress, qui supportent le PHP, sont particulièrement adaptés à l’implémentation de JSON-LD. Ils offrent la possibilité d’intégrer automatiquement des scripts JSON-LD dans le code HTML, ce qui optimise le temps de développement et assure une intégration cohérente et efficace des données structurées. Le choix du format JSON-LD pour les données structurées est une décision technique stratégique qui impacte non seulement l’efficacité du SEO, mais aussi la maintenance et la clarté du code HTML. Sa capacité à s’intégrer harmonieusement dans différents environnements web, sa reconnaissance par les principaux moteurs de recherche, et sa compatibilité avec des CMS populaires comme WordPress en font une option privilégiée pour les développeurs et les spécialistes SEO.
L’automatisation de l’implémentation du JSON-LD est un aspect crucial, en particulier pour les sites web dynamiques avec des contenus fréquemment mis à jour. Pour les sites moins actifs, comme un blog mis à jour mensuellement, coder manuellement le JSON-LD peut être gérable et même préférable pour un contrôle précis. Cependant, pour des sites avec un flux de contenu plus élevé, l’automatisation devient essentielle pour maintenir l’efficacité et la précision du balisage.
Dans le cadre d’une automatisation réussie, le rôle des CMS, tels que WordPress, est primordial. Ces systèmes offrent souvent des fonctionnalités intégrées ou des plugins pour générer automatiquement des données structurées en JSON-LD, les insérant directement dans le code HTML de la page. Cette intégration native garantit que les données structurées sont constamment à jour et reflètent avec précision le contenu actuel du site, un facteur clé pour un référencement efficace sur les moteurs de recherche comme Google. Cependant, si l’utilisation d’un CMS n’est pas possible ou si sa flexibilité est limitée, des outils externes comme Google Tag Manager peuvent être employés pour insérer le JSON-LD via JavaScript. Bien que cette méthode offre une certaine facilité d’utilisation, elle peut présenter des inconvénients, notamment une moindre lisibilité par les moteurs de recherche. Google, en particulier, peut avoir du mal à interpréter correctement les données structurées générées de cette manière, ce qui peut affecter la performance SEO du site.
En résumé, l’approche choisie pour l’implémentation du JSON-LD doit tenir compte de la complexité technique du site, de la fréquence des mises à jour de contenu, et de la compatibilité du CMS utilisé.
Le format JSON-LD (JavaScript Object Notation for Linked Data) offre de multiples avantages pour l’implémentation des données structurées sur les sites web. Sa principale force réside dans sa structure claire et sa facilité de compréhension, tant pour les humains que pour les moteurs de recherche comme Google. Contrairement aux formats traditionnels tels que Microdata ou RDFa, où les données sont dispersées et imbriquées dans le HTML, JSON-LD regroupe toutes les informations pertinentes dans un script distinct. Cela rend le code HTML plus propre et plus facile à gérer, tout en améliorant la lisibilité pour les moteurs de recherche.
L’un des principaux avantages du JSON-LD est sa capacité à organiser les données de manière logique et structurée. En regroupant les informations dans un script unique, il est plus facile de suivre et de comprendre la hiérarchie et les relations entre les différents éléments de données. Cette structure organisée est particulièrement avantageuse pour les algorithmes de recherche de Google, qui peuvent plus facilement indexer et comprendre le contenu d’une page web, améliorant ainsi son classement dans les résultats de recherche.
De plus, le format JSON-LD est compatible avec les spécifications de Schema.org, un vocabulaire commun utilisé pour marquer les pages web et aider les moteurs de recherche à comprendre le contenu. L’utilisation de Schema.org en conjonction avec JSON-LD permet une meilleure interopérabilité entre les différents moteurs de recherche, y compris Bing et Yahoo, facilitant ainsi une présence web plus cohérente et un meilleur référencement. JSON-LD est également recommandé par Google Developers comme le format privilégié pour les données structurées, ce qui souligne son importance dans le contexte du référencement (SEO). En adoptant JSON-LD, les webmasters et les développeurs assurent une meilleure intégration de leurs sites dans l’écosystème du web sémantique, augmentant ainsi leurs chances d’obtenir des résultats de recherche riches (rich snippets) et améliorant l’expérience utilisateur globale.
La syntaxe du JSON-LD se distingue par sa structure claire et organisée, essentielle pour l’intégration efficace des données structurées. Au cœur de cette syntaxe se trouvent les paires nom/valeur, qui forment la base de la structuration des données.
Chaque paire est conçue pour représenter une propriété spécifique et sa valeur correspondante, rendant les informations facilement compréhensibles et indexables par les moteurs de recherche, notamment Google. Un aspect crucial de la syntaxe JSON-LD est la déclaration du « contexte », généralement référencé à Schema.org. Ce contexte sert de fondement pour interpréter les données, fournissant un cadre commun pour les moteurs de recherche afin de mieux comprendre le contenu de la page. En spécifiant le contexte, les développeurs s’assurent que leur balisage est conforme aux attentes des algorithmes de recherche. Le « type » est une autre composante importante du JSON-LD, indiquant la catégorie spécifique de l’élément de données. Par exemple, un type peut être « Article », « Person », ou « Product », chacun représentant un type d’entité différent sur la page web. Cette classification aide Google et d’autres moteurs de recherche à catégoriser le contenu de la page de manière appropriée, améliorant ainsi la précision des résultats de recherche.
En outre, la gestion des propriétés dans le JSON-LD nécessite une attention particulière, notamment en ce qui concerne la syntaxe. Une erreur courante est l’omission d’une virgule après chaque propriété, à l’exception de la dernière, ce qui peut entraîner des erreurs de parsing. L’utilisation de l’outil de test de données structurées de Google est recommandée pour valider le script JSON-LD, assurant ainsi que le balisage est correct et exempt d’erreurs. La syntaxe et l’implémentation du JSON-LD exigent une compréhension approfondie de sa structure et de ses composantes. Une implémentation précise et conforme aux standards de Schema.org et aux recommandations de Google améliore non seulement la visibilité du site dans les résultats de recherche, mais contribue également à une meilleure interprétation et présentation du contenu dans les SERP.
L’implémentation du JSON-LD joue un rôle fondamental dans les techniques de SEO, notamment en facilitant la création de rich snippets dans les résultats de recherche de Google. Ces rich snippets sont des extraits enrichis qui affichent des informations supplémentaires sur une page web, comme des évaluations, des prix, ou des informations sur l’auteur, directement dans les résultats de recherche. Leur présence peut significativement augmenter le taux de clics (CTR) d’un site web, car ils rendent les résultats plus attrayants et informatifs pour les utilisateurs. La précision et l’intégrité des données structurées en JSON-LD sont essentielles pour assurer la validité des rich snippets. Google, en particulier, met l’accent sur la cohérence entre le contenu balisé et le contenu affiché sur la page web. Toute pratique de cloaking, où le contenu balisé diffère de celui visible sur la page, peut entraîner des pénalités de la part de Google. Il est donc impératif que les informations fournies dans le JSON-LD reflètent fidèlement le contenu réel de la page.
Un autre aspect important est la vérification et la validation du code JSON-LD. Des erreurs dans le script peuvent empêcher les rich snippets de s’afficher correctement dans les résultats de recherche. L’utilisation de l’outil de test de données structurées de Google est recommandée pour valider le code JSON-LD. Cet outil fournit des informations détaillées sur les erreurs potentielles et aide à leur résolution, garantissant ainsi que le balisage est correctement interprété par les moteurs de recherche. Bien que Google soit le moteur de recherche dominant, il est également important de considérer d’autres moteurs comme Bing ou Yahoo lors de l’implémentation du JSON-LD. Chacun peut avoir des nuances dans la façon dont il interprète les données structurées, et s’assurer que le JSON-LD est compatible avec divers moteurs de recherche peut augmenter la visibilité globale du site sur le web.
Parmi les types de données structurées, le « fil d’Ariane » (Breadcrumb) est couramment utilisé pour remplacer l’URL complète par un chemin de navigation dans les SERP, améliorant la lisibilité des résultats. En JSON-LD, le type « BreadcrumbList » est recommandé. Pour le balisage de produits, les informations telles que le prix, la disponibilité et les avis sont essentielles. Ces éléments, lorsqu’ils sont balisés correctement en JSON-LD, peuvent grandement améliorer la visibilité et l’attrait des produits dans les résultats de recherche de Google et d’autres moteurs de recherche, y compris Bing et Yahoo.
Voici un exemple de structure JSON-LD :
<script type= »application/ld+json »>
{
« @context »: « http://schema.org/ »,
« @type »: « Movie »,
« name »: « Annie Hall »,
« director »:
{
« @type »: « Person »,
« name »: « Woody Allen »,
« birthDate »: « 1935-12-01 »
},
« genre »: « Romance »,
}
</script>
Cette structure permet d’indiquer à Google que la page web parle du réalisateur du film Annie Hall, Woody Allen.
L’autre avantage de ce format, est l’emplacement. Avec les micro datas, nous devions placer des « itemprop » sur les lignes de code html, ce qui ne rendait pas la maintenance simple, le code JSON, se place tout simplement dans la balise Head de la page ou du template concerné.
Un de nos prochains articles se penchera sur quelques exemples d’implémentation et la notion d’imbrication.
Vous êtes intéressé par la mise en place des micro données sur votre site Internet et souhaitez en savoir plus sur le format JSON-LD ? N’hésitez pas à vous rapprocher de nos spécialistes du référencement.
L’article Les microdonnées : JSON-LD, la nouvelle norme du W3C est apparu en premier sur tactee Agence web.
]]>L’article Le grand retour annoncé du moteur de recherche Yahoo ! est apparu en premier sur tactee Agence web.
]]>Pour faire son retour, le moteur de recherche a fait quelques teasing sur les réseaux sociaux ; nous avions vu que le compte Yahoo Search sur Twitter avait été réactivé en début d’année 2023. Désormais, c’est Barry Schwartz, un nom grandement reconnu dans le milieu du marketing internet et du développement web, qui a récemment partagé une information chaude sur son compte Twitter (@rustybrick) sur ce sujet :
« La nouvelle expérience Yahoo Search pourrait être lancée dès janvier 2024 ».
Des petites annonces lancées çà et là, qui piquent notre curiosité et laissent penser à un retour tonitruant (mais surtout surprenant) pour 2024 !
Le moteur de recherche de Yahoo n’a en réalité jamais vraiment disparu : il est toujours possible de l’utiliser depuis le portail Yahoo. Toutefois, force est de constater qu’il est largement boudé du grand public : selon Statcounter, sa part de marché dans le monde s’élève à 1,25 % seulement, et son audience varie d’un pays à l’autre : en France, elle se situe à environ 1,4 %, contre 4,24 % pour le moteur de recherche de Microsoft Bing. Le leader, vous l’aurez compris, c’est Google, qui prend plus de 90% des parts de marché, et à qui il sera difficile de faire de l’ombre.
S’il veut revenir au goût du jour, Yahoo n’aura d’autre choix que de revoir son positionnement. En effet, les moteurs de recherche sont nombreux sur le marché, et adoptent chacun des stratégies différentes pour attirer les consommateurs jusqu’à eux. Citons DuckDuckGo ou Qwant, qui garantissent tousj deux la vie privée de leurs utilisateurs, ou Ecosia, qui agit pour le climat au quotidien. Alors, pour se démarquer, que prévoit Yahoo Search ? Le moteur de recherche a-t-il pour ambition de se tourner vers l’écologie, ou les questions de vie privée, qui sont les deux thématiques qui attirent de plus en plus les internautes ? Ou la marque prévoit-elle de taper fort en intégrant l’intelligence artificielle dans son moteur de recherche ? On sait désormais plus ; lisez-la suite.
Yahoo se prépare à révolutionner le monde de la recherche en ligne avec une mise à jour majeure et un redesign de son moteur de recherche. Cette transformation vise à remettre Yahoo au centre de l’écosystème du web, en rivalisant avec des géants comme Google. La refonte de Yahoo Search ne se limite pas à des changements superficiels ; elle implique une réévaluation complète de l’interface utilisateur, rendant la navigation plus intuitive et agréable. En se concentrant sur l’amélioration de l’expérience utilisateur, Yahoo cherche à offrir une alternative viable aux navigateurs dominants comme Chrome, en particulier pour les utilisateurs de Mac qui cherchent des options diversifiées. Avec cette initiative, Yahoo s’efforce de redevenir un acteur majeur dans le domaine des moteurs de recherche, proposant une abondance de résultats de qualité et une interface rafraîchie.
Yahoo s’engage dans une quête d’innovation pour améliorer l’expérience de recherche sur le web. En reconnaissant le rôle central des moteurs de recherche dans l’exploration du web, Yahoo vise à transformer sa plateforme en un outil plus puissant et plus intuitif. En mettant l’accent sur des fonctionnalités novatrices, Yahoo Search aspire à offrir une expérience utilisateur supérieure, capable de rivaliser avec Google et Bing. Cette innovation ne se limite pas à l’esthétique de la page de recherche ; elle implique une révision profonde de la façon dont les données sont traitées et présentées aux utilisateurs. Dans un monde où le clic est roi, Yahoo veut garantir que chaque clic sur sa plateforme offre une valeur maximale, avec des résultats pertinents et une navigation fluide, adaptée à tous les navigateurs, y compris ceux sur Mac.
L’intégration de l’intelligence artificielle par Yahoo est un tournant stratégique pour son moteur de recherche. Yahoo envisage d’exploiter l’IA pour offrir des résultats de recherche plus précis et personnalisés, en concurrence avec Google et d’autres moteurs de recherche. Cette approche avancée vise à comprendre et à répondre aux requêtes des utilisateurs avec une plus grande précision, en utilisant des données pour générer des réponses pertinentes et en temps réel. Les utilisateurs peuvent s’attendre à une abondance de fonctionnalités innovantes, allant d’une meilleure compréhension du langage naturel à des recommandations personnalisées. Ces avancées pourraient transformer la manière dont les recherches sont effectuées sur le web, offrant une expérience enrichissante pour les utilisateurs de tous les navigateurs, y compris sur Mac.
Le retour de Yahoo dans le paysage des moteurs de recherche aura un impact sur le SEO. Les professionnels du référencement devront adapter leurs stratégies pour optimiser le contenu en fonction des algorithmes de Yahoo, en plus de ceux de Google et Bing. Cette évolution représente un défi mais aussi une opportunité pour les experts en SEO de diversifier leurs techniques de référencement. L’adaptabilité sera la clé, car les moteurs de recherche comme Yahoo continuent d’évoluer et d’introduire de nouvelles fonctionnalités. Les spécialistes du SEO devront se concentrer sur la création de contenu de qualité, optimisé non seulement pour Google mais aussi pour Yahoo, en exploitant les données et en analysant les résultats pour garantir la visibilité sur toutes les plateformes de recherche, y compris sur les applications mobiles et les navigateurs web comme Chrome et ceux utilisés sur Mac.
L’article Le grand retour annoncé du moteur de recherche Yahoo ! est apparu en premier sur tactee Agence web.
]]>L’article Loi RGPD : la position de la CNIL fin2023 est apparu en premier sur tactee Agence web.
]]>La CNIL, ou Commission Nationale de l’Informatique et des Libertés, a été établie pour veiller à la protection des données personnelles et au respect de la vie privée. Depuis l’introduction du Règlement Général sur la Protection des Données (RGPD) en 2018, son rôle s’est considérablement renforcé, avec pour objectif principal de garantir que les entreprises et organisations traitent les données personnelles de manière responsable et transparente. Les entreprises, en particulier, sont tenues de se conformer à des normes strictes en matière de collecte, de traitement et de stockage des données, assurant ainsi la protection des droits individuels et la confiance du public. La CNIL œuvre non seulement pour imposer ces règlements, mais aussi pour éduquer et soutenir les entreprises dans leur démarche de conformité, soulignant l’importance du RGPD comme fondement d’une économie numérique éthique et responsable. Cet engagement envers la réglementation des données et la protection de la vie privée continue de façonner la relation entre les entreprises, les consommateurs et la technologie dans l’ère numérique.
L’année 2022 a été marquée par une annonce de taille de la CNIL : un gestionnaire de site internet a été mis en demeure en février car il utilisait Google Analytics. Jugé illégal par la Commission Nationale de l’Informatique et des Libertés (CNIL), cet outil qui permet de collecter et d’analyser les données d’un site internet ou d’une application ne respecte pas le RGPD. Google Analytics transfert en effet les données des internautes européens vers les États-Unis, violant les articles 44 du règlement. En 2022, la CNIL a accentué sa politique de conformité, soulignant l’importance pour les entreprises de respecter scrupuleusement les obligations imposées par la loi en matière de traitement des données. Cette démarche vise à renforcer le droit à la vie privée de chaque personne, en veillant à ce que les informations personnelles soient gérées de manière éthique et transparente. Pour les entreprises, c’est une opportunité de démontrer leur engagement envers la protection des données, ce qui peut se traduire par une amélioration de leur image et un renforcement de la confiance de leurs clients. La CNIL, en imposant ces standards, joue un rôle clé dans la sensibilisation et l’éducation des entreprises sur la valeur et l’importance du respect des droits fondamentaux en matière de données personnelles.
Et même si Google a pris des mesures afin de réglementer le transfert de données de Google Analytics vers les Etats-Unis, la CNIL continue de juger que ces initiatives ne suffisent pas à exclure la possibilité d’accès des services de renseignements.
Depuis le 14 octobre 2020 déjà, peu à peu, les entreprises auront dû migrer vers GA4 (Google Analytics 4). Une date butoir pour le faire a même été annoncée : le 1er juillet 2023. En effet, à partir de cette date, les propriétés de l’ancienne version de Google Analytics (communément appelée Universal Analytics, correspondant à GA3) cesseront de comptabiliser les nouvelles visites (sessions) et ne permettront plus que de visualiser la data accumulée jusqu’au 30 juin 2022 et consultable jusqu’à une date proche de janvier 2024. Google communiquera la date exacte (se situant après janvier 2024) à laquelle toutes les données que vous avez collectées grâce à Universal Analytics, seront définitivement effacées. Universal Analytics devra alors avoir été remplacé par GA4 (Google Analytics 4), la nouvelle version jugée plus respectueuse de la confidentialité des visiteurs de votre site web, pour mesurer les statistiques de trafic de votre site, dans le cas où vous continueriez d’opter pour les solutions de la firme de Mountain View et non pas d’utiliser d’autres outils conformes au RGPD comme AT Internet ou encore Matomo.
En 2023, la CNIL continue de promouvoir activement le RGPD comme un élément clé de confiance et d’intégrité pour les entreprises et organisations. Cette démarche vise à transformer la perception du RGPD, passant d’une simple obligation réglementaire à un atout stratégique pour les entreprises. En se conformant aux normes du RGPD, les entreprises ne se contentent pas de respecter la loi, mais elles adoptent également une politique de transparence et de protection des informations personnelles, renforçant ainsi la confiance de leurs clients et partenaires. La CNIL joue un rôle prépondérant dans ce processus, en offrant des ressources et des conseils pour aider les entreprises à intégrer ces pratiques dans leur quotidien, garantissant ainsi un respect accru des droits fondamentaux de la personne en matière de données personnelles. Cette approche souligne l’importance de la mise en conformité non seulement en tant qu’obligation légale, mais aussi en tant que pilier essentiel de la responsabilité sociale des entreprises.
En 2023 et 2024, la CNIL souhaite promouvoir le RGPD comme atout de confiance pour les organismes. Entreprises, administrations, associations devront inclure ce règlement dans leur culture quotidienne. La CNIL renforcera son offre d’accompagnement et facilitera la compréhension du cadre légal. Pour ce faire, elle développera des outils de conformité afin d’aider les différentes entités à se prémunir contre les risques cyber. Les responsables de traitement auront accès à des outils d’accompagnement transparents, accessibles, adaptés à leurs enjeux et leurs spécificités.
Les sanctions pour non-respect des lois RGPD peuvent être sévères et impactantes. Une entreprise ne respectant pas les lois RGPD s’expose à des amendes conséquentes, qui peuvent atteindre jusqu’à 4% de son chiffre d’affaires annuel global ou 20 millions d’euros, selon le montant le plus élevé. Ces sanctions sont conçues pour être dissuasives et encourager une conformité rigoureuse. En outre, la CNIL peut également imposer des mesures correctives, telles que des injonctions de mettre fin aux violations ou des limitations temporaires du traitement des données. Les entreprises doivent donc être particulièrement vigilantes dans leur gestion des données personnelles, non seulement pour éviter les sanctions financières, mais aussi pour maintenir la confiance de leurs clients et partenaires. La conformité RGPD est donc essentielle pour assurer la pérennité et la réputation de toute entreprise dans l’économie numérique actuelle.
Le RGPD vous oblige notamment à réaliser plusieurs actions :
La mise en conformité RGPD est essentielle pour toute entreprise souhaitant assurer la protection des données personnelles. Ce processus implique non seulement une compréhension approfondie des droits et obligations relatifs au RGPD, mais également l’application rigoureuse de ces principes dans toutes les opérations de traitement des données. La réalisation d’une cartographie des traitements, l’obtention du consentement explicite des contacts, la facilitation de l’exercice des droits par voie électronique, et la justification des pratiques de traitement sont des étapes clés vers la conformité. Cette démarche ne contribue pas seulement au respect de la loi, mais renforce également la confiance des clients et des partenaires, créant un environnement sécurisé et fiable pour toutes les parties prenantes.
En conclusion, alors que le RGPD continue d’évoluer et de s’adapter aux défis numériques modernes, il est essentiel pour les entreprises de rester informées et conformes. La CNIL, en tant qu’autorité de régulation, joue un rôle crucial dans la mise en œuvre et l’application de ces normes. Tandis que les entreprises s’efforcent de respecter le RGPD, elles renforcent non seulement leur conformité légale, mais aussi leur intégrité et la confiance de leurs clients. Dans un avenir numérique en constante évolution, la compréhension et l’adaptation au RGPD seront des compétences clés pour naviguer avec succès dans le paysage des données personnelles et de la vie privée.
Vous pouvez vous tourner vers une agence de mise en conformité RGPD. Tactee vous aidera à mettre en place les différents outils qui vous permettront de réaliser une collecte de données légale. Mise en place de bandeaux de cookies, mentions légales, conditions générales d’utilisation, outils de collecte de données (Matomo vs Google Analytics), formulaires de contact : pour réussir à respecter le règlement européen, Tactee vous accompagne avec ses nombreux outils !
L’article Loi RGPD : la position de la CNIL fin2023 est apparu en premier sur tactee Agence web.
]]>L’article Combien coûte le prix d’une prestation de référencement naturel ? est apparu en premier sur tactee Agence web.
]]>En réalité, vous pouvez déjà estimer une enveloppe budgétaire avant même de commencer à discuter avec un prestataire SEO. Il suffit de vous poser les bonnes questions et de disposer de la bonne méthodologie pour définir votre besoin.
Comment comprendre ce que doit inclure une prestation de référencement naturel ? Comment appréhender votre marché sur Google pour définir le chemin à parcourir et donc, les actions à produire ? Comment définir le prix de votre prestation SEO ? Quelles sont les grilles tarifaires du SEO ?
Si nous parlons « chiffres », est-ce que 20 000€ peuvent s’avérer être une somme confortable pour être présent sur Google ? Ce budget sera-t-il utilisé de la même façon par un freelance ou par une agence ? Et comment pouvez-vous optimiser les coûts d’une prestation SEO ?
Il existe des clés actionnables et scalables pour définir le budget d’une prestation de référencement naturel.
Avant de signer un devis de référencement naturel, comme tout acte d’achat important, cet investissement doit être réfléchi et surtout mesuré. Vous devez avant tout comprendre les missions pour lesquelles vous allez payer, leur nécessité, et leur impact : ainsi, connaître et comprendre le vocabulaire de cet univers est inévitable.
Premièrement, maîtriser le langage SEO vous permettra d’être crédible face à un freelance ou un commercial d’agence. Ainsi votre interlocuteur identifiera que vous êtes avisé sur le sujet et cela vous placera en position équitable face à lui ; vous saurez différencier un discours réaliste d’un discours vendeur de « rêve ». Effectivement, le milieu du SEO est aujourd’hui égal à celui de la serrurerie, les acteurs y sont tellement nombreux qu’il est difficile de discerner le vrai du faux. Afin de vous familiariser avec un lexique SEO, procédez à des recherches sur Google : lisez des articles, regardez des vidéos, écoutez des podcasts, soyez curieux ! Vous entendrez tout et son contraire, ainsi vous commencerez à vous forger votre propre opinion et ce sera une vraie plus-value pour l’avenir, vous allez comprendre pourquoi !
Deuxièmement, lorsque le prestataire va lister ses recommandations, vous pourrez reconnaître les termes techniques, sémantiques et identifier si cela vous paraît nécessaire ou non. Voici une liste de notions indispensables à connaître :
Si ces termes vous sont inconnus, alors renseignez-vous en priorité sur ce qu’est le référencement naturel et ses incontournables.
Ensuite, vous devez identifier vos ressources internes. En effet, une prestation SEO nécessite des interactions à différents niveaux : du développement web, de la rédaction, de la réflexion stratégique, du marketing.
Les compétences qui gravitent autour de vous doivent être identifiées car elles seront nécessaires à la bonne réalisation de votre prestation :
Ou alors, vous ne bénéficiez d’aucune de ces ressources et comptez exclusivement sur votre partenaire SEO pour tout faire ?
Ces conditions vont avoir un impact significatif sur votre budget SEO. En disposant de ressources internes compétentes, les budgets alloués à votre prestataire SEO se concentreront davantage sur des aspects tels que le conseil, la stratégie et la mise en œuvre technique du SEO, plutôt que sur la production de contenu, par exemple. Les tâches considérées comme étant plus « accessibles » pourront alors être gérées en interne. En identifiant clairement vos ressources internes, vous serez en mesure d’évaluer avec précision la valeur ajoutée que votre prestataire apportera. Et par conséquent, vous aurez un meilleur contrôle sur le budget dépensé.
Lorsqu’un prestataire va définir un budget SEO pour ses missions, généralement il va analyser votre environnement concurrentiel sur Google pour comprendre d’où il part et si le chemin va être long pour atteindre vos objectifs. Il est capital que vous soyez en mesure d’identifier, avec des astuces faciles, si votre marché est saturé ou bien si des opportunités sont encore à saisir. Un business basé essentiellement sur des mots-clés génériques comme « vêtement hommes / pantalon femme » sera forcément plus difficile à conquérir qu’un marché de niche accessible avec de la longue traîne comme « comment choisir un logiciel de gestion paie ? ».
Cela peut paraître évident, cependant en être conscient et savoir identifier cette concurrence est crucial pour votre approche stratégique.
Pour vous aider dans cette simple analyse et pourtant si déterminante, consultez la SERP sur un mot-clé et étudiez les réponses apportées par Google :
Exemple ci-dessous : (page SERP logiciel de paie)
Vous constatez alors que le SEA occupe une grande partie de la page, que la 1ère réponse en SEO est une position O, que des PAA (people also ask) sont aussi présentes et nous identifions une grande variété de sites qui se positionnent sur les réponses organiques : concurrents directs ou indirects. Au final, le 1er véritable acteur qui propose un logiciel de paie est seulement 7ème sur la 1ère page de Google.
Au 1er coup d’œil ici, vous êtes donc en mesure de réaliser la difficulté pour se positionner sur ce mot-clé : Google propose de nombreuses réponses, positionne autant des sites de services que du média et les sites positionnés ont une certaine renommée dans ce secteur. Enfin, le référencement payant occupe en grande partie le haut de la page.
La qualité de votre site rentre alors en jeu dans cette budgétisation. Si votre site repose sur une technologie non adaptée à ses services ou vieillissante, qui n’a pas la capacité d’accueillir les modifications techniques nécessaires à son déploiement ou une volumétrie de pages importantes, alors, vous positionner face à la concurrence sera encore plus complexe.
Ainsi, si votre objectif est de vous positionner sur ce mot-clé, que vous évaluez la difficulté pour y parvenir et l’avez identifiée par vous-même, vous comprendrez aisément qu’un budget conséquent sera nécessaire pour atteindre des performances satisfaisantes. De plus, cela vous permettra de juger la pertinence du discours de votre futur prestataire.
Cette première approche ne vous donne pas de chiffres avec précision mais vous permet de vous situer dans un environnement concurrentiel et d’en comprendre la complexité afin d’estimer dans les grandes lignes les moyens financiers à déployer.
Maintenant que vous avez cerné l’intérêt de mesurer la concurrence de votre marché sur Google, vous allez comprendre l’importance de fixer des objectifs pour définir votre budget SEO.
Tout d’abord, et il est primordial de le rappeler, votre prestataire SEO (agence ou freelance) a une responsabilité lorsqu’il vous accompagne : obtenir des résultats ! La notion ROIste est donc très importante dans le choix de votre partenaire et même si personne ne peut s’engager car « seul Google sait », les professionnels ont une obligation de moyens pour atteindre vos objectifs (si vous leur donnez les ressources de vos ambitions, cela va de soi). Aucun professionnel ne vous positionnera sur « Basket Nike noire », avec un budget de 500 €/ mois, agence, freelance ou magicien.
Fixer des objectifs va donc vous donner de la visibilité sur les actions à mettre en œuvre : rédiger des contenus, investir dans un certain nombre de backlinks, le temps dédié à de l’implémentation technique, etc…
Et surtout, vous pourrez challenger votre agence régulièrement si les objectifs ne sont pas atteints (dans les temps impartis).
Il y a plusieurs objectifs déterminants pour une stratégie de référencement naturel :
Définir vos objectifs contribue à comprendre vos résultats actuels et ceux que vous souhaitez atteindre dans le futur. Il est aussi important de dater ces atteintes de résultats. La capacité de production ne sera pas la même sur des objectifs attendus en 6, 12 ou 24 mois.
Ces données chiffrées vont permettre au prestataire d’étudier la faisabilité de votre projet, entre vos objectifs, votre budget et votre concurrence. À lui de ramener un discours réaliste dans ce qui pourra réellement être atteint et à vous, d’avoir envie d’entendre la vérité !
En tant qu’agence, nous avons remarqué que peu d’entre vous nous contactent avec des données quantifiables : aucun objectif défini, aucune idée de budget, peu de connaissances de la concurrence sur Google ou sur les fonctionnalités de votre site. Dans l’autre sens, parfois vos objectifs sont irréalistes car vous n’avez pas conscience du fonctionnement des robots de Google, des taux de conversions sur le web ou autre situation, vous devez composer avec un budget imposé par une direction qui n’a pas conscience des enjeux digitaux.
Certes, c’est le rôle d’une agence d’éduquer, d’informer et de faire lumière sur vos forces et faiblesses. Cependant, en étant pleinement conscient de vos forces et de vos faiblesses, vous serez moins susceptible d’être influencé par un discours sans fondement de la part d’un prestataire. Cela est essentiel, tant dans la sélection de votre fournisseur que dans la décision du budget à lui allouer. Cette prise de conscience modifie radicalement votre perception d’une prestation SEO !
Au final, ce qui va réellement définir votre budget SEO, ce sont des données que vous possédez déjà, sans le savoir. C’est en réalité l’adéquation entre votre site, vos objectifs et votre concurrence qui va vous permettre de définir un budget.
Le taux horaire d’une agence varie entre 90€ et 160€ de l’heure. Généralement, plus une agence sera renommée avec des stars du SEO dans son effectif, plus elle pratiquera des tarifs élevés. Vous payez la qualité des agences et des profils qu’elle recrute, cela explique parfois les taux horaires élevés. Pour comprendre les coûts d’une agence, il faut évidemment prendre en compte le prix des charges, les locaux, les salaires, les licences des outils, etc…
Pour vous donner un exemple concret, lorsqu’un partenaire vous indique travailler pour un budget de 300€ / mois, il est assez simple de calculer le temps qu’il va passer sur votre site. Si vous ramenez le taux horaire en moyenne à 100 €, vous calculerez rapidement qu’il ne s’impliquera pas plus de 3h par mois sur votre stratégie digitale ; cela reste très peu pour espérer de la performance.
Vous trouverez dans le tableau suivantune estimation des coûts des différentes prestations SEOs. Les budgets varient ensuite en fonction de la taille des sites, des périmètres que vous souhaitez auditer, des niveaux de qualité de rédaction attendus ou de la quantité de mots, etc.… Ces tarifs sont communiqués à titre estimatif (et plutôt réaliste) :
Avec ces indications, vous pouvez déjà imaginer un budget en fonction de vos besoins identifiés. Vous savez si votre site est à jour techniquement ou s’il est nécessaire de procéder à un audit technique. L’agence définira le temps nécessaire pour l’auditer en fonction de sa taille.
Vous pouvez consulter un site concurrent sur votre thématique : s’ils ont beaucoup de contenus et se positionnent bien alors vous en déduirez qu’il faudra écrire de nouvelles pages, et articles de blogs. L’agence sera là pour définir la stratégie éditoriale, le nombre de pages et les sujets sur lesquels écrire.
Si vous n’avez jamais travaillé la popularité de votre site alors, vous comprendrez rapidement qu’un budget netlinking sera indispensable à votre succès. L’agence vous donnera une estimation du nombre dont elle a besoin et du budget idéal à attribuer à cette dépense.
L’agence a pour mission d’élaborer en amont de votre partenariat la ligne directrice de votre stratégie en fonction de vos objectifs (et de la qualité de votre site) : elle définit les actions à réaliser, le temps nécessaire pour produire, et à partir de ces éléments, l’agence SEO établit un budget. Ensuite, si ce budget est trop élevé pour vous ou votre direction, alors vous devrez ré-évaluer vos objectifs. C’est une question de bon sens, tout simplement, entre les moyens mis à disposition et les résultats escomptés, à partir de ces moyens.
Il faut aussi avoir conscience que le budget d’une première année est souvent la première étape d’une longue collaboration avec votre prestataire. L’année suivante, de nouvelles opportunités se présenteront à vous, de nouveaux objectifs seront définis et donc un nouveau budget. Cependant, partez du principe que le référencement naturel vous coûtera toujours plus cher d’une année sur l’autre. Plus vous performerez, plus vous investirez !
En SEO, un chiffre sans contexte ne signifie rien. Sans avoir identifié l’environnement concurrentiel, technique, sémantique, sans objectifs, cette somme n’a aucune valeur.
Reprenons alors l’exemple du prospect qui espère se positionner sur le marché du « logiciel de gestion de paie » et basons nos propos sur notre tableau estimatif ci-dessus.
Ce prospect aura besoin :
Le budget pour espérer attaquer ce mot clé très générique, sera a minima estimé à 40 000€.
Avec un budget de 20 000€, ce prospect ne pourra pas espérer être en 1ère page de Google sur ce mot-clé très concurrentiel, en tout cas, pas la première année. En revanche, il pourra travailler d’autres mots-clés avec des stratégies longues traînes, commencer à se positionner en tant qu’expert auprès des robots de Google et acquérir une notoriété sur ce secteur d’activité. Dans ce cas-là, 20 000 euros est donc un bon investissement pour démarrer sa stratégie digitale en référencement naturel et mettre le pied à l’étrier. Ce sera sur la seconde année, que le travail sera reventilé, et le challenge plus réaliste pour attaquer un mot clé stratégique.
De la même façon qu’un budget se définit en fonction de vos objectifs, de votre concurrence et de votre site, recruter votre prestataire SEO va se faire sur des critères similaires.
Un freelance a la réputation d’être moins coûteux qu’une agence, en général, les prix varient de 250€ à 500 € la journée. Cependant un freelance renommé en SEO peut facilement monter son taux journalier à 600€ ou 700€. Dans ce cas-là, les tarifs ne sont plus aussi éloignés que ceux d’une agence.
Si vous souhaitez investir 300 euros par mois dans votre prestation, il sera plus judicieux de vous orienter vers un freelance à 300 € la journée. Ramené aux taux horaires d’une agence, le freelance travaillera 7h sur votre site, là où une agence travaillera seulement 3h en moyenne.
La différence entre un freelance et une agence se fait sur différents points.
Dans un 1er temps, le freelance n’a généralement pas les moyens de financer les licences de nombreux outils (des indispensables comme SemRush, YourTextGuru, Majestic ou encore OnCrawl) qui sont très onéreuses. Et sans ces outils, il est difficile de « driver » une stratégie digitale avec qualité, de prendre des décisions éclairées.
Dans le milieu du SEO, il est aussi reconnu que chaque profil peut avoir plus d’affinités avec une expertise : la technique, la sémantique, le linking… Il est possible de tout connaître dans l’ensemble, cependant personne ne peut être à la pointe dans chaque expertise.
C’est d’ailleurs pour cela qu’en agence, vous trouverez souvent un référent technique, un pôle content, un pôle netlinking, un pôle data… Parce qu’une seule personne ne peut (et ne sait) pas tout faire. C’est ici la limite de passer par un freelance, il déléguera certaines prestations ou déviera de certains sujets si ce n’est pas dans son champ de compétence.
L’un des principaux avantages de choisir une agence réside dans la sécurité contractuelle qu’elle vous offre. Si un chef de projet décide de poursuivre d’autres opportunités, l’agence est tenue de le remplacer par un autre expert. En revanche, un freelance pourrait décider de se retirer à tout moment, sans garantie de continuité pour votre projet.
Si votre prestataire est soucieux de la performance de sa prestation, et qu’il doit composer avec un budget prédéfini restreint, vous reconnaîtrez la qualité de celui-ci à son discours. Si votre prestataire travaille avec éthique, il fera en sorte de réduire les coûts en ôtant des tâches qui peuvent être éventuellement réalisées par vos soins. Dans ce cas précis, il n’y a pas de secret, pour optimiser les coûts, vous devrez donner de votre temps.
Par exemple, une agence conservera la production des audits (car il est nécessaire d’avoir des outils spécifiques), établira la stratégie éditoriale (avec des briefs de rédaction) et pilotera toute la stratégie SEO avec du conseil, des recommandations à mettre en application de votre côté. Vous déléguerez alors en interne la rédaction de contenus, l’implémentation des recommandations techniques, réalisation du maillage interne, etc.
« Le temps, c’est de l’argent » est un dicton qui prend donc tout son sens : le temps qui ne sera pas passé par l’agence à produire, ne sera donc pas facturé.
Cependant, nous vous conseillons grandement de conserver un soutien SEO et de ne pas produire seul en interne votre stratégie. Vous pourriez faire fausse route dans le choix de vos mots-clés, le choix d’acquisition de backlinks, et si les résultats SEO sont longs à être visibles, changer d’angles éditoriaux ou de choix sémantiques au bout de 6 mois, vous fera perdre encore plus de temps et d’argent.
Le SEO est un métier aux innombrables ressources et compétences, en perpétuelle évolution ! C’est bien ce savoir et cette compétence que vous achetez !
L’article Combien coûte le prix d’une prestation de référencement naturel ? est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce que le knowledge graph de Google ? est apparu en premier sur tactee Agence web.
]]>Pour les entreprises et les créateurs de contenu, le Knowledge Graph n’est pas seulement un outil, mais une véritable aubaine qui peut propulser la popularité d’un site internet et renforcer sa présence en ligne. En explorant et en comprenant le Knowledge Graph, on s’ouvre à un monde où la qualité et la pertinence des informations deviennent des clés essentielles pour réussir dans l’univers compétitif du référencement sur Google. Cet article vise à dévoiler le potentiel du Knowledge Graph et à illustrer son impact indéniable sur le SEO, offrant ainsi un avantage stratégique pour ceux qui maîtrisent son fonctionnement et ses implications.
Le Knowledge Graph de Google, une avancée majeure dans le domaine du référencement sur internet, représente une évolution significative dans la manière dont Google organise et interprète les données et les informations web. Ce graphe de connaissances, lancé en 2012, a marqué un tournant dans l’histoire de la recherche en ligne, transformant Google d’un simple moteur de recherche en une entité capable de fournir des informations contextuelles et connectées. Ce développement souligne l’importance croissante du contenu de qualité et du référencement naturel dans le vaste écosystème du web.
En reliant de manière intelligente les pages, les entreprises, et les connaissances, le Knowledge Graph est devenu un élément fondamental pour comprendre les dynamiques du SEO moderne. Son histoire est un témoignage de la quête incessante de Google pour une compréhension plus profonde et plus structurée du contenu disponible sur internet, visant à améliorer l’expérience utilisateur tout en offrant des résultats de recherche pertinents et précis.
Pour les professionnels du SEO et les entreprises, le Knowledge Graph n’est pas seulement un outil, mais un indicateur clé des tendances et des pratiques à adopter pour réussir dans le référencement naturel et se démarquer sur les pages de résultats de Google.
Le fonctionnement du Knowledge Graph de Google repose sur un ensemble sophistiqué de technologies et d’algorithmes conçus pour collecter, interpréter et organiser un vaste ensemble de données et d’informations disponibles sur le web. Ce système ingénieux analyse les liens et les relations entre les différents éléments de contenu, permettant ainsi à Google de présenter des résultats de recherche enrichis et contextuels. Par exemple, en puisant dans des sources variées comme Wikipedia et d’autres bases de données publiques, Google parvient à construire un réseau dense de connaissances interconnectées.
Cette méthodologie contribue significativement à l’amélioration du référencement naturel, car elle permet aux pages web contenant des informations précises et bien structurées d’être plus visibles dans les résultats de recherche. Le Knowledge Graph joue ainsi un rôle essentiel dans la détermination de la pertinence et de l’autorité des pages internet, influençant directement leur classement sur Google.
Comprendre le mécanisme derrière le Knowledge Graph est crucial pour les entreprises et les professionnels du SEO qui cherchent à optimiser leur production pour le web. En alignant leur stratégie de contenu avec les exigences de ce système, ils peuvent améliorer leur visibilité et leur positionnement sur les pages de résultats de Google, en mettant l’accent sur la richesse et la qualité des informations fournies.
L’utilité du Knowledge Graph de Google dans le domaine du SEO est indéniable. Ce système révolutionnaire a un impact considérable sur la façon dont les sites web et les pages d’informations sont perçus et classés dans les résultats de recherche. En mettant en avant des informations pertinentes et liées, le Knowledge Graph joue un rôle crucial dans l’amélioration de la popularité des sites internet.
Il permet aux entreprises d’augmenter leur visibilité sur Google, offrant ainsi une meilleure opportunité d’attirer un trafic ciblé vers leurs pages web. De plus, le Knowledge Graph améliore la notoriété du contenu en mettant en évidence des informations de qualité et bien structurées, ce qui est essentiel pour un référencement naturel efficace.
La présence dans le Knowledge Graph offre également un avantage significatif pour l’e-réputation des marques. Les informations affichées dans ce graphe de connaissances sont souvent perçues comme autoritaires et dignes de confiance, ce qui renforce la crédibilité d’une entreprise aux yeux des utilisateurs. Pour les professionnels du SEO, comprendre et exploiter le Knowledge Graph devient donc une stratégie clé pour améliorer la position et l’impact de leurs sites web dans les résultats de recherche naturels. En résumé, le Knowledge Graph est un outil puissant qui, s’il est bien utilisé, peut transformer la manière dont une entreprise ou un contenu est présenté sur Google, en jouant un rôle déterminant dans le succès du référencement naturel et la stratégie digitale globale.
Bien que souvent confondus, le Knowledge Graph et le Knowledge Panel de Google ont des rôles distincts mais complémentaires dans l’écosystème de la recherche en ligne. Le Knowledge Graph est la vaste base de données sous-jacente de Google, un réseau complexe d’informations et de relations entre des entités et des faits. Il s’agit d’une collection immense et dynamique de données interconnectées qui alimente diverses fonctionnalités de Google, y compris le Knowledge Panel.
D’un autre côté, le Knowledge Panel est la représentation visuelle et l’interface utilisateur de cette base de données, affichée dans les résultats de recherche de Google. Lorsqu’un utilisateur recherche une entité spécifique (comme une personnalité célèbre, une entreprise ou un lieu), le Knowledge Panel vise à présenter un résumé rapide et pertinent de ces informations, directement extrait du Knowledge Graph. Ce panel apparaît souvent sous forme de boîte sur le côté des résultats de recherche et inclut des informations clés, des images et des liens vers des sources pertinentes.
Le Knowledge Graph de Google a transformé la recherche en ligne, offrant une nouvelle dimension au référencement naturel et au SEO. Son impact sur la popularité des pages, la notoriété, et l’e-réputation des marques est indéniable. Les entreprises qui comprennent et intègrent le Knowledge Graph dans leur stratégie SEO peuvent bénéficier d’une visibilité accrue et d’une autorité renforcée sur internet. Alors que le monde du web continue d’évoluer, le Knowledge Graph restera un élément clé dans l’univers du référencement naturel et de la recherche en ligne, soulignant l’importance de la qualité et de la pertinence des informations dans le vaste océan de données sur internet.
L’article Qu’est-ce que le knowledge graph de Google ? est apparu en premier sur tactee Agence web.
]]>L’article 7 techniques pour améliorer son netlinking en 2023 et sa stratégie SEO est apparu en premier sur tactee Agence web.
]]>Le netlinking consiste à optimiser le nombre de liens entrants d’un site. Son but est d’augmenter la popularité d’un site web afin d’améliorer le positionnement de ses pages au sein des résultats de moteurs de recherche. L’optimisation du netlinking va aussi vous permettre de générer du trafic de qualité sur votre site.
Le linkbaiting demeure l’une des techniques les plus efficaces du netlinking. Il consiste à générer naturellement des backlinks en créant des contenus de qualité. L’originalité et la pertinence du contenu seront les leviers utilisés. L’objectif est de créer un contenu de références pour les internautes et les autres sites.
Le Skyscraper ou technique « gratte-ciel » est une technique instaurée par Brian Dean de backlinko.com en 2015. Son principe consiste à créer le meilleur contenu dans un domaine d’activité sur le web. Il faut pour cela chercher le contenu le plus pertinent ayant les meilleurs backlinks. Des outils comme Site Explorer d’Ahrefs peuvent vous y aider. Écrivez ensuite un contenu plus détaillé sur le même sujet.
Le Guest blogging est une technique visant à créer un contenu en tant qu’expert. Il est ensuite diffusé sur un autre site. Aussi appelé « article invité », le Guest blogging est une stratégie « gagnant-gagnant » pour les deux acteurs. Le blog va acquérir un contenu de qualité tandis que l’expert va obtenir des backlinks pour son site. Les backlinks sont souvent placés en header ou footer d’une page de blog.
L’achat de liens est une technique très efficace en netlinking. Cette stratégie consiste à acheter un espace sur un autre site pour y insérer votre texte ou votre ancre. Les liens peuvent se trouver dans le contenu ou en tant que sources. Il est très important de bien cibler les sites à contacter pour générer un trafic de qualité. Quelques plateformes spécialisés en linking proposent cette offre comme RocketLinks, Teliad, Linklift, etc.
À noter toutefois que les moteurs de recherche comme Google n’apprécient pas trop cette technique de netlinking lorsque celle-ci n’est pas bien maitrisée. Pour cela nous préconisons de faire appel à une agence spécialisée en référencement naturel qui se compose d’une équipe de consultants qui va déployer pour vous une stratégie « clés en main »
Cette technique est assez simple à mettre en œuvre, mais nécessite une bonne capacité organisationnelle. Le principe consiste à échanger des liens avec des ancres optimisées avec un autre site de même thématique. En amont de cette stratégie, il vous faut repérer les sites de mêmes secteurs pour faciliter l’échange. Il est important d’échanger un nombre conséquent de backlinks pour obtenir des résultats.
Parmi les plus anciennes techniques de netlinking, on retrouve l’inscription dans les annuaires. Toutefois, il est très important de choisir les bons annuaires. Vous pouvez faire votre choix entre les annuaires généralistes, les annuaires spécialisés, les annuaires gratuits ou les annuaires payants. Les résultats ne seront généralement visibles qu’à partir d’une dizaine de backlinks. Majestic est un bon outil pour analyser le niveau de confiance (Trust Flow), la quantité de backlinks (Citation Flow) et l’influence d’un site sur une thématique précise (Topical Trust Flow).
Un levier devenu incontournable du web : les réseaux sociaux, qui peuvent également contribuer à votre netlinking. Les signaux sociaux aident les moteurs de recherche à mieux référencer vos pages. Il est ainsi important d’être présent dans les principaux réseaux comme Facebook, LinkedIn, Instagram, Twitter, etc. La méthode ? Créer des contenus attrayants grâce aux diverses fonctionnalités des médias sociaux pour inciter votre communauté au partage.
L’article 7 techniques pour améliorer son netlinking en 2023 et sa stratégie SEO est apparu en premier sur tactee Agence web.
]]>L’article Comment mettre en place une campagne e-mailing efficace ? est apparu en premier sur tactee Agence web.
]]>
C’est la première étape de votre stratégie, le point de départ d’une campagne e-mailing réussie : définir avec précision l’objectif que vous avez à remplir. Les objectifs peuvent être variés : vous pouvez avoir envie de prospecter, de réaliser une offre promotionnelle, de parler du lancement d’un nouveau produit, d’informer vos prospects d’un changement dans l’entreprise, de parler d’une nouvelle branche, ou encore, de qualifier une base de données…
De cet objectif dépendront la création et le paramétrage de votre campagne e-mailing. Le choix de la cible, le ton, ou encore le design peuvent en effet changer en fonction de l’objectif que vous vous fixez.
Afin d’envoyer des courriels à vos prospects et clients, vous devez collecter leur adresse email de manière légale et consentie. Désormais, vous ne pouvez plus acheter de bases de données d’adresses email et envoyer vos campagnes de masse à des internautes qui n’ont pas donné leur accord !
Afin de collecter les adresses e-mail de vos abonnés, créez un formulaire d’inscription à vos emails, que vous placerez sur votre site internet ou sur votre blog.
Si vous souhaitez créer une campagne e-mailing efficace, vous devez définir votre cible. Si vous souhaitez booster la fidélité de vos clients, vous pouvez par exemple choisir, dans votre base de données, ceux qui ont commandé depuis plus de 6 mois, mais qui ont déjà dépensé plus de 500 € chez vous. De cette façon, vous vous tournerez vers les clients qui connaissent et aiment vos produits, mais qui vous ont peut-être oublié !
Plus votre ciblage sera restreint et précis, plus vos destinataires se sentiront concernés par le contenu que vous leur proposez. Gardez en tête qu’il n’y a rien de plus efficace qu’un emailing personnalisé ! Ici, le marketing automation pourra vous accompagner : il consiste à envoyer des e-mails selon une segmentation que vous définissez, et qui atteignent les bonnes personnes, avec le bon message au bon moment. Vous n’avez pas à effectuer le travail à chaque fois : l’envoi des messages est automatisé à l’aide d’un outil d’automatisation marketing. L’occasion pour vous de mieux connaître les habitudes de vos clients, d’améliorer leur engagement, de comprendre leurs comportements en temps réel, et de les attirer efficacement vers vos divers canaux de communication.
L’objet d’un emailing est l’élément le plus important ! C’est lui qui définit la réussite de votre campagne, car il donne au lecteur l’envie d’ouvrir votre email, ou de l’ignorer.
Pour booster vos taux d’ouvertures, réfléchissez longtemps à votre objet, et ne le rédigez pas en une minute, au dernier moment. Demandez conseil à vos collègues, pour multiplier les idées originales et accrocheuses ! Ecrivez toutes les idées qui vous passent par la tête sur un papier : trouvez-en au moins 15 ou 20, et procédez par élimination. Gardez-en au moins deux, et réalisez un A/B test, afin de savoir quel objet aura le plus de succès auprès de vos lecteurs.
La campagne e-mailing doit être composée en code HTML / CSS. La bonne nouvelle, c’est que grâce aux nombreux outils de création email qui existent, vous n’avez pas besoin d’avoir de connaissances techniques afin de créer un beau texte responsive. Vous avez le choix entre de nombreux templates et modèles, triés par catégories. Le code de l’email peut également être rédigé de A à Z par un webdesigner, pour un rendu encore plus personnalisé.
Dans l’emailing, jouez avec les différents blocs afin de construire un contenu parfait, esthétique, facile à lire ! Pour que votre campagne soit efficace, n’oubliez pas d’insérer votre logo, d’y présenter une offre accompagnée d’un bouton de Call-To-Action, ainsi que des liens vers votre site et vos réseaux sociaux. Utilisez un ton simple, clair, des phrases courtes, donnez des informations précieuses et allez à l’essentiel.
Lorsque vous avez défini votre objectif, votre cible, rédigé le message et choisi votre objet, il est temps d’envoyer votre campagne !
Pour être sûr de ne faire aucune erreur, faites une liste de tous les éléments à vérifier, point par point. Assurez-vous que la copie web et le lien de désabonnement sont bien présents. Vérifiez aussi que les liens qui mènent vers vos pages fonctionnent, que l’email s’affiche correctement sur mobile, et cela, quelle que soit la messagerie (gmail, Yahoo, hotmail…). Vérifiez également que le poids total de la campagne n’excède pas 150 Ko.
Pour envoyer votre campagne, vous devez être équipé d’une solution d’emailing qui possède de bonnes capacités en termes de délivrabilité, pour éviter que votre email n’arrive dans les SPAM !
Pour optimiser et affiner vos stratégies marketing emailing, vous devez prendre le temps d’analyser en profondeur les statistiques des envois. Vous comprendrez mieux ce fait mouche, et ce qui ne fonctionne pas ! Analysez les taux d’ouverture, les taux de clics, les taux de désabonnement, les taux de NPAI.
Observez également les supports utilisés pour la lecture (mobile, ordinateur…), les types de messageries des contacts, la géolocalisation des destinataires…
Enfin, le temps de lecture est très important : il vous permet de comprendre si le lecteur s’est réellement intéressé à ce que vous avez écrit !
Prêt à réaliser une campagne emailing efficace ?
L’article Comment mettre en place une campagne e-mailing efficace ? est apparu en premier sur tactee Agence web.
]]>L’article E-E-A-T Google : quel impact sur vos contenus inbound marketing ? est apparu en premier sur tactee Agence web.
]]>
Avec « l’expertise » l’objectif est simple : Google doit vous considérer comme un expert. Ici, montrez que vous avez une connaissance pointue des sujets que vous traitez. Utilisez les bons mots clés, apportez de réels conseils, en proposant un article structuré.
Pour que votre contenu attire les faveurs de Google, vous devez démontrer que votre site web fait autorité dans votre secteur d’activité. Ici, les backlinks seront vos meilleurs alliés : ils doivent être de qualité, et en lien avec votre thématique. Sur votre Search Console, refusez les backlinks provenant de domaines qui n’ont pas d’autorité, pour ne pas affaiblir votre score. Les partages de vos contenus sur les réseaux sociaux, ou encore, les mentions dans divers médias sont également de vrais plus pour gagner en autorité.
C’est le critère le plus important pour Google : vous devez montrer que votre site est digne de confiance et que votre contenu inbound a été réalisé par une source fiable. En effet, un site web qui possède un contenu peu fiable obtient un faible score, même si son niveau d’autorité, d’expérience ou d’expertise sont élevés !
Le critère de confiance touche principalement les acteurs du e-commerce, et passe par plusieurs critères : le site doit être sécurisé (certificat SSL), associé à une localisation physique et validée par Google Business Profile. Si vous vendez des produits, vos pages doivent proposer une documentation claire et pertinente.
Les sites B2B sont les plus impactés par ce critère. Pour répondre à cette exigence, vous devez montrer à Google que vous maîtrisez réellement les sujets dont vous parlez sur votre site internet. Vous devez être la source d’une véritable expérience légitime. Dans votre stratégie inbound marketing, mettez en valeur les personnes qui partageront des expériences de vie réelles et authentiques. Montrez que vous avez de nombreuses années d’expérience dans le domaine, que vous savez de quoi vous parlez, et que vous êtes réellement en mesure d’être un pilier pour vos lecteurs !
L’article E-E-A-T Google : quel impact sur vos contenus inbound marketing ? est apparu en premier sur tactee Agence web.
]]>L’article Pourquoi utiliser Google Trends ? est apparu en premier sur tactee Agence web.
]]>
Google Trends est un moteur de recherche qui permet d’analyser les requêtes des internautes afin d’identifier les tendances qui se dessinent au fil des mois.
Cet outil est très utilisé en marketing, mais également par les créateurs de contenu, ou les gérants d’entreprises, afin de vérifier l’évolution des tendances dans leurs secteurs spécifiques.
Si vous souhaitez réaliser une vraie stratégie de contenus pour votre entreprise, Google Trends peut également vous aider à avoir une idée globale de ce qui intéresse les clients. Vous pourrez voir si cette tendance est faite pour exister sur le long terme, ou si elle risque rapidement de devenir obsolète !
Google Trends propose 4 filtres :
La courbe « Évolution de l’intérêt pour cette recherche » vous permet d’analyser si le sujet est populaire en ligne. Dès lors, si vous observez un score de 100, c’est que le sujet est très tendance. Si le score est de 50, cela signifie qu’il y a des audiences intéressées. Si, à l’inverse, la courbe se rapproche du 0, il vaut mieux ne pas travailler ce sujet. Google Trends permet aussi de vérifier qu’une recherche qui a été populaire est encore d’actualité.
Google Trends vous permet de bien comprendre la saisonnalité d’un produit : grâce à cet outil, tous les pics de saisonnalité liés à votre activité peuvent être observés.
L’outil vous aide alors à établir votre calendrier de contenus, à l’avance en utilisant les données de Google Trends. Vous pourrez organiser votre rédaction en fonction des recherches les plus chaudes à tel ou tel mois de l’année. Pour booster le trafic sur votre site, c’est le secret !
Parfois, certains mots clés perdent en popularité sur le web. Pour autant, cela ne signifie pas que vous devez l’oublier et ne pas le travailler. En effet, il est possible que le mot clé en question ait gagné en popularité sur YouTube. Pour votre stratégie SEO, il sera alors pertinent de réaliser une vidéo, afin d’attirer du trafic sur votre site internet !
Si vous avez déjà une liste de sujets spécifiques à traiter sur votre site internet, Google Trends vous permet de les agrémenter grâce à une recherche minutieuse de mots clés. Vous pouvez comparer l’impact de deux mots clés, et choisir le plus efficace d’entre eux. Il est aussi possible de regarder dans quelles régions du monde ou de France le terme est le plus recherché !
Google Trends vous aide à affiner votre stratégie de référencement SEO en trouvant de nouveaux mots clés synonymes à ceux déjà utilisés sur votre site web. Il vous permet d’élargir votre répertoire, et d’augmenter les chances d’être listé par les moteurs de recherche. Il vous suffit de rentrer un mot clé, puis de scroller vers le bas de la page, dans la section « Requêtes associées » : c’est ici que vous trouverez les synonymes.
Quel que soit le secteur dans lequel vous évoluez, tenir une veille des tendances est indispensable ! Pour vous adresser avec votre cible avec justesse, vous devez être au courant de la toute dernière actualité. Si vous êtes créateur de contenus, Google Trends peut être une réelle source d’inspiration.
Sur le menu principal, allez dans l’onglet « recherches du moment » : vous accèderez aux tendances de recherche au quotidien ou en temps réel dans le domaine qui vous intéresse. Par ailleurs, notez que les courbes de recherche à côté des sujets vous précisent si l’intérêt pour le sujet est pérenne ou passager.
Google Trends peut vous aider à tenir vos réseaux sociaux à jour, notamment en partageant les derniers articles tendance et les actualités importantes à votre audience sur Instagram, Twitter, Facebook ou encore LinkedIn. Vous saurez comment trouver des contenus pertinents qui attirent, engagent et convertissent vos prospects !
Pour visiter Google Trends, c’est par ici !
Prêt à affiner votre stratégie webmarketing grâce à Google Trends ?
L’article Pourquoi utiliser Google Trends ? est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce que Google Discover et comment l’utiliser pour sa stratégie SEO ? est apparu en premier sur tactee Agence web.
]]>
Google Discover est un outil optimisé pour fonctionner sur les smartphones et les tablettes. Le service rassemble toutes les informations collectées lors de la navigation de l’internaute : cela lui permet de mieux connaître les centres d’intérêt des utilisateurs, une vraie clé pour leur proposer un contenu web qui les intéresse !
Le logiciel recommande des contenus avant même que l’internaute n’ait réalisé une recherche. Ce dernier peut consulter des sujets qui l’intéressent, sans savoir à saisir la moindre requête. Actualités, textes de blog, vidéos, images : Google Discover propose à l’utilisateur tout type de contenus.
Vous l’aurez compris, si vous êtes un spécialiste du marketing, vous pourrez utiliser cet outil pour générer du trafic sur votre site web.
Le fil d’actualité Google Discover est une alternative aux SERP, qui vous permet d’accroître et de booster votre trafic qualifié. Avec ce service Google, vous augmentez vos chances de développer votre activité ou les ventes de vos produits et services sur internet.
Google Discover peut également vous aider à analyser la concurrence. Vous n’avez qu’à préciser, dans vos domaines d’intérêt dans les paramètres du logiciel, quels sujets vous intéressent : vous verrez alors apparaître les contenus sélectionnés par Google sur ces thématiques. Une belle occasion de garder un œil sur votre concurrence, mais aussi de trouver des sujets de rédaction de contenus !
Google Discover privilégie les sites web qui répondent à ses exigences en termes de compétence, d’expertise et de fiabilité :
L’article Qu’est-ce que Google Discover et comment l’utiliser pour sa stratégie SEO ? est apparu en premier sur tactee Agence web.
]]>L’article Les nouveautés SEO 2023 de LinkedIn est apparu en premier sur tactee Agence web.
]]>
Afin de personnaliser le title et la description de votre article sur LinkedIn, il vous suffit de créer un nouvel article, puis de vous rendre dans le menu de publication. Vous le retrouvez en haut à gauche sur le site internet : cliquez ensuite sur « préférences ». Vous avez accès à deux champs à renseigner :
Sur LinkedIn, Keren Baruch a également annoncé que la possibilité de suivre des newsletters à partir des recherches sur LinkedIn serait renforcée. Lorsqu’un créateur, sur la plateforme, publie une newsletter, elle sera visible sous le nom de l’auteur : un bouton, permettant aux internautes de s’abonner d’un simple clic, accompagnera la newsletter.
Par ailleurs, jusqu’ici, la planification était uniquement réservée aux posts : désormais, elle est étendue aux newsletters (et aux articles) : cela permet de diffuser des publications aux moments les plus opportuns.
Pour optimiser votre article SEO pour LinkedIn, les règles à suivre sont en réalité les mêmes que pour optimiser un contenu sur Google. Commencez par rechercher les bons mots clés. Identifiez les mots-clés populaires liés au sujet que vous souhaitez traiter : les outils de recherche de mots-clés tels que le Google Keyword Planner, ou SEMrush sont ici de réels alliés.
Trouvez ensuite un titre accrocheur et informatif : vous devez éveiller la curiosité des internautes avec des mots clés pertinents. Votre titre doit être clair, concis et donner une idée précise du contenu de l’article.
Prenez le temps de trouver une description pertinente : en effet, la méta-description représente un court paragraphe qui apparaîtra sous le titre dans les résultats de recherche. Cette dernière doit être attractive, tout en restant concise. Utilisez ici les mots-clés de façon naturelle.
Rédigez un contenu de qualité, informatif qui apporte une réelle valeur ajoutée aux lecteurs. Conseils pratiques, guides, informations pertinentes, statistiques, études, exemples concrets : soyez rigoureux et assurez-vous que votre contenu soit percutant et unique ! Enfin, n’oubliez pas d’inclure dans votre article SEO des liens pertinents, vers d’autres articles sur LinkedIn ou vers des sites externes fiables !
L’article Les nouveautés SEO 2023 de LinkedIn est apparu en premier sur tactee Agence web.
]]>L’article L’Inbound Marketing France : l’évènement inbound incontournable ! est apparu en premier sur tactee Agence web.
]]>
Pendant cette journée dédiée à la stratégie inbound, découvrez quelles sont les tendances marketing qui font sensation, ou encore comment attirer et fidéliser vos clients et collaborateurs grâce à la Symétrie des Attentions.
Des experts interviendront également afin de parler des tactiques qui vous permettent d’améliorer vos performance marketing et de booster votre agilité grâce à ChatGPT et à l’automatisation. Et puisque l’intelligence artificielle est au centre de toutes les attentions ces derniers mois, vous pourrez assister à des tables rondes dédiées à ce sujet, pour comprendre quel est l’impact de l’IA sur l’expérience commerciale et publicitaire.
Une conférence tenue par April Dunford, l’invitée d’honneur de cette édition, vous permettra de savoir comment bien positionner un produit pour que les clients le comprennent, l’achètent et l’adorent !
Inbound Marketing France by Winbound possède une chaîne YouTube, qui regroupe plus de 200 conférences, masterclass, et workshops sur l’ensemble des thématiques des éditions précédentes. L’occasion pour vous de retrouver des conseils uniques, prodigués par les meilleurs experts français et internationaux. Pour affiner votre stratégie inbound, et découvrir les bonnes pratiques digitales, c’est une chaîne Youtube à ne pas manquer !
Si vous êtes directeur marketing, commercial, ou dirigeant d’entreprise et que vous vous intéressez au marketing digital, ou si vous souhaitez vous différencier de vos concurrents en proposant une approche moderne de prospection, l’Inbound Marketing France ne manquera pas de vous livrer tous les outils dont vous avez besoin !
Si votre entreprise est en pleine mutation et que vous souhaitez mieux utiliser la stratégie inbound pour améliorer vos relations commerciales, l’événement organisé par Winbound vous apportera toutes les réponses aux questions que vous vous posez !
L’occasion pour vous de découvrir toutes les tendances du digital en France avec des cas concrets, pratiques, et orientés bénéfice client, et d’acquérir toutes les clés nécessaires à une stratégie digitale réussie.
L’article L’Inbound Marketing France : l’évènement inbound incontournable ! est apparu en premier sur tactee Agence web.
]]>L’article Tout ce qu’il faut savoir sur le content marketing est apparu en premier sur tactee Agence web.
]]>
Le content marketing fait partie de la stratégie d’inbound marketing. Il permet à l’entreprise de gagner en visibilité rapidement, et de démontrer au prospect qu’elle possède une expertise dans son domaine.
Pour mettre en place une stratégie de contenus marketing, l’entreprise peut réaliser des articles de blog, des newsletters, des vidéos, des infographies, des podcasts ou même des e-book, guides ou livres blancs. L’objectif ? Que chacun des contenus que vous proposez réponde à une problématique rencontrée vos prospects cibles.
Les contenus produits dans votre stratégie inbound sont ensuite diffusés au travers des canaux de votre entreprise : les réseaux sociaux tels que Facebook, Instagram, LinkedIn ou encore, Twitter, les campagnes d’emailing, ou directement sur votre blog.
Le content marketing permet d’améliorer votre trafic sur le long terme. Vous renforcez vos positions dans les moteurs de recherche en travaillant votre référencement naturel (SEO). Un gain de visibilité non-négligeable dans les SERP, qui vous permet de booster votre notoriété ! Vous générez un trafic qualifié sur votre site web et fidélisez vos clients plus efficacement : pour accroître votre chiffre d’affaires en augmentant les achats, c’est un vrai plus.
Par ailleurs, grâce au content marketing, vous renforcerez votre image de marque. Les contenus informatifs que vous publiez vous confèrent un rôle d’expert dans votre secteur d’activité.
Afin de mettre en place votre stratégie de contenus, vous devez commencer par réaliser un audit. Observez les points faibles et les points forts de votre entreprise, et de votre site internet : mesurez le temps passé sur chacune de vos pages web, le nombre de visites par jour, par semaine, par mois, les taux de conversion, la source du trafic, les taux de rebond…
Analysez ensuite en détail la concurrence. Quelle est leur stratégie de contenus ? Quels types de contents produisent-ils ? À quelle fréquence ? Via quels canaux les diffusent-ils ? Quels sont leurs classements sur Google ? Quels mots clés utilisent-ils ?
Grâce à cet audit, vous aurez ainsi toutes les informations en mains afin de vous démarquer.
L’étape n°2 consiste à définir vos objectifs : projetez-vous sur le long terme, et définissez ce que vous souhaitez obtenir dans les prochains mois ou années à venir. Etre un site de référence sur un sujet technique ? Doubler votre trafic ? Redorer votre image de marque ?
La stratégie SMART est un bon outil pour définir ses objectifs : ces derniers doivent être spécifiques, mesurables, réalisables, réalistes et limités dans le temps.
Les contenus que vous produisez doivent correspondre à votre cible. Le ton que vous emploierez, les visuels, et les informations que vous développerez dépendent directement des personnes auxquelles vous vous adressez. Posez-vous ici plusieurs questions :
Les contenus que vous créez doivent parler à votre cible et répondre à ses attentes. Pour qu’elle ne se lasse pas, variez les contents : articles de blog, e-book, illustration, graphiques, podcasts, vidéos… Laissez aller votre créativité, et mettez-vous dans la peau de vos prospects : vos contenus doivent avoir une valeur ajoutée par rapport à votre concurrence. Les internautes doivent trouver chez vous des réponses qu’ils ne trouveront pas ailleurs !
Pour créer une stratégie de contenus unique, vous devrez mettre en place une veille sur les thématiques que vous souhaitez développer. Attention toutefois à ne jamais dupliquer un contenu, car les moteurs de recherche ne manqueront pas de vous pénaliser et de vous sanctionner ! Ici, l’expertise d’une agence de communication pourrait vous aider à produire des contenus optimisés, variés, et actuels, qui pourront faire la différence.
Planifiez la diffusion de vos contenus avec justesse. La création d’un planificateur virtuel séduit de plus en plus les entreprises qui mettent en place des stratégies de content marketing. Grâce à cet outil puissant, vous pouvez établir un rythme de diffusion adapté à votre audience, à ses attentes.
Pour organiser au mieux votre planification, analysez les retombées de vos derniers posts. Sur ce calendrier, plusieurs éléments sont indispensables : le visuel, le texte, l’heure, la date, et enfin, la fréquence de vos publications.
Lorsque vos contenus sont en ligne, vous devez les promouvoir ! Ici, plusieurs outils vous accompagnent : les campagnes emailing, les stratégies d’influenceurs, les réseaux sociaux…
Analysez les contenus qui fonctionnent le mieux, observez quelle page permet de générer le plus de clics, de conversions, de trafic, et basez-vous sur ces résultats pour affiner votre stratégie !
Vous pouvez mesurer l’impact de vos actions et publications grâce à des outils qui vous aideront à visualiser les points forts et les points faibles de vos réseaux sociaux et de votre site internet. Vous pourrez ainsi suivre vos leads et vos ventes, et analyser votre performance par rapport à la concurrence.
L’article Tout ce qu’il faut savoir sur le content marketing est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce qu’un site mobile friendly ? est apparu en premier sur tactee Agence web.
]]>
Ces dernières années, et encore plus depuis la crise Covid, les achats sur mobile ont la cote ! Les internautes sont de plus en plus nombreux à se servir de cet outil pour effectuer des achats en ligne.
En France, selon les chiffres communiqués par la FEVAD, ce sont près de 146,9 milliards d’euros qui ont été dépensés par les français pour l’achat de produits et de services en ligne en 2022, soit une croissance du e-commerce de près de 13,8 % par rapport à l’année précédente. Et pour près de 53 % des consommateurs interrogés, les mobiles sont les appareils auxquels les français recourent très fréquemment afin de réaliser leur shopping sur le web !
Avec un site mobile friendly, la navigation sur le site internet et entre les pages est plus fluide. Le visiteur n’a pas besoin de zoomer ou de faire défiler son écran de gauche à droite ou de droite à gauche pour consulter l’ensemble de la page. Tous les contenus (textes, images, vidéos…) sont directement visibles, il n’a qu’à scroller pour chercher les informations dont il a besoin.
Avec un site mobile friendly, vous avez les faveurs de Google. En réalité, si votre site n’est pas adapté aux mobiles, c’est votre référencement naturel (SEO) qui peut s’en retrouver impacté, et vous perdez des places dans le moteur de recherche.
Grâce aux sites responsive design, vous améliorez vos taux de conversion. En effet, en profitant d’une meilleure position dans les résultats des moteurs de recherche et en offrant une expérience de navigation optimale aux utilisateurs, vous mettez toutes les chances de votre côté de booster les conversions. Les différents mobinautes accèdent à votre site depuis n’importe où, n’importe quand, et n’ont pas besoin d’attendre d’être devant un ordinateur de bureau pour finaliser leur achat. La prise de décision est rapide, et le panier validé plus facilement ! Un vrai plus pour votre chiffre d’affaires !
Un site responsive design coûte moins cher que si vous devez faire un site internet pour les mobiles, et un autre pour les ordinateurs. Vos économisez non seulement du temps, mais également de l’argent. Avec un site mobile friendly, vous pouvez créer une ressource web unique, qui fonctionnera sur tous les appareils : l’occasion de réaliser des économies significatives.
La gestion de deux versions distinctes de votre site web (ordinateur et mobile), nécessite que vous ayez deux stratégies de référencement distinctes. Mais avec un site mobile friendly, qui s’adapte aussi bien au desktop qu’aux smartphones et tablettes, vous n’avez qu’un seul site à mettre à jour. Par ailleurs, vous pouvez plus facilement et plus rapidement réaliser des modifications sur votre site internet via plusieurs appareils. Enfin, le temps dédié à la maintenance de votre site sera aussi réduit.
Afin de rendre votre site mobile friendly, vous devez prendre en compte plusieurs paramètres.
Tout d’abord, vous devez installer sur votre site internet un thème responsive. Il sera également essentiel de simplifier le menu : vous pourrez le placer sous forme de liste à gauche de l’écran dans une fenêtre indépendante, afin que l’utilisateur le voit en un clin d’œil, et puisse le parcourir rapidement pour s’y retrouver.
Afin de rendre votre site mobile friendly, l’utilisation des boutons d’appel à l’action doit aussi être minutieusement pensée. Les CTA doivent être facilement repérables, leur design doit être travaillé, et l’utilisateur / client doit pouvoir cliquer simplement. Vous pouvez réaliser des tests A/B afin de savoir quel design fonctionne le plus chez votre cible !
En outre, sur votre site, pensez à intégrer une barre de recherche : l’occasion pour le client d’aller droit au but, et de trouver rapidement le produit qu’il recherche. Afin d’optimiser les conversions, c’est indispensable. Les formulaires de prises de contact, quant à eux, doivent correspondre à la taille de l’écran mobile : ils doivent être courts, et aller à l’essentiel.
Supprimez également les fenêtres popups, qui peuvent réellement perturber le parcours de navigation de l’utilisateur mobile : une astuce marketing qui pourrait bien faire la différence !
Pour booster votre trafic et vos taux de conversion, optimisez le temps de chargement des pages. Les achats qui sont réalisés sur mobile peuvent ne pas aboutir à cause d’un temps de chargement trop long. Utilisez le format AMP (pages mobiles accélérées) : c’est un outil très efficace afin d’améliorer et réduire le temps de chargement d’une page sur un mobile. En effet, les utilisateurs peuvent consulter votre site internet où qu’ils se trouvent. Mais le réseau peut être variable d’un endroit à un autre, et tous les prospects / clients ne disposent donc pas d’une connexion performante afin de naviguer sur votre site web. Pour répondre à ce problème, Google a décidé de mettre en place une solution efficace : l’AMP. Ce système permet de réduire la vitesse de chargement et d’affichage des pages mobile jusqu’à 85 % ! Vous l’aurez compris : c’est un indispensable à tester pour votre site mobile friendly.
L’article Qu’est-ce qu’un site mobile friendly ? est apparu en premier sur tactee Agence web.
]]>L’article Les meilleures techniques de Growth Hacking est apparu en premier sur tactee Agence web.
]]>
Le Growth Hacking consiste à élaborer et déployer des techniques dans l’objectif de démultiplier la croissance d’une entreprise, avec des coûts faibles.
Pour mettre en place une stratégie de Growth Hacking, vous devez avoir une bonne compréhension des datas, une envie d’apprendre, de tester, et de renouveler vos connaissances de façon constante. Retargeting, contenu gratuit, marketing d’influence, preuve sociale ou encore, méthode AARRR, on fait le point ensemble sur les hacks qui marchent le mieux pour booster votre croissance.
Le reciblage publicitaire, ou retargeting, est une technique de e-marketing très utilisée par les entreprises : elle permet de montrer des publicités ciblées à des internautes qui ont déjà visité votre site Internet une première fois. Grâce à cette méthode, vous visez une audience qui connaît votre marque et vos produits. Ici, l’idée est de créer des annonces Google ou Facebook percutantes, qui feront revenir vos prospects plus vite sur votre site internet. Pour y parvenir, vous pouvez leur proposer des promotions et des offres spéciales sur les produits qu’ils ont consultés.
Grâce au retargeting, l’objectif est de convertir de simples visiteurs en clients, et de booster votre chiffre d’affaires rapidement.
Pour créer du lien rapidement avec votre audience, publiez du contenu gratuit, de façon régulière, sur votre site internet ou votre blog. En plus d’attirer du trafic, les contenus SEO vous permettent de susciter ainsi l’intérêt de vos prospects, et de fidéliser vos clients en leur offrant des conseils. Attention toutefois : pour y parvenir, vous devez offrir des contenus qui apportent de la valeur ajoutée à vos lecteurs.
Les guides, les livres-blancs, les articles sous forme de pdf téléchargeables sont des outils précieux. Grâce à un pop-up qui apparaît sur votre page, avant que l’utilisateur ne quitte votre site internet, vous pouvez lui proposer de télécharger gratuitement votre guide, en échange de son adresse email : une astuce de taille afin d’accroître rapidement votre liste de contacts.
Le marketing d’influence est un outil précieux pour booster votre croissance. Afin de mettre en place une telle stratégie, la marche à suivre est simple : vous devez commencer par trouver les influenceurs qui collent le plus à votre image de marque, à vos valeurs. Lorsque vous avez trouvé l’influenceur qui vous convient, commencez à planifier votre campagne de Growth Hacking, en l’informant sur votre produit ou service, sur vos objectifs, et sur vos attentes. Vous pouvez lui fournir un brief précis, en précisant la façon dont vous souhaitez que vos produits soient présentés et mis en valeur. Lorsque toutes les informations sont bien déterminées, l’influenceur peut se lancer dans la communication, partager votre produit ou service sur ses réseaux sociaux et générer des prospects pour votre marque.
Faire des cadeaux est une méthode efficace pour faire une promotion rapide de vos produits. En effet, de nombreuses startups ont construit leur notoriété grâce à des offres gratuites. Attention toutefois : ici, vous devez être sûr de la fiabilité et de la qualité de vos produits. Grâce à cette technique de Growth Hacking, vous avez la possibilité d’étendre votre base client à moindres coûts.
Pour susciter l’intérêt, et obtenir des résultats efficaces, mettez en place une offre gratuite sur une période limitée : vous laisserez ainsi la possibilité à un grand nombre d’utilisateurs de tester votre produit, et de l’adopter !
Cette technique de Growth Hacking fait référence à un concept de psychologie sociale qui affirme qu’un individu a toujours tendance à suivre le comportement de la majorité. Pour profiter des atouts de cette méthode, vous devez encourager les prospects à interagir, car ces interactions rassurent votre audience, et l’incitent à acheter.
Les techniques de Growth Hacking sur les réseaux sociaux, sur votre application ou sur votre site web encouragent certaines actions des internautes : c’est le cas des « J’aime » ou des partages, par exemple. En outre, pour tirer parti de la preuve sociale, les témoignages et les avis de vos clients doivent être publiés sur vos pages Facebook, LinkedIn ou Instagram, et sur votre site web.
La méthode AARRR vous aide à optimiser, et à mesurer les cinq étapes du parcours client. Agile et innovante, cette technique marketing de Growth Hacking accélère le développement de votre activité. Vous comprenez mieux vos clients et mesurez leurs conversions par le biais de votre entonnoir de vente. La structure AARRR est composée de plusieurs métriques :
L’article Les meilleures techniques de Growth Hacking est apparu en premier sur tactee Agence web.
]]>L’article Quelles sont les tendances inbound marketing qui ne fonctionnent plus en 2023 ? est apparu en premier sur tactee Agence web.
]]>
Pour produire une stratégie inbound marketing efficace, vous devez constamment vous tenir informé sur les pratiques obsolètes à éviter pour ne pas pénaliser votre site ! Alors, quelles sont les astuces qui peuvent être nuisibles pour votre stratégie web en 2023 ? On vous dit tout !
Il s’agit d’une technique de manipulation du classement des moteurs de recherche, qui consiste à présenter un contenu différent aux moteurs de recherche et aux utilisateurs. Google a accès à une version du contenu plus optimisée pour le référencement Google que celle que les utilisateurs pourront voir. Grâce aux dernières évolutions technologiques, les moteurs de recherche sont aujourd’hui capables de détecter ce type de pratiques interdites : si vous les utilisez pour créer vos contenus inbound marketing, vous risquez donc d’être grandement pénalisé !
Google met un point d’honneur à repérer l’intégration de faux liens. Qu’il s’agisse d’achat ou d’échange de liens, ces pratiques peuvent nuire à votre stratégie web, et sont même considérées comme du spam. Vos classements dans les résultats de recherche seront impactés, et vous risquez même de disparaître des moteurs de recherche. Pour rester en course, privilégiez les liens organiques qui proviennent de sites web pertinents et d’autorité.
En 2023, le texte ne suffit plus. Pour dynamiser la lecture, il est essentiel d’inclure des visuels à votre contenu : image, vidéo, gif, infographies, laissez parler votre créativité afin de rendre vos contenus plus attractifs ! L’expérience utilisateur sera améliorée, et votre stratégie inbound plus efficace !
En 2023, la tendance est plus que jamais au marketing de contenus en direct. Webinaire, Instagram Live, Facebook Live, Twitch : toutes ces plateformes vous permettent aujourd’hui de créer des événements uniques et gratuits à destination des internautes. Pour créer de l’engagement, c’est un outil inbound marketing à ne pas laisser de côté !
Pour diversifier vos contenus, tournez-vous vers le podcast et le livre audio.
Ces types de formats vous permettent de proposer un contenu innovant, tout en touchant une large audience. Selon une étude réalisée par Midroll, les podcasts sont écoutés par 52 % des automobilistes, 46 % des voyageurs en avion, 37 % des utilisateurs de transports en commun. Un vrai plus pour atteindre votre cible !
Pour votre stratégie inbound marketing 2023, impossible de faire l’impasse sur l’intelligence artificielle. Grâce à l’IA, vous pouvez par exemple collecter des informations de chaque visite en ligne via Google ou via les médias sociaux :
De quoi mettre en place des stratégies d’approche personnalisées, pour augmenter vos taux de conversion.
L’article Quelles sont les tendances inbound marketing qui ne fonctionnent plus en 2023 ? est apparu en premier sur tactee Agence web.
]]>L’article Les astuces pour optimiser les Core web vitals en 2023 est apparu en premier sur tactee Agence web.
]]>
Les Core Web Vitals, ce sont les « signaux Web essentiels » qui offrent une expérience utilisateur satisfaisante sur une page web. Ces éléments impactent le SEO de votre site internet dans une certaine mesure, et regroupent plusieurs métriques :
Afin de réduire les LCP de votre site web sur les mobiles, les tablettes et sur les ordinateurs, vous pouvez investir dans un serveur d’hébergement dédié à ces supports : l’objectif est ici d’améliorer le temps de réponse de votre site. Veillez également à utiliser les bonnes dimensions pour les images de vos contenus, et à utiliser la fonctionnalité Lazy Load afin de différer le chargement des images.
Afin d’améliorer vos performances pour la métrique CLS, veillez à supprimer au maximum les animations et à bien paramétrer vos encarts publicitaires. Intégrez vos éléments (vidéos, photos…) en amont, afin d’éviter le décalage ou le débordement de contenus pendant le chargement !
Afin d’améliorer l’accessibilité de votre site internet en optimisant la métrique FID, le travail devra se faire au niveau du code CSS, et de votre JavaScript. En outre, en utilisant un système de cache, vous pourrez également obtenir une meilleure vitesse de chargement.
Il existe de nombreux outils qui vous permettent d’analyser la rapidité de votre site. Veillez à utiliser des outils fiables, comme Dareboost par exemple, afin d’avoir des rapports détaillés de la totalité de votre site web. Google Pagespeed Insight ou la Google Search Console pourront également vous aider à y voir plus clair sur vos performances. Il vous suffit de renseigner votre URL pour obtenir une analyse complète de vos Core Web Vitals.
L’optimisation des webperf apportera un effet très faible sur le ranking de votre site, elle n’est cependant pas la seule clé pour avoir de bonnes positions dans les moteurs de recherche. D’autres critères comptent également, tels que la sécurité du site internet, l’âge du nom de domaine, et bien-sûr, la qualité des contenus !
L’article Les astuces pour optimiser les Core web vitals en 2023 est apparu en premier sur tactee Agence web.
]]>L’article Découvrez si votre site web est écologique avec EcoIndex.fr est apparu en premier sur tactee Agence web.
]]>Selon l’ADEME (Agence de la transition écologique), le numérique est responsable de 4 % des émissions de gaz à effet de serre dans le monde. Avec l’augmentation des usages numériques, le chiffre devrait doubler d’ici 2025. Deux étapes du cycle de vie d’un site internet jouent un rôle important dans la pollution émise : sa conception et son utilisation.
Plusieurs éléments entrent en ligne de compte dès la conception d’un site : le poids de la page, le design, le contenu publié, le code, le format des images, etc. Toutes ces données sont stockées sur des data centers (serveurs) qui nécessitent énormément d’énergie pour fonctionner.
Lorsque l’utilisateur ouvre une page web, il utilise à la fois les ressources de son terminal (ordinateur, téléphone ou tablette) et les ressources des serveurs. Plus le contenu du site web est lourd, plus l’énergie nécessaire au chargement de la page sera conséquente. Sans oublier le temps d’utilisation supplémentaire si la navigation est lente.
EcoIndex.fr est un outil gratuit capable d’évaluer les performances d’une page web. L’objectif d’EcoIndex est double. Faire prendre conscience aux responsables de sites web de l’impact du numérique sur l’environnement et les aider à créer un site internet écologique. À partir d’une URL, le service analyse la performance technique et l’empreinte environnementale d’une page web, c’est-à-dire ses émissions de gaz à effet de serre et sa consommation en eau.
Plusieurs critères écologiques sont pris en compte.
L’algorithme calcule ensuite l’EcoIndex de la page testée et délivre un score allant de A à G. Vous obtenez également des solutions concrètes pour réduire l’empreinte carbone de votre site internet.
Plusieurs astuces et bonnes pratiques écologiques permettent aujourd’hui de créer un site internet écologique. On parle d’éco-conception web.
La fabrication des équipements informatiques a de lourds impacts écologiques : épuisement des ressources, consommation d’énergie et émissions polluantes. Pour un site internet écologique, la première démarche consiste à choisir un matériel informatique reconditionné. Prêtez également attention à l’indice de réparabilité qui vous assure un cycle de vie plus long.
Pour répondre à la demande croissante d’un numérique responsable, de plus en plus d’hébergeurs adoptent une démarche écoresponsable. Avant de choisir l’hébergement de votre site web, vérifier les certifications et les labels des hébergeurs. Certains hébergeurs proposent des data centers alimentés par des énergies vertes comme Infomaniak et PlanetHoster par exemple, à des prix très raisonnables.
Il est tout à fait possible d’avoir des pages de site web qui favorisent l’expérience utilisateur tout en réduisant l’impact écologique de l’entreprise. Choisissez un thème de site plus léger, avec un design épuré et un maximum d’espaces blancs. Pensez également à supprimer toutes les fonctionnalités inutiles au parcours utilisateur.
Plus les sites web chargent vite, moins ils consomment d’énergie. Pour accélérer la vitesse de chargement d’un site web, plusieurs actions sont possibles :
Un site internet écologique passe aussi par une création de contenu web respectueuse de l’environnement. Tant sur le fond que sur la forme. La communication web responsable repose sur des pratiques vertueuses.
La mise en place d’un blog et d’un site internet écologique englobe un ensemble de mesures qui demande du temps et de l’expertise. Entre le choix de l’hébergeur, la conception d’un site web basse consommation et l’élaboration d’une stratégie marketing de qualité, de nombreuses entreprises renoncent à limiter leur consommation d’énergies pour améliorer leur bilan carbone.
Pourtant, un site internet écologique offre de multiples avantages. Aussi bien pour l’environnement, que pour l’expérience utilisateur et votre référencement Google. Si vous êtes prêt à changer de stratégie marketing pour réduire votre impact carbone et augmenter vos conversions, faites appel aux experts de l’agence web Tactee !
L’article Découvrez si votre site web est écologique avec EcoIndex.fr est apparu en premier sur tactee Agence web.
]]>L’article Générez vos audiences Google Ads avec Google Analytics 4 (GA4) est apparu en premier sur tactee Agence web.
]]>
En liant les deux propriétés, vous profitez des avantages du générateur d’audience GA4 directement sur l’interface utilisateur Google Ads. Par contre, si vous aviez paramétré des audiences Universal Analytics, la migration se fait manuellement, vous devez recréer toutes vos audiences dans GA4.
Une fois la liaison effectuée, vous bénéficiez d’une vision globale du parcours client. Des interactions sur vos campagnes marketing (clics sur les annonces par exemple), jusqu’au moment où vos clients atteignent vos objectifs (achat sur votre site web, visite d’une page web, etc.).
Pour associer vos propriétés, rendez-vous sur votre compte Google Analytics, puis cliquez sur Admin. Ensuite, sous LIENS PRODUITS, cliquez sur Liens Google Ads, puis sur Lien. Enfin, cliquez sur Choisir des comptes Google Ads et sélectionnez le compte à associer.
L’audience Google Ads correspond au profil de votre cible marketing, c’est-à-dire aux personnes concernées par votre message publicitaire. L’audience se définit en fonction des utilisateurs susceptibles de voir vos annonces sur différents réseaux : le réseau Display, YouTube, Gmail, la recherche Google, etc.
Google Ads vous propose trois méthodes pour créer vos audiences.
• Les audiences préconfigurées (remarketing) basées sur les données des visiteurs qui ont déjà interagi avec votre site web, vos vidéos YouTube ou votre application.
• Les audiences importées des segments d’audience de vos anciennes campagnes Google.
• Les audiences créées manuellement en fonction des critères qui vous semblent les plus pertinents pour la réussite de votre stratégie SEA.
Quelle que soit la campagne choisie : Display, Shopping standard, Vidéo, Réseau de recherche et Hôtel, vos audiences sont constituées de segments. Chaque segment correspond à des groupes d’utilisateurs présentant des caractéristiques similaires. Quand vous ajoutez une audience à vos annonces ou à une campagne SEA, l’outil vous propose toute une liste de segments.
Les segments diffèrent en fonction du type de campagne. Par exemple, pour une campagne Display, le générateur d’audience Google Ads propose plusieurs types de segments.
• Des segments d’affinité (centres d’intérêt, habitudes, etc.).
• Des segments personnalisés pour choisir entre plusieurs audiences (visiteurs du site, utilisateurs YouTube, etc.).
• Des données démographiques (âge, sexe, statut, etc.).
• Les événements de la vie (internautes qui vivent un événement similaire).
• Sur le marché : pour cibler des internautes qui cherchent une offre similaire.
• Des segments de remarketing (données des sites et applications).
Choisir la bonne cible marketing est la clé de la réussite de vos campagnes Google Ads. Plus vous serez précis dans le ciblage de votre audience Google Ads, plus vous parviendrez à toucher des clients potentiels. Basez-vous sur vos données clients et sur votre buyer persona. Analysez leurs centres d’intérêt, les intentions de recherche, etc.
Après avoir déterminé l’audience à cibler, vous devrez encore choisir vos enchères. Appuyez votre choix sur votre stratégie d’entreprise. Par exemple, beaucoup d’annonceurs privilégient le coût par clic (CPC), car ils ne paient que lorsque les utilisateurs cliquent sur les annonces. D’autres opteront pour les enchères au coût par vue pour analyser l’intérêt des internautes pour leurs vidéos.
N’hésitez pas à tester plusieurs listes d’audiences pour optimiser votre stratégie Google Ads. Si besoin, contactez les experts de l’agence SEA Tactee. Nous vous aideront à trouver l’audience Google Ads la plus pertinente pour votre stratégie d’entreprise !
L’article Générez vos audiences Google Ads avec Google Analytics 4 (GA4) est apparu en premier sur tactee Agence web.
]]>L’article Les nouveautés de la Search Console de Google en 2023 est apparu en premier sur tactee Agence web.
]]>Cette année, la search console ne déroge pas à la règle afin de vous permettre de comprendre et optimiser votre performance SEO dans les moindres détails. Avant de rentrer dans le vif du sujet, voici un petit récapitulatif des différentes nouveauté précédente qu’il ne fallait pas manquer !
Il est désormais possible d’accéder aux données liées à l’onglet « Actualités » de la recherche Google. Ces informations concernent notamment les clics, les impressions ainsi que le taux de clics lié aux liens affichés dans l’onglet « Actualités » des résultats de recherche. Les webmasters et éditeurs de contenus disposent ainsi de plus d’informations sur la performance de leurs articles dans la catégorie actualités. Les statistiques disponibles concernent les activités observées depuis le 30 juin dernier. Il reste préférable de patienter un moment pour permettre à la Search Console de récolter des données pertinentes. Notez que cette fonctionnalité ne concerne pas Google Actualité (Google News). Seuls les résultats de recherche de l’onglet « Actualités » du moteur de recherche sont pris en compte.
En matière d’extraits d’avis, la Search Console fait également peau neuve avec deux nouveautés.
Ce nouveau rapport permet de détecter les éventuels problèmes liés à la mise en place de la balise schema.org. Cette dernière concerne l’affichage des extraits d’avis dans les SERP de Google. La section informe également sur les URL valides, les URL valides avec avertissements et les URLS non valides avec des problèmes d’intégration. Vous pouvez déterminer rapidement les sources de problèmes d’intégration des extraits d’avis, sans passer manuellement par l’outil de test de données structurées.
Un nouveau filtre est également disponible pour mesurer les performances SEO de vos URL dotées d’extraits enrichis d’avis. Ces données vous permettent entre autres de comparer les performances de vos pages, avec et sans extraits d’avis. Vous pouvez également évaluer la part de trafic SEO générée par les résultats avec extraits enrichis d’avis.
Google intervient dans la migration d’adresse grâce à l’outil de changement d’adresse de la Search Console. La firme américaine facilite la tâche aux webmasters qui souhaitent changer de nom de domaine ou de sous-domaine en intégrant 2 fonctionnalités.
Google propose de tester et de valider 5 des URL les plus importantes de votre ancienne adresse. Il est également possible de consulter la liste des redirections mises en place et validées par Google. Et en cas de problèmes lors les redirections, la Search Console vous propose des actions correctives. Ceci est trés utile notamment lorsque vous travaillez sur la validation d’un plan de redirection avec une agence web lors de la refonte d’un site internet par exemple.
La Search Console vous rappelle via son outil de changement d’adresse que votre site est en cours de migration. En dehors du message d’avertissement de migration, l’outil donne également quelques précisions :
Ces informations, tout comme le message de rappel, figurent sur la Search Console sur l’ancien site et sur le nouveau. Il convient néanmoins de rappeler certaines situations dans lesquelles l’utilisation de l’outil de changement d’adresse est non valide :
Dans chacune de ses situations, Google propose des solutions plus adaptées que vous pouvez consulter sur la page d’aide.
Ce nouveau filtre vous permet de vous concentrer sur les pages vidéo qui vous intéressent le plus. En 2023, il est désormais possible de filtrer votre rapport sur l’indexation des vidéos, afin de n’afficher que les pages vidéo présentes dans le sitemap sélectionné.
Notez que pour vous aider à améliorer vos analyses, le filtre peut s’appliquer à toutes les fonctionnalités du rapport :
Un vrai plus pour améliorer les performances de vos vidéos auprès des robots Google !
Les Core Web Vitals sont des mesures destinées à diagnostiquer le bon fonctionnement UX (User eXperience) d’un site internet. En d’autres termes, ce sont les indicateurs de performance clés pour la partie technique du SEO. Ils participent, dans une pondération moindre, au bon référencement du site web, et sont principalement dictés par la vitesse de chargement.
En début d’année, Google a annoncé une mise à jour du rapport Core Web Vitals dans la Search Console. Dès lors, en tant que gérant du site web, vous pouvez avoir accès à toutes les données au niveau des fichiers URLs, page par page. Une fonctionnalité indispensable, notamment après une refonte ou des évolutions techniques importantes du site, qui vous permettra de suivre l’évolution des Core Web Vitals sur la Search Console.
Les logs, ce sont les traces des actions et interactions de vos utilisateurs sur votre site. Jusqu’alors, si vous souhaitiez analyser les logs de votre site internet, vous deviez passer par des outils tels que SEOlyzer, Botify ou encore, Screaming Frog. Désormais, il est possible d’analyser de nombreux logs directement via la Search Console dans Analytics.
Pour profiter de l’outil, rendez-vous dans la Google Search Console, et allez dans l’onglet « paramètres », puis cliquez sur « rapport d’exploration ». Vous pouvez réaliser différentes analyses afin d’avoir des informations précises sur la santé de votre site internet :
Grâce à cette nouveauté Search Console, vous pouvez réaliser plusieurs requêtes, afin de voir les pages les plus crawlées, et faire facilement remonter les dysfonctionnements : un vrai plus pour intervenir rapidement et améliorer le référencement naturel de votre site web.
Grâce à cette fonctionnalité, vous avez une vision plus complète et plus large de la manière dont Google référence le site web. Vous pouvez également comprendre pourquoi certaines pages de votre site internet ne sont pas référencées :
Vous savez en quelques clics ce qui pose problème, et avez toutes les cartes en mains pour trouver une solution dans les plus brefs délais, et limiter l’impact sur votre référencement.
Le petit plus ? Utilisez cette fonctionnalité en croisant les résultats de Google et ceux de l’outil Screaming Frog, afin de corréler deux données : les pages indexées par Google et le nombre total de pages du site internet.
L’idée ici est de savoir clairement combien de pages ne sont pas indexées par Google, et de comprendre pourquoi elles ne le sont pas, afin d’agir efficacement. Vous pourrez alors mettre la main sur les pages orphelines, qui ne sont pas maillées sur votre site, ou sur les pages non indexées par Google, mais qui sont présentes et maillées sur le site.
L’occasion d’optimiser le SEO de votre site, et d’indexer et mailler toutes les pages de façon optimale.
Cette nouveauté date de la fin de l’année 2022. Désormais, une page « shopping » est présente dans la rubrique de la colonne de gauche « achat ». C’est une fonctionnalité indispensable pour les propriétaires de site e-commerce qui souhaitent booster l’efficacité de leur activité. Cette page vous permet en effet de mieux gérer vos fiches-produits, et d’avoir des rapports détaillés sur les erreurs de balise.
Les gérants de sites e-commerces devront garder un œil sur cet outil, car Google va lancer de nouvelles fonctionnalités dans sa SERP, qui permettront de mettre encore plus les produits en avant.
La rubrique « produits populaires » sera indépendante de Google Shopping, et regroupera tous les best-sellers du site web. Un vrai plus pour le référencement de sites e-commerces qui cherchent à se développer !
Grâce à la fonctionnalité de validation des backlinks, il n’est plus nécessaire d’utiliser des outils spécifiques tels que SEMrush afin de réaliser une analyse de premier niveau. Rendez-vous dans la rubrique « liens » dans la colonne de gauche de la Search Console, et analysez les metrics importantes liées à vos backlinks. Grâce à cette fonctionnalité, vous pouvez par exemple analyser la répartition des ancres, et vérifier qu’il n’y a pas de suroptimisation. Vous pouvez également vérifier que vous n’êtes pas victime d’une invasion de liens toxiques qui pourraient affecter la popularité de votre site web aux yeux de Google. Vous l’aurez compris, il s’agit là d’un outil indispensable pour optimiser votre performance et améliorer votre netlinking en plus des techniques de cet article !
Le 1er décembre 2023, le rapport sur la compatibilité mobile dans la Search Console sera supprimé. Ce sera également le cas du test Mobile Friendly. Attention toutefois : cela ne signifie pas que ce type de critère ne compte plus pour Google. Si vous souhaitez attirer du trafic et rester en bonne position dans les moteurs de recherche, vous pourrez utiliser d’autres outils tels que l’extension Lighthouse : elle vous permet d’évaluer vos performances sur mobile efficacement, et de valider le design d’une page pour qu’elle plaise à vos utilisateurs mobiles.
L’article Les nouveautés de la Search Console de Google en 2023 est apparu en premier sur tactee Agence web.
]]>L’article Mise à jour Google mars 2023 : tout ce qu’il faut savoir est apparu en premier sur tactee Agence web.
]]>
Ce qu’il faut retenir dans cette mise à jour SEO, c’est que Google met les bouchées doubles pour référencer les contenus de qualité. L’objectif ? Proposer aux internautes des contenus toujours plus pertinents, qui répondent vraiment à leurs questions. Ce qui compte ? La pertinence de l’information que vous donnez, l’exhaustivité de la description, la valeur ajoutée que vous apportez au lecteur, l’originalité de votre contenu, sa crédibilité et le niveau d’expertise que vous possédez.
Bien entendu, veillez également à ce que votre page soit bien présenté, ergonomique, facile à lire. Faites attention à ce qu’il n’y ait pas d’erreur d’orthographe, à ce que le contenu s’affiche correctement sur les mobiles ou encore, que vos textes soient bien structurés (titre, sous titres…). Vous l’aurez compris, chaque détail compte !
Google le rappelle : l’important, si vous possédez un site internet, c’est bel et bien de prendre en compte la pertinence et la fiabilité de vos pages pour votre audience.
Si vous voyez votre trafic baisser, Google vous conseille de vous intéresser à vos contenus, et de les retravailler. Attention toutefois à ne pas opérer de changements trop radiaux, et trop soudains. Surveillez l’évolution des positionnements de votre site pendant les prochaines semaines, mais restez patient, et ne paniquez pas avant la fin du déploiement ! En effet, Google déploie souvent des mises à jour secondaires correctives peu de temps après avoir déployé une importante mise à jour.
Lorsque les ajustements sont effectués sur vos contenus, les résultats ne sont pas instantanés. Google précise qu’il faut en général attendre quelques jours afin d’observer des changements notables. Vérifiez vos statistiques continuellement, jour après jour, afin de comprendre quels ajustements ont porté leur fruits, et lesquels ne sont pas suffisants.
Plusieurs outils pourront ici vous aider à analyser vos résultats et à opérer des changements ciblés, comme Semrush, Yooda One, SE Ranking.
L’article Mise à jour Google mars 2023 : tout ce qu’il faut savoir est apparu en premier sur tactee Agence web.
]]>L’article Quelles sont les qualités d’un consultant SEO en 2023 ? est apparu en premier sur tactee Agence web.
]]>Un consultant SEO est un professionnel du marketing digital. C’est lui qui positionne au mieux un site internet sur les moteurs de recherche tels que Google ou Bing. Il cherche, à l’aide de différents outils, à optimiser le contenu du site web, afin de le positionner sur les requêtes qui vont drainer le plus de trafic.
Le consultant SEO accompagne les entreprises vers de nombreux objectifs. Il les aide à :
Afin de comprendre quelles sont les qualités essentielles au consultant SEO, commençons par analyser quelles sont ses missions aux côtés des entreprises.
Cet expert est chargé d’élaborer une stratégie SEO : c’est qui lui définit (en collaboration avec le client) le persona, le positionnement SEO, qui détermine le contenu éditorial des pages. Il choisit aussi comment rendre la page ergonomique, fixe les objectifs à réaliser, et choisit les leviers webmarketing qui l’accompagneront dans ses missions. Pour l’aider dans ces tâches, il réalise un audit SEO : avec cet audit, l’expert analyse chaque critère du site, afin de comprendre ses points forts et ses points faibles.
Le consultant marketing réalise des ajustements et des changements techniques sur le site internet, en éditant des contenus : il possède des compétences en rédaction web, en production d’images, en partage de contenus audio et vidéo. Il peut également être chargé de réaliser des campagnes d’acquisition de backlinks.
Le consultant SEO exploite des datas SEO, comme le trafic organique, les taux de conversions, la durée des visites, le chiffre d’affaires, les impressions, les nombres de clics par mots clés, les taux de rebond… Tous ces chiffres lui permettent d’ajuster sa stratégie SEO et son plan d’actions.
Enfin, le consultant SEO est amené à gérer le projet SEO sans sa globalité, ce qui fait de lui un chef de projet. De ce fait, il doit savoir collaborer avec les développeurs, les responsables de communication, les responsables marketing ou encore, les responsables webmarketing.
Audit, analyse des datas, ajustement des stratégies, création de contenus texte, vidéo, photo, netlinking : les missions du consultant SEO sont nombreuses, et nécessitent une grande polyvalence. Ce dernier doit avoir des compétences poussées en informatique, mais aussi en marketing, en communication et développement de marque. Un large éventail, qui lui permettra de répondre aux exigences de ses clients avec efficacité !
Le métier de consultant SEO est un métier technique, qui regroupe beaucoup de termes inconnus pour le client : crawl, baklink, duplicate content… Un bon expert doit être capable d’expliquer chacune de ses actions à ses clients, en utilisant un vocabulaire adapté. Pour y parvenir, il pourra compter sur sa pédagogie.
Le domaine de SEO ne cesse de bouger. Pour garder une bonne position dans les moteurs de recherche, il faut être réactif, et garder un œil constant sur les indexations ou non des backlinks, sur les mises à jour Google, mais aussi sur les campagnes SEO des concurrents. Cette veille permettra au consultant SEO de mettre en place des changements de façon immédiate.
Le consultant SEO rencontre de nombreux clients au cours de sa carrière. Il doit savoir s’adapter aux secteurs de chacun, afin d’atteindre les objectifs qu’il fixe avec son client. Il doit savoir communiquer, poser les bonnes questions pour réussir à cerner le secteur d’activité et en comprendre les enjeux.
Chaque décision prise par le consultant SEO peut impacter la performance de l’entreprise. Dès lors, ce dernier doit posséder des compétences poussées en analyse. Lors de l’audit, il doit réussir à comprendre les points forts et les points faibles des stratégies de référencement de ses clients, pour concevoir un plan d’actions sur mesure.
Le consultant SEO doit avoir un esprit de curiosité développé. C’est ce qui lui permettra de s’informer sur les nouveautés qui existent dans le monde du référencement naturel, d’être au courant des nouvelles mises à jour d’outils SEO ou encore, des nouvelles règlementations.
En faisant preuve de curiosité, le consultant SEO ne cesse d’acquérir de nouvelles compétences, de nouvelles connaissances, et d’apprendre à utiliser de nouveaux outils : un vrai plus, qui l’accompagnera dans toutes ses missions, et qui lui permettra d’être toujours plus efficace.
L’expert SEO doit savoir prendre de grandes décisions, qui détermineront le futur des entreprises qu’il accompagne. Ses responsabilités sont grandes, et il doit avoir confiance en lui, pour réussir à avancer efficacement. Grâce à sa fermeté, et sa détermination, il réussira à faire les choix rationnels qui s’imposent.
Le consultant doit savoir montrer à ses clients qu’il sait ce qu’il fait et qu’il a les compétences pour les amener vers leurs objectifs. Attention toutefois : cette confiance en soi et cette intransigeance ne doivent pas empêcher un consultant SEO de se remettre en question !
L’article Quelles sont les qualités d’un consultant SEO en 2023 ? est apparu en premier sur tactee Agence web.
]]>L’article Quelles sont les étapes de la réalisation d’un calendrier éditorial ? est apparu en premier sur tactee Agence web.
]]>
Un calendrier éditorial est un outil qui permet d’organiser par date de publication l’ensemble des contenus à produire. Il est indispensable afin de déployer et mener à bien une opération d’inbound marketing : il permet d’attribuer les tâches à effectuer aux différents membres d’une équipe, mais également de suivre toutes les étapes de développement de votre stratégie de contenus (articles, vidéos, posts…).
Avec un calendrier éditorial, vous avez un historique des anciennes publications que vous avez faites. L’occasion pour vous d’éviter de publier plusieurs fois le même type de contenu dans la même semaine, et de lasser vos clients.
Grâce au calendrier éditorial, vous ajoutez plus de cohérence dans l’ensemble de vos contenus web. En fonction du public à qui vous vous adressez, vous pourrez alors varier vos contenus (livre blanc, newsletter, articles, infographie… De quoi maintenir élevé le niveau de curiosité de votre audience, et la tenir en haleine jour après jour.
Mais ce n’est pas tout : le calendrier éditorial vous permet également de gagner un temps précieux, et de publier avec plus de sérénité. Ce temps de planification vous permet, en cas de maladie ou d’événements inattendus à gérer, d’avoir plusieurs coups d’avance ! Vous gérez les imprévus efficacement, et continuez de proposer du contenu à votre cible, quoiqu’il arrive.
De plus, le calendrier éditorial vous permet d’avoir une fréquence de publication régulière. En outre, c’est un puissant outil qui aide le travail en équipe, car il regroupe, dans un seul et unique document toute l’information dont vous avez besoin : date de publication, type de contenu, mot-clé visé, titre, statut (commandé, rédigé, corrigé, publié)…
La première étape pour réaliser un calendrier éditorial, c’est de choisir l’outil qui vous permettra de le créer. Vous pouvez opter pour un simple fichier Excel, un Google Sheet, ou vous tourner vers des outils plus complets, comme Monday, Trello ou encore, Asana.
Quel que soit l’outil que vous choisissez, le planning doit mentionner certains éléments-clés comme la deadline de rédaction, la date de publication prévue, le sujet/thème traité, les mots-clés principaux et secondaires ciblés…
Optez pour un outil complet et intuitif, qui pourra facilement être utilisé par tous les membres de votre équipe.
Le persona est votre client cible par excellence. C’est lui qui est au cœur de toutes vos stratégies marketing et commerciales. Tous les contenus que vous allez créer devront être pensés pour lui. Vous devez donc tout savoir de votre client cible : ses centres d’intérêts, ses types de contenus préférés, l’heure à laquelle il se connecte le plus…
En définissant correctement vos personas, vous trouverez des idées de contenus efficaces.
Ici, vous avez le choix entre des articles de blog, des posts sur les réseaux sociaux (Citations, podcasts, mèmes, Gif, questions, carrousels photos, témoignages client, infographies…), un Ebook, une newsletter, des photos, des vidéos, des études de cas…
Variez les types de contenus et faites preuve de créativité, pour surprendre et susciter l’intérêt de votre audience !
Par ailleurs, notez que pour produire un contenu de qualité, qui parle à votre cible, vous devez mettre en place une stratégie de mots-clés. Vous pourrez alors mettre le doigt sur les sujets les plus recherchés par vos personas. Les outils tels que Semrush ou Google trends pourront ici vous accompagner dans votre stratégie.
Lorsque vous avez plusieurs idées de contenus à produire, il est temps de les classer. Vous pouvez ici faire un classement quantitatif (volume de recherche associé au mot clé) et qualitatif. Pour le classement qualitatif, posez-vous une question simple : à quel point ce sujet répond-il à la problématique de votre cible ?
Plusieurs informations clés doivent nécessairement être indiquées sur votre calendrier éditorial :
En planifiant le contenu plusieurs semaines à l’avance, vous pouvez garder un rythme de publication régulier sur le long terme. De quoi rester dans l’esprit de votre audience jour après jour, pour éviter qu’elle ne vous oublie !
Pour améliorer constamment vos performances, devez monitorer les résultats de chacune de vos publications de contenus. Si vous constatez sur les rapports analytics, que certains contenus ou types de contenus sont plus performants, vous apportent plus de trafic ou créent plus d’engagement, alors vous devrez adapter votre planning éditorial. Le calendrier éditorial doit évoluer semaine après semaine : l’occasion pour vous de trouver le juste milieu entre plan à long terme et agilité !
L’article Quelles sont les étapes de la réalisation d’un calendrier éditorial ? est apparu en premier sur tactee Agence web.
]]>L’article Rapport Hubspot et Talkwalker : ce qu’il faut retenir sur la consommation des français est apparu en premier sur tactee Agence web.
]]>
L’inflation est l’une des préoccupations majeures des français ces derniers mois. Dans le rapport publié, on observe que le critère du prix est important et que les consommateurs sont nombreux à chercher à optimiser leur pouvoir d’achat. En période de crise, les clients sont rationnels, ils optent pour le produit le moins cher. Pour adapter votre stratégie inbound, pas de secret : vous devez gagner la bataille de la désirabilité, et convaincre vos clients que vous leur apportez quelque chose que les autres n’ont pas. Vous pouvez également faire de la pédagogie, grâce à vos contenus, et expliquer pourquoi tel produit est plus cher que celui-ci, et ce qui justifie son coût.
La seconde grande tendance qui ressort du rapport Hubspot et Talkwalker, c’est la volonté qu’ont les français à consommer de façon plus responsable. Ils attendent des actions concrètes et rapides de la part des entreprises. Cette tendance s’observe avec l’émergence de nouveaux comportements :
C’est donc le moment, pour les marques, de rappeler leur fort engagement environnemental ou sociétal à travers des contenus finement élaborés.
Avant d’acheter leur produit, les français s’intéressent à la marque, s’informent sur son histoire, ses motivations, ses valeurs, ses engagements. Ils consultent les avis clients, effectuent des comparaisons entre plusieurs marques, pour profiter d’une expérience d’achat optimale, et de produits d’une excellente qualité.
Dans votre stratégie inbound marketing, vous devez montrer à votre marque que vous avez une identité forte (grâce à votre story telling), que vos clients sont séduits par ce que vous proposez (grâce aux avis clients), et que le service client est disponible. Vos contenus doivent rassurer le consommateur, lui faire comprendre qu’il fait le bon choix, car vous êtes une marque fiable.
Cliquez ici pour télécharger le rapport complet
L’article Rapport Hubspot et Talkwalker : ce qu’il faut retenir sur la consommation des français est apparu en premier sur tactee Agence web.
]]>L’article Consultant SEA, l’expert de votre référencement payant est apparu en premier sur tactee Agence web.
]]>Le consultant SEA est l’expert de votre référencement payant. Ce professionnel du web marketing exerce, en général, comme chef de projet en lien avec le service marketing de votre entreprise. Il maîtrise le fonctionnement des moteurs de recherche et comprend leurs algorithmes. Le web marketing et la rédaction n’ont pas de secret pour lui. Il est autonome et polyvalent, mais sait aussi travailler en équipe.
Zoom sur ce métier qui fait décoller votre projet, le consultant SEA.
Pour mémoire, le SEA (Search Engine Advertising) consiste à diffuser des annonces payantes dans les SERP (Search Engine Result Page) de Google ou Bing. Pour ce faire, les consultants SEA utilisent Google Ads (anciennement Google Adwords) et Bing Ads, les régies publicitaires de ces deux plateformes. Le but du SEA est d’obtenir instantanément des résultats très qualifiés grâce à des campagnes d’annonces publicitaires parfaitement optimisées.
Elles doivent être multiples, c’est justement ce qui fait du consultant SEA un véritable couteau suisse.
L’ensemble de ces compétences peuvent s’acquérir en formation et se perfectionner par la pratique. L’expérience amenant ensuite au niveau d’expertise requis pour performer sur le web. En revanche, un consultant SEA doit aussi disposer de qualités intrinsèques qui font plus partie des softs skills. Nous allons détailler ci-dessous.
Autonome et polyvalent s’il travaille seul ou en freelance, un consultant SEA doit aussi être capable de mettre son expertise au service d’une équipe. En agence, il occupe un poste central dans un projet de campagne Ads. Les missions comme la création, la rédaction web, l’expérience client (UX) ou encore les contacts avec les clients sont réparties entre différents intervenants. Le consultant SEA se concentre alors sur son cœur de métier. La stratégie, la planification des campagnes, l’analyse des résultats et le reporting.
Internet est un monde ou tout va très (trop ?) vite. Les clients attendent des résultats immédiats de leur campagne SEA. Ils ont raison car c’est justement l’une des forces du référencement payant. Il est donc essentiel d’analyser des résultats d’une campagne d’annonces en temps réel. Cela permet d’optimiser sa stratégie immédiatement pour obtenir la visibilité attendue. De plus, internet est versatile, ce qui est vrai aujourd’hui ne le sera probablement plus demain. Les algorithmes évoluent, les intentions de recherche changent, il faut donc remettre constamment l’ouvrage sur le métier.
Tous les clients ne se ressemblent pas et les missions varient très souvent. La place de l’écoute des clients est donc essentielle pour établir leur stratégie de référencement payant. Le SEA ne fait pas cavalier seul, il s’inscrit dans la stratégie marketing de votre entreprise. Il est donc essentiel pour les consultants SEA de tenir compte du SEO, des réseaux sociaux et de tous les outils marketing mis en place.
Internet ne cesse d’évoluer et les outils et techniques qui lui sont dédiés également. Un consultant SEA est donc obligé de se tenir au courant en permanence de tout ce qui impacte son métier. Pour exemple, l’arrivée de Google Analytics 4 l’oblige à l’appréhender rapidement. Il va ensuite devoir accompagner ses clients pour la migration de leur compte Google Ads sur ce nouvel outil d’analyse. Au même titre qu’il avait dû s’adapter au RGPD qui impacte les pratiques sur le web en France et en Europe.
Les consultants SEA ne sont pas des geeks entourés d’écrans seuls dans leur caverne. Comme tous les métiers du search marketing, le consultant SEA est un communicant. Il partage et échange avec les autres consultants, l’agence ou encore les clients. Un bon sens relationnel est donc indispensable pour mener à bien ses missions.
Chez Tactee, nos experts en agence SEA sont à votre service pour établir, planifier et optimiser vos campagnes Adwords. Contactez-nous pour que vos euros aillent droit au but et que vos campagnes d’annonces fassent mouche.
L’article Consultant SEA, l’expert de votre référencement payant est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce que Chat GPT et comment se servir de l’ia en ligne ? est apparu en premier sur tactee Agence web.
]]>En tant que représentant emblématique de l’intelligence artificielle, ChatGPT, développé par OpenAI, illustre le progrès significatif dans le domaine de l’apprentissage automatique. Ce modèle GPT (Generative Pretrained Transformer) se distingue par sa capacité à générer des réponses contextuelles et pertinentes, marquant ainsi une étape clé dans l’évolution des chatbots.
Chat GPT est un « agent conversationnel », qui utilise l’intelligence artificielle afin de dialoguer et apporter des réponses à ses utilisateurs. Il est alors capable de résoudre des tâches de niveau universitaire, mais également de générer des articles de blog, du copywriting, des paroles de chansons, des contenus pour votre site internet…
Cet outil se base sur une immense collection de données textuelles, lui permettant d’offrir une large gamme de services. Allant du développement de contenu web enrichi pour les entreprises à l’assistance en codage pour les développeurs, ChatGPT s’avère être un outil polyvalent. En intégrant Google dans ses capacités, il élargit son champ d’action, rendant ses réponses plus riches et diversifiées.
L’outil a été formé sur un grand corpus de textes: il peut donc générer du texte de manière autonome, et répondre à toutes sortes de questions.
L’outil peut alors :
Dans ce contexte, ChatGPT se positionne comme un outil polyvalent et robuste, capable de gérer une multitude de requêtes, depuis la simple génération de texte jusqu’à l’élaboration de code informatique. Ce modèle de langage, grâce à sa vaste base de données, offre des réponses adaptées et précises, témoignant de l’avancée significative dans le domaine de l’intelligence artificielle.
Afin de proposer des réponses cohérentes, l’IA Chat GPT a été entraîné sur une multitude de textes, qui regroupent des scripts de films, des corpus de texte, des articles de journaux, des conversations en ligne, ou encore des romans. Au total, cette vaste base de données est issue de presque 9 millions de pages web et autres sources de textes. L’objectif ? Permettre à l’outil de répondre de la façon la plus juste et la plus développée possible.
Pour atteindre ce niveau de performance, ChatGPT utilise des techniques avancées de traitement du langage naturel, lui permettant de comprendre et de s’adapter à divers contextes et styles de langage. Que ce soit pour une utilisation personnelle ou dans un cadre d’entreprise, ChatGPT se révèle être un outil indispensable pour la gestion des informations et la communication.
Les fonctionnalités clés de ChatGPT comprennent :
Par ailleurs, Chat GPT peut s’adapter à tout type de langage et de contexte, et peut même être utilisé au sein des entreprises. Il se souvient de tous les échanges antérieurs lors d’une même conversation et en tient compte lorsqu’il génère les réponses à venir. L’outil autorise aussi l’utilisateur à apporter des corrections aux questions posées, et rejette les propos inappropriés comme des questions racistes, xénophobes, homophobes, ainsi que les interrogations concernant le domaine médical.
Cette combinaison de fonctionnalités avancées fait de ChatGPT un outil polyvalent et puissant, adapté à un large éventail de besoins en communication et en gestion de l’information.
Grâce au modèle de langage GPT3, l’outil est capable de répondre en quelques millisecondes à n’importe quelle question. Il peut alors être utilisé pour les chatbots des services clientèle, qui doivent répondre rapidement.
Pour proposer des réponses développées, Chat GPT d’OpenAI possède une base de données de vocabulaire très étendue. Il utilise des milliards de mots, issus de livres ou sites web, et possède donc un niveau de langage impressionnant. Dès lors, ses réponses semblent plus naturelles et plus développées que celles d’un chat bot traditionnel.
L’outil d’intelligence artificielle Chat GPT n’est pas parfait. En effet, si les exigences que vous lui donnez sont trop complexes ou si le domaine est trop spécifique, la réponse qu’il donne peut parfois ne pas coller à vos attentes.
Par ailleurs, l’outil a une connaissance encore limitée du monde après 2021, et est de ce fait incapable de répondre aux questions sur l’actualité récente. Chat GPT utiliserait également trop les connecteurs logiques (« en outre », « toutefois », « en résumé »…), dont les rédacteurs SEO se servent avec davantage de modération, ce qui rendrait le texte moins naturel.
Notez également que ChatGPT ne peut pas s’adapter en temps réel aux diverses expériences et aux diversités culturelles de chaque pays : les réponses sont alors parfois inadaptées. En effet, même si l’outil est capable d’interpréter certaines nuances, il ne sait pas encore cerner la subtilité de certaines conversations humaines, et ne peut de ce fait pas s’adapter à certains types de langages culturels.
De plus, le contenu généré par GPT peut ne pas être cohérent avec l’image de marque et le ton général de l’entreprise ou de ses produits / services. Attention donc, si vous souhaitez l’utiliser dans un cadre professionnel !
Enfin, avec ses réponses, Chat GPT reste purement factuel : il n’a pas la capacité de philosopher ou d’établir une pensée critique sur certains sujets.
Afin de tester l’outil, vous pouvez vous rendre sur le site d’Open AI. Cliquez sur le bouton « TRY ChatGPT » : vous pourrez alors entrer vous connecter en cliquant sur « log in » ou vous inscrire si vous n’avez pas encore de compte. Vous n’avez qu’à fournir une adresse email et un mot de passe. Une fois connecté, il vous suffit de poser votre question. Même si le site est en anglais, il reste facilement accessible.
Pour le moment, Chat GPT est accessible dans de nombreux pays gratuitement. Lorsque votre compte est actif, vous pouvez questionner l’IA sur de multiples sujets. Si vous souhaitez accéder aux résultats générés par le chatbot en temps réel lors de vos recherches sur Google, vous pouvez également télécharger l’extension Chat GPT for Google.
Victime de son succès, le site internet est parfois surchargé. Lorsque trop d’utilisateurs sont connectés au même moment, un message apparaît : « ChatGPT is at capacity right now ». Pour le tester, vous devrez donc revenir plus tard !
A noter que Google a donné de nouvelles directives pour les rédacteurs SEO concernant la rédaction de contenus généré pour des outils d’IA.
Avec l’introduction de ChatGPT-4, OpenAI a franchi une nouvelle étape dans le développement de l’intelligence artificielle. Ce modèle de langage, succédant à GPT-3.5, se distingue par une capacité accrue à comprendre et générer du texte, offrant ainsi des réponses plus précises et contextuelles. ChatGPT-4 représente une amélioration significative, notamment dans la gestion des requêtes complexes et la production de contenu plus élaboré pour les utilisateurs et les entreprises.
L’une des innovations majeures de ChatGPT-4 réside dans sa capacité à intégrer des plugins. Ces plugins permettent à l’outil de se connecter à des bases de données externes, enrichissant ainsi la qualité et la pertinence des informations fournies. Par exemple, en intégrant un plugin de données financières, ChatGPT-4 peut fournir des réponses actualisées sur les marchés, ce qui le rend particulièrement utile pour les professionnels et les entreprises ayant besoin d’informations en temps réel.
En termes de capacité technique, GPT-3 comprenait 175 milliards de paramètres, tandis que ChatGPT-4 en comprend 100 000 milliards, soit environ 571 fois plus. Cette augmentation massive de paramètres contribue à une meilleure compréhension des nuances dans le langage, se traduisant par des réponses plus fines et adaptées aux subtilités culturelles. Cela est particulièrement bénéfique pour la création de contenu globalisé, répondant aux exigences des utilisateurs internationaux. De plus, sa capacité à gérer un code plus complexe et à fournir des explications détaillées le rend indispensable pour les développeurs et les passionnés de technologie.
Face à la montée en puissance des chatbots comme ChatGPT, Google met l’accent sur l’importance de contenus authentiques et bien structurés pour les entreprises. Cela souligne la nécessité d’une approche équilibrée dans l’utilisation de l’IA pour la création de contenu, tout en maintenant un niveau élevé de personnalisation et de pertinence pour les utilisateurs finaux.
L’article Qu’est-ce que Chat GPT et comment se servir de l’ia en ligne ? est apparu en premier sur tactee Agence web.
]]>L’article Google dévoile les règles sur les contenus générés par des outils d’IA est apparu en premier sur tactee Agence web.
]]>
Il y quelques semaines, Google a précisé les règles concernant les contenus générés par les outils d’intelligence artificielle. Ce qu’il en ressort ? Le moteur de recherche indique récompenser les contenus de haute qualité, quelle que soit la manière dont ils sont produits.
La réponse est donc claire : non, il n’est pas interdit d’utiliser les robots d’IA pour générer les contenus des pages web, uniquement si ces dernières offrent des réponses de qualité ! Ce qui compte pour Google ? Le concept EEAT : expertise, expérience, autorité, fiabilité. Pour que vos contenus soient appréciés par le moteur de recherche, ils doivent répondre à ces 4 critères clés !
Attention toutefois à ceux qui voudraient utiliser l’IA pour obtenir les premières positions dans les SERP et capter plus de trafic : Google le rappelle, « il est interdit d’utiliser des mécanismes d’automatisation afin de générer des contenus avec comme objectif premier de manipuler le classement dans les résultats de recherche ». Il s’agirait là d’un procédé qui constituerait une violation des politiques anti-spam mises en place par Google ! Afin de repérer les contenus créés pour manipuler les classements, Google utilise en effet de nombreux systèmes, dont SpamBrain.
Si Google n’interdit pas le contenu généré par l’intelligence artificielle, il rappelle toutefois qu’il est en mesure de repérer les contenus de mauvaise qualité, qu’ils soient ou non générés automatiquement. Dès lors, même s’il peut être tentant de se tourner vers les outils d’IA pour générer des textes, rappelons toutefois que les réponses fournis par Chat GPT sont factuelles : l’outil n’a pas la capacité de philosopher sur les sujets, ou d’émettre un avis critique. En outre, vérifiez toujours que les informations qu’il vous livre sont bel et bien à jour, et que les textes générés répondent à l’image de marque que vous souhaitez véhiculer !
En bref, s’il est intéressant d’utiliser l’IA pour créer du contenu utile pour vos lecteurs, l’outil ne doit en aucun cas être utilisé comme un moyen simple et peu coûteux de booster son référencement. Par ailleurs, le moteur de recherche vous conseille de toujours préciser lorsque vous publiez un contenu qui a été créé automatiquement.
L’article Google dévoile les règles sur les contenus générés par des outils d’IA est apparu en premier sur tactee Agence web.
]]>L’article E-réputation : comment la maîtriser ? est apparu en premier sur tactee Agence web.
]]>
L’e-réputation, c’est l’image qu’une entreprise, une marque ou une personne renvoie ou subit sur le web. Une mauvaise réputation en ligne peut avoir de gros impacts sur vos performances :
L’e-réputation de votre entreprise se joue sur les moteurs de recherche. Lorsqu’un prospect tape votre nom sur Google, les résultats qui s’affichent déterminent votre réputation. Hors
de question donc que ce dernier tombe sur des avis négatifs laissés sans réponses de votre part. Pour réussir à apparaître positivement dans les premières positions, vous devez travailler votre référencement naturel !
Pour contrôler votre e-réputation tapez donc régulièrement votre nom ou celui de votre marque dans un moteur de recherche en tant que mots clés. Vous pourrez alors observer en un coup d’œil votre réputation sur le web et prendre connaissance de tout ce qui est écrit à votre sujet.
Lorsque l’on souhaite travailler sa e-réputation, le second lieu incontournable sur lequel être présent, ce sont les plateformes d’avis en ligne telles TripAdvisor, Pages Jaunes, Yelp… Pour se faire un avis sur une entreprise, le consommateur s’appuie sur ces avis en ligne. En cas d’avis négati
f, ils sont nombreux à se détourner de la marque, pour aller à la concurrence directe. Afin de maîtriser votre e-réputation, vous devrez donc scruter ces plateformes, et tout faire pour que les avis soient nombreux et positifs !
Le troisième endroit où se joue votre e-réputation, ce sont les réseaux sociaux ! Centraux dans votre stratégie web, les médias sociaux servent à la fois votre notoriété et votre visibilité. Aujourd’hui, rien de plus simple pour les clients que d’interpeller une marque afin de poser une question ou se plaindre d’une mauvaise expérience.
Pour réussir votre stratégie sur les réseaux sociaux, vous devez être réactif, car l’information y circule très rapidement. Facebook, Instagram, LinkedIn, TikTok, Twitter ou encore YouTube : n’omettez aucun réseaux social !
Pour maîtriser votre e-réputation, vous devez interagir avec vos clients et avec vos prospects. Echangez avec eux, écoutez-les : les clients contents et mécontents doivent savoir que vous êtes là pour eux. Cela implique de répondre publiquement aux plaintes des clients. Apportez-leur une réponse réfléchie et toujours personnalisée : faites preuve d’indulgence, d’empathie et de diplomatie lorsque vous échangez. En voyant que vous lui répondez, le client mécontent se sent pris en considération, et le prospect est rassuré de voir que vous avez une réponse rationnelle qui explique la mauvaise expérience du client.
Créez un lien de confiance entre votre entreprise et vos clients, qui s’inscrit dans la durée. Petit à petit, c’est ce lien qui vous permet d’instaurer une image de marque positive, et de valoriser le capital de l’entreprise.
Répondez aux commentaires sur les réseaux sociaux, aux avis postés sur Google ou TripAdvisor, prenez la parole sur les forums, sur les blogs et sur les autres plateformes de conversation en ligne. Pour bien surveiller votre présence en ligne, et ne passer à côté de rien, prévoyez un tableau de bord avec des KPI spécifiques et confiez cette mission de surveillance à une personne compétente.
Pour mettre en place une stratégie d’influence performante, commencez par cartographier les principaux influenceurs œuvrant dans votre secteur. Abonnez-vous à leurs réseaux sociaux ainsi qu’à leur newsletter, et assurez-vous qu’ils véhiculent les mêmes valeurs que vous. Mettez ensuite en place des partenariats qui répondent à vos exigences. Livrez aux influenceurs que vous avez sélectionnés des briefs précis et développés, qui serviront à coups sûrs votre image de marque.
Pour maîtriser votre e-réputation, n’hésitez pas à vous servir des contenus positifs générés par les clients satisfaits. Mettez-les en valeurs sur vos réseaux sociaux avec des posts dédiés, et diffusez-les sur votre site internet.
Par ailleurs, incitez les clients satisfaits à s’exprimer davantage. Dès la fin de leur achat ou après un échange avec le service clientèle, demandez-leur de donner leur avis. Une bonne occasion de collecter plus de feedbacks positifs, et de les mettre en avant. Les questionnaires de satisfaction sont également de merveilleux outils pour multiplier les retours !
Pour vous différencier de la concurrence, et améliorer votre e-réputation, vous devez travailler votre stratégie de contenus. Dans une démarche d’inbound marketing, publiez régulièrement des articles de blog, des posts sur les réseaux sociaux, partagez du contenu utile, développez vos lead-pages. Un contenu de qualité, c’est un contenu :
La marque employeur, c’est l’image que reflète une entreprise auprès de ses collaborateurs. Avoir une bonne marque employeur incite le public à devenir client, et améliore votre réputation en ligne. En effet, lors de ses achats, le client aime savoir qu’il se tourne vers une marque ayant de belles valeurs et une belle marque employeur. Consommer auprès d’une marque éthique et responsable, qui possède une image remarquable améliore l’estime de soi des consommateurs. Pour qu’une marque employeur soit positive, elle doit corresponde aux attentes des employés et répondre à leurs besoins. Le recrutement joue ici un rôle central : il est essentiel de trouver des salariés qui ont la même vision que votre marque.
L’article E-réputation : comment la maîtriser ? est apparu en premier sur tactee Agence web.
]]>L’article SEO Square : l’évènement Content Marketing et SEO à ne pas manquer ! est apparu en premier sur tactee Agence web.
]]>
SEO Square est un événement 100 % gratuit et virtuel, incontournable dans le monde du SEO et du Content Marketing. En partenariat avec SEMJuice, Oncrawl, SE Ranking, Invox, Rankwell, Linksgarden, Yooda, 18h15, JDN, Siècle Digital, Ecommerce, emarketing.fr, RelationClient et Leptidigital, cet évènement vous offre pendant 2 journées l’accès à de nombreuses conférences, animées par des experts en stratégie de contenus marketing et en SEO.
Stratégies, retours d’expérience, succès story et tactiques : au cours de chaque conférence, vous découvrez toutes les clés pour atteindre un meilleur ROI et être plus compétitif. Au programme de ces deux journées, de nombreuses conférences à ne pas manquer :
Pour participer à l’événement, il vous suffit de remplir un formulaire d’inscription. Vous recevrez quelques jours avant l’événement un e-mail « SEO Square » avec vos accès personnalisés, qui vous permettront de suivre les conférences de votre choix. Vous recevrez également 5 min avant chaque webinar un e-mail dédié. Surveillez bien votre boite mail !
Notez que pour des raisons techniques, l’événement est limité à 1000 participants en simultané : si vous souhaitez y participer, pensez donc à vous inscrire rapidement.
SEO Square est l’évènement à ne pas manquer pour les responsables marketing, les experts en SEO, et en inbound marketing, les content managers, les traffic managers, et les entrepreneurs qui souhaitent développer la visibilité de leur marque. Vous découvrirez, au cours de ces deux journées, toutes les clés pour mettre en places les meilleures tactiques, celles qui accompagneront le développement de votre business !
Prêt à découvrir des solutions concrètes pour accélérer la performance de votre activité avec SEO Square 2023 ?
Vous souhaitez assister à d’autres salons SEO ? Découvrez les 8 principaux évènements SEO en France
L’article SEO Square : l’évènement Content Marketing et SEO à ne pas manquer ! est apparu en premier sur tactee Agence web.
]]>L’article Les tendances du Digital Report 2023 au profit de votre stratégie inbound ? est apparu en premier sur tactee Agence web.
]]>
S’il y a bien un chiffre à retenir dans le Digital Report cette année, c’est celui-ci : le temps passé sur les réseaux sociaux a augmenté, et atteint aujourd’hui plus de 2h30 par jour.
TikTok est la plateforme où les utilisateurs passent le plus de temps, suivie par YouTube et Facebook. Les publicités sur TikTok touchent un milliard d’utilisateurs de plus de 18 ans dans le monde entier, un chiffre qui a augmenté de 19% par rapport à l’an passé. Instagram est quant à lui le réseau social préféré des internautes qui souhaitent effectuer des recherches en ligne.
Autre chiffre intéressant du Digital Report : les jeunes de 16 à 34 ans qui recherchent des informations sur une marque sont davantage susceptibles de se rendre sur un réseau social plutôt que d’utiliser un moteur de recherche : 48 % contre 45 % ! De quoi largement repenser sa stratégie inbound pour la rendre plus efficace…
L’influence des médias sociaux sur notre façon de vivre ne cesse de grandir : pour acheter, se divertir ou chercher des informations sur les marques, ces outils sont de puissants piliers qui doivent être pris en considération dans votre stratégie inbound marketing.
Les réseaux sociaux sont des outils puissants qui vous permettent booster l’e-réputation de votre marque. Ils vous aident à partager du contenu, à le rendre viral et à acquérir de nouveaux leads. Ils sont de vrais tremplins pour votre notoriété, et vous aident à booster votre visibilité grâce aux systèmes de partage de contenu et de référencement par les réseaux sociaux. Mais les avantages d’intégrer les réseaux sociaux dans votre stratégie inbound ne s’arrêtent pas là :
Vous l’aurez compris, les réseaux sociaux constituent une part importante dans le processus inbound marketing. Pour trouver de nouvelles opportunités de développement, il est grand temps de leur faire la part (encore plus) belle !
Si vous souhaitez en savoir plus sur le Digital Report voici le lien de l’article très complet de We Are Social :
L’article Les tendances du Digital Report 2023 au profit de votre stratégie inbound ? est apparu en premier sur tactee Agence web.
]]>L’article Lead nurturing : comment transformer vos prospects en lead qualifiés ? est apparu en premier sur tactee Agence web.
]]>
Le lead nurturing consiste à créer, entretenir et nourrir la relation avec vos clients potentiels à l’aide de contenus pertinents, dans le but de les convaincre d’acheter. Cette technique intervient dans la gestion du cycle de vie de vos prospects, afin de les faire progresser dans le tunnel de conversion. Le lead nurturing peut être plus ou moins long, et vise à accompagner vos prospects de manière adaptée et personnalisée au cours du processus décisionnel.
Etape 1 : l’équipe marketing assure le lead nurturing des prospects avec un email de bienvenue, l’envoi de contenus premium pour en savoir plus sur la marque, sur les produits, le partage de livres blancs, l’envoi d’offres spécifiques en lien avec leur téléchargement…
Etape 2 : lorsque le projet d’achat est mature, le contact qualifié est transmis à la force de vente afin de conclure.
Etape 3 : lorsque la vente est réalisée, le lead est une nouvelle fois confié aux mains de l’équipe marketing afin de le fidéliser et de le rendre ambassadeur de la marque, des produits ou des services de votre entreprise.
Le lead nurturing vous permet d’entrer en contact immédiatement et rapidement avec votre prospect, et de maintenir des liens avec lui dans le temps. Et en effet, cette rapidité de prise de contact joue un rôle clé dans la conversion, car les taux de transformation diminuent à mesure que la date de mise en relation s’éloigne.
Mais ce n’est pas tout : grâce au lead nurturing vous vous positionnez comme un véritable spécialiste dans votre domaine, en proposant des contenus premium, qui servent et informent efficacement le client. Vous lui montrez que vous possédez une expertise réelle, et qu’il peut vous faire confiance.
Les e-mails qui informent vos prospects sur vos produits, votre marque et vos services sont indispensables pour accompagner votre lead dans son cycle de maturité. Ils apportent de la valeur, vous aident à créer du lien avec votre client potentiel, et à renforcer sa confiance envers votre entreprise. Offrez-lui des informations enrichissantes sur votre domaine d’activité, expliquez-lui pourquoi votre entreprise se positionne comme une experte dans son secteur : donnez-lui de quoi mieux vous connaître.
Avec le lead nurturing, vous pouvez envoyer une série d’e-mails à vos prospects, afin de les engager dans votre tunnel de conversion. L’objectif ? Confirmer leur intérêt initial pour votre marque, en leur proposant un essai gratuit, l’accès à un webinar ou encore, un coaching personnalisé !
Votre lead a muri : il connait mieux votre marque, a découvert vos services et vos produits à travers des contenus de qualité. Pour le convertir en client, et le faire passer à l’action, vous pouvez lui envoyer un e-mail ciblé, lui permettant d’entretenir un dialogue avec votre équipe commerciale. Cette étape doit être la plus personnalisée possible !
Pour commencer, vous devez connaître le stade de maturité de votre lead. S’agit-il d’un nouveau lead ? D’un lead qualifié ? D’un lead dormant ?
À titre d’exemple, un prospect qui télécharge un livre blanc sur votre site internet n’est généralement pas encore prêt à acheter. En revanche, s’il accepte un coaching ou une démonstration, il est suffisamment impliqué pour que votre équipe commerciale entre en contact avec lui !
Pour mettre en place une stratégie efficace de lead nurturing, vous devez définir qui vous souhaitez atteindre et quelle solution peut résoudre son problème. Quelles sont les caractéristiques de votre cible ? Quels sont ses comportements d’achat ? Qu’attend-il de vos produits / services ? Quel niveau de qualité saura convaincre vos prospects d’acheter ? En connaissant mieux vos personas, vous pouvez mieux les accompagner dans leur cycle d’achat.
Misez sur vos contenus de qualité, ceux qui ont fait leurs preuves auprès de vos clients : email, landing pages de votre site internet, guides, ebook, vidéos, webinar… Diversifiez vos supports de communication, et ne vous contentez pas de présenter vos services / produits de façon commerciale : vous devez apporter du contenu enrichissant à votre prospect.
Prêt à mettre en place votre stratégie de lead nurturing ?
Votre campagne de lead nurturing prend du temps : plusieurs e-mails sont nécessaires afin de transformer un prospect en client. Définissez donc votre calendrier de diffusion pour chaque email que vous envoyez : prévoyez avec justesse quel contenu envoyer, et à quel moment !
Plusieurs scénarios pour coller avec les stades de maturité de vos leads
Un utilisateur vient de s’inscrire à votre newsletter ? De télécharger un guide ? Il est nécessaire de lui montrer votre intérêt et d’engager la conversation en lui souhaitant la bienvenue !
Si un lead s’est intéressé à l’un de vos contenus premium, et que vous souhaitez le faire murir vous devez lui envoyer différents e-mails personnalisés, en fonction :
Intégrez à votre message un bouton d’appel à l’action, afin de le proposer de prendre rendez-vous avec votre équipe commerciale pour avoir plus d’informations, ou un démonstration !
Le lead nurturing ne s’arrête pas au moment où le prospect devient client. En réalité, lorsque le client vous fait confiance, vous devez le garder, le fidéliser : un client existant coûte moins cher que l’acquisition de nouveaux prospects. Attirez-les vers vous avec une offre promotionnelle limitée dans le temps, pour réveiller son intérêt !
L’article Lead nurturing : comment transformer vos prospects en lead qualifiés ? est apparu en premier sur tactee Agence web.
]]>L’article Audit SEO : comment le réaliser efficacement en 2023 ? est apparu en premier sur tactee Agence web.
]]>Un audit SEO est une étape cruciale dans l’optimisation du référencement naturel d’un site web. Il s’agit d’un processus détaillé qui examine divers aspects de votre site, allant des mots-clés et du maillage interne à l’expérience utilisateur, le temps de chargement, les balises, et les liens entrants. L’objectif est clair : identifier les éléments à optimiser pour renforcer la visibilité sur les moteurs de recherche comme Google ou Bing. En réalisant un audit SEO, vous pouvez également définir une stratégie centrée sur les actions les plus prioritaires et à fort potentiel. Dans cet article, nous couvrirons les différentes étapes d’un audit SEO, en expliquant leur importance et la manière de les aborder. À la fin, nous discuterons également du coût d’une telle prestation, pour vous donner une idée de l’investissement nécessaire pour cette démarche essentielle en SEO.
Lorsque l’on réalise un audit SEO, on fait un état des lieux des performances générales du référencement naturel d’un site web. Mots-clés, maillage, expérience utilisateur, temps de chargement, balises, liens entrants : tout est analysé dans le détail.
Avec l’audit, l’objectif est simple : mettre le doigt sur les éléments à optimiser pour améliorer la visibilité sur les pages de résultats des navigateurs comme Google ou Bing. En procédant à un audit SEO, vous pourrez également organiser votre stratégie autour d’actions prioritaires et à fort potentiel, à savoir :
L’audit SEO est particulièrement crucial pour une variété d’acteurs du web, notamment les boutiques e-commerce, les sites de vente en ligne, et les entrepreneurs cherchant à renforcer leur visibilité sur internet. C’est d’autant plus important en 2023, alors que les moteurs de recherche évoluent énormément, que le nombre d’internautes continue d’évoluer (+1,9% d’internautes en plus dans le monde en 2022 selon le Digital Report) et que la concurrence digitale se fait de plus en plus rude.
Les entreprises qui souhaitent augmenter leur trafic organique, améliorer leur référencement sur les pages de résultats des navigateurs, et acquérir de nouveaux clients bénéficient grandement d’un audit SEO. Cet audit permet d’analyser en profondeur les mots clés, le contenu des pages, les stratégies de liens, et les aspects techniques du site, offrant ainsi une vue d’ensemble sur les performances actuelles et les opportunités d’amélioration.
Pour les sites e-commerce, l’audit SEO est essentiel pour comprendre de quelle façon optimiser les pages de produits, les descriptions, et les mots clés pour attirer plus de clients potentiels. Il aide également à identifier les problèmes techniques qui pourraient entraver l’expérience utilisateur et le processus d’achat.
Les entrepreneurs et petites entreprises, souvent en concurrence avec de plus grands acteurs, peuvent utiliser l’audit SEO pour développer une stratégie de contenu nichée, améliorer leur maillage interne et externe, et optimiser leur site pour une meilleure visibilité sur Google. Cela est crucial pour se démarquer dans un marché concurrentiel et attirer un trafic qualifié.
Votre stratégie de référencement naturel doit reposer sur des objectifs SMART : spécifiques, mesurables, atteignables, réalistes et temporels. Définir ces objectifs est crucial pour orienter efficacement votre audit SEO et pour assurer que les actions entreprises correspondent aux besoins spécifiques de votre site web.
Souhaitez-vous augmenter votre trafic organique sur Google ? Voulez-vous améliorer le classement de vos pages dans les résultats de recherche ? Ou peut-être cherchez-vous à accroître vos conversions provenant du trafic naturel ? Ces objectifs doivent être clairement définis pour guider l’audit SEO.
L’augmentation du trafic organique, par exemple, nécessite une analyse approfondie des mots clés ciblés, de la pertinence du contenu de vos pages, et de la structure technique de votre site. Cela implique d’examiner si les mots clés utilisés correspondent aux termes de recherche de votre audience cible et si votre contenu est suffisamment informatif et engageant pour attirer et retenir les visiteurs.
Si l’objectif est d’améliorer le classement dans les résultats de recherche, l’audit se concentrera sur l’optimisation on-page, l’analyse des backlinks, et l’évaluation de la stratégie de contenu. Il s’agira de s’assurer que chaque page de votre site est optimisée pour un mot clé spécifique, que les liens entrants sont de qualité et contribuent à l’autorité de votre site, et que le contenu est régulièrement mis à jour et aligné avec les dernières tendances SEO.
Pour ceux qui visent à augmenter les conversions, l’audit SEO devra examiner de quelle manière le trafic organique interagit avec votre site. Cela inclut l’analyse des parcours utilisateurs, l’optimisation des appels à l’action, et la vérification de la convivialité du site sur différents appareils, notamment les mobiles.
L’analyse de la stratégie de mots clés est une étape fondamentale de l’audit SEO. Cela implique d’examiner minutieusement si les mots clés utilisés sur votre site web sont pertinents, recherchés par votre audience cible, et suffisamment spécifiques pour être atteignables sans être excessivement concurrentiels. Commencez par évaluer la pertinence de vos mots clés actuels. Sont-ils en adéquation avec les produits ou services que vous proposez ? Correspondent-ils aux termes de recherche que vos clients potentiels sont susceptibles d’utiliser sur Google ? Cette analyse doit prendre en compte non seulement les mots clés principaux mais aussi les mots clés secondaires et longue traîne, qui peuvent souvent attirer un trafic plus ciblé et qualifié.
Ensuite, examinez la concurrence autour de vos mots clés. Des mots clés très utilisés peuvent également être très compétitifs, ce qui rend difficile un bon classement, surtout pour les nouveaux sites ou ceux avec moins d’autorité. Dans ce cas, il peut être judicieux de se concentrer sur des mots clés de niche, plus spécifiques, qui offrent une meilleure chance de se classer plus haut dans les résultats de recherche. Il est également important de s’assurer que chaque page de votre site web est optimisée pour un mot clé unique. Cela aide à éviter la cannibalisation des mots clés, où plusieurs pages se font concurrence pour le même terme de recherche, diluant ainsi l’efficacité de votre stratégie SEO.
Enfin, analysez les données de trafic de votre site pour voir si les mots clés ciblés attirent réellement les visiteurs. Utilisez des outils comme Google Analytics pour identifier les termes de recherche qui amènent les utilisateurs sur votre site. Si vous découvrez des mots clés inattendus qui génèrent du trafic, cela peut indiquer de nouvelles opportunités de mots clés à cibler.
Vos mots clés sont-ils pertinents et atteignables ? Vos mots clés doivent être recherchés par votre cible, et ils ne doivent pas être trop concurrentiels par rapport à vos capacités. En effet, les mots-clés qui représentent des produits phares sont les plus recherchés par les internautes. Mais ce sont également les plus concurrentiels. Si vous avez peu de moyens, vous aurez du mal à avoir de meilleurs scores que les grosses marques. L’astuce ? Optimiser chaque page de votre site sur un mot clé moins recherché, plus spécifique, mais moins concurrentiel.
Travaillez-vous un mot clé par page ? Pour être efficace, et arriver dans les premiers résultats Google, vous devez concentrer vos efforts sur un nombre limité de mots-clés, propres à votre entreprise, à vos produits et vos services. Ne travaillez pas plusieurs mots clés principaux par page : un seul suffit.
Le trafic de votre site web provient-il bien des mots-clés que vous ciblez ? Si votre site internet et vos contenus sont parfaitement optimisés pour vos mots-clés cibles, vous retrouverez ces mots-clés dans les termes de recherche qui apportent le trafic vers votre site. Si vous repérez un mot-clé que vous n’aviez pas ciblé, alors vous venez de mettre le doigt sur une nouvelle opportunité de développement !
L’analyse de vos contenus SEO est essentielle pour assurer un bon référencement dans les navigateurs. Cette étape implique de poser des questions critiques sur chaque page de votre site pour évaluer l’efficacité de votre contenu.
L’audit technique est une composante essentielle de l’audit SEO, car il se concentre sur l’infrastructure sous-jacente de votre site web. Cette étape implique d’examiner plusieurs aspects techniques pour s’assurer que votre site est optimisé pour les moteurs de recherche et offre une expérience utilisateur de qualité.
L’audit offsite est crucial pour évaluer la popularité et l’autorité de votre site web. Cette étape implique de poser des questions clés pour comprendre comment votre site est perçu par les utilisateurs et les moteurs de recherche.
Le coût d’un audit SEO peut varier considérablement en fonction de plusieurs facteurs, notamment la taille et la complexité du site, l’expertise de l’agence ou du consultant SEO, et l’étendue de l’audit. Voici quelques éléments à considérer :
En moyenne, le coût d’un audit SEO peut varier de quelques centaines à plusieurs milliers d’euros. Il est important de se rappeler que, malgré son coût initial, un audit SEO est un investissement qui peut aboutir à des améliorations significatives du classement dans les moteurs de recherche, de la visibilité en ligne, et finalement du retour sur investissement. Il est conseillé de demander plusieurs devis et de comparer les offres pour choisir celle qui correspond le mieux à vos besoins et à votre budget. Pour plus d’informations sur les coûts et les facteurs à considérer, lisez notre article détaillé sur le coût du référencement naturel.
L’article Audit SEO : comment le réaliser efficacement en 2023 ? est apparu en premier sur tactee Agence web.
]]>L’article Les 10 questions les plus fréquentes au sujet de la loi RGPD est apparu en premier sur tactee Agence web.
]]>Le Règlement Général sur la Protection des Données (« GDPR » en anglais) permet un traitement des data plus éthique, plus sécurisé et plus fiable. Cette réglementation vise à responsabiliser les entreprises sur les questions de confidentialité. Alors, qu’est-ce que le RGPD ? À quoi sert ce règlement ? Qu’appelle-t-on « donnée à caractère personnel » ? On répond à toutes vos questions !
Le Règlement Général sur la Protection des Données (RGPD) est un texte législatif qui sert de référence européenne sur la protection des données à caractère personnel. Grâce à ce règlement, les droits des citoyens sont renforcés et les contraintes pour les entreprises augmentent, puisqu’elles doivent assurer leur mise en conformité. Le RGPD permet un traitement des data plus éthique, assure la sécurité des données, et leur fiabilité. Cette réglementation vise à responsabiliser les divers acteurs du data management sur les questions de confidentialité.
Le RGPD a été adopté en 2016 par l’Union Européenne et est entré en vigueur le 25 mai 2018. Ce règlement remplace la directive sur la protection des données personnelles de 1995.
Le nouveau règlement permet d’encadrer le traitement des données personnelles des utilisateurs sur un site internet ou une application.
Pour les entreprises, les bénéfices du RGPD sont nombreux :
Tous les organismes qui traitent des Données à Caractère Personnel (DCP) de citoyens européens sont tenus de respecter le RGPD. Les entreprises qui sont domiciliées dans un pays extérieur à l’Union Européenne sont concernées par le règlement dès lors qu’elles traitent des DCP de citoyens européens.
Une DCP (Donnée à Caractère Personnel) désigne toute information relative à une personne physique, susceptible d’être identifiée, directement ou indirectement. Il peut s’agit de l’état civil, de l’adresse email, de l’adresse postale, du numéro de téléphone, ou encore de données bancaires.
Certaines DCP sont dites « sensibles », comme les opinions religieuses, politiques, syndicales, les données de santé, ou encore le numéro de sécurité sociale…
DPO signifie Data Protection Officer : il s’agit du délégué à la protection des données. Cette personne est en charge de la protection des données à caractère personnel au sein des organismes publics ou privés. Cette personne pilote la mise en conformité RGPD et est l’intermédiaire privilégié de la CNIL.
Pour être conforme au RGPD, vous devez informer vos utilisateurs sur la collecte des données. Vous êtes également tenu de recueillir et de disposer d’un consentement explicite, et d’indiquer la durée du consentement. Par ailleurs, vous devez mettre en place des outils qui protègent la transmission des données personnelles. Enfin, les mentions légales obligatoires de votre site internet doivent être modifiées pour remplir un objectif de transparence. Vous devez réserver une page complète de votre site aux traitements de données définis dans votre registre
Le RGPD impose une transparence sur les traitements effectués concernant les données. Vous devez être clair concernant la finalité de la collecte (gestion du recrutement, gestion de la clientèle, enquête de satisfaction…) et également sur la durée de conservation des DCP de vos internautes.
En effet, la CNIL indique que les personnes ont le droit de connaître les raisons de la collecte de leurs données à caractère personnel, les traitements qui en sont faits et les droits dont ils disposent.
Certains traitements nécessitent l’obtention d’un consentement explicite et éclairé de la personne concernée. 4 critères cumulatifs doivent être remplis afin que le consentement soit valable. Il doit être :
Le RGPD renforce le droit des personnes dont les données sont traitées :
Si vous vous posez d’autres questions sur le RGPD ou bien si vous souhaitez aller plus loin dans votre mise en conformité RGPD, l’agence Tactee vous accompagne dans le déploiement de solutions adaptées et vous permettant d’être rapidement en règle avec la loi de la CNIL.
En fonction de votre problématique, nous pourrons implémenter un bandeau de cookies RGPD -compliant sur votre site, puis le paramétrer pour qu’il communique parfaitement avec vos outils de collecte de données (comme Google Analytics ou Matomo par exemple) et vos outils de gestion de balises (comme Google Tag Manager ou Matomo Tag Manager par exemple), dans le respect des règles imposées par le RGPD. Nous pourrons également envisager la migration de votre système de mesure de trafic et d’audiences de votre site web en vous proposant une alternative à Google Analytics RGPD-compliant comme par exemple Matomo.
L’article Les 10 questions les plus fréquentes au sujet de la loi RGPD est apparu en premier sur tactee Agence web.
]]>L’article Comment mesurer l’efficacité de ma stratégie digitale ? est apparu en premier sur tactee Agence web.
]]>Certains logiciels d’analyse de performances sont gratuits, d’autres sont payants et offrent des options plus complètes pour des études approfondies. Dans tous les cas, le choix dépend de vos attentes en termes de fonctionnalités et de résultats. N’hésitez pas à lire notre article sur l’intérêt de vous faire aider par une agence digitale pour élaborer et mesurer votre stratégie.
Les outils permettant d’identifier les indicateurs de performance (KPI) et d’analyser les retombées de sa stratégie marketing digital pullulent sur internet. Encore faut-il choisir celui qui correspond au mieux à vos besoins.
Voici les principaux logiciels d’analyse de performances à privilégier :
Il existe d’autres plateformes comme Sendinblue, Databox ou Matomo, une alternative efficace à Google Analytics.
Pour mesurer le résultat d’une campagne marketing, les experts en stratégie digitale Tactee utilisent des métriques : les indicateurs de performances ou Key Performance Indicator (KPI). Les études sont menées sur plusieurs niveaux tels que le marketing de contenu, l’automation, les réseaux sociaux, etc.
Les indicateurs de performances permettent de mesurer le retour sur investissement (ROI) de vos actions marketing. Habituellement, les KPI sont fusionnés entre eux pour faire un reporting marketing et faciliter la prise de décision.
On distingue 4 grandes catégories de KPI :
La réussite d’une stratégie digitale dépend de plusieurs paramètres. Les indicateurs de performances vous aident à identifier les actions qui ont porté leurs fruits ou qui doivent être améliorées. Après l’analyse des KPI, vous avez également besoin d’étudier l’engagement de votre audience.
Il existe plusieurs outils pour vous aider à identifier si votre audience est satisfaite de vos contenus, Google Analytics en l’occurrence. Pour ce faire, vous devez étudier de près les éléments suivants :
Cet indicateur est essentiel, car il révèle l’intérêt des utilisateurs pour votre site web. Néanmoins, il ne devra pas être analysé seul si vous souhaitez tirer des conclusions pertinentes.
En effet, un visiteur ayant consulté plusieurs pages d’un même site peut signifier qu’il trouvait les contenus intéressants. Ou peut-être qu’il n’arrivait pas à trouver les informations qu’il souhaite.
Dans tous les cas, un nombre important de pages vues par visiteur peut s’avérer une excellente piste en matière d’engagement qu’il faut observer.
Analyser le temps passé par un visiteur sur une page vous permet de compléter l’indicateur de performances précédent et obtenir un résultat fiable.
En général, un internaute est capable de lire en moyenne 200 mots par minute. Cette vitesse de lecture vous permet déjà de savoir si vos contenus ont retenu l’attention de vos visiteurs ou non.
Supposons que vous avez une page avec un contenu de plus de 1000 mots. Un utilisateur qui quitte la page après une minute de lecture est déjà mauvais signe.
Un visiteur qui décide de partage votre contenu sur les réseaux sociaux est souvent bon signe. Il faut toutefois savoir que la plupart des internautes effectuent cette action juste par réflexe.
Ainsi, soyez prudent lorsque vous analysez l’engagement de votre audience à partir du nombre de partages sur les réseaux sociaux.
Il existe d’autres indicateurs à analyser pour mesurer l’efficacité de votre stratégie digitale comme le taux de téléchargement de vos contenus en ligne.
N’hésitez pas à proposer des ressources de différents formats pour favoriser l’interaction, tels que les livres blancs (ebooks), les études de cas client, etc.
L’article Comment mesurer l’efficacité de ma stratégie digitale ? est apparu en premier sur tactee Agence web.
]]>L’article Quel est l’intérêt pour une équipe marketing de se faire accompagner par une agence digitale ? est apparu en premier sur tactee Agence web.
]]>Dès lors, l’implication du département marketing au travail de référencement naturel est plus qu’indispensable. Un accompagnement sur mesure ou une formation est nécessaire pour comprendre et se familiariser au SEO.
Vous ne souhaitez pas externaliser votre stratégie digitale, mais la confier à vos collaborateurs actuels ? Le recours à une agence SEO permet la montée en compétences de vos équipes marketing internes sur les enjeux liés au référencement organique.
Améliorer les compétences de vos collaborateurs grâce à l’apport de connaissances en SEO fait partie des facteurs clés du succès de votre entreprise. Il serait dommage de ne pas intégrer ce programme dans votre stratégie marketing digital.
De plus en plus d’entreprises investissent aujourd’hui dans la formation de leurs équipes marketing en référencement naturel pour plusieurs raisons :
Votre entreprise est sur le point d’élaborer un projet de stratégie marketing pour lancer son site web professionnel ? Dans ce cas, votre équipe a besoin d’acquérir les compétences nécessaires pour tirer profit du potentiel de Google.
Les formations en SEO permettront à votre entreprise d’identifier les différentes facettes du référencement naturel. Elles aideront votre équipe à mieux cerner les différents algorithmes de Google : que sont-ils et comment fonctionnent-ils ?
Selon les modules choisis, vos collaborateurs auront l’occasion d’apprendre les principales techniques de référencement organique. Ils pourront également se familiariser avec les différents outils d’optimisation SEO pour améliorer votre visibilité en ligne.
Bon à savoir : Une formation en référencement est aussi indispensable pour les entreprises qui disposent déjà de leur site web. Cela permet d’approfondir les compétences de son équipe pour mieux se démarquer de la concurrence.
L’univers du marketing digital est vaste avec une multitude de disciplines, parfois difficiles à appréhender. En effet, gérer un business en ligne n’est pas toujours évident sans avoir une certaine connaissance technique.
En SEO, il existe plusieurs types d’outils à maîtriser pour optimiser sa stratégie digitale. Certains sont conçus pour la recherche de mots-clés, d’autres pour la programmation de newsletters ou la réalisation de visuels pour les réseaux sociaux.
Grâce aux formations en référencement naturel, votre équipe marketing sera en mesure d’utiliser les outils de base du webmarketing. Avec les techniques adaptées, ces derniers vous aident à améliorer votre positionnement sur Google et analyser l’efficacité de votre stratégie digitale.
Avec la digitalisation qui se développe à l’échelle internationale, le référencement naturel est un levier marketing incontournable. Il doit faire partie intégrante de votre stratégie business, de la conception de votre site internet à son optimisation pour les moteurs de recherche.
Le fait de suivre une formation en SEO permet à vos collaborateurs de comprendre les enjeux marketing aujourd’hui. Concrètement, une stratégie de référencement naturel vous aide à atteindre divers objectifs marketing tels que :
Un bon référencement naturel vous permet de vous positionner sur un mot-clé spécifique correspondant à l’intention de recherche de votre audience. Il se présente comme un levier de croissance indispensable pour développer votre entreprise.
Disposer d’une équipe qui a une certaine connaissance en SEO est essentiel pour booster la visibilité de votre entreprise sur Google. De plus, les formations en référencement naturel facilitent la prise en main de certains services SEO comme l’outil Google My Business.
Grâce aux formations ou à l’accompagnement dispensés par une agence digitale, votre équipe marketing sera en mesure d’élaborer un reporting SEO de qualité. Celui-ci permet d’améliorer votre référencement et d’effectuer une analyse du marché pour vous démarquer de la concurrence.
Un bon reporting vous aide par exemple à :
Ce type d’analyse permet à votre équipe interne de rendre compte de toutes les actions marketing déjà mises en œuvre. Il s’agit d’une sorte d’état des lieux à l’issue desquels vous devez vous corriger pour améliorer votre stratégie digitale.
Bref, générer du trafic et augmenter la visibilité d’un site internet requièrent des compétences particulières en SEO. En effet, la génération de leads et leur conversion en prospects qualifiés nécessitent la mise en place d’une stratégie digitale efficace. N’hésitez pas à contacter notre agence de communication digitale Tactee pour former ou accompagner vos collaborateurs.
L’article Quel est l’intérêt pour une équipe marketing de se faire accompagner par une agence digitale ? est apparu en premier sur tactee Agence web.
]]>L’article Comment augmenter les demandes de contact sur mon site ? est apparu en premier sur tactee Agence web.
]]>Lorsqu’un utilisateur effectue une recherche sur internet, Google en l’occurrence, il tape une requête composée d’un ou plusieurs mots-clés. La finalité de cette recherche est communément appelée « intention de recherche ». Celle-ci répond à un besoin ou à un désir de l’internaute.
Pour générer du trafic sur votre site web, il faut d’abord comprendre les attentes de votre public cible. Cela permet de répondre à la problématique du visiteur en lui proposant un contenu adapté. Souvent, il recherche un type d’information, de réponse ou de ressource spécifique.
On distingue 4 grandes catégories de requêtes :
Pour créer un contenu répondant aux attentes de votre audience et améliorer votre référencement naturel, vous devez :
Bon à savoir :
Il est possible d’utiliser des outils tels que Semrush pour trouver des mots-clés pertinents en rapport aux besoins des utilisateurs.
Une fois que vous avez identifié les requêtes de votre audience, l’étape suivante consiste à mettre en place une stratégie de visibilité.
Il existe plusieurs possibilités, mais les techniques suivantes ont déjà fait leurs preuves :
Les stratégies d’acquisition de trafic sont multiples, à vous d’utiliser celles qui correspondent au mieux à vos objectifs. N’oubliez pas de proposer des contenus originaux pour attirer l’attention de vos visiteurs en intégrant des visuels et des vidéos dans vos posts.
Beaucoup d’entre nous ont tendance à confondre les termes « leads » et « prospects ».
Pour faire simple, un lead est une personne ayant manifesté un certain intérêt pour une offre quelconque. Elle communique ses coordonnées via le remplissage d’un formulaire en ligne.
En revanche, un prospect est une personne faisant partie de vos buyers personas. Il répond parfaitement à vos critères de ciblage.
Concrètement, un lead devient un prospect dès lors qu’il effectue un téléchargement d’une ressource premium sur votre site (un e-book par exemple).
Pour convertir vos leads en prospects, vous devez attirer leur attention, et notamment les convaincre à passer à l’action. La technique la plus simple est d’envoyer le bon message au bon individu, au bon moment.
Lorsque vous avez repéré un lead qui répond à vos critères de segmentation, vous devez le suivre de près. Pour ce faire, il faut adopter la technique de Lead Scoring pour qualifier vos leads :
Chaque visiteur se verra ainsi attribuer un score qui lui est propre. Plus celui-ci est élevé, plus l’utilisateur est intéressé par votre offre. Vous pouvez ensuite le contacter pour lui proposer le bon contenu au moment opportun, et ainsi le convertir en prospect, puis en client.
Le travail peut paraître simple avec une dizaine de leads, mais cela peut rapidement se compliquer avec des centaines, voire des milliers de personnes. C’est la raison pour laquelle se faire accompagner par une agence digitale qui a recours au Marketing Automation est intéressant.
Comme son nom le laisse entendre, cette technique consiste à automatiser une campagne marketing visant à maintenir la relation avec votre audience. Elle vous aide à générer des leads qualifiés en les proposant des contenus adaptés à leurs attentes.
La stratégie consiste à concevoir des emails automatiques via des campagnes intelligentes pour transmettre le bon contenu à la bonne cible. Certains outils du Marketing Automation vous permettent d’envoyer des newsletters selon un planning défini au préalable.
Bon à savoir :
Vous pouvez optimiser vos contenus selon la situation de vos buyers personas en optant pour la méthode TOFU MOFU BOFU.
En plus des articles de blogs, n’hésitez pas à fournir diverses ressources téléchargeables comme :
L’article Comment augmenter les demandes de contact sur mon site ? est apparu en premier sur tactee Agence web.
]]>L’article Comment mesurer mon ROI grâce au SEO ? est apparu en premier sur tactee Agence web.
]]>Le référencement naturel ou Search Engine Optimization est un ensemble de techniques visant à améliorer le classement d’un site web dans les moteurs de recherche. Cette stratégie digitale permet d’augmenter votre visibilité en ligne, et ainsi générer plus de leads (prospects).
Un bon SEO catapulte votre site dans les premiers résultats de Google. Contrairement au référencement payant (SEA), vous ne payez pas pour vous positionner dans les SERP. C’est l’algorithme de Google qui se charge du classement de votre site dans ses résultats.
Le référencement organique vous aide à optimiser le retour sur investissement de votre stratégie digitale. Plus votre site web gagne en notoriété, plus votre trafic augmente et plus des visiteurs qualifiés viendront consulter votre offre.
Pour devancer la concurrence et acquérir du trafic qualifié, vous devez proposer des réponses adaptées aux problématiques des internautes. Cela implique de connaître l’intention de recherche de votre audience pour lui proposer le contenu le plus pertinent possible.
Voici les 3 piliers du SEO à respecter pour obtenir les meilleures positions dans les résultats des moteurs de recherche comme Google :
Le référencement naturel est souvent chronophage et nécessite un investissement sur le long terme pour porter ses fruits. Même lorsque les objectifs sont atteints, vous devez toujours continuer à optimiser vos performances et vos contenus.
Il existe plusieurs outils de mesure indispensables en référencement naturel tels que :
Certaines plateformes sont accessibles gratuitement, mais les fonctionnalités proposées ne sont pas suffisantes pour une étude plus approfondie.
Si vous souhaitez analyser le trafic de votre site web, vous pourrez par exemple vous servir de Google Analytics. Cet outil vous permet de connaître le pourcentage de votre trafic issu du SEO, des backlinks, de la publicité ou des réseaux sociaux.
Ce service gratuit de Google vous donne accès à plusieurs informations sur votre audience comme :
Le retour sur investissement permet de calculer la rentabilité des actions menées lors d’une stratégie marketing. Il vous aide à identifier les stratégies digitales qui marchent et celles qui doivent être abandonnées ou améliorées.
L’analyse du ROI en matière de SEO permet de déterminer si la stratégie mise en place est efficace ou non. Cela nécessite quelques étapes incontournables :
Pour pouvoir estimer le retour sur investissement de votre stratégie de référencement, vous devez recueillir des informations fiables et mesurables. L’utilisation d’outil adapté comme Google Analytics vous permet d’obtenir les données qu’il vous faut :
Le travail est relativement facile lorsqu’il s’agit de collecter des informations liées au nombre de transactions ou au chiffre d’affaires.
En revanche, la situation se complique lorsque vous souhaitez estimer la valeur d’une inscription à une newsletter. N’hésitez pas à faire appel à une agence spécialisée en référencement SEO pour vous accompagner dans votre projet web.
La collecte des informations n’est qu’une étape préliminaire dans l’analyse du retour sur investissement. Les données recueillies doivent ensuite être analysées minutieusement.
Vous devez calculer votre chiffre d’affaires et interpréter les résultats. Si votre CA est supérieur à l’investissement de départ, vos efforts ont porté leurs fruits. Votre stratégie SEO est donc efficace, ce qui a un impact positif sur votre retour sur investissement.
Après avoir analysé les données de conversion, vous pouvez procéder au calcul de votre ROI. Il existe une formule très simple pour mesurer la performance de votre stratégie de référencement naturel :
ROI = Gain de l’investissement – Coût de l’investissement x100
Coût de l’investissement
Le pourcentage obtenu vous permet d’apprécier l’efficacité de vos actions SEO.
Si le résultat n’est pas au rendez-vous, n’hésitez pas à revoir votre stratégie de référencement organique en faisant appel à un professionnel.
L’agence Tactee dispose d’experts qualifiés pour vous accompagner dans l’élaboration de votre stratégie digitale.
L’article Comment mesurer mon ROI grâce au SEO ? est apparu en premier sur tactee Agence web.
]]>L’article Comment augmenter ma visibilité en ligne ? est apparu en premier sur tactee Agence web.
]]>Il existe plusieurs techniques pour optimiser son référencement naturel et améliorer sa visibilité en ligne. Avant d’aller plus loin, il convient d’étudier son marché concurrentiel sur Google, d’analyser les différentes stratégies SEO mises en place par les concurrents. Ensuite le choix d’un nom de domaine cohérent avec son secteur d’activité sera également une étape clé. Cela permet aux internautes de pouvoir le retenir et de l’écrire plus facilement.
Voici les principaux éléments à prendre en compte pour booster votre SEO :
Les balises Title et Meta description doivent être cohérentes avec votre ligne éditoriale et la page de destination visée. Assurez-vous que leur contenu suscite l’envie de consulter votre site internet en utilisant des verbes d’action incitatifs.
Le choix des mots-clés est une démarche incontournable en SEO. Vous devez identifier les requêtes de votre audience pour établir une liste des mots-clés sur lesquels vous souhaitez vous classer. L’utilisation d’outils comme Semrush vous permet de trouver des mots-clés longue traîne ou de vérifier le volume de recherche d’un mot-clé.
Un internaute qui clique sur un site peut être à la recherche d’une information, d’un produit ou d’un service. Le fait de connaître les intentions de recherches de ses prospects permet de créer un contenu répondant parfaitement à ses problématiques.
Que vous écriviez des articles longs ou courts, la principale règle à respecter est l’originalité. Les moteurs de recherche ne tolèrent plus les sites qui proposent des contenus ayant fait l’objet d’un copier-coller d’autres plateformes.
La création de liens concerne les liens internes (maillage) et les liens externes (liens entrants). Ces derniers favorisent l’expérience de navigation et participent à l’optimisation du SEO. Il convient toutefois de privilégier les backlinks de qualité pour éviter d’éventuelles sanctions de Google.
Aujourd’hui, les utilisateurs peuvent se connecter à internet soit via un PC de bureau, portable, smartphone ou tablette. Pour améliorer votre SEO, vous devez penser au responsive design en développant un site internet qui s’adapte à tout type d’appareil.
Le temps de chargement d’un site fait désormais partie des critères de classement dans les résultats de recherche de Google. Le géant d’internet privilégie désormais les plateformes qui se chargent en moins de 3 secondes pour améliorer l’expérience utilisateur (UX).
La mise en place de tous ces éléments prends du temps. Il est nécessaire de suivre des KPI tels que le trafic, les positions des mots-clés, les indicateurs de popularité ainsi que mesurer votre ROI provenant du SEO pour ajuster votre stratégie.
On a beau créer un site internet, encore faut-il l’optimiser pour qu’il puisse transformer les visiteurs en clients potentiels. La création de votre site web doit avoir un objectif défini. Il peut s’agir de développer votre activité, d’améliorer votre notoriété ou de booster votre visibilité.
Dans tous les cas, vous devez créer un site attractif et professionnel :
L’idée est de donner envie au visiteur de rester sur le site et instaurer la proximité avec le visiteur.
Les internautes consomment avant tout du contenu. Celui-ci doit être pertinent pour se démarquer de la concurrence, montrer son expertise et apporter plus de crédibilité.
Qu’est-ce qu’un contenu de qualité ? Il s’agit d’un contenu soigné et unique qui répond aux critères de référencement de Google et aux attentes de l’audience.
Concrètement, c’est un contenu web ciblé qui apporte de la valeur à la cible :
Pour générer des leads, il faut répondre aux problématiques des prospects en leur proposant des ressources téléchargeables ou consultables en ligne.
Il existe différents types de contenus :
Pour créer du contenu de qualité, vous devez préalablement définir vos buyers personas. Après avoir clairement identifié le type de client idéal, vous pouvez passer aux étapes suivantes :
L’article Comment augmenter ma visibilité en ligne ? est apparu en premier sur tactee Agence web.
]]>L’article Pourquoi étudier son marché concurrentiel sur Google ? est apparu en premier sur tactee Agence web.
]]>Dans un environnement concurrentiel très tendu, il n’est pas évident de se positionner en tête des résultats de recherche de Google. Pour se démarquer de la concurrence, il convient avant tout d’étudier son marché concurrentiel en ligne.
La réussite d’une entreprise dépend de plusieurs facteurs, et l’étude de marché en fait partie, notamment l’analyse de la concurrence. Celle-ci est essentielle pour augmenter sa visibilité en ligne, rester dans la compétitivité et identifier ses concurrents directs.
Concrètement, l’analyse concurrentielle permet de collecter et d’examiner différentes informations relatives à son environnement concurrentiel telles que :
Pour générer du trafic sur son site et augmenter sa part de marché, une analyse approfondie et une veille concurrentielle sont nécessaires. Celles-ci permettent d’identifier les mots-clés sur lesquels se positionnent les concurrents et leur technique marketing. Il est également possible de déterminer leur positionnement dans les moteurs de recherche et leur e-réputation.
Avant le lancement d’un produit sur un nouveau marché, il faut prendre en compte les grandes tendances du secteur. L’idéal est de réaliser une analyse SWOT pour déceler les forces, les faiblesses, les opportunités et les menaces. Cette étude permet d’avoir une vue d’ensemble de la situation actuelle de son entreprise au travers un diagnostic interne et un diagnostic externe.
L’analyse du marché concurrentiel présente de nombreux atouts, surtout aux entreprises qui sont déjà établies sur un marché. Elle permet d’évaluer les opportunités et d’identifier les tendances du marché. De cette manière, il vous sera plus facile d’adapter vos stratégies marketing et vos campagnes pour contrecarrer les efforts de vos concurrents et conserver votre position.
Le travail à fournir n’est pas le même selon l’environnement concurrentiel. Plus la concurrence est forte, plus il faudra déployer des efforts pour se démarquer en opérant des choix stratégiques.
Il existe plusieurs stratégies marketing permettant de se distinguer de la concurrence, mais la stratégie de différenciation est la plus adaptée. Elle repose sur la proposition d’une offre unique (produit ou service) à forte valeur ajoutée par rapport à la concurrence.
L’adoption d’une stratégie de différenciation permet de s’imposer et de s’accaparer des parts de marché. Cela permet :
La connaissance de ses concurrents et la personnalisation de son offre permettent de se démarquer sur internet. L’idée est de mettre le client au cœur de sa stratégie digitale en prenant en compte du niveau de concurrence de son domaine :
Sur un marché concurrentiel, le plus dur reste la fidélisation client. Proposer un produit ou un service à prix abordable ou lancer une offre promotionnelle n’est pas suffisant pour s’imposer. Pour sortir du lot et devancer ses concurrents, il faut gagner la confiance de ses clients.
Il est donc important de :
Il existe plusieurs types de business model sur internet, encore faut-il trouver les opportunités d’affaires qui marchent. Elles doivent convenir à son domaine de compétence et à ses besoins, et surtout à son marché.
Grâce à l’étude de marché et à l’analyse concurrentielle, il est possible d’estimer les forces et les faiblesses de la concurrence. Cela permet ensuite de dégager des opportunités de business pour augmenter la croissance de son entreprise.
Pour se challenger, rester à l’affût des nouvelles opportunités ne suffit pas. Il convient également de mettre en place quelques actions :
Ces interventions permettent de cerner les attentes de ses clients pour pouvoir apporter les améliorations éventuelles. C’est la raison pour laquelle il est conseillé de maintenir une veille permanente en effectuant régulièrement une analyse de la concurrence. Les résultats obtenus permettent d’adapter son business modèle à sa stratégie marketing
L’article Pourquoi étudier son marché concurrentiel sur Google ? est apparu en premier sur tactee Agence web.
]]>L’article Comment choisir mon agence digitale ? est apparu en premier sur tactee Agence web.
]]>Parmi la multitude d’agences digitales disponibles, comment faire le bon choix ? Les lignes suivantes vous aident à comprendre les principales activités d’une agence de communication digitale et l’intérêt de faire appel à ce type de professionnel.
Une agence digitale joue un rôle essentiel dans la communication web de toutes entreprises qui souhaitent se démarquer sur internet. Elle combine toutes les compétences requises pour optimiser votre présence en ligne au travers d’un accompagnement sur mesure.
De la création d’un site web à l’élaboration d’une stratégie de marketing digitale en passant par le choix des mots-clés générateurs de leads, l’éventail des prestations d’une agence de communication digitale est très large.
Selon ses expertises et sa taille, elle peut proposer des services comme :
Concrètement, une agence digitale joue le rôle d’accompagnateur en prodiguant des conseils avisés de professionnels multidisciplinaires. Elle utilise différents leviers d’acquisitions pour générer du trafic et assurer la conversion des prospects en clients.
En plus de l’acquisition de leads, une agence de développement web contribue au développement de la visibilité de votre entreprise. Elle vous aide à booster votre CA sur le court, moyen ou long terme pour optimiser votre retour sur investissements.
Grâce à son expertise et ses compétences dans le domaine du marketing digital, une agence web participe à la croissance de votre entreprise. Elle s’engage à vous apporter son savoir-faire pour répondre à votre problématique et mettre en place la stratégie de communication adaptée.
Les raisons de faire appel aux services d’une agence de com digitale sont multiples, voici quelques-unes :
Une agence web vous permet de vous concentrer sur votre cœur de métier tout en développant votre présence digitale. De plus, externaliser vos projets digitaux est plus économique que d’embaucher un webmaster, des rédacteurs ou un chargé de marketing.
Une agence digitale bénéficie des bons outils pour améliorer la visibilité de votre entreprise sur internet. Ce type d’agence travaille avec de multiples clients et n’hésitez pas à vous faire connaître davantage auprès de son réseau.
L’élaboration d’une stratégie digitale nécessite un travail de longue haleine et des compétences dans le domaine. Une agence de communication digitale vous accompagne tout au long de votre projet pour améliorer votre retour sur investissements.
Bon à savoir :
Certaines agences web peuvent vous accompagner dans votre communication interne et externe. C’est le cas par exemple du développement d’un intranet qui reproduit l’identité visuelle de votre structure.
Pour choisir une agence web, vous devez prendre en compte de nombreux critères en fonction de vos besoins.
Avant de choisir une agence web, vous devez savoir ce que vous souhaitez comme prestation. Pour ce faire, posez-vous les bonnes questions telles que :
Vous connaissez maintenant les différents critères à prendre en compte pour choisir une agence digitale. L’étape suivante consiste à prendre contact avec plusieurs agences pour savoir quel prestataire correspond le mieux à vos objectifs. Cela permet de comparer les différents prestataires sur le marché et obtenir le meilleur contrat.
Lorsque vous prenez rendez-vous avec chacune des agences choisies, vous devez définir vos objectifs digitaux en fonction de votre budget. Expliquez votre projet en détail pour que l’agence digitale puisse satisfaire votre demande.
Enfin, n’hésitez pas à exprimer vos attentes et vos besoins en apportant des exemples concrets pour appuyer vos dires.
L’article Comment choisir mon agence digitale ? est apparu en premier sur tactee Agence web.
]]>L’article Comment trouver les mots-clés qui génèrent des leads ? est apparu en premier sur tactee Agence web.
]]>Pour générer des leads et améliorer sa visibilité en ligne, la mise en place d’une stratégie de contenu est incontournable. Proposer du contenu pertinent aux visiteurs facilite leur conversion ! Mais encore faut-il connaître leur intention de recherche…
Avant même de déterminer les intentions de recherche de vos cibles, vous devez déterminer ce qu’on appelle des buyers personas. Un buyer persona est la représentation semi-fictive de votre client idéal (car il est impossible de couvrir l’ensemble des particularités de tous les clients). Il s’agit de déterminer les caractéristiques types qui forment les profils de vos clients.
Ces caractéristiques se basent principalement sur plusieurs critères :
Le buyer persona permet de mieux connaître les différents profils que vous visez avec des caractéristiques clés. Cependant, il manque une donnée très utile : quelles thématiques de mots-clés vos personas vont-ils rechercher ?
Certaines thématiques seront communes à l’ensemble de vos personas, d’autres viseront un ou plusieurs de vos personas en particulier. Les contenus des thématiques en question pourront ainsi être affinées pour personnaliser davantage votre message et améliorer son efficacité au sein de votre stratégie digitale.
Pour créer du contenu adapté aux attentes de l’utilisateur, il faut déterminer la raison qui l’incite à effectuer une recherche sur internet. C’est ce que l’on appelle « intention de recherche ».
Google s’efforce de fournir la meilleure expérience à chaque internaute qui effectue une recherche en ligne. Il utilise des algorithmes puissants pour affiner ses réponses.
Le moteur de recherche essaie de comprendre la problématique de l’internaute pour :
Chaque internaute n’a pas forcément le même objectif. Ainsi, on distingue plusieurs types d’intention de recherche :
Le SEO est une stratégie gratuite qui permet de garantir des résultats sur le long terme à condition d’en maîtriser les ficelles. Il repose sur différentes techniques comme :
Dans le cadre d’une stratégie SEO, l’intention de recherche correspond à l’information que l’utilisateur souhaite obtenir à partir d’une requête ciblée. Celle-ci est ensuite analysée par les robots de Google lors du classement des sites dans les SERP.
Google met à jour régulièrement son algorithme et intègre l’intelligence artificielle dans l’analyse de ses résultats pour mieux cerner l’intention réelle de l’utilisateur. Désormais, le moteur de recherche est capable de reformuler la requête de l’utilisateur pour lui proposer les contenus adaptés.
Si vous souhaitez améliorer votre positionnement dans les premières pages de résultats de Google, vous devrez optimiser votre référencement naturel. Mais dans un contexte concurrentiel assez tendu, l’enjeu est de créer du contenu répondant aux attentes de votre public cible.
Pour ce faire, vous avez besoin d’établir une liste des mots-clés susceptibles d’être utilisés par votre audience. Ceux-ci doivent figurer dans votre contenu et dans les différentes parties de votre page de blog pour booster votre trafic organique.
Il existe d’autres stratégies web pour optimiser la performance de votre site web et obtenir un meilleur taux de conversion :
Avant la création de votre contenu, vous devez réaliser un audit sémantique. Cette analyse vous permet par exemple de déterminer le volume de recherches pour chaque mot-clé utilisé et le champ sémantique y afférent.
Toutes stratégies SEO et d’inbound marketing doivent être précédées d’un audit sémantique. Cette analyse permet de déterminer les mots-clés sur lesquels votre site web apparaît dans les résultats de Google et sur lesquels il doit apparaître.
Une étude sémantique doit se faire lors de la création du site ou de sa refonte afin de :
Grâce à un audit sémantique, vous avez la possibilité d’identifier les mots-clés qu’utilise votre audience, les questions qu’elle se pose, ses attentes.
Il existe différentes méthodes pour mener à bien une analyse sémantique comme :
En plus de ces techniques gratuites, vous pouvez utiliser des outils payants pour approfondir votre étude selon vos objectifs :
Ces outils vous permettent d’identifier les bons mots-clés pour créer du contenu susceptible d’intéresser votre audience.
L’article Comment trouver les mots-clés qui génèrent des leads ? est apparu en premier sur tactee Agence web.
]]>L’article Bandeau de cookies conforme RGPD est apparu en premier sur tactee Agence web.
]]>Axeptio : la solution pour un bandeau de cookies conforme RGPD
Les cookies sont de petits fichiers textes que votre site internet ou votre application utilise afin de collecter les données en vue d’un traitement ultérieur. Mais certaines de ces données sont des données personnelles, et doivent être protégées. C’est la raison pour laquelle la CNIL impose un respect du RGPD dans le choix de votre bannière cookies. Alors, comment trouver un bandeau cookies RGPD compliant, et qui n’impacte pas négativement les performances de votre site internet ? Quels sont les points forts de la solution Axeptio ? Notre agence de mise en conformité RGPD vous dit tout !
Une bannière de cookies (ou bandeau de cookies) est un outil qui permet d’informer les internautes de l’utilisation de leurs cookies, et d’obtenir leur consentement sur cette utilisation. S’il est bien choisi, cet outil clé, vous donne la possibilité d’être conforme au RGPD. Les internautes pourront alors accepter, refuser ou redéfinir leurs préférences quant à l’utilisation que vous faites de leurs données. Pour vous aider à visualiser, il s’agit tout simplement du bandeau avec lequel vous avez interagi en début de visite sur notre site web, et où vous avez consenti ou non à l’activation des cookies non indispensables au fonctionnement de base de notre site.
En cas de manquements au RGPD ou à la loi, la CNIL peut prononcer un rappel à l’ordre, limiter temporairement ou définitivement le traitement de vos données, ou encore, suspendre les flux de données. Elle peut également ordonner de satisfaire aux exigences RGPD, ou prononcer une amende administrative.
Vous l’aurez compris, le consentement RGPD grâce aux cookies est une bonne pratique UI/UX qui vous aide à vous conformer à la loi. Mais attention, car le choix de l’outil qui vous accompagnera dans cet objectif doit être fait avec minutie…
Le bandeau de cookies ne doit pas être choisi au hasard. Nombreux sont les sites internet qui ont installé un bandeau qui n’est pas RGPD compliant. Les cookies sont ainsi utilisés, alors que le visiteur n’a pas encore interagi avec le bandeau. Un manquement grave au RGPD.
Par ailleurs, lorsqu’une entreprise ne choisit pas le bon bandeau de cookies, elle peut également risquer de voir ses performances chuter. C’est notamment le cas de beaucoup de sites internet qui ont implémenté des bandeaux de cookie conformes RGPD, comme Tarte au Citron, mais qui ne sont pas user-friendly. Dès lors, nombreux sont les utilisateurs qui refusent les cookies via ce bandeau. Résultat pour les entreprises ? Elles ont vu le suivi de leur trafic dégringoler dans leur outil de mesure d’audience Google Analytics.
Lorsqu’un taux d’acceptation des cookies est faible, l’entreprise perd de nombreuses informations clés. Elle ne sait pas combien d’utilisateurs ont visité son site internet, elle ne connait pas leur comportement, les taux de clic, les taux de conversion, les clics sur les formulaires de contact, le nombre de téléchargement, le nombre de mise au panier, le nombre d’achats…
Pour améliorer ses performances SEO et SEA, pour booster sa croissance et ses profits, ce sont pourtant des informations clés, qui aident l’entreprise à prendre des décisions stratégiques fondamentales.
Grâce à la solution Axeptio, vous êtes conforme au RGPD. Cet outil vous permet d’obtenir des taux d’acceptation allant jusqu’à 99% : l’occasion pour vous de rétablir une meilleure traçabilité du nombre de visiteurs mais également de leur comportement dans les moindres détails.
Axeptio vous permet de gérer tous les consentements de votre site sans prérequis technique, et de proposer une expérience « ludique » et respectueuse à vos utilisateurs, tout en étant personnalisable aux ton éditorial et couleurs de votre entreprise. Design et facile d’utilisation, cette solution est également 100 % conforme au RGPD, ePrivacy et CCPA.
Notez que le service proposé par Axeptio s’intègre sur tous les sites internet, depuis Google Tag Manager (GTM) ou votre CMS.
Tactee est une agence partenaire d’Axeptio. Et ça n’est pas pour rien que nos recherches et comparatifs se sont arrêtés sur cette solution innovante pour la proposer à nos clients. D’une part, car la société est française et implantée en France. D’autre part car Axeptio est porteuse de valeurs fortes et communes à celles de Tactee, comme la transparence, l’honnêteté et l’innovation. Nous entretenons ainsi des rapports privilégiés avec la PME française et bénéficions des dernières mises à jour, des nouvelles fonctionnalités, des dernières études et tests réalisés, sans oublier d’un conseil juridique pointu pour sans cesse être à la page de la position de la CNIL sur le RGPD, toujours dans le but d’en faire profiter nos clients en avant-première. De ce fait, Tactee peut proposer à ses clients des tarifs préférentiels et un accompagnement sur-mesure dans l’implémentation du fameux bandeau de cookies conforme RGPD. En effet, le déploiement de cette solution performante peut paraître à la portée technique de tous, mais mieux vaut connaître parfaitement l’écosystème digital et maîtriser l’intégration et la coordination de l’outil, pour qu’il puisse communiquer avec votre site web et soit totalement conforme RGPD.
Si vous souhaitez être accompagné de A à Z dans la mise en conformité de votre site et de votre bandeau de cookies RGPD, contactez notre équipe !
Pour réussir à mettre votre site internet en conformité, vous pouvez aussi vous lancer dans le « parcours du combattant » en vous appuyant sur les conseils prodigués par la CNIL.
Pour finir, sachez et retenez que si vous vous lancez dans l’implémentation de votre bandeau de cookies conforme RGPD, son seul déploiement ne suffira pas à ce que votre site soit 100% conforme au RGPD dans le cas où vous continuez à utiliser Google Analytics. En effet, pour l’heure, la CNIL a jugé Google Analytics comme étant illégal et c’est pourquoi il faut se tourner vers d’autres outils de collecte de données alternatifs comme Matomo, pour lesquels Tactee vous accompagne afin d’être 100% conforme au RGPD.
L’article Bandeau de cookies conforme RGPD est apparu en premier sur tactee Agence web.
]]>L’article Alternative à Google Analytics 4 : la solution conforme RGPD Matomo est apparu en premier sur tactee Agence web.
]]>Matomo, l’alternative à Google Analytics 4
Vous possédez un site internet et vous souhaitez savoir comment les utilisateurs interagissent avec lui ? Pour y parvenir, les outils d’analyse de données sont vos meilleurs alliés. Aujourd’hui, l’acteur le plus connu est Google Analytics. Mais il est loin d’être le seul à vous aider à mieux comprendre et utiliser vos données. Il existe en effet sur le marché plusieurs alternatives à Google Analytics, comme Matomo. Alors, quels sont les atouts de ces solutions ? Matomo Vs Google Analytics : lequel remporte le match de la conformité avec le RGPD ? Notre agence RGPD vous dit tout !
En février 2022, la Commission Nationale de l’Informatique et des Libertés (CNIL) annonçait la mise en demeure d’un gestionnaire de site internet en raison de son utilisation de Google Analytics. La raison ? L’outil ne respecte pas le Règlement Général sur la Protection des Données (RGPD), puisqu’il transfert les données des internautes européens vers les États-Unis, violant ainsi les articles 44 du RGPD. Avec Google Analytics, les informations personnelles des internautes ne sont alors pas assez protégées des services de renseignements américains. D’où la fameuse extrapolation comme quoi « Google Analytics est illégal » lorsque l’on parle du sujet Google Analytics RGPD.
Dès lors, Google a développé GA4 (Google Analytics 4) et annoncé, pour 2023, la disparition de la version Google Analytics 3 ou Universal Analytics. À partir du 1er juillet 2023, les entreprises ne pourront plus collecter les données des utilisateurs via Universal Analytics. Et à partir de janvier 2024, toutes les données antérieures récoltées seront effacées. Les sociétés pourront alors compter sur Google Analytics 4, une version jugée plus respectueuse de la confidentialité des visiteurs.
Le suivi des données sera amélioré pour être davantage en conformité avec le RGPD :
Matomo est une plateforme d’analyse web qui était auparavant connue sous le nom de Piwik Analytics. C’est une plateforme d’analyse open source, ce qui signifie qu’elle est maintenue et mise à jour par la communauté des utilisateurs.
Cet outil est dans sa liste officielle des solutions identifiées par la CNIL comme RGPD-friendly. Il permet de suivre les visites sur votre site web et vos applications.
Matomo dispose d’une version SaaS hébergée en Allemagne, et chacune de ses fonctionnalités est tout particulièrement étudiée pour être aux normes du Règlement Général sur la Protection des Données.
L’outil offre des fonctionnalités natives qui vous permettent d’anonymiser et de pseudonymiser automatiquement les adresses IP des utilisateurs du site internet. Grâce à cet aspect, le caractère personnel des données comme stipulé par le RGPD est protégé. Vous l’aurez compris, dans le match Matomo VS Google Analytics, l’outil au nom japonais gagne un point crucial !
Par ailleurs, Matomo indique que données collectées via le site internet ne sont pas transmises et restent entièrement chez le gestionnaire. Dès lors, vous avez la possibilité de déterminer les centres de données où les informations seront stockées.
L’outil Matomo dispose également d’une boutique qui vous permet d’acheter des plug-ins pour faire évoluer ses fonctionnalités. L’occasion pour vous de suivre plus précisément le comportement de vos visiteurs, tout en garantissant leur anonymat. Notez par ailleurs que l’outil promet une mise à jour automatique en cas d’évolution du RGPD grâce à un gestionnaire avancé.
Tous les outils Google sont compatibles avec Matomo, Google Ads inclus. Vous pouvez gérer vos campagnes publicitaires et améliorer votre référencement payant depuis l’outil.
Enfin, avec Matomo, vous n’avez pas besoin de consentement de cookies. Dès son installation, l’outil vous permet de choisir la méthode de collecte des données. La plus classique est celle proposée par la plupart des outils analytiques : une balise JavaScript à intégrer sur le front-end du site. En choisissant Matomo, vous optez pour un outil déjà respectueux des dispositions du RGPD, et ne perdrez pas de temps à mettre en place les paramètres requis par la règlementation européenne.
Et cerise sur le gâteau ? avec Matomo, vous allez pouvoir importer vos data Google Analytics dans votre nouveau compte Matomo Analytics. Ainsi, vous ne perdrez aucun historique et vous pérenniserez toutes vos données et statistiques de trafic. Que demander de plus ?
Vous pouvez également consulter l’ensemble des avantages qu’offre l’outil d’analyse Matomo par rapport à Google Analytics directement sur leur site web.
Maintenant que vous avez saisi que Matomo est l’Alternative (avec un A majuscule !) qui s’offre à vous pour sortir de Google Analytics et être conforme RGPD, il faut encore en assurer le déploiement et gérer la pérennisation de vos data Google Analytics, ce qui n’est pas une mince affaire. Pour mener à bien cette mission et opter pour la meilleure solution de collecte de données qui respecte le RGPD, tournez-vous vers une agence de mise en conformité de confiance. Tactee est une entreprise experte dans l’accompagnement de l’implémentation d’outils de mesure d’audience comme Matomo Analytics et de gestion de balises comme Matomo Tag Manager (l’équivalent de Google Tag Manager) pour les sites web. Avec nous, vous aurez la garantie de faire remonter l’ensemble de vos conversions afin de tracker vos précieux leads et leur provenance.
En vous tournant vers une équipe de professionnels comme Tactee, vous êtes certain de choisir les meilleures options pour la collecte des données de vos visiteurs. Cela sera pour vous l’occasion d’améliorer efficacement votre croissance : respecter le RGPD est une opportunité pour votre entreprise de renforcer son capital confiance auprès des clients. En inspirant confiance, vous pourrez également gagner de nouveaux marchés, et fidéliser votre clientèle existante.
L’article Alternative à Google Analytics 4 : la solution conforme RGPD Matomo est apparu en premier sur tactee Agence web.
]]>L’article Google Universal Analytics illégal, GA4 et RGPD est apparu en premier sur tactee Agence web.
]]>Le 10 février 2022, la CNIL a mis en demeure plusieurs organismes utilisant Google Analytics. La raison ? Cet outil d’analyse transfert les données des internautes européens vers les États-Unis, violant ainsi les articles 44 du RGPD. En effet, dans ce pays, les données ne
bénéficient pas d’une protection suffisante au regard du règlement européen. Alors, pourquoi Google Analytics est-il illégal ? Que propose GA4 (Google Analytics 4) ? Notre agence de mise en conformité RGPD vous en dit plus !
Après l’organe de régulation autrichien en matière de protection des données, c’est désormais au tour de la Commission Nationale de l’Informatique et des Libertés (CNIL) d’estimer que l’utilisation de Google Analytics enfreint le RGPD. En effet, l’outil transmet les données personnelles des utilisateurs aux Etats-Unis : un transfert de données considéré comme illégal.
Récemment, la CNIL a ordonné à plusieurs exploitants de sites internet français de cesser d’utiliser Google Analytics dans les conditions actuelles (voir l’article du JDN pour plus de détails sur ces interpellations) . Les exploitants étaient tenus d’utiliser un autre outil qui ne transfère pas de données personnelles vers les Etats-Unis.
Pour répondre aux exigences européennes, Google a mis en place des mesures qui permettent de réglementer le transfert de données de Google Analytics vers les Etats-Unis, notamment en déployant GA4.
Disponible depuis octobre 2020, le successeur d’Universal Analytics, GA4 est présenté comme conforme à la loi informatique et liberté. Avec GA4 (Google Analytics 4), Google affirme que les données d’analyse des clients européens resteront localisées en Europe. L’objectif de ce nouvel outil ? Donner les moyens aux entreprises de contrôler, limiter et monitorer les transferts de données dans ou en dehors de l’Union européenne.
Google compte également améliorer la gestion de la localisation des données hébergées dans Workspace par pays. Par ailleurs, il souhaite que le pilotage des droits d’accès aux contenus hébergés dans ses data centers européens soit effectué selon l’origine des utilisateurs.
Notez qu’en juillet 2023, Universal Analytics sera définitivement abandonné au profit de GA4. Il sera donc essentiel, pour les entreprises, de réaliser la migration de leur compte Analytics et de leurs plans de marquage (tracking) de Google Tag Manager vers ce nouvel outil : un chantier de grande ampleur, particulièrement chronophage, et pour lequel il sera fondamental de vous faire accompagner pas à pas. Par ailleurs, il est important de préciser que GA4 n’est aujourd’hui pas davantage légal que Universal Analytics : pour les entreprises, il s’agit là d’une occasion de stopper à la fois l’utilisation de Google Analytics et de se tourner vers d’autres solutions de mesure de statistiques RGPD compliant. L’objectif ? Vous conformer à la loi RGPD, afin de mieux gérer et comprendre vos données. En tant qu’agence experte sur le sujet, nous vous recommandons Matomo comme alternative Google Analytics RGPD compliant, mais pour faire les choses dans les règles de l’art et s’assurer la bonne migration de l’outil Google vers Matomo ainsi que la pérennisation de vos data analytics, mieux vaut vous entourer de professionnels chevronnés !
L’agence de mise en conformité RGPD Tactee propose des solutions sur mesure afin d’accompagner ses clients dans la migration de leurs systèmes de mesures de statistiques sur leurs sites web. En mettant en place votre conformité RGPD, l’équipe vous guide vers vos objectifs de croissance :
L’article Google Universal Analytics illégal, GA4 et RGPD est apparu en premier sur tactee Agence web.
]]>L’article Comment générer des leads qualifiés ? est apparu en premier sur tactee Agence web.
]]>Une étude récente révèle que près de 80% des prospects n’aboutissent jamais à la vente*. Une des raisons les plus courantes de cet échec est l’absence d’une stratégie digitale complète et efficace. En effet, certaines entreprises se contentent de lancer leur site web et négligent l’optimisation de celui-ci.
Pour les moteurs de recherche comme Google, le « contenu est toujours ROI » (ROI faisant référence à Return of Interest). C’est pourquoi la génération de leads qualifiés passe par la création de contenus. L’inbound marketing vous aide à attirer du trafic qualifié vers votre site internet et à les convertir en clients.
Le succès d’internet et des réseaux sociaux au cours de ces dernières années marque un nouveau tournant dans l’univers du marketing. Les consommateurs ont changé de comportement et décident de rechercher eux-mêmes les informations dont ils ont besoin sur internet.
Concrètement, les internautes qui effectuent des recherches sur le web souhaitent trouver des réponses à leurs problématiques. Avant d’acheter un produit ou un service, ils consultent diverses sources telles que :
Être présent sur internet via ces différentes plateformes permet de créer une base de données prospects en récoltant les informations nécessaires. Il peut s’agir d’un numéro de téléphone, d’une adresse email ou autre élément susceptible de générer du trafic.
Désormais, disposer d’un site web est devenu une obligation, et non plus une nécessité. En effet, internet est un levier marketing incontournable permettant de communiquer directement auprès de ses clients potentiels. C’est également un excellent moyen de :
Seulement, avoir un site web ne suffit pas pour acquérir des leads qualifiés. Sans une stratégie d’acquisition de leads adaptée, impossible d’atteindre sa cible. Un lead qualifié B2B peut provenir de différents canaux d’acquisition tels que le référencement naturel (SEO) ou une campagne emailing.
Pour attirer de nouveaux clients, il est nécessaire de mettre en place une bonne stratégie inbound marketing en créant des contenus à forte valeur ajoutée.
Il existe plusieurs techniques pour faire atterrir les prospects sur son site web et l’Inbound Marketing en fait partie. Cette stratégie digitale inclut le marketing automation, le lead nurturing et la création de contenu.
Quelle que soit la méthode adaptée, elles reposent toutes sur la création d’un « persona » marketing. Cette étape consiste à identifier son public actuel et à analyser ses besoins selon ses motivations, ses comportements d’achat ou ses centres d’intérêt.
Après avoir défini ses buyers personas, il faut les attirer en leur proposant des contenus susceptibles de répondre à leurs problématiques. Ces derniers peuvent avoir plusieurs formats :
Les contenus à forte valeur ajoutée permettent de générer du trafic qualifié, mais encore faut-il le convertir en clientèle. Pour canaliser l’internaute vers une page spécifique, il faut mettre en place des actions de transformation (boutons call to action) :
Ces outils constituent une mine d’informations permettant d’identifier facilement son client idéal.
Pour améliorer sa présence digitale, il convient d’élaborer une stratégie de SEO efficace. Un bon référencement naturel passe par le choix des mots clés qui vont générer des leads et l’optimisation des contenus en identifiant clairement les intentions de recherches des internautes.
Il est également possible d’investir dans le référencement payant (SEA) via des campagnes Adwords ou dans le référencement social (SMO) via les réseaux sociaux. Tous les canaux digitaux peuvent être utilisés pour toucher sa cible et générer des leads qualifiés.
La technique inbound marketing inclut la stratégie de contenus. Celle-ci est essentielle pour les entreprises souhaitant se démarquer de la concurrence. Il s’agit d’un moyen efficace de générer du lead qualifié, car on va chercher à produire du contenu susceptible d’intéresser l’internaute.
La stratégie de contenus vise à créer du contenu de qualité pour informer votre cible et apporter des réponses aux problématiques de vos prospects. Elle se caractérise par la mise en place de ressources accessibles par vos prospects telles que des articles de blog, des livres blancs ou des webinars.
Pour rédiger un contenu pertinent et à forte valeur ajoutée, vous devez prendre en compte un certain nombre de paramètres :
Grâce au contenu et au référencement naturel, vous obtenez les informations de base de vos prospects pour faciliter leur conversion. Pour positionner votre site web dans les premiers résultats de Google, le choix des bons mots-clés pour vos contenus est crucial.
Bon à savoir : la mise en place d’une stratégie de contenus demande une bonne réflexion en amont. Si vous pensez que le processus est chronophage et complexe, n’hésitez pas à faire appel à un professionnel de l’inbound marketing pour vous accompagner.
L’article Comment générer des leads qualifiés ? est apparu en premier sur tactee Agence web.
]]>L’article Core Web Vitals : lancement prévu en mai 2021 est apparu en premier sur tactee Agence web.
]]>Pour atteindre son objectif, celui qui veut devenir un véritable « moteur de réponses » met à jour régulièrement son algorithme de ranking. Certaines mises à jour (MàJ) comme les Core Updates apportent des améliorations importantes, que les propriétaires de sites internet ne doivent pas négliger.
La MàJ que nous allons développer dans les lignes suivantes impacte le référencement web naturel (SEO) de nombreux sites internet. La firme de Mountain View a révélé que son algorithme prendra en compte de 3 nouveaux signaux liés à l’UX à partir de mai 2021, c’est le programme Core Web Vitals.
Le Core Web Vitals est un nouveau programme du moteur de recherche américain qui intégrera bientôt son algorithme de classement de sites web. Il repose sur 3 principaux indicateurs liés à l’expérience utilisateur (UX), à savoir :
Chez Google, le mot d’ordre est l’amélioration de l’expérience des utilisateurs. Il n’est donc pas étonnant que ces 3 signaux deviennent de réels critères de positionnement sur le moteur de recherche américain.
D’ailleurs, le temps moyen passé sur un site et le taux de rebond d’une page ont un lien direct avec ces données. Concrètement, une page qui tarde à charger occasionnera un taux de rebond élevé. Il en sera de même pour une page qui affiche des contenus visuels susceptibles de gêner l’internaute.
Pour rappel, Google avait déjà pris des mesures appropriées en valorisant les sites responsives pour s’afficher dans les Top Stories sur mobile. Il avait même exigé la mise en place du format AMP afin de classer les articles en haut de ses SERPs lors d’une recherche d’articles d’actualité.
Ces 3 signaux ne sont pas totalement nouveaux, car vous pouvez les retrouver sur certaines plateformes d’analyse de pages web comme l’outil Google PageSpeed Insights. Ce dernier vous permet par exemple d’obtenir des conseils ou des informations sur les éventuels problèmes liés à la vitesse de chargement de votre page.
Connaître ces indicateurs vous permettra de faire grimper chaque page de votre site web dans les premiers résultats sur les pages de résultats de recherches, au regard de mots-clés courts ou de longue-traîne.
A l’instant T, le site de la SNCF accuse un peu de retard.
Il s’agit du temps de chargement nécessaire à l’affichage complet du contenu principal que l’utilisateur voit en premier sur son écran (celui qui est situé au-dessus de la ligne de flottaison). À ne pas confondre donc au temps de chargement définitif de la page tout entière.
Google prend en compte le chargement du texte, des images et des vidéos. Selon lui, un bon LCP n’excède pas les 2,5 secondes et un mauvais LCP va au-delà de 4 secondes.
Ce facteur de performance est important dans la mesure où le nombre de mobinautes augmente chaque jour. D’autant plus que les utilisateurs ne disposent pas toujours d’une connexion internet fiable pour télécharger rapidement le contenu des pages de votre site.
La plupart des sites actuels ont un mauvais LCP (plus de 4 secondes), générant ainsi une perte de trafic importante. Face à ce constat, le programme Core Web Vitals pourra nuire au référencement naturel de certains sites si leur propriétaire ne prend pas les mesures nécessaires.
Il s’agit du délai nécessaire à l’interaction de l’internaute avec la page qu’il consulte et le temps où le navigateur envoie une réponse à cette interaction. Plusieurs éléments sont pris en compte par cette métrique tels que la pression de touches, le toucher sur l’écran ou encore les clics.
Pour Google, un bon FID est inférieur à 100 ms alors qu’un mauvais FID dépasse les 300 ms. Grâce à ce facteur, l’utilisateur peut avoir une première impression sur la qualité et la fiabilité du site. Si la page met du temps à interagir, il risquera d’abandonner le site et de ne plus y revenir.
Cette métrique permet de mesurer la fréquence à laquelle les internautes rencontrent des changements brusques de mise en page. Le CLS tient compte du déplacement de tous les éléments se trouvant entre deux frames sur la page.
Pour Google, un bon CLS est inférieur à 0,1 et un mauvais CLS est supérieur à 0,25.
Le lancement du programme Core Web Vitals est prévu en mai 2021. Mais une multitude de sites web ne sont pas encore optimisés pour cette nouvelle mise à jour. Selon Google, ces 3 signaux impactent peu le positionnement des sites dans ses résultats de recherche (SERP).
Contrairement aux idées reçues, le géant de l’internet n’a pas l’intention de pénaliser les sites internet ayant une mauvaise expérience utilisateur. Il souhaite plutôt gratifier ceux qui prennent soin de respecter ces nouveaux signaux ET les facteurs actuels.
Améliorer son positionnement sur Google est possible avec SEOh. Les consultants SEO de notre agence SEO vous proposent en effet d’analyser votre site internet puis de positionner durablement ses pages dans les résultats des moteurs de recherche. Notre agence de référencement SEO se tient bien entendu informée continuellement des nouveautés de l’algorithme de Google.
Dans tous les cas, un contenu pertinent avec une mauvaise expérience utilisateur sera toujours mieux référencé qu’un contenu de mauvaise qualité avec une bonne UX. Néanmoins, pour deux pages avec des contenus pertinents, Google privilégiera la page avec une excellente UX.
Bref, ces 3 facteurs seront utilisés comme des critères d’évaluation de l’UX en vue de distinguer des contenus présentant les mêmes pertinences.
Le programme Core Web Vitals annoncé par Google n’est pas forcément une mise à jour qui affectera votre positionnement dans ses SERPs. Toutefois, elle met en évidence les facteurs LCP, FID et CLS qui deviendront des critères de pertinence.
Même s’ils ne sont pas considérés comme des facteurs de pertinence importants, ces 3 nouveaux signaux ne doivent pas être négligés puisque leur objectif est d’améliorer l’UX.
Si vous produisez des articles pour votre site internet, vous devrez vous pencher sur l’optimisation de l’expérience utilisateur en prenant en compte la mise à jour du Core Web Vitals. Cela vous permettra de mieux vous référencer sur Google, mais aussi sur les autres moteurs de recherche. Avant d’y procéder, pensez à réaliser un audit SEO de votre site web.
L’article Core Web Vitals : lancement prévu en mai 2021 est apparu en premier sur tactee Agence web.
]]>L’article L’intention de recherche en SEO, en quoi est-ce important ? est apparu en premier sur tactee Agence web.
]]>Plus qu’un moteur de recherche, Google se veut aujourd’hui être un moteur de réponse. Comme chaque année, il apporte des mises à jour importantes à ses algorithmes en vue de satisfaire au mieux les internautes.
Pour se classer en première page des résultats de recherche du géant de l’internet, produire du contenu optimisé avec des mots-clés (keywords) pertinents ne suffit plus.
Désormais, connaître et répondre à l’intention de recherche se présente comme un des facteurs de positionnement à privilégier en matière de référencement naturel. Bien entendu, il faut toujours choisir les bons mots-clés, miser sur des mots-clés de longue-traîne (peu concurrentiels) et utiliser des outils SEO.
De quoi s’agit-il ? Pourquoi l’intention de recherche est-elle importante pour le référencement de votre site internet ? Comment l’optimiser ? L’agence de référencement web Tactee fait le point sur les éléments clés à retenir sur l’intention utilisateur.
L’intention de recherche désigne la raison pour laquelle un utilisateur effectue une requête sur des outils de recherche comme Google. Ce dernier propose ensuite des résultats en rapport avec cette intention :
Par exemple, si un internaute tape « voiture occasion paris » sur Google, c’est probablement qu’il est en recherche d’une nouvelle voiture qu’il souhaite acheter. Il recherche les bons plans proposés dans sa ville à travers des sites de vente auto entre particuliers. Mais a contrario, il y a de fortes chances que l’intention de recherche de ces internautes ne soit pas de lire des articles informatifs sur l’univers économique de la voiture d’occasion dans la capitale.
L’idée consiste donc à déterminer ce que l’utilisateur recherche réellement en fonction des mots ou expressions clés tapés. Concrètement, Google privilégie en effet les pages web qui proposent des contenus répondant parfaitement à l’intention utilisateur. Il faut donc y répondre également.
On distingue quatre types d’intention utilisateur : requêtes d’information, requêtes de navigation, requêtes commerciales et requêtes transactionnelles.
Les requêtes d’information aident l’internaute à trouver des informations sur sujet précis. Elles sont généralement formulées sous forme de question :
Bien que ce type d’intention de recherche soit facile à détecter, il existe des cas particuliers où l’utilisateur ne tape pas des questions. Par exemple « guide de référencement Google », « guide de référencement WordPress », etc.
Comme leur nom l’indique, les recherches navigationnelles sont effectuées par des internautes qui connaissent déjà les sites qu’ils souhaitent consulter. Les requêtes peuvent se concentrer sur des catégories spécifiques d’un site web comme le blog, la page contact, le réseau social de la marque…
Les requêtes de navigation impliquent parfois des recherches qui portent sur des noms de produits, de services ou de marques. Par exemple « Audit SEOh », « Optimisation de site SEOh », « LinkedIn SEOh »…
Liées aux recherches informatives et transactionnelles, les requêtes commerciales favorisent la prise de décision de l’internaute. Elles l’aident à choisir la solution la plus adaptée à sa recherche à travers la comparaison de produits ou de services.
Les recherches commerciales peuvent se présenter sous forme de « comparateur » ou « guide ». Des exemples de requêtes avec une intention commerciale : « Référencement naturel VS référencement payant », « Meilleures agences SEO », « Guide d’achat climatiseurs »…
L’utilisateur effectue des requêtes transactionnelles lorsqu’il est proche de la fin du processus d’achat. Certains indices permettent de détecter facilement ce type de recherche :
Les recherches transactionnelles incluent généralement des termes relatifs au prix, à l’achat, au lieu d’achat du produit de type « magasin de climatiseur à Paris ».
Grâce à l’intelligence artificielle, les algorithmes des moteurs de recherche sont de plus en plus intelligents. Il leur est ainsi possible de déterminer plus aisément l’intention utilisateur. À cet effet, il n’est plus question de proposer de simples contenus dépourvus de qualité, comme c’était souvent le cas auparavant pour certains sites bien placés.
Dans votre stratégie de référencement organique (SEO), vous devez désormais privilégier l’intention de recherche pour plusieurs raisons :
Savoir pourquoi l’intention utilisateur est importante en SEO est une chose, comment la mettre en pratique en est une autre. Voici quelques méthodes efficaces pour répondre à l’intention de recherche de votre public cible.
Il n’y a pas mille façons d’identifier l’intention utilisateur que de taper le mot-clé sur Google. Vous devez ensuite analyser les 10 premiers résultats page par page pour déterminer les types de sujet et de contenu proposés.
Plusieurs cas de figure peuvent se présenter :
Ces indices ne sont pas toujours infaillibles, d’où l’importance de réaliser une étude approfondie des meilleurs résultats proposés par Google.
Le référencement local est aussi important. En effet, des requêtes localisées comme « pizzeria à Paris » vous présenteront essentiellement des résultats en lien avec la zone concernée. La mise en avant de Google Maps dans les premières positions souligne ce fait. Pour chaque requête locale, il faut taper le mot-clef dans la barre de recherche de Google et consulter les sites des concurrents pour estimer l’intention de recherche qui domine et à laquelle il est pertinent de chercher à répondre.
Google propose généralement quelques options de réponse pour certaines requêtes posées. Il s’agit notamment de People Also Ask (autres questions posées) et Related Search (recherches associées).
Ces deux fonctionnalités vous permettent de mieux déterminer l’intention de recherche de votre public cible.
Imaginons que votre entreprise vend des machines à jus et que vous souhaitez vous positionner sur la requête « extracteur de jus ».
Voici les résultats proposés par Google :
Les « Recherches associées » de Google vous proposent plusieurs choix de sujets que vous pouvez traiter et publier sur votre blog. La fonctionnalité « Autres questions posées » vous donne également des idées de contenu intéressantes pour attirer l’attention de l’utilisateur.
Pour optimiser votre stratégie de contenu, n’hésitez pas à faire appel à une agence de communication digitale. Chez Tactee, nous disposons d’une équipe spécialisée dans la création de contenu web orienté SEO et intention de recherche.
L’article L’intention de recherche en SEO, en quoi est-ce important ? est apparu en premier sur tactee Agence web.
]]>L’article Top 10 des éléments à optimiser pour le Quality Score est apparu en premier sur tactee Agence web.
]]>Et pour améliorer le Quality Score, il est fortement conseillé de confier la gestion de vos campagnes SEA à une agence spécialisée.
Les mots clés ciblés ont des taux de clics supérieurs aux mots clés génériques. Si vous vendez des claviers d’ordinateurs USB, vos annonces auront des CTR supérieurs pour le mot clé « achat clavier USB » que pour la recherche « clavier ».
Ce 2ème conseil est dans la lignée du 1er. Les mots clés génériques, étant par définition génériques, auront la fâcheuse tendance à enregistrer de faibles CTR.
Dans les pistes présentées par Google Adwords, il y avait le critère « pertinence de l’annonce ». Si vous êtes capables de créer des annonces pertinentes et cohérentes avec votre mot clé, vous aurez fait un grand pas en avant pour obtenir des scores de qualité élevés. Par contre, pour créer des annonces pertinentes et cohérentes avec vos mots clés, vous devrez avoir une campagne correctement structurée. Et pour optimiser ses campagnes Google, rien ne vaut l’expertise d’une agence spécialisée SEA.
Les extensions d’annonces vous seront très utiles pour améliorer votre Quality Score et ce, pour 2 raisons importantes :
Inutile de vous demander comment rédiger une annonce qui pourrait obtenir un excellent taux de clic. Le plus simple et le plus efficace est de tester plusieurs annonces. Ainsi, au bout de quelques jours ou semaines, vous serez en mesure de voir quelle est l’annonce qui a le meilleur taux de clic.
La page de destination de votre annonce doit être pertinente et cohérente avec votre mot clé et votre annonce.
Pour que Google Adwords puisse savoir si votre page de destination est pertinente, il est indispensable que les robots de Google puissent lire facilement le contenu de vos pages.
Google Adwords n’aime pas les sites « louches », qui cachent leur identité ou qui n’informent pas les internautes sur l’utilisation des informations confidentielles.
Pour que Google soit satisfait, il faut donner la possibilité à vos internautes de naviguer dans d’autres sections de votre site.
Google est très à cheval sur l’expérience de navigation des internautes. Alors, une bonne expérience de navigation se concrétise également par une page de destination qui se charge vite. Si votre page de destination se charge rapidement, ce sera un léger plus pour votre quality score (à noter que ce sera également un plus – mais cette fois-ci un grand plus – pour le taux de conversion de votre campagne).
L’article Top 10 des éléments à optimiser pour le Quality Score est apparu en premier sur tactee Agence web.
]]>L’article Facebook met le paquet sur le Live Shopping est apparu en premier sur tactee Agence web.
]]>Une fois que vous avez listé les produits à présenter dans la vidéo de shopping en direct dans le Gestionnaire des ventes, vous pouvez lancer un direct directement depuis votre Page Facebook sur votre ordinateur ou votre appareil mobile.
Avec le live shopping, l’utilisateur bénéficie d’une expérience d’achat en direct au sein de laquelle il peut intervenir pour poser des questions par exemple.
D’ailleurs, comme en magasin, au moment du live shoping Facebook, il peut observer le produit sous tous les angles et bénéficier de conseils en temps réel ! Certaines marques poussent le parallèle avec l’univers physique en permettant à ses vendeurs et vendeuses de donner des conseils en direct, ce qui est vraiment pratique. Tous ces éléments permettent de profiter d’une expérience authentique qui reproduit les conditions de l’achat compulsif.
En utilisant des influenceurs, le live shopping permet aux utilisateurs d’accéder à un produit sans aucun effort. En effet, en demandant à une personne de présenter son produit en direct, les annonceurs profitent de la communauté de celle-ci.
Cette pratique peut donc s’avérer avantageuse pour mieux gérer vos campagnes Facebook et réaliser une percée commerciale sur une certaine cible !
À la base, les live streams sont faits pour divertir un public. Cet aspect « entertainment » se retrouve dans le live shopping : c’est un format attrayant. Regarder une personne utiliser un produit en direct, tout en décrivant les caractéristiques du produit, présente plusieurs avantages. Cela permet :
Le produit n’est donc pas la seule chose qui motive le visionnage de la vidéo : elle constitue un objet de divertissement !
Lancez vos directs toujours à la même heure.
Vos vidéos de shopping en direct sont comme une émission de télé diffusée le même jour et à la même heure chaque semaine. Si vous indiquez aux internautes quand et où regarder vos vidéos de manière claire et fiable, ils sauront vous retrouver plus facilement, ce qui va augmenter le nombre de vues sur vos streams au fil du temps.
Faites un essai avant de lancer votre premier stream en direct officiel.
Faites la promotion de vos streams de shopping en direct.
Annoncez-les en avance sur votre Page afin de susciter l’engouement pour vos vidéos en direct !</br>
Interagissez activement et directement avec les spectateurs lors de votre live shopping Facebook.
Les vidéos en direct permettent d’interagir avec les spectateurs à propos de vos produits. Pendant votre stream, indiquez-leur qu’ils peuvent commenter la vidéo ou vous envoyer un message direct via Messenger.
Répondez aux commentaires et aux réactions des internautes en temps réel.
Laissez libre cours à votre créativité pendant le stream en direct.
Le shopping en direct vous offre toute la flexibilité et la liberté de vous exprimer et de représenter votre entreprise.
Lancez un jeu, faites la démonstration de vos produits ou demandez simplement comment se passe la journée de vos spectateurs afin qu’ils se sentent impliqués dans la vidéo.
Au cours du stream en direct, répétez les informations importantes.
Essayez d’être accompagné(e) pendant votre direct.
Une autre personne peut vous être utile derrière la caméra pour vous prêter main forte avec les produits, les commentaires et les messages. Par ailleurs, un direct à deux peut être plus sympathique. Vous pourrez discuter ou plaisanter ensemble en direct au moment de votre Live Shopping Facebook !
Après le stream en direct, recontactez les spectateurs qui vous ont envoyé un message ou un commentaire.
En continuant à interagir avec eux, vous êtes plus susceptibles d’en faire de nouveaux clients.
Publiez vos vidéos en direct sur votre journal.
Plutôt que de supprimer vos vidéos en direct, ajoutez-les à votre journal pour générer des vues auprès de nouveaux visiteurs.
L’article Facebook met le paquet sur le Live Shopping est apparu en premier sur tactee Agence web.
]]>L’article Quelles sont les étapes d’une stratégie de contenus ? est apparu en premier sur tactee Agence web.
]]>Voici un petit guide pour que vous puissiez réaliser votre stratégie de contenus et qu’elle soit vraiment efficace.
La première phase des étapes d’une stratégie de contenus est de réfléchir aux grandes lignes directrices que vous souhaitez vous fixer sur les six à douze prochains mois. Votre stratégie éditoriale et vos objectifs marketing devront donc être étroitement liés. Vous devrez :
Après avoir fixé vos objectifs webmarketing, vous devez segmenter vos prospects. Avant la mise en place de votre stratégie éditoriale ou de toutes autres actions marketing, il est indispensable de dresser le portrait-robot des personnes que vous souhaitez toucher (les Persona) et de les regrouper selon plusieurs critères :
Une fois que vous avez déterminé plusieurs profils de client idéal, vous devez analyser leur cycle d’achat. Vous devez adapter votre stratégie digitale et le type de contenu que vous allez leur offrir afin de les accompagner à passer à la suivante.
Votre objectif est de favoriser le chemin de votre cible dans le tunnel de vente en les nourrissant de contenus pertinents.
A chaque niveau du parcours d’achat, votre marketing de contenu doit suivre la logique du modèle AIDA qui est l’acronyme de :
A : attirer l’Attention
I : susciter l’Intérêt
D : provoquer le Désir
A : inciter à l’Action
Vos contenus doivent impérativement correspondre à la phase du parcours d’achat mais aussi répondre aux problématiques de vos prospects. Les différents contenus que vous allez produire doivent les intéresser et fournir des solutions à leurs problèmes.
Quand vous rédigez, posez-vous toujours la question : « est-ce que mes contenus répondent à la problématique de mes lecteurs et leur offrent la solution ? ». Si votre retour est négatif alors ne perdez pas votre temps.
La cinquième étape de votre stratégie de contenu est l’identification de votre expertise, de vos forces et de vos avantages concurrentiels. Bien entendu, pour y parvenir, il est indispensable de bien connaître votre environnement concurrentiel.
Voici les règles à suivre :
Pour mettre en place votre stratégie de content marketing, la phase d’audit des contenus déjà existants sur votre site web est primordiale. Le but de l’audit est de lister vos éventuelles faiblesses afin de détecter des solutions pour les corriger.
Sélectionner vos contenus selon vos domaines de compétences
Une étape importante est de choisir vos contenus en partant de votre thématique puis de l’affiner de plus en plus pour avoir une multitude de sujets de contenu à rédiger. Vous devez partir du généraliste au particulier.
Avant de commencer la production de vos contenus, en fonction de vos thématiques vous devez répertorier vos expressions-clés puis les décliner avec des synonymes. Plus elles seront ciblées et en adéquation avec les recherches des internautes, plus les moteurs de recherche favoriseront vos pages web en les positionnant bien dans leurs résultats.
Vous devez faire la mise en place d’un calendrier éditorial. Il permet d’un coup d’œil d’avoir une vision globale sur la production de vos contenus et de s’assurer qu’ils sont à rythme régulier. Les autres avantages d’un calendrier sont d’accompagner vos équipes (marketing et commerciale) et d’avoir une orientation stratégique à court, moyen voir long terme de votre production de contenu.
L’article Quelles sont les étapes d’une stratégie de contenus ? est apparu en premier sur tactee Agence web.
]]>L’article Le top 7 des meilleurs outils pour mettre en place sa stratégie d’Inbound Marketing est apparu en premier sur tactee Agence web.
]]>
Un persona (ou buyer persona en anglais) est un portrait semi-fictif de votre client idéal.
Ce client idéal est défini selon plusieurs critères : problématiques, comportement d’achat, objectifs, motivations… Mais également : des données sociologiques, démographiques, biographiques générales afin de recréer une identité́ fictive à votre persona.
Ces éléments permettront de créer un profil crédible, correspondant au portrait de votre client idéal.
La création d’un persona est une étape fondamentale en marketing car elle va définir :
La particularité du persona inbound marketing est qu’il est construit comme une étude de marché et qu’il se doit d’être validé avec l’ensemble des pôles de votre entreprise. Il a pour effet de fédérer vos équipes autour d’une seule et même cible client commune.
Le parcours client (ou buyer journey en anglais) désigne le chemin emprunté par le persona entre le moment où il constate son besoin et celui où il effectue un achat.
L’enjeu du parcours client est de comprendre comment et pourquoi un client prend conscience d’un besoin et décide d’acheter un produit. Après avoir créé votre persona, il est important d’appréhender les étapes qui composent son parcours client et qui le mèneront vers sa décision d’achat.
Une fois vos persona et leur parcours client bien déterminés, vous avez les cartes en main pour déterminer les thématiques et les contenus à produire, et les canaux d’acquisition prioritaires.
Pour la réalisation de cette stratégie éditoriale, vous aurez besoin d’établir un listing de contenus par persona pour modéliser les contenus associés à chaque étape de leur parcours client. Après validation des sujets et des actions de génération de contacts associées (incitation à télécharger un livre blanc complémentaire, intégration de boutons d’action, optimisations du référencement naturel…), vous pourrez modéliser le calendrier éditorial pour planifier la production de vos contenus.
Une fois votre « persona » créé, votre parcours client connu, votre calendrier éditorial rédigé et vos critères de qualification connus, vous êtes prêt à lancer vos campagnes inbound marketing !
Pour cela, vous avez besoin :
Le référencement naturel est l’un des piliers d’une stratégie inbound marketing. Tous les efforts que vous fournirez en création de contenu seront vains si votre site ne répond pas aux critères spécifiques techniques des moteurs de recherche.
Pour le savoir, vous pouvez réaliser :
Aujourd’hui, vos clients (quels qu’ils soient) sont présents sur les réseaux sociaux, l’enjeu est de déterminer leurs pratiques quotidiennes sur chacun des réseaux existants et comment votre entreprise peut s’inscrire naturellement dans leur routine.
En fonction de vos persona, vous ciblez parfois des segments différents. Chacun de vos persona a des attentes différentes en fonction : de son domaine d’activité, de son poste dans l’entreprise, de ses problématiques, etc. En inbound marketing, la personnalisation est un aspect primordial !
Aujourd’hui, des outils performants (comme l’outil Plezi par exemple) permettent d’adapter votre discours en fonction du profil du prospect qui consulte votre site web, cette technique marketing s’appelle « smart content ». Cette technique permet de personnaliser votre contenu froid pour coïncider le mieux possible avec vos prospects et futurs clients potentiels.
Cette personnalisation permettra d’établir une relation de confiance décuplée avec vos prospects.
L’article Le top 7 des meilleurs outils pour mettre en place sa stratégie d’Inbound Marketing est apparu en premier sur tactee Agence web.
]]>L’article Les 5 meilleures plateformes </br>e-commerce est apparu en premier sur tactee Agence web.
]]>La question fondamentale avant de se lancer est de savoir dans quelle mesure le temps et l’argent sont disponibles. Avec plus de temps et des compétences techniques, une solution Open Source moins coûteuse, voire gratuite peut être envisagée, alors qu’à l’inverse, un investissement plus important peut-être nécessaire si les compétences et le temps sont manquants.
Enfin, la question décisive vis-à-vis du choix de la plateforme sera celle des fonctionnalités nécessaires au bon déroulement du projet. Dans le cas de modules plus spécifiques, il sera alors obligatoire de se tourner vers des plateformes e-commerce permettant une plus grande personnalisation ou de faire appel à notre agence de création de site internet afin de développer un site e-commerce sur mesure.
Les 5 plateformes e-commerce les plus en vogue
elle ne nécessite pas d’installation sur une machine spécifique, c’est une solution en mode SaaS. Elle est en effet disponible depuis n’importe quel appareil (mobile, tablette, laptop) via un navigateur web (Chrome, Firefox, …). De quoi gérer son business depuis n’importe où. Outre son accessibilité facilitée, Wizishop enlève la contrainte de l’hébergement web. Il n’est donc pas nécessaire de s’y connaitre pour débuter sa boutique en ligne. Les fonctionnalités disponibles permettent de monter un e-commerce rapidement, avec une ergonomie et une expérience utilisateur relativement fluide. Attention cependant, si vous décidez de vous lancer sur Shopify, sachez qu’il sera nécessaire d’avoir quelques bases en CSS et HTML afin de personnaliser davantage votre site de vente en ligne. Garder le thème de base ne permettra pas de suffisamment vous démarquer.
elle est l’homologue français de Shopify (qui lui est canadien). La plateforme e-commerce est basée sur une formule d’abonnement, ce qui permet de la rendre accessible depuis n’importe quel appareil possédant un navigateur web. L’hébergement fait donc partie du package et permet à l’utilisateur de directement lancer son e-commerce, sans manipulations complexes préalables. Il est important de prendre conscience que Wizishop est une plateforme e-commerce tout-en-un, regroupant l’interface de gestion, le support et l’accompagnement. Elle a pour vocation d’être accessible tant aux professionnels qu’aux utilisateurs moins expérimentés dans le domaine de la programmation.
c’est un CMS français orienté e-commerce, développé initialement par des étudiants. À la différence de Woocommerce qui provient d’un CMS orienté blogging et sites vitrines, Prestashop est totalement conçu et pensé pour répondre aux attentes de projets e-commerce. De par ses nombreuses fonctionnalités, Prestashop est capable de répondre aux exigences de la quasi-totalité des sociétés souhaitant se lancer dans la vente en ligne. Ultra performante dans l’analyse des données marchandes, cette solution e-commerce est véritablement la plateforme e-commerce sur laquelle se pencher pour une gestion simplifiée.
encore un cran au-dessus de Prestashop, la solution permet autant de choses que l’imagination peut créer. Le champ des possibles est infini grâce aux très nombreuses fonctionnalités natives, ainsi que tous les modules disponibles au téléchargement. Magento permet donc à n’importe quelle niche métier de vendre ses produits ou services en ligne.
ce n’est pas un CMS à part entière puisqu’il s’agit d’une extension qu’il est nécessaire d’ajouter une fois WordPress installé. Il jouit donc de toutes les fonctionnalités qui font la renommée de WordPress puisque la quasi-totalité de celles-ci sont compatibles avec le module de vente en ligne. Il en va de même pour les thèmes (qu’ils soient gratuits ou payants) qui intègrent parfaitement les différentes fonctionnalités liées à la vente en ligne (ajout au panier, fiche produit, …). Concrètement, WooCommerce permet de créer la très grande majorité des projets e-commerce, puisqu’il permet de vendre tant des services que des biens matériels et téléchargeables. Le degré de personnalisation peut être très élevé, au vu des très nombreux plugins disponibles.
L’article Les 5 meilleures plateformes </br>e-commerce est apparu en premier sur tactee Agence web.
]]>L’article Les tendances webdesign 2022 est apparu en premier sur tactee Agence web.
]]>Dans cet article, nous allons voir quelles sont les tendances webdesign 2022.
2020 aura déjà vu le retour des formes géométriques dans les tendances designs 2021 et autres logos. Co existantes avec des créations graphiques plus fluides et abstraites, ces créations géométriques marque sans conteste l’année 2022. ! Elles sont synonymes d’ordre, chaque figure véhicule cette notion d’ordre et de rigueur, deux aspects à mettre en avant après une année de chaos ! Les angles droits et autres formes rigides structurent le visuel.
Accéder rapidement à l’information et faire comprendre le message en un temps record : un des objectifs des graphistes clairement affichés ! Et cette simplicité conduit à une tendance, déjà émergente : le minimalisme.
Les formes épurées et le contenu textuel qui va à l’essentiel. Cette tendance design 2022 qui permet d’être plus percutant mais aussi de s’adapter à tous les écrans, et à l’heure du mobile first, c’est loin d’être un détail. Plus qu’une simple tendance, le minimalisme sera amené à durer car dans un monde saturé d’informations, les messages visuels et textuels doivent être concis, clairs et ciblés pour atteindre leur cible.
Si la communication doit imposer l’expertise et la rigueur de l’entreprise, elle doit aussi ancrer la marque dans l’esprit des consommateurs. Se distinguer en s’appuyant sur des éléments graphiques, plébiscités à nouveau par les usagers. Et le pop art et la BD devraient retrouver leur place dans les graphisme des tendances design.
La consécration des polices de caractères XXL : se faire voir de loin, mais dans un style de plus en plus personnalisé et travaillé. Les créations typographiques doivent concrétiser cette envie, alors autant dire que la standardisation n’a plus sa place. Et cette audace envahit même le « lettering pour le packaging », car la différenciation doit se ressentir dans chaque détail. Les typographies manuscrites sont à l’honneur dans la tendance design car elles apportent un caractère humain qui devient primordial pour la valeur des marques.
Année d’engagement, 2021 a marqué la redécouverte des traditions comme les teintes pastel. Cette année, le graphisme s’inscrit dans la continuité de cette tendance d’éco-design. L’esthétique porte les engagements écologiques de l’entreprise et le graphisme participe à ancrer cette image de marque dans un futur éco-responsable. Les actions RSE des entreprises engagées de manière croissante vers une réduction des impressions et l’utilisation de supports de communication écologiques vont de pair avec ce mouvement graphique.
En 2022, les teintes se font plus douces et naturelles, et les pastels retrouvent des couleurs au détriment des coloris plus électriques ! Les couleurs plus chaudes restent plébiscitées, même si l’heure est davantage au dégradé On retrouve cette importance de l’authenticité et du retour aux sources.
L’activisme traverse ce début de décennie et ces années 2020 marchent dans les pas de leur grande sœur, les années folles. Entre crise sanitaire et sociale, les marques elles-aussi se positionnent plus ou moins directement. Les questions environnementales, la mobilisation pour préserver la démocratie ou encore les efforts déployés pour sauvegarder l’environnement, autant de causes pour lesquelles les designers vont devoir traduire l’engagement sociétal.
L’article Les tendances webdesign 2022 est apparu en premier sur tactee Agence web.
]]>L’article L’algorithme MUM de Google : qu’est-ce que c’est ? est apparu en premier sur tactee Agence web.
]]>
Depuis mai 2021, est sorti l’algorithme MUM (Multitask Unified Model). Dans cet article, nous allons faire le point sur cette nouvelle fonctionnalité.
Ce changement d’algorithme est né d’un simple constat : de manière générale, les internautes ont besoin, en moyenne, de huit recherches sur le célèbre moteur de recherche, pour accomplir des tâches complexes.
Véritable problème. MUM va donc permettre aux utilisateurs d’obtenir une réponse à leurs requêtes, qui sont actuellement très difficiles à avoir, en utilisant un algorithme alimenté par l‘IA.
Lors de l’annonce de MUM, Google a donné un exemple : « J’ai fait une randonnée sur le Mont Adams et je veux faire une randonnée sur le Mont Fuji l’automne prochain, que dois-je faire différemment pour me préparer ? ». Aujourd’hui, Google pourrait tout à fait aider l’utilisateur, mais cela nécessiterait de nombreuses recherches beaucoup trop réfléchies : vous devriez rechercher toutes les informations à propos de votre randonnée, comme le matériel à utiliser, etc. Il faudrait faire plusieurs recherches et vous finirez bien par obtenir la réponse dont vous avez besoin.
Avec ce nouvel algorithme MUM très puissant, n’importe quelle requête de ce type pourra obtenir une réponse bien plus satisfaisante qu’auparavant. Les moteurs de recherche que nous avons à disposition actuellement, ne sont pas assez sophistiqués pour pouvoir répondre comme le ferait un réel expert.
Cependant, grâce à MUM, les réponses à des besoins complexes sont extrêmement faciles. A l’avenir, il y aura besoin de réaliser moins de recherches pour accomplir les tâches.
L’algorithme MUM est totalement en capacité de fonctionner en multitâches. Il permet aussi un gain de temps considérable dans les traitements et les analyses de données. C’est parce que MUM est basé sur une architecture open source Transformer, c’est-à-dire un réseau de neurones récurrents « RNN » (Recurrent Neuronal Network), comme peut l’être BERT.
Ce réseau de neurones récurrents va donc aider à bien mieux comprendre les langages et à procéder à des tâches telles que la traduction de contenus en direct ou encore des jeux de questions-réponses. À travers son architecture Transformer, l’algorithme MUM est capable de comprendre plus aisément les contextes des requêtes et va y répondre sans que tous les besoins soient explicités. Cet algorithme va alors pouvoir répondre facilement à vos besoins en matière de recherche vocale, qui sont très difficiles à résoudre habituellement !
Il faut savoir que ce nouvel algorithme de Google peut être utilisé dans 75 langues et il comprend des informations à travers les textes et les images, grâce à sa multi modalité. Il faut savoir aussi que l’algorithme pourrait s’étendre à l’avenir, à davantage de modalités, comme l’audio et la vidéo.
Il n’y a encore aucune date de sortie d’annoncer de la part de Google pour ce nouvel algorithme, même approximative. Il est toujours en phase de test en interne au sein du géant Google. Les seules indications fournies par Google concernant les délais MUM sont les suivantes :
« Dans les mois et les années à venir, nous apporterons à nos produits des fonctionnalités et des améliorations liées à la l’algorithme MUM. Bien que nous n’en soyons qu’au début de l’exploration de MUM, il s’agit d’une étape importante vers un avenir où Google pourra comprendre toutes les différentes façons dont les gens communiquent et interprètent naturellement les informations ».
Il va donc falloir patienter pour pouvoir constater les avancées apportées par ce nouvel algorithme.
Évidemment, l’algorithme MUM ne va pas changer toutes les SERP composées de requêtes simples, mais cette technologie va permettre d’aller encore plus loin en termes de compréhension du langage naturel et d’analyse des requêtes complexes.
Google change relativement rapidement ses modèles dans le but de proposer des améliorations toujours plus complètes et facilitant les manipulations des utilisateurs sur les outils de Google.
L’article L’algorithme MUM de Google : qu’est-ce que c’est ? est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce que Google Page Expérience ? est apparu en premier sur tactee Agence web.
]]>Mais de quoi s’agit-il ? En quoi cette page désormais incontournable, est-elle si différente ? Dans cet article, nous allons faire le point sur toutes ces questions et voir ensemble en quoi consiste la mise à jour Google Page Experience.
Il est vrai que depuis quelques années maintenant, l’expérience utilisateur est au cœur du référencement.
Google Page Expérience est un algorithme permettant au géant Google de comprendre comment un internaute navigue sur les différentes pages d’un site et quelle est son « expérience utilisateur ». Et tout cela dans quel but ? Effectuer un audit technique, c’est-à-dire détecter les erreurs de navigation qui viendraient mettre à mal l’expérience utilisateur.
L’eXpérience Utilisateur ou « UX » (User eXperience) pour les personnes connaissant bien la spécialité, est devenue centrale dès mai 2021. La prochaine mise à jour Page Expérience aura donc un impact considérable sur votre référencement naturel ! Et il faut savoir une chose: le SXO (Search eXperience Optimization) est la notion à retenir.
En fait, la Page Experience est un facteur de classement de recherche qui englobe toutes les facettes de l’UX et calculée grâce à ce que Google appelle des signaux. Une bonne expérience utilisateur sur vos pages permettra d’être bien classé sur le moteur de recherche Google. Et pour cela, vous pouvez vous faire aider par notre agence SEO.
Google a choisi de valoriser l’expérience utilisateur à partir de 2021 afin de privilégier les sites web les plus performants afin de gagner la confiance des utilisateurs. Avant que la connexion sur mobiles ne dépasse celle sur ordinateurs, l’algorithme de Google se concentrait ainsi sur la mise en avant de contenus uniques et de qualité sur les critères E-A-T (Expertise – Authority – Trust), qui mettait donc en lumière une expertise, une certaine autorité et une fiabilité du contenu. Les sites dont le contenu satisfait ces critères ont tendance à avoir de nombreux backlinks de qualité, ce qui renforce leur crédibilité et améliore leur classement.
Même après le déploiement de Page Expérience, les critères E-A-T (Expertise – Authority – Trust) restent d’actualité. Google va toujours favoriser un site web qui met en avant des contenus uniques, fiables et « experts ».
Avec l’arrivée de Google Page Experience, il faut rajouter à cela une optimisation de votre site selon les trois signaux, qui sont :
Un indicateur qui fait référence au « loading » ou temps de chargement. Il mesure notamment le temps de chargement du plus grand élément présent sur une page web et donc, plus globalement, les performances de chargement de la page elle-même. Le temps de chargement préconisé par Google est de maximum 2,5 secondes.
Un indicateur qui concerne la notion d’interactivité. Le FID mesure le temps de réaction d’une page suite à une interaction d’un internaute (clic sur un lien ou un bouton, …). Pour être bon, ce temps de réaction ne doit pas dépasser les 100 ms. Il est évident que Google favorisera un site très rapide du point de vue des interactions.
Ce critère se base sur le concept de « visual stability », c’est-à-dire que cet indicateur calcule la fréquence des changements inattendus de mise en page lors de la navigation. Par exemple : lorsqu’on lit le contenu d’une page et que celle-ci bouge à cause de la présence de publicités, d’images ou vidéos.
Pour ce critère, votre score sera bon s’il est inférieur à 0,1.
Selon les informations données par Google, la mise à jour Google Page Expérience va d’abord avoir un impact sur le classement des pages web en version mobile. Si vous avez un site internet, il faudra donc se concentrer en priorité sur l’expérience utilisateur mobile.
L’article Qu’est-ce que Google Page Expérience ? est apparu en premier sur tactee Agence web.
]]>L’article Quelle importance au ratio texte-code en référencement ? est apparu en premier sur tactee Agence web.
]]>L’optimisation SEO d’un site Internet passe notamment par le respect d’un certain ratio entre le code et le texte. Le concept de ratio texte-code fait donc référence à la quantité de texte qui est visible par un internaute par rapport à la quantité de code HTML d’une page web.
On exprime ce ratio en pourcentage : on estime que celui-ci doit au minimum atteindre 20%. Sachant que plus le ratio d’une page est élevé, plus il y a de texte présent sur la page par rapport à la quantité de code.
Avant d’expliquer en quoi le ratio texte-code a une si grande importance en référencement, il est important de bien comprendre à quoi il est fait référence lorsque l’on parle de texte et de code :
Le ratio texte-code possède une importance capitale en SEO. Bien évidemment, cette technique seule ne permet pas de positionner son site Internet en première position dans les SERPs de Google. Cependant, le ratio texte-code est un indicateur de qualité à ne pas négliger.
Si le ratio entre le texte et le code de la page est faible, le signal envoyé à Google sera négatif. En effet, l’algorithme va considérer que votre site est lent et que son contenu n’est pas forcément qualitatif. Il faut savoir qu’un site Internet dont le code est très long peut souffrir de lenteur : le temps de chargement étant un critère incontournable pour Google, il vaut mieux ne pas négliger cet aspect. De plus, les moteurs de recherches considèrent de façon positive les sites Internet avec un fort volume de contenus… à condition que ces derniers soient qualitatifs.
Pour les internautes également, le ratio texte-code possède une grande importance, même s’ils ne s’en rendent pas forcément compte. En effet, si votre site possède beaucoup de contenu, il sera sans doute plus intéressant pour les internautes. Et si le code n’est pas trop lourd, le temps de chargement des pages sera également optimal : vous limiterez le taux de rebond avec un ratio texte-code élevé.
Vous souhaitez revoir votre stratégie de référencement naturel ? Vous avez l’impression que le ratio texte-code de vos pages web n’est pas optimal ? Dans un premier temps, nous vous conseillons de calculer ce ratio. Vous pouvez par exemple utiliser des services comme Woorank ou Site Analyser.
Une fois que vous connaîtrez le ratio de vos pages, vous pourrez prendre les décisions qui s’imposent pour équilibrer vos contenus rédigés et votre code.
Le premier conseil que nous pouvons vous donner concerne le marketing de contenu. En effet, la rédaction web doit être au cœur de votre stratégie de référencement naturel. Pour augmenter le ratio texte-code d’un site Internet, il n’y a pas de secret. Il faut rédiger des contenus pour les pages les plus importantes de son site. Bien évidemment, il ne s’agit pas de rédiger des textes pauvres et vides de sens. Les textes riches et longs sont privilégiés par les internautes et les moteurs de recherche.
Notre second conseil concerne plutôt le code de votre site Internet. En effet, il va falloir que vous l’allégiez. Bien évidemment, ce n’est pas à la portée de tous. N’hésitez pas à confier ce travail à un référenceur technique ou à un développeur. Ce professionnel pourra facilement alléger votre code tout en préservant votre site Internet. Une fois que le code sera allégé, le temps de chargement des pages sera bien meilleur, ce qui ne pourra être que bénéfique pour votre référencement et votre positionnement dans les SERPs.
Vous voulez que votre site Internet apparaissent dans les premiers résultats des recherches Google ? Vous comprenez l’importance du ratio texte-code, mais vous ne savez pas comment le mettre en œuvre ? Rapprochez-vous de nos experts afin de faire le point sur le ratio texte-code des pages de votre site Internet. En fonction du pourcentage obtenu, nous pourrons vous conseiller une stratégie de référencement naturel adaptée.
L’article Quelle importance au ratio texte-code en référencement ? est apparu en premier sur tactee Agence web.
]]>L’article Faut-il garder un ancien contenu en ligne ? est apparu en premier sur tactee Agence web.
]]>La question qui se pose est donc de savoir s’il faut conserver un ancien contenu dans le cadre de sa stratégie de contenu ? Selon la qualité de celui-ci, vous pouvez procéder à sa suppression, à sa redirection ou à sa mise à jour.
À chaque mise à jour de l’algorithme de Google, il faut s’attendre à de nouvelles règles, et donc de nouvelles pénalités. Si votre site n’est pas conforme aux exigences du moteur de recherche, votre classement sur ses résultats en pâtira.
Pour améliorer votre référencement naturel, vous devez supprimer certaines publications.
Sont parfois considérés comme contenus obsolètes ou de mauvaise qualité :
La redirection est une alternative intéressante en dehors des situations évoquées précédemment. Elle concerne particulièrement le contenu qui n’apporte aucune valeur ajoutée à votre cible et dont le taux de rebond est élevé.
Au lieu d’insérer une passerelle 404 sur la page concernée, mieux vaut faire une redirection 301 vers une page plus pertinente. Cette technique est aussi valable lorsqu’une page continue d’avoir d’excellentes statiques, mais que son contenu n’est plus à la mode.
Si vous avez des pages obsolètes ou en double, l’insertion d’une balise « noindex » évitera la perturbation de votre navigation interne. Dès lors, elles n’apparaitront plus dans les résultats des moteurs de recherche.
La suppression ou la redirection de contenu n’est pas forcément la meilleure solution pour optimiser votre référencement naturel. Si vous avez des articles de blog correctement optimisés, vous pourrez les rafraichir pour améliorer le classement de leur page sur Google.
Le fait de mettre à jour votre contenu vous permet d’être « bien considéré » par Google. Cela présente également de multiples avantages, car vous n’avez pas besoin par exemple de :
Il vous est également possible de rafraîchir vos titres, vos métadescriptions ou encore les extraits de vos codes. Cette méthode vous permet d’optimiser la pertinence de certains mots clés spécifiques, et donc le taux de clics.
Avant de réutiliser vos anciens contenus en les mettant à jour, prenez le temps de les auditer et posez-vous les bonnes questions :
L’idée est de savoir si votre contenu actuel est susceptible d’attirer l’attention de votre cible. Si c’est le cas, n’hésitez pas à le mettre à jour en y intégrant un contenu multimédia tel qu’une vidéo promotionnelle, etc. Dans le cas contraire, vous pouvez le supprimer.
L’article Faut-il garder un ancien contenu en ligne ? est apparu en premier sur tactee Agence web.
]]>L’article La vitesse de chargement des pages et le SEO est apparu en premier sur tactee Agence web.
]]>Or, 40% des visiteurs abandonnent immédiatement une page qui prend plus de 3 secondes à charger. Cela peut sembler minime, mais la perte de conversion s’élève alors à 50 % !
En matière de SEO, les moteurs de recherche prennent ainsi en compte le temps de chargement pour classer les sites web dans leurs résultats, même si le poids de ce critère reste faible.
Si votre site met du temps à s’afficher, notre agence de référencement Google vous donne quelques conseils pour vous aider à optimiser la performance de chacune de vos pages.
La vitesse de page correspond au temps nécessaire à l’affichage d’une page web définie. À ne pas confondre, donc, avec celle du site qui est la moyenne des vitesses de chargement de ses pages.
De nombreux facteurs déterminent la vitesse de chargement d’une page, à savoir :
Sur PC, la vitesse moyenne d’une page est comprise entre 2 et 4 secondes, et 9 secondes sur un terminal mobile.
La page d’accueil de la SNCF n’était pas très performante à l’instant où nous avons utilisé l’outil PageSpeed Insights de Google.
L’algorithme de Google prend en compte la vitesse de chargement dans le classement de ses résultats. Il est donc conseillé d’optimiser le temps d’affichage de son site pour éviter la pénalité du moteur de recherche.
Concrètement, un retard de 0,5 seconde peut occasionner jusqu’à 20 % de perte de trafic.
Si vous négligez cet aspect, les conséquences sur votre référencement naturel seront importantes :
Soucieux de satisfaire les utilisateurs en leur proposant un accès rapide à l’information, Google priorise les sites qui s’affichent rapidement.
Il existe plusieurs solutions techniques pour optimiser le temps d’affichage de vos pages dont voici quelques-unes :
En somme, l’optimisation du temps de chargement de vos pages peut vous aider à dépasser vos concurrents en améliorant votre référencement dans Google.
L’article La vitesse de chargement des pages et le SEO est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce que le Topical Trust Flow de Majestic ? est apparu en premier sur tactee Agence web.
]]>Afin de mesurer la qualité des liens au sein de votre site, Majestic a créé un indice de confiance connu sous le nom de Trust Flow. Dans cet article, nous allons voir les détails de cette métrique et faire une étude du Topical Trust Flow et son utilité pour le SEO.
Le Topical Trust Flow est une fonctionnalité de l’outil de référencement de Majestic permettant de catégoriser les sites web. Cette métrique est souvent utilisée par les agences de référencement naturel dans leurs audits de linking. Elle est issue du Trust Flow qui est un indice de confiance de votre site lié à la qualité des backlinks présents dans vos pages. Le Trust Flow est un indicateur complémentaire du Citation Flow. Cette page sur le Trust Flow et le Citation Flow va vous apporter plus de détails sur le sujet.
Majestic a en effet divisé les différents sites présents sur internet selon des thématiques bien distinctes afin de permettre aux référenceurs de mieux classer leurs sites. La fonction Topical Trust Flow attribue à une page web un score de 0 à 100 pour chaque thématique en relation avec les liens entrants de la page. Il existe plusieurs topiques comme : Arts, Business, Games, Society, etc.
Le Topical Trust Flow va permettre d’optimiser le SEO de votre site pour les différentes raisons suivantes.
En premier lieu, le Topical Trust Flow de Majestic va améliorer la qualité du netlinking au sein de votre site. Vous allez pouvoir profiter d’un audit qualitatif de tous les liens entrants au sein de votre site.
Comme le jus de lien permet de faire profiter à une page web de la popularité des liens entrants, le Topical Trust Flow va vous aider à trouver les meilleurs backlinks. Ainsi, il est important d’acquérir un bon score Trust Flow (supérieur à 30) afin de garantir l’efficacité de votre stratégie de netlinking.
Toutefois, il est important de ne pas interpréter à l’aveuglette les scores de votre Trust Flow. En effet, il s’agit que d’une simple métrique parmi tant d’autres. Ainsi, d’autres facteurs sont à considérer dans une stratégie netlinking comme :
Lors d’une mise à jour des contenus sur votre site, il est important de bien vérifier si les backlinks utilisés ne pénalisent pas votre trafic. Après avoir détecté les backlinks non qualifiés, vous pouvez soit les modifier, soit y attribuer un « NOFOLLOW ». Ce dernier attribut va lui éviter l’indexation par les moteurs de recherche.
Connaître la catégorie de votre site est important afin de permettre d’améliorer votre référencement Google. Grâce au Topical Trust Flow, vous allez mieux cibler les sites ayant les mêmes thématiques. Ainsi, vous allez pouvoir optimiser la qualité de vos liens et orienter chacune de vos pages aux catégories souhaitées.
Dans le cadre d’une stratégie marketing, vous pouvez également utiliser le Topical Trust Flow après avoir effectué une étude de votre « buyer persona ». Pour cela, il vous suffit de placer les liens en relation avec le profil de vos « persona ». Par exemple, si vos cibles sont des entrepreneurs, choisir un thème sur le business, le coaching ou la finance peut être intéressant.
En bref, le Topical Trust Flow est une métrique intéressante à prendre en compte afin d’optimiser le netlinking au sein de votre site. Toutefois, ne vous basez pas uniquement sur les données du Topical Trust Flow, mais intéressez-vous également aux autres métriques.
L’article Qu’est-ce que le Topical Trust Flow de Majestic ? est apparu en premier sur tactee Agence web.
]]>L’article Comment mettre en place une stratégie de contenu en SEO ? est apparu en premier sur tactee Agence web.
]]>Votre stratégie de contenu va de pair avec une bonne stratégie de référencement naturel. Il faut donc lier chaque publication à une recherche de mots-clés pour susciter l’intérêt de l’internaute. Nos équipes maitrisent parfaitement la mise en place d’un stratégie de contenu, n’hésitez pas à faire appel aux experts de notre agence SEO pour vous aider dans cette démarche !
Une stratégie de contenu repose sur l’élaboration d’un plan qui dicte les règles à suivre. Dans le jargon marketing, on parle de la ligne éditoriale. Il s’agit d’une sorte de cahier des charges renseignant clairement vos futurs contenus : thématiques, sujets, calibrage…
Pour construire votre ligne éditoriale, vous devez tenir compte d’un certain nombre de paramètres :
Il convient ensuite de respecter les étapes suivantes :
Pour mettre en place votre ligne éditoriale, vous devez avant tout définir vos objectifs en matière de référencement naturel. Pour cela, posez-vous les bonnes questions :
Selon l’objectif attendu, l’orientation de vos contenus est différente.
Toute stratégie éditoriale efficace, y compris le SEO, repose sur une parfaite connaissance de la cible qu’elle souhaite atteindre.
En effet, les thématiques, les sujets à aborder, le ton ou encore le support à utiliser diffèrent selon votre audience.
Pour définir vos lecteurs, il faut aussi vous poser quelques questions :
Il peut s’agir de consommateurs finaux (professionnels), de décideurs finaux, d’influenceurs ou de prescripteurs.
Vos contenus doivent répondre à la demande de vos cibles et les inciter à parcourir vos autres pages. Le choix du vocabulaire et du ton utilisé est donc crucial pour retenir leur attention.
Plus un internaute reste longtemps sur votre site, plus le taux de rebond est réduit. Cela améliore le PageRank de Google, et donc le classement de votre site sur les résultats du moteur de recherche.
On distingue plusieurs styles rédactionnels, par exemple : pédagogique, humoristique, institutionnel, commercial, etc.
Il existe différentes solutions pour trouver des sujets intéressants susceptibles d’attirer votre cible et la convertir en prospect, puis en client.
Lorsque votre ligne éditoriale est créée, il faut définir une fréquence de publication de vos contenus. Le travail consiste à établir un planning éditorial répondant aux questions suivantes :
Votre calendrier de publication doit également inclure des éléments tels que :
L’article Comment mettre en place une stratégie de contenu en SEO ? est apparu en premier sur tactee Agence web.
]]>L’article Étude : le SEO est une priorité pour 17% seulement des PME est apparu en premier sur tactee Agence web.
]]>
Après une étude effectuée par Sortilist sur 500 PME européennes, l’amélioration du SEO n’est la priorité que pour 17 % seulement d’entre elles. En effet, d’autres critères passent avant comme :
Bien que tous les critères mentionnés ci-dessus possèdent chacun leur importance, le SEO quant à lui est hors catégorie. En effet, le référencement naturel constitue la base d’un site web en garantissant sa visibilité et son positionnement dans les résultats de Google.
Le SEO est alors sous-estimé par la majorité des PME. Bien que 47 % des PME se sont lancées dans la digitalisation avant 2019 en créant un site web, la plupart restent mal informées ou non informées sur l’optimisation de son site.
La majorité des sites web se concentrent plus sur la performance de leurs sites afin de fournir la meilleure expérience utilisateur.
Cette situation n’est pas une mauvaise chose vu que l’expérience utilisateur (liée à la performance du site) est aujourd’hui mise en avant par Google.
Toutefois, le SEO est la première étape pour optimiser un site web et fournir une bonne navigation. Même avec le meilleur contenu et la meilleure ergonomie, les conversions au sein de votre site demeureront constantes sans une optimisation du référencement naturel.
Voici les principaux intérêts de l’optimisation du SEO au sein de votre site.
Le premier avantage du SEO, c’est de rendre votre site visible pour les moteurs de recherche ainsi que pour les internautes.
En effet, sans cette visibilité, vous ne pouvez pas partager le contenu de votre site à vos visiteurs.
Ce paramètre va également vous permettre de vous différencier de vos concurrents. En outre, la visibilité est le premier critère pour percer dans le monde du digital.
Votre SEO va également contribuer à l’augmentation du taux de conversion au sein de votre site. C’est dans cette phase que vos contenus de qualité doivent entrer en jeu.
Il est important de publier des contenus de qualité afin d’attirer des leads qualifiés. La publication d’un contenu de qualité au sein de votre site doit se conclure par un CTA (Call To Action) afin de maximiser votre taux de conversion (dans une logique inbound marketing).
Démarche marketing à part entière, le SEO va vous permettre d’acquérir et de fidéliser vos clients. Grâce à l’augmentation de la popularité de votre site ainsi qu’aux contenus de qualité, vous allez pouvoir acquérir des clients en aval de votre stratégie.
En bref, le SEO est aujourd’hui une stratégie digitale sous-estimée par les PME européennes. Mais paradoxalement, le référencement naturel constituerait normalement la base du succès de leur stratégie digitale.
L’article Étude : le SEO est une priorité pour 17% seulement des PME est apparu en premier sur tactee Agence web.
]]>L’article Zoom sur YourTextGuru, un outil d’optimisation SEO est apparu en premier sur tactee Agence web.
]]>YourTextGuru est une plateforme en ligne fournissant des outils d’aide à la rédaction d’un contenu sur votre site. Objectif : obtenir un meilleur référencement dans Google.
Grâce à ces algorithmes, YourTextGuru peut fournir à ces utilisateurs :
Cet outil va vous permettre ainsi d’enrichir le champ lexical de vos textes et vérifier l’optimisation de ce dernier afin de rester dans les normes (ni sous-optimisé ni suroptimisé).
Le champ lexical est un paramètre important pour améliorer la qualité de vos articles. Comme Google privilégie les contenus de qualité, il est ainsi primordial de ne pas négliger cet aspect lors de la mise en place de votre stratégie de contenu SEO.
YourTextGuru est un outil d’analyse pertinent, mais surtout très instinctif et facile à utiliser. Il peut apporter un brief à la rédaction des articles au sein de votre site. Intégrez ces mots-clés dans vos titres et les descriptions de vos pages.
YourTextGuru suggère des mots-clés et analyse le rendu de votre contenu. La première chose à faire pour profiter des fonctionnalités de l’outil est de créer un Guide. Ensuite, il vous suffit d’introduire votre requête et attendre les réponses provenant de YourTextGuru.
Après avoir tapé la requête contenant le mot-clé principal, vous allez pouvoir visualiser une liste des mots-clés suggérée par la plateforme. Il existe plusieurs catégories de mots-clés dont :
La deuxième fonctionnalité phare de l’outil ? L’analyse de la qualité de votre contenu et l’attribution de scores SEO et DSEO (Danger SEO).
Le score SEO indique le pourcentage d’optimisation de votre site en fonction du nombre de mots-clés contenus dans votre texte.
Le score est situé entre 0 % à 300 %. Comme YourTextGuru va vous afficher les scores des 10 meilleurs sites sur la requête, vous pouvez facilement situer votre contenu en fonction. Le but n’est pas de suroptimiser votre contenu, mais d’acquérir un score plus élevé que les sites concurrents bien positionnés.
Le score DSEO, quant à lui, est un score d’alerte sur le référencement de votre contenu. Il est situé entre 0 % à 20 % et plus le score est élevé, plus votre article peut être considéré comme suroptimisé. Cette situation va directement pénaliser vos pages web.
Toutefois, il ne faut pas oublier que YourTextGuru n’est qu’un outil et une bonne analyse doit aussi passer par un raisonnement humain. En effet, il vous faut analyser vos concurrents. Dans ce cas, les règles peuvent varier. Il peut arriver que ce qui est considéré comme suroptimisé pour une requête ne le soit finalement pas véritablement aux yeux de Google : alors vous pouvez l’adopter aussi.
L’article Zoom sur YourTextGuru, un outil d’optimisation SEO est apparu en premier sur tactee Agence web.
]]>L’article Google Bot : Comment fonctionnent les spiders de Google ? est apparu en premier sur tactee Agence web.
]]>Pour indexer les sites, le moteur de réponses utilise les spiders (aussi appelés robots, , bots, agents ou crawlers). Dans cet article, notre agence de référencement SEO Tactee a étudié le fonctionnement des spiders de Google, leur relation avec l’expérience utilisateur et le budget de crawl (offert par Google) .
Le rôle principal des spiders de Google ou du Googlebot est de crawler. Autrement dit, ils parcourent toutes les pages sur internet et les indexent dans le moteur de recherche de la firme de Mountain View.
Pour cela, les spiders effectuent une visite de vos pages web, puis chargent les contenus sur une base de données. Le texte de vos pages est décomposé en mots et ces derniers seront placés dans l’index de Google.
Voici une liste illustrant les principaux rôles des spiders de Google :
L’index de Google désigne le répertoire de Google composé de milliards de sites web mis à disposition des utilisateurs. Concernant le rôle de Googlebot, il est important de stipuler qu’il ne joue pas directement un rôle d’indexation, mais ne fait que parcourir les divers contenus (domaine, site web, article, page, liens, etc.) à indexer.
Les spiders de Google agissent comme de vrais internautes afin d’optimiser l’expérience utilisateur de Google lors des requêtes. En effet, l’User-Agent détermine une fréquence du crawl selon divers critères liés au site comme la popularité ou le choix technique.
Ainsi, les spiders vont tester le site pour ne pas compromettre l’expérience utilisateur. Par conséquent, la fréquence du crawl sera plus élevée pour les pages dont les contenus sont régulièrement mis à jour que pour les pages statiques. Par exemple, un site d’actualité comme Agro-media est crawlé puis indexé plusieurs fois en une journée.
Afin de permettre aux utilisateurs de trouver des sites répondant à leurs requêtes, Google doit ainsi augmenter la fréquence du crawl pour les sites pertinents. Toutefois, la popularité n’est pas le seul critère pris en compte pour déterminer la fréquence du crawl. Le paramètre est également lié à :
Le budget crawl de Google est étroitement lié à la fréquence du crawl de votre site. En effet, il correspond au nombre de pages limites que les spiders de Google vont parcourir sur votre site web. Cette limite va être fixée en fonction de plusieurs critères, et plus ces derniers seront optimisés plus votre budget de crawl de Google sera important.
Les différents critères à optimiser sont :
L’article Google Bot : Comment fonctionnent les spiders de Google ? est apparu en premier sur tactee Agence web.
]]>L’article Comment nettoyer son site web pour le SEO ? est apparu en premier sur tactee Agence web.
]]>Notre agence SEO Tactee vous donne quelques conseils afin de rendre votre site « propre » aux yeux des moteurs de recherche.
Les liens hypertextes font partie des facteurs pris en compte par les moteurs de recherche pour évaluer la pertinence du contenu d’un site. Au fil du temps, certains d’entre eux peuvent devenir obsolètes. Ils « se cassent » et mènent alors vers des pages non valides ou des pages d’erreur 404 (code qui signale un incident). Il convient donc de s’assurer qu’ils fonctionnent correctement en utilisant des vérificateurs de liens tels que :
Lorsque les erreurs de liens ont été identifiées, il suffit de les modifier ou les supprimer manuellement en optimisant le maillage interne entre les différents niveaux de page.
Le contenu d’un site web doit être unique. Le risque encouru en cas de Duplicate Content : une pénalisation de la part des moteurs de recherche. Parmi les différentes formes du Duplicate Content, la plus courante est le « Duplicate URL, Same Text » ou DUST. Il s’agit d’un dysfonctionnement interne qui renvoie un seul contenu et une même page sous plusieurs URL. Par exemple :
Pour éviter d’être pénalisé par les moteurs de recherche, mieux vaut vérifier la présence de contenus ou de pages dupliqués sur son site. Plusieurs outils peuvent être utilisés :
Il est possible d’éviter le DUST en utilisant la balise link rel= »canonical » ou la fonction de gestion des paramètres dans Google Search Console.
Nettoyer son site web consiste également à vérifier la qualité de ses liens entrants : les fameux « Backlinks ». En effet, un lien de mauvaise qualité ou « toxique » peut impacter grandement le classement du site référencé sur les résultats des moteurs de recherche (SERPs). Outre les méthodes manuelles qui sont parfois complexes et chronophages, il existe plusieurs outils très pratiques :
Cet outil signé Google permet d’examiner efficacement ses backlinks tout en fournissant une multitude d’informations annexes : mots-clés utilisés par les internautes, fréquence d’indexation… Pour ce faire, il suffit de se rendre dans la rubrique « Liens vers votre site ».
Disponible en version gratuite et payante, cet outil de vérification de backlinks permet d’obtenir des informations pratiques comme le nombre de liens pointant vers son site ou leur évolution dans le temps. Il donne également une note de trust flow et de citation flow pour connaître l’indice de confiance du site référencé. Il suffit d’indiquer l’URL de son site, un nom de domaine, ou encore un mot-clé et cliquer sur « Backlinks » pour accéder à tous les liens.
Très pratique, cet outil permet de déterminer le nombre et la qualité des backlinks avec leurs sources. Les résultats proposés peuvent se présenter sous forme de graphiques ou des données chiffrés pour une interprétation aisée.
Une fois la liste des backlinks en main, il faut informer ses anciens partenaires de netlinking que l’on va désavouer leurs liens. Il en va de même pour les sites de mauvais backlinks. Pour procéder au désaveu des liens, il suffit d’utiliser l’outil dans Google Search Console :
L’article Comment nettoyer son site web pour le SEO ? est apparu en premier sur tactee Agence web.
]]>L’article Tout ce qu’il faut savoir sur la balise méta-description est apparu en premier sur tactee Agence web.
]]>La balise méta-description est reconnaissable grâce au code HTML : <meta name= »description » content= »[texte] »/>.
Elle contient un texte résumant en une ou deux phrases le contenu de la page de destination du lien qui s’affiche dans les SERPs des moteurs de recherche. Concrètement, le contenu de cette balise ne sera pas affiché sur la page référencée. Il sera plutôt intégré dans l’élément « head » du code HTML du site (au même titre que la balise Title). À l’instar des autres balises, la méta-description dispose de ses propres attributs, notamment :
Ces informations sont utiles à tous les outils susceptibles de les exploiter tels que les navigateurs web, les moteurs de recherche ou encore les outils d’indexation. En SEO, avoir une balise méta-description de « qualité » permet d’augmenter le taux de clic dans les SERPs.
La balise méta-description doit être à la fois informative et incitative au clic. Ainsi, le texte destiné au snippet des résultats de recherche doit être rédigé convenablement. Bien qu’il n’existe pas de règles fixes dans la rédaction de ce dernier, Google prévoit quelques bonnes pratiques :
Comme chaque année, le géant américain nous réserve des surprises. S’il avait autorisé une méta-description comprenant jusqu’à 320 signes en 2017, il revenait à la taille standard en 2018. De nombreux webmasters étaient donc obligés de modifier leurs balises méta-description. Sachant que la taille moyenne sur Desktop est de 163 signes, contre 132 sur mobile. Concrètement, il n’y a pas de nombre de caractères idéal concernant cette balise. En effet, Google n’accorde pas une grande importance à cette dernière dans le classement de ses résultats. Chacun doit donc faire des tests pour déterminer la taille adaptée dans sa stratégie SEO. En revanche, on apprend que le moteur de recherche réécrit la balise méta-description pour ses résumés textuels dans ses résultats. Selon une étude effectuée récemment par Ahrefs, cette réécriture concerne essentiellement les pages :
En principe, la balise méta-description doit inclure la requête principale de la page cible, idéalement dans les 150 premiers signes. Autrement, le moteur de recherche peut ne pas reprendre le contenu de la balise lorsqu’un internaute effectue cette requête. Dans tous les cas, cela n’aura que peu d’influence direct sur le classement de la page dans les SERPs. Concrètement, il n’y a pas de règle définie dans la rédaction du contenu de la balise méta-description. Néanmoins, celui-ci ne doit pas être composé d’une suite de mots clés, mais il doit plutôt être incitatif au clic.
L’article Tout ce qu’il faut savoir sur la balise méta-description est apparu en premier sur tactee Agence web.
]]>L’article Zoom sur QWANT : le moteur de recherche tricolore est apparu en premier sur tactee Agence web.
]]>Créé par Jean-Manuel Rozan, Éric Léandri et Patrick Constant, Qwant se veut être un concurrent direct de Google. Sa conception et son développement avaient duré deux ans avant son lancement définitif sur la toile en 2013. Initialement, le moteur de recherche utilisait les mêmes algorithmes que ceux de Bing, qui était d’ailleurs son principal fournisseur de technologie. Le saviez-vous ? À l’époque, les dirigeants de la firme ont omis de communiquer ce détail qui aurait dû être annoncé publiquement, ne serait-ce que pour informer les utilisateurs.
Depuis sa mise en service, toute une série de tests a été effectuée et les résultats obtenus ne sont pas toujours satisfaisants. Dans le détail, Qwant propose des résultats presque similaires à ceux de Google pour ne citer que quelques-uns :
Quant à la partie destinée à la rubrique « Shopping », les liens sont issus d’Amazon grâce à un contrat d’affiliation. On s’aperçoit donc que le nouveau moteur de recherche n’utilise pas sa propre technologie, mais plutôt l’API search du géant américain Amazon. Compte tenu de ces résultats, beaucoup se demandent si Qwant peut être considéré comme étant un moteur de recherche indépendant. En effet, Bing, Yahoo, Wikipédia, Kurrently et Amazon sont les principaux fournisseurs de technologie de cet outil se voulant être 100% français. Le « Made in France » n’est donc qu’un mirage, car la firme tricolore utilise finalement maintes technologies américaines.
En matière de référencement naturel, Qwant privilégie les sites web en HTML5. Il recommande également l’optimisation du sitemap.xml et du fichier robot.txt pour faciliter l’exploration des pages (crawl). Comme avec la majorité des moteurs de recherche, la firme hexagonale favoriserait les sites présents sur les réseaux sociaux tels que Facebook ou Twitter. La particularité de ce moteur est qu’il informe les propriétaires des sites sur les différentes modalités de classement, référencement et déréférencement.
Le respect de la vie privée des utilisateurs constitue un enjeu de taille pour les moteurs de recherche. En 2019 par exemple, le géant américain ne respectait pas le règlement général sur la protection des données, ce qui lui valut une sanction de 50 millions d’euros. À ce sujet, Qwant marque un point, car il ne divulgue aucune donnée personnelle de l’internaute à des sites tiers :
L’article Zoom sur QWANT : le moteur de recherche tricolore est apparu en premier sur tactee Agence web.
]]>L’article Nom de domaine expiré : quel impact en référencement ? est apparu en premier sur tactee Agence web.
]]>En quoi consiste cette technique très populaire en SEO depuis quelques années ? Quels sont ses avantages ? Quels sont ses risques ?
Lorsque l’on navigue sur Internet, on trouve de nombreux domaines expirés. Ces derniers n’ont tout simplement pas été renouvelés par leur propriétaire. Si vous êtes sur le point de choisir un nom de domaine pour votre site Internet, nous vous conseillons de vous intéresser à ces domaines libres avant de prendre votre décision. En effet, le référencement d’un site web sur Google est complexe et demande un investissement très important : et si le domaine expiré était une opportunité à saisir en SEO ?
De nombreuses raisons peuvent pousser à privilégier un nom de domaine expiré :
L’achat d’un nom de domaine expiré vous intéresse ? Cela peut être bénéfique pour votre référencement naturel à condition de prendre certaines précautions. En effet, il arrive que certains domaines expirés ne soient pas aussi intéressants qu’ils paraissent.
Certains noms de domaine sont très recherchés. C’est pourquoi il est important d’agir rapidement. Cependant, avant d’acheter un domaine expiré sur un marketplace, il est toutefois préférable de prendre le temps de l’évaluer afin d’éviter les mauvaises surprises.
Voici les différents éléments sur lesquels nous vous conseillons d’être attentif :
Il existe certaines plateformes qui regroupent des noms de domaines expirés et qui vous permettent de sélectionner les métrics que vous souhaitez pour trouver le bon NDD :
Il existe deux principaux risques lorsque l’on décide d’acquérir un domaine expiré :
Enfin, suite à quelques tests, certains référenceurs ont émis l’hypothèse que la redirection 301 depuis un nom de domaine expiré n’apporte plus la hausse de trafic espérée.
Vous allez bientôt réserver un nom de domaine ? Vous vous interrogez sur les domaines expirés ? Rapprochez-vous de votre agence de référencement SEO. Seuls des professionnels du linking pourront vous indiquer si racheter un nom de domaine pourra être bénéfique ou non au référencement de votre site Internet.
L’article Nom de domaine expiré : quel impact en référencement ? est apparu en premier sur tactee Agence web.
]]>L’article Le guide ultime du fichier robots.txt est apparu en premier sur tactee Agence web.
]]>Le fichier robots.txt est relatif au protocole d’exclusion des robots. On doit le premier fichier robots.txt à Martin Koster. Ce dernier travaillait pour Webcrawler en 1994. Le but de la démarche est de priver les robots des moteurs de recherche de certaines ressources du site web. Des ressources que l’on ne désire pas partager sur la toile. Ce fichier indique donc les pages qui ne doivent pas être indexées dans le moteur de recherche. La convention veut que le premier des fichiers lus par les robots des moteurs de recherche soit justement le fichier appelé robots.txt.
Deux raisons principales conduisent à l’usage d’un fichier robots.txt ;
A ce stade, précisons déjà que le fichier robots.txt ne peut en aucun cas faire office d’organe de sécurité. Ce fichier reste accessible à tout le monde. Si les robots bienveillants respectent les consignes édictées dans le fichier, ce n’est pas le cas des robots malveillants, qui cherchent là à obtenir des données personnelles. Ne confondez donc pas robots.txt et sécurité !
Pour le créer, c’est tout simple. Créez simplement un fichier robots.txt sur votre bloc-notes. Et indiquez les restrictions d’indexation que vous souhaitez voir respectées. Faites juste attention à trois choses ;
Chaque instruction se construit sur au moins deux lignes ;
Pour faire au plus simple, voici un exemple forcément particulier :
L’* remplace tous les robots. L’instruction s’adresse donc ici à tous les robots, quels qu’ils soient. Si l’instruction est particulière, voire incongrue, c’est que l’action ‘Disallow :’ n’interdit rien ici. Cela revient donc à ne pas mettre de fichier robots.txt. À l’inverse, si l’on avait écrit ‘Disallow : /’, on aurait interdit toutes les pages du site à l’indexation sur les moteurs de recherche. Ce qui n’est pas non plus le but recherché. Mais cela vous donne une idée du fonctionnement simple du fichier robots.txt.
Quand vous souhaitez bloquer un répertoire donné ou une page spécifique de votre site, il vous suffit d’allonger et de préciser votre ligne de commande ;
Ou
Etc…
Et pour bloquer un seul robot, l’instruction se fait en deux parties ;
Puis
Et/ou
Une wildcard, c’est un joker. Exactement comme lors d’un tournoi de tennis. Certains joueurs se voient attribuer le bénéfice d’un joker leur permettant de jouer même sans y être logiquement qualifiés. En informatique, ce joker prend la forme d’un métacaractère, un caractère présent sur le clavier permettant de prendre la place de bien d’autres. L’* est un métacaractère, ou une wildcard si vous préférez. Le $ aussi… Ces caractères spéciaux ont pour vocation de remplacer le début ou la fin d’un mot. Par exemple, si vous devez rechercher tous les mots commençant par ‘Ami’, vous demanderez ami* et tous s’afficheront.
Dans le cas d’une instruction donnée aux robots indexeurs, vous pourrez par exemple écrire ceci :
Pour refuser l’indexation de toutes les pages contenant un ‘?’ dans leur url.
Agissez de la même façon si vous décidez de couper l’accès à des répertoires spécifiques WordPress :
Le ‘$’ s’emploie plus pour signifier la fin d’une url. En l’occurrence, si vous souhaitez écarter des moteurs de recherche toutes les pages ayant la même terminaison, comme un type de fichier particulier. Pour refuser l’indexation aux fichiers .pdf, vous écrirez :
Et rien ne vous interdit d’interdire l’accès de ces fichiers à un seul moteur de recherche :
Bien entendu, il est possible d’ajouter des commentaires au sein d’un fichier robots.txt. Et d’autant plus si le fichier se révèle assez long et complexe en raison du nombre d’instructions délivrées.
De la manière la plus simple qui soit, en nommant clairement ce que vous voulez décrire, en prenant soin de précéder votre phrase du symbole ‘#’.
Ainsi, vous pouvez nommer toutes les actions que vous entreprenez. La chose est particulièrement intéressante en cas de fichier long (attention à ne pas déborder des 62 ko toutefois), de façon à repérer les différents paragraphes. L’ajout de commentaires n’a qu’un aspect pratique et organisationnel.
Vous pouvez préciser à chaque fois à quel robot est destiné l’instruction, ou pour quels répertoires ou pages vous agissez. Mais vous également laisser la dernière date de modification d’une ligne de commande, ou toute information importante facilitant la compréhension d’un collègue de travail ou d’un autre intervenant sur le site par exemple.
Le fichier robots.txt permet de diriger les robots indexeurs naviguant sur la toile, les crawlers. Ceux-ci lisant le fichier robots.txt respectent ses directives et passent donc volontairement sur l’indexation du contenu de certaines pages ou de certains répertoires. Toutefois, ces pages et répertoires ne sont pas invisibles pour autant. Un lien pointant vers une de ces pages n’en interdit pas l’affichage. Il suffit donc que le lien soit pointé une fois pour le crawler repère l’existence de cette page. Il l’indexera automatiquement, mais en affichant uniquement l’url, sans les balises (title et méta) et donc sans description de la page.
La balise noindex quant à elle, interdit directement l’indexation de la page. Disons que la manière est bien plus radicale. Ici, même en cas de lien pointant vers la page visée, aucune indexation sur le moteur choisi (ou les moteurs choisis) ne devient possible. Dans les faits, les deux actions peuvent s’avérer complémentaire, respectant bien l’ordre des intructions. La balise noindex est plus efficace s’il s’agit de désindexer des pages précises, voire un site entier. Mais dans le cas de dossiers ou de répertoires, noindex ne peut s’installer. De plus, le fichier robots.txt bénéficie d’un autre avantage, il peut délivrer l’adresse du plan dus site aux crawlers.
Le sitemap est un protocole, écrit en format xml ou texte, permettant aux robots d’indexation des moteurs de recherche d’explorer le site en question de manière plus intelligente. Il s’agit d’un plan du site, délivrant quelques précisions sur les différentes pages constitutives du site, comme une dernière date de mise à jour, ou l’importance d’une page par rapports aux autres, par exemple.
Indiquer aux moteurs de recherche que le plan du site est disponible directement dans le fichier robots.txt permet de gagner du temps. Mieux encore, certains moteurs de recherche ne sont pas équipés pour indexer ces listes automatiquement. Le simple fait d’indiquer l’adresse du plan du site sur le fichier robots.txt répare cette erreur. Et les avantages sont intéressants. Comme le fait d’obtenir des statistiques auprès du moteur de recherche sur les différentes landing pages. Pour l’intégrer, il suffit donc simplement d’ajouter l’instruction suivante :
Sitemap : http://www.mangezdesfraises.com/sitemap.xml
Notez que le fichier xml permet plus de possibilités qu’un fichier texte, qui se contentera de lister les pages. Grâce au xml, vous pourrez indiquer les fréquences de mises à jour, la date de la dernière mise à jour et l’importance relative d’une page par rapport aux autres. Cette ligne de commande ne dépend pas du User-agent. Elle peut donc se situer n’importe où dans le fichier robots.txt, au tout début comme à la toute fin.
Pour une seule adresse à fournir, reprenez l’exemple fourni plus haut. Mais si vous possédez deux sites (un site et un blog) et qu’ils jouissent de plans différents, rien ne vous interdit de placer les deux dans le même robots.txt :
Sitemap : http://www.mangezdesfraises.com/sitemap-pages.xml
Sitemap : http://www.mangezdesfraises.com/sitemap-blog.xml
De la même façon, un fichier compressé par 7zip donnera la commande suivante :
Sitemap : http://www.mangezdesfraises.com/sitemap.xml.7z
Et vous pouvez aussi donner les deux versions de votre plan de site aux robots. Dans ce cas, vous écrirez une ligne pour le format compressé et une autre pour le format décompressé.
Enfin, si votre plan de site est découpé sur plusieurs fichiers, indiquez seulement aux robots d’indexation la page d’index du plan de site permettant de diriger les crawlers vers toutes les pages du sitemap :
Sitemap : http://www.mangezdesfraises.com/sitemap-index.xml
Il existe quelques petites erreurs à éviter quand on code le fichier robots.txt ;
Mais les erreurs les plus courantes concernent la directive User-agent, et souvent dans le même cas de figure ; celui où vous interdisez l’accès à une page ou un répertoire spécifique à un robot en particulier. Admettons que vous ayez interdit à tous les moteurs de recherche une page appelée ‘fraisesenboite’ et que, dans le même temps, vous ne souhaitez pas que le Googlebot ait accès à une autre page appelée ‘fraisesdhiver’ sur votre site. D’après les exemples mentionnés plus haut, vous allez écrire ;
A première vue, ça pourrait paraître cohérent. Mais dans les faits, vous autorisez l’accès de la page ‘fraisesenboite’ au robot Googlebot. En effet, à compter du moment où vous avez ciblé un bot précis, il ne respecte que les consignes qui lui sont directement destinées, en oubliant celles valables pour tous les moteurs de recherche, dont lui. Dans notre cas précis, il vous faut donc ajouter une ligne :
Aux instructions sélectionnant spécifiquement le bot Google.
Dons, en cas d’instructions différentes pour un bot par rapport aux autres, il aura besoin des mêmes instructions communes à tous les robots indexeurs, en plus des instructions qui lui sont plus précisément destinées.
Pour simplifier les choses et éviter des oublis, il est possible de regrouper les directives communes à deux ou plus sieurs crawlers. Par exemple, si vous ne souhaitez pas que les crawlers de Bing et de Google indexent certaines pages, regroupez les User-agent :
Alors qu’il n’était pas forcément obligatoire par le passé, le slash en début de règle est devenu un caractère indispensable à la bonne compréhension des spiders des moteurs de recherche, surtout en cas d’utilisation de wildcards, ou jokers. Depuis plus de 2 ans désormais, Google, entre autres, a décidé de modifier son mode de lecture des différentes commandes des fichiers robots.txt. Ainsi, vous n’écrirez plus :
Mais
Un petit détail qui n’a l’air de rien mais qui peut avoir une grande incidence sur l’indexation de vos pages. Par exemple, si vous décidiez de camoufler toutes les pages de commentaires sur votre site, et que vous taper :
Vous risquez au contraire d’en donner le libre accès aux crawlers. Il vous faudra donc l’écrire :
La fin de la règle peut aussi avoir son importance, encore une fois, surtout avec l’usage des jokers. Selon ce que vous souhaitez, le dernier caractère définit la règle à suivre pour le bot. L’* remplace une chaîne de caractère et peut donc se situer en fin de règle. En ce cas, cela signifie que toutes les url commençant par les caractères définis ne devront pas être indexées :
Si vous terminez votre instruction par un ‘/’, inutile d’ajouter une ‘*’ derrière. Le slash signifie que toutes les sous-pages de la première instruction ne seront pas indexées non plus :
Est équivalent à
Toutefois, il se peut que vous décidiez que seule la première page soit indexée, et pas les url du répertoire inhérent. Dans ce cas, vous préciserez la chose à l’aide du ‘$’ :
Si l’ordre n’a pas d’importance, le ‘$’ lui, en a énormément. En cas d’oubli dans ce cas précis, vous donneriez deux ordres contradictoires aux crawlers.
La casse a son importance dans deux cas seulement ;
En cas de casse non respectée dans l’expression du fichier robots.txt, le robot sera incapable de le trouver. Idem en cas de casse non respectée sur une url, le robot ne pourra pas l’indexer.
Pour le reste, aucun problème en ce qui concerne les directives de type User-agent. Que vous l’écriviez comme ça :
Ou comme çà :
Voire comme ça :
Cela n’a aucune importance. Les robots sauront lire les commandes.
Si vous suivez les performances statistiques de votre site, il peut vous arriver d’avoir quelques surprises, comme une fréquentation provenant d’une localisation où ne se trouve aucun client potentiel de votre entreprise. Regardez alors depuis quels moteurs de recherche proviennent ces visiteurs impromptus. Imaginons que votre site soit très bien indexé par Baidu, mais que vous n’avez rien à faire sur le territoire chinois, vous pouvez alors interdire l’indexation de votre site à Baidu. Dans votre fichier robots.txt, vous allez donc reprendre la directive suivante :
Vous indiquez ainsi à Baidu que tout le site lui est interdit à l’indexation. N’oubliez pas de reproduire la même commande pour tous les dérivés du moteur de recherche :
De cette façon, vous conservez la bande passante de votre serveur pour vos clients potentiels, plus à même de répondre favorablement à vos offres.
Au risque de nous répéter, le fichier robots.txt ne peut en aucun cas faire œuvre de pare-feu ou d’organe de sécurité de votre site internet. Son seul rôle est de délivrer des directives aux moteurs de recherche pour faciliter la lecture du site et même optimiser un peu son SEO. Bien sûr, ces moteurs de recherche auxquels nous nous adressons sont munis de bots bienveillants. Mais c’est loin d’être le cas de tous les bots traînant sur la toile. D’autres ont des intentions bien plus malignes. Si bien que le simple fait de spécifier que l’on désire cacher un dossier secret aux yeux de la toile devient un véritable phare brillant de mille feux pour un hacker. Rappelons que le fichier robots.txt est facilement visible par tout le monde. Il suffit simplement à l’internaute d’ajouter /robots.txt/ à la fin de l’url du site pour y avoir accès. Tous vos secrets sont donc accessibles facilement, même s’ils ne sont pas indexés par les moteurs de recherche.
L’idéal pour cacher vos fichiers secrets au sein de votre site, sans le crier sur tous les toits avec un beau ;
C’est d’opter pour un fichier .htaccess dans le répertoire /fichier_secret. En tapant cette commande dans ce fichier .htaccess :
Vous déclenchez automatiquement l’inscription d’un Tag dans chacune des pages de votre répertoire. Ce code :
Signifiera aux moteurs de recherche qu’ils n’ont pas le droit d’indexer les pages du répertoire choisi par vos soins, exactement comme avec un ‘Disallow’, mais la différence près que cette fois, tout e monde n’est pas au courant. Et comme vous ne déclarez rien à cacher, vous risquez moins de visites de curieux, qui ne cherchent pas ce que vous n’avez pas à cacher, mais que vous cachez quand même…
Il arrive parfois que les crawlers ne respectent pas vraiment les instructions délivrées par le fichier robots.txt. Non pas que ces petits bots cherchent à jouer avec nos nerfs en ne respectant pas les règles, mais bien qu’il existe une forte chance qu’une erreur se soit glissée dans l’url. Et ça, on le doit souvent aux caractères dits spéciaux. Les caractères spéciaux, ce sont tous les ([ !% ?)], etc, etc. Et ces derniers peuvent être reconnus simplement par les crawlers… Ou pas du tout.
Une url sans chaîne de paramètre accepte volontiers un ou plusieurs caractères spéciaux. L’instruction délivrée dans le fichier robots.txt est bien appliquée. Mais tout change lorsque l’url contient une chaîne de paramètre. Là, il devient nécessaire d’encoder les caractères spéciaux. Encore faut-il connaître les codes en question pour pouvoir transformer un espace ou un crochet en langage compréhensible par les bots.
Puisque nous en sommes là de nos pérégrinations sur le sujet, autant aller jusqu’au bout et vous livrer les interprétations des caractères spéciaux ;
Vous pouvez noter que certains caractères spéciaux ne nécessitent aucun encodage, peu importe leur localisation, avec ou sans chaîne de paramètre. On les retrouve identiques dans le REQUEST_URI et dans le QUERY_STRING. D’autres, à l’inverse, demandent un encodage permanent. Enfin les crochets ne s’encodent que lorsqu’ils sont présents au sein d’une chaîne de paramètre
[ultimatetables 1 /]
Ici, pas de doute possible. Tous les caractères accentués doivent être encodés dans les url, où qu’ils se trouvent. Sans quoi, la directive ne sera pas acceptée par les bots.
En nous permettant de maîtriser l’intrusion permanente des spiders et des crawlers des moteurs de recherche, le fichier robots.txt rend d’immenses services. La chose est simple, à coder et demande juste quelques automatismes pour permettre de jouer avec Google, Yahoo, Bing et consorts. S’il peut arriver que deux moteurs de recherche ne lisent pas exactement les instructions de la même façon, tous sont calibrés sur le même principe. 9 fois sur 10, ce qui est bon pour Google est bon aussi pour les autres. D’où l’intérêt primordial de bien travailler son fichier robots.txt, et de comprendre la démarche complète permettant cette optimisation de recherche et d’indexation de la part des moteurs. Il ne reste plus qu’à travailler le sitemap pour optimiser plus encore le SEO.
L’article Le guide ultime du fichier robots.txt est apparu en premier sur tactee Agence web.
]]>L’article SEO : pourquoi et comment optimiser ses vidéos pour votre site ? est apparu en premier sur tactee Agence web.
]]>Les effets d’une vidéo sur le trafic et le référencement naturel d’un site web sont nombreux. Elle vous permettra de :
Les bienfaits d’une vidéo, en particulier sur le référencement naturel, sont nombreux. En revanche, la publication de ce type de contenu ne s’improvise pas !
Séduit par les effets d’une vidéo sur le référencement naturel et le trafic d’un site web ? Attendez encore un peu avant de vous jeter à l’eau ! Avant même de passer à l’étape de la réalisation, il est essentiel de définir votre stratégie vidéo en vous posant les questions suivantes :
Les questions du paragraphe précédent vous aideront à définir la stratégie éditoriale de votre publication vidéo. Mais ce n’est pas tout : vous devez aussi penser à l’optimisation technique de ce type de contenu. Il est donc temps de mettre les mains dans le cambouis !
Les principes du référencement naturel changent assez peu ; il suffit de les adapter au type de contenu que vous souhaitez publier. Dans le cas d’une vidéo, il faudra faire à attention à :
Quel que soit le type de site web que vous administrez ou optimisez, chacune des actions que vous engagez (sur le plan du marketing, de la vente ou encore de la promotion des contenus) doit pouvoir être évaluée. Il est essentiel de définir des instruments de mesure qui soient à la fois fiables et opérationnels : ce sont les fameux key performance indicators, ou KPI.
Et les vidéos n’échappent pas à la règle : vous devez pouvoir quantifier, mesurer ou évaluer les effets de ce type de publication afin d’ajuster votre stratégie de contenu et/ou de l’optimiser. De telles mesures pourront aussi mettre en évidence d’éventuels problèmes techniques, qui n’apparaissent pas toujours au moment de la publication.
Pour évaluer l’efficacité des vidéos que vous publiez sur votre site ou sur votre blog, plusieurs KPI peuvent être retenus en fonction de vos objectifs. Les indicateurs clés de performance d’une vidéo sur un site e-commerce seront différents de ceux d’un blog ou du site d’un consultant, par exemple.
Avant de piocher parmi cette liste non-exhaustive de KPI pour vos vidéos en ligne, prenez donc le temps d’affiner votre stratégie et vos objectifs. Cette vidéo a-t-elle pour mission d’augmenter le trafic sur votre site, de convertir les internautes en clients ou simplement de les divertir dans un processus de fidélisation ? En fonction de votre (ou vos) réponse(s) à cette question, vous pourrez sélectionner les bons indicateurs dans cette liste avant de la compléter :
Vous l’aurez compris, la vidéo s’impose désormais comme un contenu web majeur. Il est donc essentiel d’y avoir recours pour promouvoir votre business en ligne, à condition de veiller à son optimisation. Et ne vous y trompez pas : l’optimisation et la qualité d’une vidéo ne saurait se résumer à son référencement . L’expérience de l’utilisateur doit rester au centre de votre démarche pour que votre vidéo produise les effets souhaités !
L’article SEO : pourquoi et comment optimiser ses vidéos pour votre site ? est apparu en premier sur tactee Agence web.
]]>L’article Negative SEO : Le reconnaitre et s’en protéger efficacement est apparu en premier sur tactee Agence web.
]]>Ce premier article, balaie simplement quelques techniques, nous allons étoffer le sujet le long des semaines à venir, pour entrer dans plus de détails techniques.
Tous les moteurs de recherche recourent à divers algorithmes afin de localiser les sites de qualité et de leur offrir les meilleures places dans leur classement. Cela est possible grâce à un bon référencement SEO et des mots-clés appropriés. Par contre, les sites proposant des contenus dupliqués ou suroptimisés ainsi que des informations non pertinentes se retrouvent avec un mauvais classement et risquent même d’être sanctionnés par les moteurs de recherches. Pour éviter cela, un bon référencement naturel est donc capital.
Toutefois, il arrive que des webmasters peu scrupuleux détruisent le référencement naturel de leurs concurrents. Pour cela, ils pénètrent illégalement les plateformes et y insèrent des contenus plagiés, des informations de masse et d’autres éléments qui détruisent la réputation du site piraté. Cette action s’appelle le negative SEO ou NSEO, même si les hackers n’agissent pas sur un « cassage » de prix, nous nous rapprochons d’une concurrence déloyale. Nous ne sommes pas à l’abri de ces pratiques qui peuvent nuire à notre réputation. Les adeptes du NSEO détruisent ensuite leurs concurrents en les dénonçant aux moteurs de recherche, en dénigrant le contenu de leur site ou en créant de faux profils sur les réseaux sociaux dans le but de nuire.
Perturber le référencement SEO d’un ou d’autres sites est une activité nuisible qui malheureusement devient de plus en plus courante. Pour y arriver, les coupables utilisent de nombreuses techniques qu’il faut reconnaître immédiatement afin de s’en prémunir. Voici un exemple de 4 techniques employées pour faire du negative SEO :
Cette technique consiste à détruire vos statistiques en utilisant un faux trafic. Les statistiques permettent aux référenceurs d’améliorer le contenu de la page web. Aussi, les adeptes du NSEO génèrent un flux important de données sur cette dernière. En envoyant un faux trafic sur un site, les hackers SEO détruisent les statistiques, et ralentissent votre site en faisant en sorte que la bande passante dépasse le niveau autorisé par l’hébergeur.
Cette pratique est très problématique, surtout pour les sites disposant de magasins bien réels. Elle permet de détruire la e-réputation d’une marque en recourant aux SPAM. Très préjudiciable, cette technique consiste à envoyer des spams massifs par e-mail ou des popunder sur lesquels le nom de votre marque sera bien visible. Cette tentative poussera alors les consommateurs à considérer votre site comme étant une farce, ce qui détruit irrémédiablement votre prestige, et cela en très peu de temps.
Véritable cauchemar des référenceurs SEO, cette technique consiste à pirater un site puis à y insérer massivement des contenus médiocres, spinnés ou dupliqués. Cette action se fait surtout sur les forums de discussions qui ne sont pas bien modérés. Les pirates y déposent un grand nombre de contenus dupliqués qui est repéré par les moteurs de recherche qui sanctionne ensuite votre site.
Cette technique est également utilisée pour ruiner une e-réputation. Grâce aux réseaux sociaux, les pirates créent de nombreux avis négatifs sur les sites concurrents. Ils recourent ensuite à de faux profils et au « content spinning » pour générer des avis négatifs de masse en quelques heures. Cette technique permet de saboter la réputation d’un site et de lui faire perdre de nombreux clients et contacts.
Le negative SEO est une action préjudiciable visant à détruire notre e-réputation d’un concurrent ou à nous faire perdre notre place dans le classement des moteurs de recherche. Il est donc important de repérer au plus vite les tentatives de NSEO. Pour cela, vous devez les gestionnaires traquer des signes plus ou moins faciles à repérer.
Nous savons que nous sommes victimes du negative SEO lorsque nous notons :
Votre site peut être à tout être victime d’une attaque de NSEO à tout moment. Pour éviter cela, certaines précautions doivent être prises. Vous devez commencer par faire de fréquents audits SEO qui en plus de sécuriser votre site vous permet de renforcer votre réputation et d’améliorer votre place dans les classements. La vitesse de chargement est un critère important pour les sites Internet. Grâce à des logiciels adéquats, vous pourrez juger de la vitesse du vôtre. Si ce dernier est trop lent, il risque d’être pénalisé par les moteurs de recherche. C’est aussi un signe que vous devenez victime d’un NSEO.
La recherche de contenus dupliqués est également une bonne méthode pour se protéger du negative SEO. Ces derniers sont préjudiciables à votre site et peuvent vous pénaliser. Pour détecter de possibles plagiats, il faut recourir à des logiciels agréés. Enfin, la mise en place d’une veille de e-réputation est nécessaire. Cette dernière assure la réussite du site web, aussi il ne faut pas la négliger. Il est important de suivre les commentaires des internautes concernant le site. Si vous trouvez des publications malveillantes ou infondées concernant votre page web, vous pouvez les signaler en tant qu’abus.
Nous savons qu’il faut des années pour se bâtir une bonne e-réputation. Pourtant, il suffit de quelques minutes à un hacker pour ruiner tout votre travail. Après une attaque de NSEO, il est difficile de récupérer sa place dans le classement des moteurs de recherche. Le mieux que vous puissiez faire dans ces cas-là, c’est de vous armer de patience et de mettre en place de bonnes pratiques SEO pour récupérer votre position initiale dans les classements.
Si vous avez été une fois victime du negative SEO, sachez que les hackers peuvent recommencer. Pour cela, vous devez prendre les précautions nécessaires afin de protéger votre site, son contenu et surtout votre e-réputation. Pour vous prémunir contre d’éventuelles attaques, vous devez renforcer la sécurité de votre site en réalisant régulièrement des tests, en installant des plug-ins ou en mettant en place des mesures contre le piratage. Si vous disposez de profils sur les réseaux sociaux, reliez-les avec votre site web afin de mieux les protéger. Cela vous permettra également de repérer les tentatives d’atteinte à votre e-réputation.
Il est également important que vous vérifiiez régulièrement votre trafic de données et vos backlink. En gardant un œil sur vos sources et vos liens, vous pourrez rapidement détecter de nouvelles tentatives de negative SEO. Enfin, vous devez vous assurer que votre site ne présente pas de contenus dupliqués qui pourraient alerter les moteurs de recherche qui vous pénaliseront par la suite.
L’article Negative SEO : Le reconnaitre et s’en protéger efficacement est apparu en premier sur tactee Agence web.
]]>L’article Taux de conversion : pourquoi et comment l’optimiser ? – Notre Guide est apparu en premier sur tactee Agence web.
]]>Malgré son importance cruciale pour l’ensemble des acteurs du web, à commencer par les sites e-commerce, le taux de conversion n’est pas (et n’a jamais été) un critère de pertinence en SEO.
Mais si un taux élevé ne vous aidera pas à améliorer votre positionnement dans les SERP, il participe votre prospérité en ligne.
Une meilleure compréhension de cet indicateur de conversion et des façons de l’améliorer vous aidera donc à optimiser votre site, de façon à le rendre plus rentable et plus visible. Découvrez comment dans ce guide pratique !
Si le taux de conversion (appelé aussi taux de transformation) fait partie des indicateurs les plus utilisés par les SEO et administrateurs de sites web, il est aussi l’un des plus mal compris. Souvent associé au secteur du e-commerce, il s’est au fil des ans confondu avec le nombre d’achats réalisés sur les sites de vente en ligne.
Pourtant, il ne peut se résumer au passage à l’achat. Sur le web, la conversion de l’internaute peut prendre des formes diverses : elle peut se traduire par l’essai d’une démo gratuite sur votre site, une demande d’informations ou de devis, mais aussi par une simple prise de contact ou par l’abonnement à une newsletter.
De l’internaute au client, il existe donc de nombreuses étapes : chacune d’entre elles fait l’objet d’un suivi de conversion plus ou moins important au regard de votre activité en ligne. Et pour vous donner une idée du taux de conversion enregistré par les sites e-commerce en France, tous secteurs confondus, la fevad fait état d’une moyenne de 2,3% pour le premier trimestre 2015. Autant dire que des efforts significatifs restent à faire en la matière !
Comment calculer votre taux de transformation, l’opération est simple :
TdC= action réalisée / par nombre de sessions (visiteurs)
Vous avez 100 visiteurs sur votre site, 10 de ces visiteurs réalisent un de vos objectifs (achat) votre taux de conversion est donc 10 / 100 (le tout ramené en %° soit 10%
Sur 5000 visiteurs 25 réalisent une conversion : nous aurons alors un taux de conversion de (25/5000)*100 soit 0,5% etc….
Normalement, si vous avez installé sur une solution de suivi (Google Analytics, Piwik Matama, AT Internet pour ne citer qu’eux), le taux de conversion du commerce électronique analytics est calculé automatiquement.
Tout dépend de la nature de votre site, et des internautes auxquels il s’adresse ! En fonction de la simplicité ou, au contraire, de la complexité de votre parcours client, le nombre de taux de conversion à calculer (puis à optimiser) peut varier. L’essentiel, c’est bien évidemment d’identifier ces taux de conversion avec précision si vous souhaitez les améliorer significativement.
La réponse est non. Et ce n’est pas nous qui le disons, mais bien John Mueller, analyste et porte-parole de Google. Selon le spécialiste, le moteur de recherche serait en effet incapable d’évaluer les taux de conversion des sites web qu’il accueille sur ses SERP —ce dont il nous est permis de douter.
Ne vous y trompez pas : Google et ses robots d’indexation sont tout à fait en mesure d’analyser les interactions des internautes avec votre site, et notamment le temps qu’ils y passent ou les liens sur lesquels ils cliquent. Le taux de conversion ne serait donc pas un critère de pertinence en SEO, mais les mises à jour fréquentes des algorithmes de Google doivent nous conduire à nous montrer prudents.
Puisque les taux de conversion enregistrés par votre site web ne font pas partie des critères officiellement retenus par les robots d’indexation, pourquoi sont-ils si importants ?
Tout d’abord, parce qu’ils témoignent de la qualité de votre site. Un taux de conversion élevé vous indique que les internautes sont séduits par l’expérience utilisateur que vous leur proposez, tant du point de vue de l’offre commerciale que celui du contenu ou de la navigation. Et qui dit « site web de qualité » dit aussi « bon positionnement sur les moteurs de recherche » : la boucle est bouclée !
Ensuite, parce qu’un taux de conversion élevé signifie que votre site est rentable. Et si c’est particulièrement vrai pour les sites e-commerce, les blogs professionnels et les sites-vitrine des indépendants ne sont pas épargnés ! Quelle que soit la nature de la conversion de l’internaute (achat, prise de contact, inscription…), son taux vient valider (ou sanctionner) les actions mises en place pour le séduire et lui donner envie d’acheter vos produits ou services.
Le (ou les) taux de conversion de votre site web doivent donc être constamment optimisés. Découvrez comment dans la troisième et dernière partie de ce guide.
Pour améliorer les taux de conversion de votre site, vous devez avant toute chose définir avec précision les objectifs recherchés.
En effet, pour amener les internautes à cliquer là où vous le souhaitez, il vous faut d’abord savoir ce que vous attendez de votre site. Dans le cas d’une boutique en ligne, le taux de conversion le plus important correspond généralement au passage à l’achat ; dans le cadre d’un site de consultant ou d’indépendant, il correspondra plutôt à la demande d’un devis ou à une prise de contact.
À chaque fois que c’est possible, détaillez les différents taux de conversion qui rythment le parcours client sur votre site : un internaute devient d’abord un prospect, avant de se transformer en client. Plus son parcours, et les taux de conversion qui le ponctuent, vous apparaîtront clairement, et plus leur optimisation se révèlera efficace.
D’une façon générale, les taux de conversion enregistrés par votre site dépendent du nombre de clics sur des liens particuliers : il s’agit des appels à l’action (ou calls to action, pour la version anglophone). Ces appels à l’action correspondent aux liens qui mènent vers une page de vente, un formulaire d’inscription à une newsletter ou de prise de contact. Ils doivent donc être conçus en fonction des actions que vous souhaitez voir les internautes réaliser sur votre site.
Quelle que soit la nature de vos calls to action, leur optimisation constitue le plus sûr moyen d’améliorer votre taux de conversion. Pour ce faire, vous devez :
Quoi de plus frustrant qu’une redirection 404 (surtout si l’on est sur le point d’acheter un produit ou d’envoyer un message au propriétaire d’un site) ? Quoi de plus rageant qu’un lien qui ne mène pas à la page promise par son ancre, ou qu’une rubrique dont le libellé ne correspond pas tout à fait (voire pas du tout) à son contenu ? Combien de clients potentiels perdez-vous chaque jour à cause d’une architecture web peu claire ?
L’amélioration de votre taux de conversion passe aussi par une expérience utilisateur agréable et fluide. Si vous devez identifier les différentes étapes du parcours de l’internaute, ce dernier ne devrait même pas se rendre compte qu’il est en train de les franchir. La transformation des visiteurs en prospects, puis en clients dépend donc directement de la clarté de votre site web, tant sur le plan de la navigation que sur celui du contenu !
L’article Taux de conversion : pourquoi et comment l’optimiser ? – Notre Guide est apparu en premier sur tactee Agence web.
]]>L’article Duplicate content et near duplicate content : Notre guide pour les reconnaître est apparu en premier sur tactee Agence web.
]]>Zoom sur les contenus dupliqués et quasi-dupliqués, leurs effets sur votre référencement naturel et les façons de les détecter pour mieux les éviter.
Le duplicate content peut se concevoir comme une version web du plagiat. Certains administrateurs de sites n’hésitent pas à reprendre (et republier) des parties, quand ce ne sont pas des pages entières, de sites web concurrents : c’est ce qu’on appelle le contenu dupliqué.
Cette forme de copie peut se dissimuler, puisque certains sites reprendront « seulement » un paragraphe, un titre, et même les balises « meta title » ou « meta description » pour brouiller les pistes. Il arrive cependant que le contenu de sites entiers soient copiés, entraînant de graves conséquences sur leur référencement et leur trafic.
Le near duplicate content est plus subtil, mais tout aussi dangereux sur le plan du SEO : il consiste à reprendre certaines parties d’un contenu original, et à les remanier de façon à ce qu’elles ne soient pas perçues pour ce qu’elles sont (du contenu dupliqué). Vous pourrez donc retrouver vos articles entièrement paraphrasés, ou réorganisés dans une structure différente (ordre des paragraphes inversé, par exemple).
Le moteur ne sanctionne pas le contenu dupliqué. Malgré une idée largement répandue au sein de la communauté web, le plagiat en ligne ne fait pour l’instant l’objet d’aucune pénalité officielle ! Les conséquences négatives du duplicate et du near duplicate content n’en sont pas moins réelles, et s’exercent au niveau du positionnement, du trafic et de la qualité perçue de votre site web. Découvrez comment.
Les contenus dupliqués entraînent une réaction en chaîne, qui touchera autant le référencement de votre site que sa valeur perçue par les internautes. Les pratiques du duplicate et near duplicate content restent donc risquées, malgré l’absence de pénalité Google.
Le premier effet négatif de la duplication de contenu s’opère au niveau du positionnement du site dupliqué sur les SERP des moteurs de recherche.
Pour répondre de la manière la plus précise possible aux requêtes des internautes, Google et consorts s’attachent à proposer des sites web de grande qualité parmi leurs premiers résultats. Pour ce faire, les robots d’indexation évaluent la longueur des contenus, leur structure hiérarchique et leur corpus sémantique, mais aussi… leur originalité. Aux yeux du moteur de recherche, un contenu qui apparaît deux fois (ou plus) sur le web ne présente aucun intérêt pour l’internaute ; il y a donc de fortes chances pour que votre contenu dupliqué soit relégué parmi les dernières places de son classement.
Attention : les moteurs de recherche n’effectuent pas de recherche d’antériorité pour distinguer le contenu original de sa version dupliquée ! Votre bonne foi ne vous sera donc d’aucune utilité (ou presque) sur le web, contrairement au plagiat dans la vie réelle.
Quel que soit le degré de qualité de vos contenus web, leur apparition sur deux ou trois sites différents contribuera à les rendre moins attractifs pour les internautes. N’oubliez pas que ces derniers n’ont, en général, aucun moyen de savoir qui a dupliqué qui. Et dans le doute, la plupart d’entre eux abandonneront votre site pour consulter des contenus uniques chez vos concurrents.
Si un taux de rebond élevé peut résulter de facteurs divers et variés, la duplication ou la quasi-duplication de contenu en fait partie. Surveillez cet indicateur de près et, le cas échéant, vérifiez que le duplicate content n’est pas à l’origine de la « fuite » des internautes.
La conséquence logique d’un mauvais positionnement et d’une faible qualité perçue par les internautes se traduit presque toujours par une perte de trafic plus ou moins importante. Cette baisse de trafic sera d’autant plus forte si les sites qui dupliquent vos contenus sont particulièrement visibles sur les moteurs de recherche.
Vous l’aurez compris, les contenus dupliqués et/ou quasi-dupliqués vous font rentrer dans une spirale infernale dont il est difficile de s’extraire. Il est donc essentiel de protéger vos contenus de la duplication : comment faire ?
S’il n’existe pas de moyen légal pour lutter contre le plagiat en ligne, vous pouvez l’éviter en soignant la conception de vos propres contenus tout en maintenant une veille constante sur les sites web de votre secteur.
Si vous rédigez vous-même les contenus de votre site, pensez à varier vos sources et ne les limitez pas aux recherches sur le web. Puisez votre inspiration dans les magazines qui traitent de votre thématique, dans des livres ou même en assistant à des conférences sur le sujet qui vous intéresse. Il n’est bien sûr pas question de plagier des sources différentes, mais bien de les étoffer pour éviter de dupliquer, même involontairement, des sites tiers.
Et si vous confiez la rédaction de vos contenus à un prestataire, n’hésitez pas à vérifier l’originalité de ses textes avec l’un des outils présentés plus bas !
Pour lutter contre la duplication de vos propres contenus, commencez par identifier les sites qui plagient vos pages, billets de blog et autres actualités. En fonction de l’ampleur du plagiat, vous pouvez :
S’il peut vous arriver de tomber par hasard sur un contenu directement dupliqué depuis votre site, ce cas de figure reste exceptionnel. Le plus souvent, il vous faudra détecter vous-même ces duplicate contents par une veille régulière sur les sites web de votre secteur, que vous pourrez doubler d’un outil spécifique. Voici deux détecteurs de plagiat en ligne : faites-en un usage complémentaire, vous pourriez être surpris par les résultats obtenus !
Favorablement connu des SEO et des administrateurs de sites, Copyscape se démarque par l’efficacité de ses fonctionnalités gratuites. La recherche de contenu dupliqué s’organise par pages web : vous indiquez l’URL de votre choix, et l’outil se charge d’afficher toutes ses versions dupliquées. Simple d’utilisation et complet !
Plagiarism Checker vous permet de détecter le contenu dupliqué à partir d’un document (à copier-coller directement sur le site) ou d’une URL. Cet outil effectue sa recherche de duplicate content sur Google, mais aussi sur Yahoo!. Vous pouvez enfin créer des alertes Google pour être prévenu dès qu’une version dupliquée de votre contenu apparaît sur le web : idéal pour maintenir une veille efficace sans y passer la journée.
L’article Duplicate content et near duplicate content : Notre guide pour les reconnaître est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce que le cloaking en SEO ? WhiteHat ? BlackHat ? | Tactee est apparu en premier sur tactee Agence web.
]]>Le cloaking est une technique utilisée par les référenceurs SEO qui souhaite obtenir des performances rapidement. Généralement cette méthode est peu développée en agence SEO car elle peut être assez dangereuse d’un point de vue pénalité Google. En effet, celle-ci consiste à adapter le comportement d’un site en fonction du visiteur qui vient chercher l’information sur le serveur.
Si le visiteur est un être humain, le contenu du site sur lequel il va atterrir ne sera pas le même que si la demande provient d’un robot d’exploration (Googlebot, Bingbot pour ne citer qu’eux). Dans ce dernier cas, le site utilisant le cloaking va automatiquement s’adapter aux exigences du robot en général Googlebot et lui présenter une page différente avec la page qui sera montrée à l’internaute.
Cette méthode avancée est parfois utilisée en référencement SEO car elle permet d’améliorer votre PageRank (système de classement mis en place par Google et qui évalue la popularité de votre site). Elle vise à camoufler aux moteurs la vraie page qui s’affichera sur l’écran d’un utilisateur en leur présentant une page différente, spécialement optimisée pour les robots.
A court terme, le cloaking peut se montrer utile pour mieux se positionner mais les dérives sont nombreuses et Google veille au grain.
Ne vous est-il jamais arrivé de tomber sur un site pornographique alors que vous souhaitiez simplement choisir la destination de vos prochaines vacances ? Expérience peu agréable s’il en est, c’est pourquoi Google interdit formellement le cloaking et n’hésite pas à sanctionner les sites qui y recourent.
Lorsqu’un utilisateur se connecte à un site, son navigateur envoie une requête http au serveur du site. Cette requête va afficher divers éléments parmi lesquels le user-agent, l’hôte ou encore l’adresse IP.
Quand le serveur reçoit la requête http, il va charger ou générer la page demandée par l’internaute. Cette page, qui est en langage serveur (php, asp…), est ensuite adressée au navigateur qui va la traduire pour la rendre lisible par l’utilisateur.
Concrètement, cela veut dire qu’un site peut vous faire parvenir la page qu’il veut en fonction des différents éléments d’identification transmis lors d’une requête sur internet.
Il existe plusieurs méthodes de cloaking basées sur différents supports. Les référenceurs utilisent principalement la méthode du « user-agent ». Ils peuvent également utiliser d’autres méthodes plus ou moins détectables par Google.
Le user-agent est une en-tête http envoyée par le visiteur qui fait une requête sur une page. Lors d’une connexion, le navigateur utilisé (Firefox, Safari, Explorer, Chrome…) envoie au serveur un texte qui va identifier ce dernier. Au-delà des navigateurs, il peut également être identifié par des spiders, bots, robots et crawlers utilisés par les moteurs de recherche.
La méthode de cloaking consiste alors à agir sur le contenu de la page dès lors que cet en-tête est détecté comme étant un un robot d’exploration.
Cette méthode de cloaking s’appuie sur la détection de l’adresse IP (Internet Protocol), c’est-à-dire une suite de chiffres qui regroupe un ensemble d’appareils connectés à internet. Par exemple, les membres d’une famille qui possède une box internet seront tous reliés à la même adresse IP.
Une adresse IP permet notamment de savoir dans quel pays se trouve l’internaute. Un cloaking basé sur l’adresse IP va donc adapter le contenu à la langue identifiée.
Mais une adresse IP peut aussi détecter un robot d’indexation. Un cloaker aura alors pour mission de créer une page super-optimisée pour leurrer le robot en lui faisant croire que sa page propose un contenu très riche alors que la page réellement vue par l’internaute sera très différente.
Les cloakers ont également compris que les moteurs de recherche avaient plus de mal à cerner les langages Javascript, Flash ou Dhtml. La méthode de cloaking qui utilise ces codes est donc plus difficile à débusquer. Le cloaker va remplir des pages de mots-clés qui viseront à être bien classées par les moteurs. Mais ces pages codées seront en réalité redirigées vers d’autres pages plus classiques qui remonteront jusqu’à l’internaute par l’intermédiaire de son navigateur.
C’est la plus ancienne méthode de cloaking, désormais facilement identifiable par les moteurs et les utilisateurs. Elle consiste à mettre du texte invisible pour l’internaute (par exemple un texte noir sur fond noir) mais qui sera pris en compte par les moteurs de recherche. C’est souvent une liste de mots-clés qui permet d’obtenir un meilleur classement dans les résultats de recherche. Le cloaker peut également positionner un bloc invisible sur un autre bloc visible par l’internaute et y inscrire les mots-clés qui seront valorisés par les moteurs de recherche.
Encore plus efficace (et donc plus redoutable) que le cloaking basé sur l’adresse IP, le cloaking basé sur l’hôte va cibler directement le serveur sur lequel l’utilisateur se connecte pour aller sur internet. Grâce à cette technique, il est possible de détecter les différents serveurs de Google.
Le référencement SEO peut se présenter sous deux casquettes différentes : le white hat (la version sage et disciplinée) et le black hat (la version obscure et transgressive). Le cloaking est clairement l’apanage des SEO black hat. A vous de voir quel chapeau vous souhaitez porter…
Pour Google, il n’y a pas de demi-mesure, le cloaking est totalement interdit.
La sanction peut aller d’une rétrogradation dans le classement à un blocage du site.
De grandes entreprises en ont fait les frais comme BMW en 2006. Résultat : leurs sites « cloakés » ont été tout simplement supprimés par Google.
Pour tenter de débusquer les tricheurs, Google a mis en place des robots masqués qui parcourent internet en se faisant passer pour des humains. Les résultats de ces robots sont croisés avec ceux des robots traditionnels et ainsi, les pages cloakées peuvent être démasquées.
Par ailleurs Google incite tous les utilisateurs et référenceurs qui se sentent floués par ces méthodes, à dénoncer les sites qui utilisent le cloaking.
L’article Qu’est-ce que le cloaking en SEO ? WhiteHat ? BlackHat ? | Tactee est apparu en premier sur tactee Agence web.
]]>L’article Trust Flow (TF) et Citation Flow (CF) : Comprendre les indicateurs est apparu en premier sur tactee Agence web.
]]>Avant il n’existait qu’un seul indicateur qui évaluait les liens d’un site afin d’établir le fameux Pagerank de Google (classement de 1 à 10). Depuis que le Pagerank a été supprimé, enfin modérons, depuis qu’il n’est plus disponible en front, de nouveaux indicateurs de référencement apparaissent issus d’outils comme Majestic Seo, Ahrefs, Moz.
Pour cet article nous allons nous arrêter sur Majestic SEO.
L’outil Majestic SEO est spécialisé dans l’analyse de liens, il utilise deux indicateurs pour évaluer vos liens entrants (backlinks).
Ces derniers sont le Citation Flow et le Trust Flow. Ils sont devenus des KPI à suivre et servent à la mise en place de votre plan de netlinking.
Les indices CF et TF évaluent la quantité et la qualité de vos liens entrants et sont calculés à partir de 3 éléments :
Il en ressort un graphique sous forme d’un nuage de points qui indique sur une échelle de 1 à 100, vos indices Trust Flow (en ordonnées) et Citation Flow (en abscisses). Voici à quoi ressemble un graphique généré par Majestic SEO :
L’indice Citation Flow va mesurer la popularité de vos pages, en d’autres termes, il va évaluer la quantité de vos backlinks. Plus votre site comportera de liens entrants, plus son CF sera élevé. Par conséquent, un site qui dispose d’un excellent CF et qui envoie un lien vers votre site, fera automatiquement grimper le CF de ce dernier. Inversement, un site avec un très mauvais CF qui envoie un lien vers votre site, entraînera de facto l’indice de ce dernier vers le bas.
Le Trust Flow représente l’indice de confiance de vos urls, il va donc évaluer la qualité de vos backlinks. Pour établir cet indice, l’outil Majestic SEO s’appuie sur une liste très importante de sites analysés manuellement et répondant aux critères de confiance des moteurs de recherche. Il analyse ensuite tous les liens sortants issus des sites listés et qui pointent vers votre site et mesure ainsi la capacité de votre site à transmettre la confiance à d’autres sites.
Si certains de vos backlinks proviennent d’un site spammé, ils obtiendront alors un faible TF. A l’inverse, si vos backlinks sont issus de sites bénéficiant d’un bon TF, ils obtiendront un bon TF.
En observant les CF et TF fournis par Majestic SEO, vous pouvez analyser la qualité des liens entrants sur votre site.
Pour bien analyser la qualité du netlinking de votre site, il est nécessaire de prendre en compte les CF et TF et de comparer votre link profil (profil de liens) à ceux de vos concurrents.
L’idéal est d’avoir un CF et un TF élevés et de valeurs équivalentes. Plus l’écart entre CF et TF est important, plus votre page analysée sera considérée comme spammy.
Le Trust Flow est particulièrement important dans votre analyse. En privilégiant les liens à fort TF, vous éviterez ainsi les pénalités de Google Pinguin.
Analyser régulièrement les CT et FT de votre nom de domaine vous permet :
Les liens (liens entrants, liens sortants et liens internes) sont essentiels à toute stratégie SEO. Rappelons que l’un des trois principaux critères de référencement Google est le nombre de backlinks.
Pour assurer une bonne position dans la SERP, la qualité de vos contenus et de l’expérience utilisateur doivent s’appuyer sur un plan de netlinking pertinent. Et un bon netlinking passe par de bons backlinks.
Son libellé doit être en rapport direct avec le contenu de la page sur laquelle il atterrit. Sa page de provenance et sa page de destination doivent couvrir des champs sémantiques assez proches (ex : une page d’un restaurant qui renvoie vers un page d’une recette de cuisine), et plus un lien est cohérent, plus il aura de chance d’être cliqué par l’internaute et sera donc mieux indexé par Google.
Pour cela vous surveillerez dans Majestic SEO l’indicateur Trust Flow de ces sites. Plus il est élevé, plus il boostera votre Trust Flow car Google sera plus enclin à valoriser ce lien que s’il provient d’un site récent à faible autorité. De la même manière, des liens issus d’une page faisant autorité seront plus intéressants pour vous que des liens issus d’une page à faible Trust Flow.
Il aura plus de visibilité si il est contextualisé que s’il est noyé dans un footer ou dans une colonne latérale.
Google va prendre en compte le nombre de domaines différents générateurs de backlinks. Ainsi, il est plus intéressant d’avoir un seul lien provenant de 10 sites différents plutôt que 10 liens provenant d’un seul site.
Le texte d’ancrage d’un lien (anchor text ou ancre) doit clairement présenter le contenu de sa page de destination. Evitez d’utiliser systématiquement des textes d’ancrage remplis de mots-clés, vous risqueriez une pénalité Google. Nous vous conseillons notamment d’utiliser des mots-clés longue traîne, moins concurrentiels et offrant un meilleur de taux de conversion, mais aussi des mots neutres (cliquez ici, en savoir plus, sur ce site….), là également faites preuve de bon sens en sachant mixer le dosage de vos ancres.
Généralement utilisés dans les sections commentaires pour éviter les spams, les liens Nofollow ne sont pas pris en compte par Google dans le référencement SEO. Mais ne les négligez pas car ils permettent d’éviter les pénalités grâce à leur profil de lien naturel.
Vous passez un temps infini à publier des articles très régulièrement sur votre site et celui-ci reste pourtant relégué en 10ème page des recherches Google ? Et si le problème venait de votre netlinking ? Gardez en tête que la qualité de vos backlinks est primordiale pour l’optimisation de votre référencement naturel. Voici quelques conseils pour trouver de bons backlinks et améliorer vos indicateurs de flux.
En améliorant le contenu d’un article existant ou en rédigeant un article de qualité pour un site, vous lui permettez d’améliorer son contenu et en retour il va vous citer en plaçant un lien vers votre site.
Demandez à un influenceur de répondre à quelques questions pour votre site. Le compte-rendu de l’interview peut être présenté sous forme de texte, audio ou vidéo. Vous pouvez ainsi vous servir de sa notoriété pour toucher un grand nombre d’internautes de sa communauté. De plus, en partageant cette interview sur les réseaux sociaux, vous obtiendrez d’excellents backlinks, qui vous serviront à dénicher de nouveaux influenceurs.
Dans le même esprit, vous pouvez simplement écrire un article qui mentionne un influenceur. Envoyez-lui l’article, il pourra éventuellement le partager sur les réseaux sociaux auprès de sa communauté. L’effet boule de neige peut ainsi générer de nombreux backlinks intéressants.
En créant une belle infographie, vous pouvez intéresser de nombreux sites qui n’hésiteront pas à la partager. Publiez cette infographie sur votre site, puis à l’aide d’une simple recherche Google, repérez les sites susceptibles de la partager et contactez-les en leur proposant d’intégrer votre code source sur leur site de manière bien visible. Facile à partager, une belle infographie peut se propager très rapidement.
Lorsqu’un site ou un blog vous mentionne, pensez à les remercier en leur suggérant de faire pointer un lien vers votre site.
Les liens morts ou cassés sont ceux qui conduisent vers un message d’erreur (erreur 404), soit parce que la page a été supprimée ou que le site a été fermé.
Par exemple, vous lisez sur un site un article très intéressant dans lequel figure un lien cassé. En tant que lecteur, vous êtes déçu d’arriver sur un message d’erreur et pour le site qui a placé ce lien, son image risque d’en pâtir.
Vous pouvez ainsi faire d’une pierre deux coups, en proposant au site d’intégrer un de vos articles à la place du lien cassé, cela lui permettra d’enrichir son contenu et vous obtiendrez un bon backlink.
Cette technique vous permet ainsi de repérer les liens cassés de vos concurrents et de prendre leur place sur les blogs ou les sites qui pointaient vers ces pages. Pour trouver les liens morts de vos concurrents, vous pouvez utiliser les outils Screaming frog SEO Spider.
L’article Trust Flow (TF) et Citation Flow (CF) : Comprendre les indicateurs est apparu en premier sur tactee Agence web.
]]>L’article C’est quoi les PBN et ont-ils un avenir ? est apparu en premier sur tactee Agence web.
]]>Le PBN (Private Blog Network) est un réseau privé de blogs qui sont tous reliés à un site web principal, le money site. L’objectif de ce réseau de sites est de pousser le money site grâce à son maillage de liens, afin de lui garantir une meilleure visibilité sur Google. Bien que très tentante pour les référenceurs et leurs clients, le PBN est une technique de manipulation interdite par Google. Il convient donc de l’utiliser avec la plus grande prudence.
Initialement basés sur des critères « on page », les moteurs de recherche étaient facilement manipulables par les référenceurs black hat qui n’hésitaient pas à leur fournir des contenus avec des répétitions de mots clés dans leurs codes html.
Peu à peu, les moteurs ont davantage pris en compte les backlinks (liens entrants) dans leurs critères de classement, c’est le cas pour le PageRank de Google. C’est ainsi que les spams ont fait leur apparition avec la création de faux liens pour leurrer les moteurs.
Aujourd’hui, les méthodes d’indexation des moteurs sont encore plus élaborées et c’est tout naturellement que les PBN sont entrés en scène pour promouvoir les pages clés d’un site principal grâce à un réseau de sites satellites interconnectés et asseoir ainsi son autorité sur le web.
Ces PBN sont l’apanage des référenceurs black hat qui visent un résultat à court terme, la méthode la plus risquée étant celle des sites générés automatiquement. On parle alors de PBN industrialisé. L’objectif est de pousser le money site par l’augmentation du trafic, au détriment de la qualité des contenus. Pour ce faire, le référenceur va réserver des noms de domaines expirés et créer des sites pauvres en contenus mais parfaitement optimisés pour Google. Ils vont créer en quelque sorte du « link juice » pour booster la visibilité du money site.
Dans cette catégorie, nous pouvons également inclure les blogs généralistes, construits sur des noms de domaines expirés et qui regroupent toutes sortes d’informations sur des sujets très variés et dont le contenu est assez pauvre. L’idée étant ici de pousser plusieurs money sites par l’intermédiaire de ces blogs remplis de communiqués de presse. Chaque article aura pour objectif de booster tel ou tel money site. Il arrive aussi que les référenceurs vendent des produits sponsorisés à travers ce type de blogs pour augmenter leur rentabilité.
Ces PBN apportent du contenu de qualité et sont davantage conçus pour plaire aux utilisateurs.
Par exemple, le référenceur va installer un blog à partir d’un nom de domaine neuf. Il va ensuite fournir des articles parfaitement rédigés et qui répondent à des questions précises d’utilisateurs. Un réseau de plusieurs sites de ce genre peut faire monter un ou plusieurs money sites avec beaucoup d’efficacité. En effet, la qualité des articles sera valorisée par les moteurs de recherche et améliorera de facto la visibilité des sites principaux.
Autre type de site qui peut servir à créer un PBN, le site d’actualités. Très réactif, car proposant à intervalles rapprochés de nouveaux articles en lien avec l’actualité, il incite l’utilisateur à revenir souvent pour se tenir informé. Cela permet d’augmenter son trafic en fidélisant les visiteurs, cette approche est donc très efficace mais elle demande beaucoup de temps, notamment pour répondre aux commentaires des internautes. Un réseau de sites d’actualités permet non seulement d’augmenter la visibilité d’un site principal mais il sera aussi très bénéfique pour son image.
Enfin, les sites communautaires de types « forums », « petites annonces » ou encore « partage de fichiers » sont là encore orientés « utilisateurs ». Ils permettent aux internautes d’un même groupe d’apporter eux-mêmes du contenu à ces sites. Le visiteur générateur de contenu, peut même devenir un véritable ambassateur du site à travers les réseaux sociaux. Là encore, cette technique est particulièrement efficace mais un community manager sera nécessaire pour trouver de nouveaux membres et contrôler chaque jour les messages envoyés par les visiteurs.
La mise en place d’un PBN peut être très efficace sur le long terme. En effet, cette technique permet à un site de passer un cap lorsque son positionnement plafonne. C’est par ailleurs une solution très souple : le PBN s’enrichit et évolue sans arrêt pour améliorer encore plus sa visibilité sur Google tout en passant entre les mailles du filet. Vous l’aurez compris, c’est une pratique qui peut fonctionner si elle est utilisée avec la plus grande prudence et si elle est mise en œuvre dans un esprit de responsabilité envers vous-même et vos clients.
La principale difficulté d’un PBN est de ne pas se faire répérer par Google. Il lui faudra brouiller les pistes pour que Google ne détecte pas la supercherie et comprenne la finalité des liens qui unissent les sites entre eux. D’où l’intérêt de masquer ces liens pour que le PBN ne soit pas reconnu comme tel par Google. Le risque est élevé car si le subterfuge est découvert, les dommages collatéraux risquent d’être importants. De la même manière que Google avait lancé Penguin pour traquer les liens factices, puis avait stoppé la vague des attributs Nofollow utilisés jusqu’en 2009 pour scuplter le PageRank, il semble évident qu’il va tout faire pour débusquer les PBN et les sanctionner sévèrement.
Toutefois, notons que ce n’est pas tant le support des liens créés qui va attirer l’attention de Google mais plutôt son ancrage. Attention donc aux liens sortants suroptimisés.
Lorsque vous décidez de créer un PBN, que ce soit pour vos propres sites ou pour ceux d’un client, il convient de bien mesurer les risques que cela comporte et d’utiliser cette technique avec subtilité.
Si vous créez des PBN pour vos propres sites, vous êtes seul responsable des conséquences en cas de détection par Google.
Si vous travaillez avec des clients qui vous paient pour une prestation de référencement linking, vous pouvez leur proposer de créer un PBN, mais dans ce cas, il est impératif de les tenir informés des risques afférents à ce type de pratique. Ainsi votre client appliquera sa stratégie SEO en toute connaissance de cause. Charge au référenceur de l’avertir qu’en cas de sanction sur un site, Google le classera dans un dossier spam qui le rétrogradera automatiquement et au moindre écart, la sentence sera plus radicale. Et dans ce cas, c’est le client seul qui sera tenu pour responsable et non le référenceur.
Nous avons vu un peu plus haut les différentes catégories de sites pouvant servir à construire un PBN. Nous vous déconseillons les stratégies de sites pauvres en contenu, car bien que faciles à mettre en œuvre et efficaces à court terme, elles sont aussi les plus risquées pous vous ou vos clients.
Plus longues et complexes à mettre en place, les stratégies de PBN qualitatifs (blogs d’actualités, blogs communautaires, etc.), vous apporteront des résultats plus durables et moins facilement détectables par Google. Par exemple, un PBN efficace mélangera différents types de sites pour un même money site (un forum, un site d’actualités, plusieurs sites d’informations thématiques, etc.).
Ces PBN sont clairement conçus dans l’intérêt de l’utilisateur grâce à un contenu à forte valeur ajoutée. Ils permettent de générer du trafic qualifié vers le site principal et représentent ainsi une option plus intéressante sur le long terme.
En conclusion, nous vous recommandons d’être particulièrement exigeants dans la manière de concevoir un PBN. Son efficacité dépendra d’une stratégie de contenu responsable et élaborée dans l’intérêt des internautes.
L’article C’est quoi les PBN et ont-ils un avenir ? est apparu en premier sur tactee Agence web.
]]>L’article Comment écrire un article de 3000 mots est apparu en premier sur tactee Agence web.
]]>Pour nous motiver, Neil Patel nous vante la supériorité de l’article de 3 000 mots en tant que l’un des meilleurs atouts d’une stratégie marketing en ligne : un article de cette longueur est détaillé, mais pas trop long. Il apporte une aide réelle aux lecteurs. De plus, parmi les entrepreneurs qu’il connaît, ceux qui réussissent le mieux utilisent choisi ce format pour leurs contenus. D’après lui, il suffit d’avoir une idée, du temps, et de savoir faire des recherches sur Internet. Armé de ces trois éléments, vous êtes prêts à appliquer sa recette.
Si vous ne dominez pas votre sujet, l’article contiendra des affirmations vagues ou des citations trop nombreuses. Par contre, un article écrit par un connaisseur sera intéressant, instructif et détaillé.
Vous allez être soulagé d’apprendre qu’un plan n’est pas nécessairement ce qu’on vous a appris à bâtir pendant vos études. Il peut être constitué de la liste des sous-titres prévus ou des points clés que vous souhaitez traiter. Inutile d’y passer trop de temps.
Elles doivent être fiables et pertinentes. Neil Patel conseille d’utiliser les publications en ligne, les sites basés sur des études (MarketingSherpa ou HubSpot), ou les blogs d’une industrie. Il recommande de donner la priorité aux sources primaires (une étude, par exemple) et de les chercher dès le départ, dans le but de mieux les intégrer à article. Elles peuvent même devenir la base de l’article.
Revenez à votre plan et voyez quels sont les points principaux que vous désirez traiter, puis trouvez une ou deux sources liées à chacun de ces points principaux.
Voici une série de suggestions qui devraient faciliter votre tache :
Soyez impitoyables avec vous-même. Voici comment vous y prendre :
Neil Patel nous rassure : une fois que vous aurez appliqué sa formule plusieurs fois, votre technique s’améliorera et écrire un article de 3 000 mots vous semblera d’une grande simplicité.
Par contre, il détruit nos rêves en confessant qu’il faut une longue expérience pour écrire des articles longs exceptionnels. Lors de la publication de son article, en janvier 2017, cela faisait déjà plus de 10 ans qu’il écrivait des blogs.
En vérité, les conseils d’Edgard Allan Poe n’accouchent pas forcement de chefs-d’œuvre, tout comme les formules de Neil Patel ne garantissent pas la qualité des articles engendrés.
Pour aller plus loin, voici la présentation de l’article « A Step-by-Step Guide to Producing a 3,000-Word Article on Any Topic » écrit par Neil Patel.
L’article Comment écrire un article de 3000 mots est apparu en premier sur tactee Agence web.
]]>L’article Améliorer la vitesse de chargement de son site Internet est apparu en premier sur tactee Agence web.
]]>Dans cet article, Tactee SEO vous propose de mieux comprendre pourquoi il est essentiel d’optimiser la vitesse de chargement de votre site Internet. Nous vous donnerons également quelques conseils pratiques pour y parvenir.
Avez-vous déjà navigué sur un site Internet lent ? Si oui, vous avez remarqué à quel point ce n’est pas optimal pour l’expérience utilisateur. C’est pourquoi il est essentiel de penser à la vitesse de chargement de votre site Internet :
Si vous souhaitez améliorer l’expérience utilisateur sur votre site Internet afin d’améliorer les conversions et que le positionnement dans le moteur de recherche est important pour vous, nous vous recommandons donc de ne pas négliger cet aspect technique.
Heureusement, il existe des techniques permettant de monitorer et d’optimiser la vitesse de chargement des pages web. Nous vous proposons de faire le point sur ces quelques astuces.
Dans un premier temps, nous vous conseillons de mesurer les performances actuelles de votre site Internet. Il existe de nombreux outils à votre disposition :
Vous pouvez utiliser le service de référence de Google : PageSpeed Insights. Grâce à cet outil, vous pourrez obtenir des données très intéressantes sur les performances de votre site Internet depuis un ordinateur ou depuis un mobile. Ce qui est également intéressant avec cet outil, c’est qu’il vous donne des conseils pour améliorer la vitesse de chargement de votre site. En effet, il s’agit aussi d’un outil d’analyse : les conseils personnalisés vous permettront d’optimiser les performances de votre site.
Une fois que vous connaîtrez mieux les performances de votre site Internet, vous pourrez commencer le travail d’optimisation. Voici une liste non-exhaustive des éléments sur lesquels vous allez peut-être devoir travailler pour rendre vos pages plus rapides :
Votre site Internet est trop lent et vous souhaitez améliorer ses performances pour booster votre référencement et optimiser l’expérience utilisateur ? Si vous ne disposez pas de compétences techniques, nous vous conseillons vivement de vous rapprocher d’un expert. En effet, les techniques à mettre en place sont complexes et nécessitent des compétences approfondies.
L’article Améliorer la vitesse de chargement de son site Internet est apparu en premier sur tactee Agence web.
]]>L’article Les réseaux sociaux ont-ils un impact sur le SEO ? est apparu en premier sur tactee Agence web.
]]>
Nos experts en référencement vous proposent de faire le point sur l’impact des réseaux sociaux sur le SEO.
Facebook, Twitter, Pinterest, Instagram… De nos jours, les réseaux sociaux sont incontournables. D’ailleurs, rares sont les entreprises à ne pas être présentes sur ces plateformes. Mais les réseaux sociaux ont-ils un impact sur le SEO ? Depuis quelques années, on entend tout et son contraire à ce sujet. Pour certains, la présence sur Facebook, Twitter ou encore Viadeo possède un impact non négligeable sur le référencement des sites Internet. Mais d’autres spécialistes considèrent que l’impact est nul.
Google pourrait tenir compte de 3 types de signaux qui émanent des réseaux sociaux :
Qu’en est-il en réalité ? Google l’a déjà fait savoir à de nombreuses reprises à la communauté SEO : non, les réseaux sociaux n’ont pas d’impact direct sur le positionnement des sites Internet sur son moteur de recherche. Reprenons les 3 types de signaux sociaux :
Vous l’avez compris : les réseaux sociaux n’ont pas d’impact direct sur le SEO. Pourtant, nous vous conseillons tout de même d’investir dans le SMO (Social Media Optimization). En effet, les réseaux sociaux ont un impact indirect sur le SEO qui ne doit pas être négligé :
Il n’est pas suffisant d’être présent sur les principaux réseaux sociaux. Il est essentiel de mettre en place une stratégie SMO efficace afin d’obtenir des résultats pertinents. Mais quelle stratégie faut-il mettre en place sur les réseaux sociaux ? Pour y parvenir, nous vous conseillons dans un premier temps de bien définir vos objectifs. En effet, une fois que vos objectifs seront établis, vous pourrez construire votre stratégie autour d’eux.
Dans tous les cas, vous allez devoir mettre en place une stratégie éditoriale unique sur vos réseaux sociaux. Pour cela, il est important de bien comprendre le fonctionnement de chaque réseau social. N’hésitez pas à vous faire accompagner par un spécialiste du SMO pour trouver la stratégie qui correspond le mieux à votre entreprise sur les réseaux sociaux.
L’article Les réseaux sociaux ont-ils un impact sur le SEO ? est apparu en premier sur tactee Agence web.
]]>L’article Mieux comprendre les critères de pertinence de Google est apparu en premier sur tactee Agence web.
]]>Si certains critères ont beaucoup de poids, d’autres sont parfois surestimés par les référenceurs. C’est pourquoi, une agence de référencement naturel procède généralement à des analyses ainsi que des tests afin d’essayer de découvrir le secret de l’algorithme du célèbre moteur de recherche.
Les spécialistes en référencement de Tactee vous proposent de faire le point sur ces fameux critères de pertinence :
Avant de s’intéresser aux critères de pertinence intégrés à l’algorithme de Google, il est judicieux de se demander pourquoi ces derniers sont si importants pour les référenceurs du monde entier. La connaissance des 200 critères de pertinence ainsi que leur impact sur le classement des résultats de recherche permettrait de trouver la recette parfaite pour bien référencer ses sites Internet et ainsi obtenir un meilleur positionnement ainsi qu’un trafic accru.
Ces dernières années, de grands noms comme Moz, SearchMetrics ou encore SEM Rush se sont essayés à l’exercice. Mais les résultats de leurs études sont-ils vraiment pertinents ?
Bien qu’il soit toujours intéressant de prendre connaissance des études sur les critères de pertinence de Google, il est essentiel de prendre un peu de recul. En effet, selon les études, les résultats obtenus sont parfois très différents : certains critères sont forcément surestimés.
En juin dernier, l’étude de SEM Rush a beaucoup surpris les référenceurs. Des critères comme le trafic du site Internet ou encore le nombre de pages vues par session apparaissent comme de la plus haute importance dans l’étude… alors que les référenceurs savent depuis déjà plusieurs années que ces critères ont peu de poids dans l’algorithme.
Il ne faut pas non plus oublier que l’algorithme de Google est en perpétuelle évolution. Certains critères qui possèdent aujourd’hui une grande importance, ne l’avaient pas forcément il y a un ou deux ans.
Certains critères de pertinence semblent convaincre la majorité des référenceurs :
D’autres ont un impact qui prend de l’importance depuis quelques mois :
Pour bien référencer un site Internet, il semble donc plus judicieux de surveiller les tendances de Google (en ce moment, l’impact du mobile et de la sécurisation des sites Internet) et de faire appel au bon sens. En effet, un site web dont le contenu est soigné et qui possède de nombreux liens entrants de qualité a toutes les chances d’apparaître en bonne position dans les résultats de recherche.
L’article Mieux comprendre les critères de pertinence de Google est apparu en premier sur tactee Agence web.
]]>L’article La structure URL : absolue ou relative ? est apparu en premier sur tactee Agence web.
]]>Dans cet article, nous vous proposons de faire le point entre l’URL absolue et l’URL relative.
Avant de parler des chemins absolus et relatifs, il est important de bien comprendre ce qu’est une URL. Sur Internet, celle-ci est incontournable. Mais savez-vous réellement de quoi il est question lorsque l’on parle d’URL ?
L’URL (Uniform Ressource Locator) correspond à l’adresse d’une ressource unique présente sur le web. Contrairement à ce que l’on pourrait penser, l’URL ne vise pas seulement les pages HTML : les images et les documents CSS ont également le droit à une URL qui est unique. Il est important de donner un soin tout particulier à l’édition de ses URL. En effet, si vous vous trompez dans le chemin d’une URL, la ressource sera introuvable. De la même manière, si vous supprimez une ressource présente sur votre site, mais que vous laissez son URL, cette dernière ne pourra plus pointer vers la ressource initiale.
Savez-vous comment l’URL est construite ? Prenons un exemple : https://www.tactee.fr
Certains éléments qui composent l’URL sont obligatoires et incontournables. C’est ici le cas du protocole et du nom de domaine :
Dans le cas d’une URL un peu plus complexe, par exemple https://www.tactee.fr/seo/, le chemin vers le fichier est également indiqué :
Évoquons maintenant le cas des URL absolues et des URL relatives. L’exemple que nous vous avons donné un peu plus haut dans l’article est en réalité une URL absolue. C’est celle que l’on rencontre le plus souvent lorsque l’on navigue sur Internet : le chemin complet vers la ressource est forcément indiqué.
Cependant, il existe également ce que l’on appelle des URL relatives. Dans un cas comme celui-là, c’est le chemin relatif de la ressource sur le serveur qui est indiqué. Pour cette raison, on utilise surtout l’URL relative pour faire des liens internes au sein d’une page web. L’utilisation des URL relatives est très pratique à condition d’avoir à sa disposition une arborescence bien pensée pour son site. En effet, il faut avoir connaissance des différents dossiers, sous-dossiers et fichiers pour les lier entre eux correctement.
L’URL relative permet d’indiquer le chemin entre la page courante et la ressource qu’elle cible dans une même arborescence. Elle peut également fournir le chemin entre la racine du site et la ressource dans l’arborescence.
Prenons pour exemple de ressource de type PDF, ce fichier s’appelle « mon-tuto-url.pdf ».
Nous avons plusieurs cas de figure :
Pour ce qui est de la syntaxe d’urls relatives à la racine du site : la régle est la suivante :
Nous démarrons par un / (barre oblique) et on écrit le chemin complet jusqu’à la ressource : /dossier/technique/mon-tuto-url.pdf
Bon, finalement, c’est simple, mais il faut bien connaitre son arborescence.
L’utilisation dans votre code source d’une url relative ou absolue, ne changera rien pour vos internautes ou pour les robots ; sauf si vous vous trompez, auquel cas 404.
Dans la pratique, au moins 2 cas, peuvent favoriser l’url relative :
Dans les 2 cas, les urls relatives feront le « lien » avec les nouvelles informations.
Si vous optez pour les urls absolues, une petite « moulinette » en base de données et/ou dans les fichiers HTLM sera nécessaire pour changer la racine de votre url : protocole+ nomdemaine +tld
Découvrez notre guide pour bien choisir vos URLs
Pas d’url relative sur les canoniques.
C’est une mesure de sécurité, si vous avez oublié de faire vos redirections par exemple http vers https, sans les 3www vers les 3www (ou vice et versa), au moins avec une url absolue, pas de doute, l’adressage est sur.
L’article La structure URL : absolue ou relative ? est apparu en premier sur tactee Agence web.
]]>L’article Cocon sémantique : une stratégie de contenu efficace est apparu en premier sur tactee Agence web.
]]>
Le concept de cocon sémantique a été développé par le référenceur français Laurent Bourrelly. Cette méthode est de très populaire auprès des référenceurs. En effet, la mise en place du cocon sémantique permet notamment d’optimiser sa stratégie de contenu et de maillage interne.
Nous vous proposons de découvrir ce qu’est le cocon sémantique :
Le cocon sémantique est une stratégie de création d’arborescence pour les sites Internet qui se base sur une analyse sémantique. L’architecture du site, représentée par des silos, permet notamment d’optimiser les contenus ainsi que le maillage interne.
Le concept du cocon sémantique tire son origine d’un constat simple. Il n’est plus possible de créer le contenu de son site Internet grâce à l’optimisation de mots clés recherchés. En effet, chaque jour, Google améliore sa compréhension des requêtes des internautes : l’objectif est de répondre à leurs besoins rapidement et efficacement. Il n’est donc plus possible de penser sa stratégie de contenu uniquement en terme de mots clés. Il faut plutôt l’axer sur des thématiques. Pour aider le moteur de recherche à fournir aux internautes la meilleure réponse à leurs requêtes, les référenceurs doivent donc construire leurs pages ainsi que leurs contenus de façon sémantique avant tout.
Selon Laurent Bourrelly, le cocon sémantique est “une pyramide de contenus rangés dans des silos qui sont cohérents du point de vue sémantique”. Pour bien comprendre le concept de cocon sémantique, il est donc important de se familiariser avec le Siloing. Cette technique permet notamment de renforcer la compréhension de la thématique des pages d’un site Internet afin d’améliorer son positionnement. Pour cela, il convient de définir une architecture par thèmes et par mots clés ciblés. La technique du Siloing est donc très proche du concept de cocon sémantique. Cependant, le cocon sémantique permet d’aller plus loin dans la stratégie de contenu.
Le cocon sémantique est une stratégie très efficace, car elle permet à Google de mieux comprendre la thématique des pages d’un site Internet. Mais attention, pour être performante, la mise en place de cette technique ne doit pas être laissée au hasard : il est essentiel de mener une analyse sémantique poussée et de créer des contenus riches. Ainsi, si l’on souhaite mettre en valeur une page de son site Internet dans les résultats du moteur de recherche, il ne faudra pas seulement travailler le contenu de cette page. Il conviendra également de rédiger des contenus connexes, mais sémantiquement proches pour des pages complémentaires. Il faudra ensuite soigner le maillage interne entre ces différentes pages afin d’améliorer le positionnement de la page principale.
La mise en place d’un cocon sémantique doit répondre à certaines règles.
Dans un premier temps, il est essentiel de mener une recherche de mots clés très poussée. Cette étape est très importante : elle prend du temps, mais ne doit pas être négligée. Une fois que votre recherche de mots clés est faite, vous devrez l’analyser et la trier par thématique.
Dans un second temps, il faut mettre en place une arborescence en silos. Pour faciliter ce travail, il est conseillé d’utiliser un outil de mindmapping. En effet, il est important de parfaitement visualiser son architecture web pour arriver à définir une structure optimale pour son site Internet.
Une fois que l’architecture sera finalisée, vous pourrez créer des liens internes entre les différentes pages. A savoir qu’il existe des pages mères, des pages filles et des pages sœurs.
Enfin, la dernière étape consiste à optimiser le contenu de chaque page et de donner un soin tout particulier à la contextualisation ainsi qu’à la sémantisation des liens présents dans la page.
Vous voulez mettre en place un cocon sémantique sur votre site Internet ? Rapprochez-vous de nos experts en SEO afin de faire le point sur votre stratégie de contenus et de liens.
L’article Cocon sémantique : une stratégie de contenu efficace est apparu en premier sur tactee Agence web.
]]>L’article Comment allier les stratégies d’Inbound et d’Outbound Marketing ? est apparu en premier sur tactee Agence web.
]]>L’équipe de Tactee vous propose de faire le point sur ces deux méthodes afin de mettre en place une stratégie marketing globale au sein de votre entreprise.
Depuis quelques années, on entend beaucoup parler d’agence Inbound Marketing ou de stratégie de marketing entrant. À tel point que cette stratégie donne l’impression de se suffire à elle-même. En réalité, ce n’est pas tout à fait vrai. Mais revenons sur la définition de l’Inbound Marketing.
L’Inbound Marketing peut être traduit par “marketing entrant”. Il s’agit de toutes les méthodes pouvant être mises en place par une entreprise afin de faire venir le client à elle. Bien moins intrusive et agressive que l’Outbound Marketing, cette stratégie implique de connaître parfaitement son marché. En effet, une entreprise qui possède une bonne compréhension des besoins de sa cible a toutes les chances de réussir à mettre en place une stratégie efficace. Bien évidemment, il s’agit d’une méthode qui se révèle uniquement efficace sur le long terme : offrir du contenu à forte valeur ajoutée à sa cible n’apporte pas forcément un résultat immédiat.
Prenons l’exemple d’une société spécialisée dans la vente de logiciels de gestion. Cette entreprise peut dans un premier temps se faire connaître de sa cible en proposant des webinaires sur des thématiques relatives à la gestion. Si les webinaires apportent une véritable valeur ajoutée, l’entreprise sera vue comme experte dans son domaine, ce qui dans un second temps, permettra de booster les ventes de logiciels.
L’Outbound Marketing peut être traduit par “marketing sortant”. Il s’agit de toutes les techniques traditionnelles du marketing : la prospection téléphonique, la publicité, l’emailing ou même les actions de street marketing. Une entreprise spécialisée dans la vente de logiciels de gestion mettant en place une stratégie Outbound Marketing va ainsi directement entrer en relation avec ses clients potentiels afin de vendre le logiciel. Pour cela, elle va acheter des encarts publicitaires sur des sites Internet et mettre en place des emailings. Les commerciaux de l’entreprise contacteront également des prospects par téléphone afin de vendre le logiciel.
Contrairement à l’Inbound Marketing, l’Outbound Marketing permet donc d’obtenir des résultats sur le court terme : si une publicité est diffusée pendant 5 jours, les ventes seront boostées pendant ces quelques jours, rarement plus. Il faut également tenir compte du fait que cette stratégie, souvent jugée intrusive, n’a pas forcément une très bonne image auprès du grand public. Enfin, cette méthode demande un investissement financier de départ important que toutes les entreprises ne peuvent pas se permettre.
L’Inbound Marketing étant une stratégie moins coûteuse et plus qualitative, il pourrait être tentant d’abandonner les techniques traditionnelles à son profit. Cependant, mettre en place une stratégie Inbound prend beaucoup de temps et les résultats mettent du temps à apparaître.
Le plus judicieux est de miser sur les deux approches. Elles ne s’opposent pas, elles sont complémentaires :
L’article Comment allier les stratégies d’Inbound et d’Outbound Marketing ? est apparu en premier sur tactee Agence web.
]]>L’article Tutoriel : comment passer son Magento en HTTPS ? est apparu en premier sur tactee Agence web.
]]>Si vous ne savez pas comment y parvenir, les experts SEO Tactee peuvent vous accompagner : découvrez notre tutoriel « passer votre magento en https » sans plus tarder.
Déjà, il convient de bien comprendre en quoi consiste le HTTPS avant de l’installer sur votre site web Magento. Il s’agit tout simplement d’un protocole qui a pour objectif d’améliorer la sécurisation des échanges entre le navigateur d’un internaute et le serveur qui héberge le site Internet. Un chiffrage est ainsi mis en place afin d’empêcher l’interception des données.
C’est pourquoi il est important de mettre en place le HTTPS sur son Magento ainsi les informations qui circulent sur votre boutique en ligne resteront parfaitement confidentielles, car bien mieux cryptées.
C’est également un moyen de réassurance très efficace pour vos clients ou prospects : si votre site e-commerce n’est pas sécurisé, le navigateur de l’internaute l’indique. Vous risquez de passer à côté de nombreuses commandes sur votre site e-commerce si des internautes se rendent compte que leurs données ne sont pas bien sécurisées sur votre boutique en ligne. En effet, les internautes préféreront se tourner vers la concurrence, qui possède elle, un site sécurisé en HTTPS.
Enfin, il faut savoir qu’il est désormais obligatoire de passer en HTTPS aux yeux de Google. En effet, si votre site web n’est pas bien sécurisé, vous risquez à terme de perdre vos positions. Google depuis le début d’année 2018 favorise les propriétaires des sites internet Https !
En tant qu’e-commerçant, sachez que google shopping impose d’être en https pour créer un compte annonceur.
Vous vous rendez compte que vous ne savez pas si votre site est déjà en HTTPS ou non ? C’est très simple à vérifier. En effet, dans votre navigateur, à gauche de l’adresse du site que vous êtes en train de visiter, un petit cadenas vert est censé apparaître si votre site est sûr. De la même manière, l’adresse d’un site bien sécurisé commence par le protocole “https://” et non plus “http://”.
Dans un premier temps, nous vous recommandons de vous rapprocher de votre hébergeur afin d’activer le passage en HTTPS. En général, cette option est totalement gratuite : il faut juste penser à l’activer.
Lorsque celle-ci sera activée, vous pourrez accéder à votre site Internet depuis le protocole HTTPS. Cela signifie qu’un certificat valide est en place, mais attention, ce n’est pas terminé ! En effet, vous devez à la fois protéger l’interface client dont le tunnel de commande, l’administration, ainsi que toutes les pages publiques de votre site Internet.
Une fois connecté sur le back-office de Magento, rendez-vous dans “Système/Configuration/Général/Web” puis sélectionnez les onglets “Secure” et “Unsecure”.
L’onglet “Secure” va vous permettre de mettre en place le HTTPS dans l’administration ainsi que sur la partie publique connectée de votre site (tunnel de commande, espace client). Dans le champ “Base URL”, il faudra que vous ajoutiez un “s” à “http”. Vous devrez également activer les champs “Use Secure URLs in Frontend” et “User Secure URLs in Admin”.
L’onglet “Unsecure” va quant à lui vous permettre de sécuriser toutes vos autres pages publiques. Il vous suffit, à ce stade, d’ajouter un “s” à “http” dans le champ “Base URL”.
Presque ! Il vous reste encore un petit effort à faire !
En effet, toutes vos pages peuvent maintenant être appelées en HTTPS. Seulement, les ressources externes qui se trouvent sur votre site Internet ne peuvent pour l’instant, pas être appelées en HTTPS. C’est par exemple le cas de vos polices, de votre tracking, etc.
Rassurez-vous : cela ne sera pas très long de vérifier que les appels externes en HTTPS sont corrects. En effet, à cette étape, vous pouvez tout à fait utiliser la commande “Rechercher/Remplacer”. Vous pouvez ainsi demander à ce que toutes les occurrences “http://” soient remplacées par “https://”.
Vous utilisez un service externe pour le paiement sur votre site Internet ? Dans ce cas, vous devez modifier son paramétrage. Attention, cela ne se fait pas depuis le back-office de Magento, mais depuis votre espace client sur le site du service externe que vous utilisez.
Vous devrez également, vérifiez que vos plugins ou extensions, n’ont pas eux mêmes des appels en http codés en « dur », il faudra donc passer sur vos templates ou pages pour vérifier quels sont les modules appelés.
Vous pouvez aussi crawler votre e-commerce avec un outil comme screaming frog et utilisez la fonction custom et effectuer une recherche.
Enfin, il ne vous restera plus qu’à mettre en place une redirection 301 depuis vos pages en “http://” vers vos pages en “https://”. Vous pouvez y parvenir depuis le fichier .htaccess. Voici ce que nous vous conseillons d’y inscrire :
# HTTP -> HTTPS
RewriteCond %{HTTP:X-Forwarded-Proto} !https
RewriteCond %{HTTP_HOST} !.test$
RewriteRule ^(.*)$ https://%{SERVER_NAME}%{REQUEST_URI} [R=301,L]
Vous préférez utiliser un proxy pour cette dernière étape ? Pas de problème. Voici le bout de code à ajouter :
# HTTP -> HTTPS
RewriteCond %{HTTP:X-Forwarded-Proto} !https
RewriteCond %{HTTP_HOST} !.test$
RewriteRule ^(.*)$ https://%{SERVER_NAME}%{REQUEST_URI} [R=301,L]
Voilà, c’est terminé : il ne vous reste plus qu’à repasser sur toutes vos pages pour vérifier que le cadenas vert apparait bien à chaque fois !
Il arrive que certains sites web souffrent d’une baisse de trafic suite au passage en HTTPS. Cependant, cette chute est temporaire. Dans tous les cas, le HTTPS est la nouvelle norme. Vous devrez tôt ou tard passer votre Magento en HTTPS, alors autant le faire dans les meilleurs délais.
Si vous êtes sur un store responsive, le travail est fini.
Si vous avez une version dédiée pour le mobile, c’est un peu de travail en perspective.
L’article Tutoriel : comment passer son Magento en HTTPS ? est apparu en premier sur tactee Agence web.
]]>L’article Duplicate Content : quels risques et comment l’éviter ? est apparu en premier sur tactee Agence web.
]]>Le terme duplicate content fait référence à un cas de similitude de contenus observé sur deux ou plusieurs pages renvoyant à un même site ou à des sites différents. On référence deux types de duplicate content ciblés par l’algorithme Google Panda : :
Vous êtes en présence d’un contenu dupliqué de type interne quand il y a copier-coller d’une réalisation éditoriale visible sur des pages différentes de votre propre site, qu’elle soit intégrée d’une manière volontaire ou non. Une autre possibilité est le jumelage de deux adresses web qui donnent accès à une même page du site en question.
Pour cette classe de duplication, il s’agit le plus fréquemment d’un plagiat de contenus des fiches produits des fournisseurs. Ces derniers étant présents sur deux sites distincts.
Il faut savoir que dupliquer un contenu risque de nuire à votre image et à la crédibilité de votre site. En effet, les internautes veulent des contenus originaux, offrant une plus-value qui leur permettra de vous distinguer et de mieux retenir les informations que vous leur partagez.
De plus, vous risquez de lourdes sanctions de la part de Google si celui-ci s’aperçoit que vous avez reproduit tout ou partie d’un contenu appartenant à un autre site. Cela pourrait occasionner un très mauvais référencement, voire un déclassement ou une désindexation de votre site web.
L’une des difficultés majeures du métier du Web réside dans l’obligation de rechercher constamment un meilleur moyen d’optimiser la qualité et l’authenticité du travail d’écriture. Pour y arriver, ci-après quelques points à prendre en compte :
Choisissez l’originalité comme fondement de votre contenu ! Évitez notamment de reprendre les descriptions des fiches produits constructeurs. Le mieux serait de suivre votre propre voie en retenant juste l’essentiel.
Utilisez des Titles et des Méta-descriptions spécifiques à chaque page pour que celle-ci soit bien référencée par les moteurs de recherche. Un excerpt unique est aussi à privilégier.
URLs canoniques :
Si plusieurs de vos pages présentent des contenus similaires, vous pouvez demander à Google de n’en indexer qu’une seule pour éviter d’être pénalisé. Même en étant invisibles sur les moteurs de recherche, les autres pages resteront bien évidemment accessibles par les internautes lorsqu’ils navigueront sur votre site.
Des redirections 301 en cas de refonte :
Ce système vous permettra principalement de rediriger les URLs de votre site web antérieur vers les URLs de votre site fraîchement créé.
Il existe heureusement quelques outils pour vérifier que votre contenu n’a pas plagié tels que Positeo, Webconfs, ou encore Siteliner.
Enfin, Google Search Console permet également de savoir si vous êtes victime d’une pénalité de Google à cause de cette mauvaise pratique.
L’article Duplicate Content : quels risques et comment l’éviter ? est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce que le SEO Usability Testing ? est apparu en premier sur tactee Agence web.
]]>Dans cet article, l’équipe de Tactee vous propose de faire le point sur cette technique qui risque de rapidement devenir incontournable dans le milieu du référencement.
L’avènement du SXO nous montre bien qu’il n’est plus possible de faire du SEO de la même manière qu’il y a quelques années. Aujourd’hui, les internautes doivent être au coeur de nos actions de référencement : c’est la seule façon de répondre à leurs attentes et par la même occasion, de contenter les moteurs de recherche comme Google. En effet, Google donne de plus en plus d’importance à l’expérience utilisateur. Il semblerait même qu’il s’agisse d’un important critère de positionnement.
Vous vous demandez ce que le SEO Usability Testing vient faire là-dedans ? Il s’agit tout simplement de la technique qui va vous permettre d’offrir la meilleure des expériences utilisateurs aux visiteurs de votre site Internet. Ce qui à terme, vous permettra d’obtenir de meilleurs résultats en SEO.
Dans le contexte d’une stratégie SXO, le plus important est d’apporter aux internautes l’information qu’ils recherchent dans les plus brefs délais. En effet, si les internautes doivent fouiller pour trouver leurs réponses, l’expérience utilisateur n’est pas optimale. Ils risquent donc de quitter rapidement votre site Internet pour en visiter d’autres. Et ça, il s’agit d’un signal très négatif pour Google. Il est important que vous gardiez en tête que les moteurs de recherche comme Google se basent sur le Click-Behavior pour positionner les sites Internet dans leurs résultats. Un internaute qui fait du pogosticking ou du short click donne un signal négatif à Google concernant le site Internet qu’il visite.
Le SEO Usability Testing (SEOUT) est donc une technique qui va vous permettre de faire un diagnostic de votre site Internet. Et ça, c’est très important lorsque l’on souhaite mettre en place une stratégie SXO sur son site Internet. Sans diagnostic, vous ne saurez pas ce qu’il faut améliorer sur votre site web pour offrir une meilleure expérience utilisateur aux internautes. Par exemple, grâce au SEO Usability Testing, vous vous rendrez peut-être compte que le tunnel d’achat n’est vraiment pas optimal. Ce sera une piste d’amélioration à envisager.
Vous vous demandez comment mettre en oeuvre un diagnostic SEOUT sur votre site Internet ?
Dans un premier temps, sachez qu’il existe des outils qui vous permettront de faire un diagnostic SEO Usability Testing très complet : vous pouvez par exemple tester UserTesting et Lyssna (anciennement UsabilityHub) . Cependant, pour accéder à toutes les options, il est nécessaire de prendre un abonnement payant.
Sinon, il vous est aussi possible de mener un diagnostic en vous concentrant sur les 3 axes suivants :
Si vous débutez en référencement, il peut être compliqué de mener un diagnostic SEO Usability Testing. Il faut dire que cette technique est encore assez récente. De plus, elle demande à la fois des compétences en SEO et en ergonomie. Vous voulez mettre en place une stratégie SXO sur votre site Internet ? Il peut être intéressant de vous faire accompagner. Par exemple, par des référenceurs disposant de notions avancées en ergonomie. Ils pourront mettre en place un diagnostic SEOUT sur votre site Internet et ainsi participer à l’amélioration de l’expérience utilisateur.
Connaissez-vous le SEO Usability Testing ? Avez-vous déjà mené ce diagnostic sur votre site Internet ?
L’article Qu’est-ce que le SEO Usability Testing ? est apparu en premier sur tactee Agence web.
]]>L’article Le Knowledge Graph : comment intégrer la balise Organization ? est apparu en premier sur tactee Agence web.
]]>Comme nous l’avons déjà expliqué dans de précédents articles, les données structurées sont de plus en plus importantes pour Google. En effet, ces dernières permettent de donner plus de sens au contenu des sites Internet, du moins, lorsque ces derniers ont mis en place un schéma de balisage efficace et bien structuré.
Vous voulez que certaines données de votre site Internet apparaissent dans le Knowledge Graph de Google ? Dans ce cas, il va falloir que vous intégriez le balisage sémantique sur votre site Internet. En effet, à ce jour, c’est la seule façon de permettre à Google d’avoir une meilleure compréhension des contenus présents sur votre site web.
Le Knowledge Graph est une base de connaissance qui a été mise en place par Google. Il s’agit d’une compilation des informations trouvées sur une entité (une entreprise, une personne ou encore un lieu) grâce à diverses sources. Il faut savoir que si vous mettez en place des données structurées sur votre site Internet, vous faciliterez la mise à disposition des informations qui pourront servir au Knowledge Graph de Google.
Du côté des internautes, il s’agit de gagner du temps. En effet, les internautes peuvent consulter en un coup d’oeil les informations relatives à une entité et ce, sans devoir consulter plusieurs sites Internet.
Du côté des sites Internet, l’objectif est surtout de gagner en visibilité. Prenons un exemple : le site Internet de votre entreprise. Si un internaute fait une recherche sur votre entreprise dans Google, celui-ci pourra cliquer sur votre site Internet pour en savoir plus. Mais il pourra aussi consulter les informations qui s’affichent dans un encart sans visiter votre site Internet. Il pourra ensuite continuer sa recherche sur votre site s’il souhaite en savoir plus.
Pour mettre en place les données structurées sur votre site Internet, vous devez dans un premier temps choisir un format. Nous vous conseillons de choisir JSON-LD : ce format récent est considéré comme étant la norme à appliquer par le W3C. Il est facile à mettre en oeuvre et n’alourdira pas votre code. En fonction des informations que vous souhaitez mettre en valeur, vous ne devrez pas intégrer le même script sur votre site Internet. En effet, en JSON-LD, il existe un grand nombre de balises : Organization, ContactPoint, LodgingBusiness, etc.
Vous voulez que certaines des données qui concernent votre entreprise apparaissent dans le Knowledge Graph de Google ? Dans ce cas, vous allez devoir intégrer la balise Organization à votre site Internet.
Voici le code que vous allez devoir intégrer entre les balises head de votre site Internet si vous souhaitez mettre en place la balise Organization :
Grâce à ce script, vous allez pouvoir indiquer à Google, le nom de votre entreprise, son logo, son site Internet, ses coordonnées et ses réseaux sociaux.
Pour vérifier que votre code est correct, vous pourrez utiliser un outil de Google. L’outil de test des données structurées est très malin : vous pouvez tester directement votre code ou une URL de votre site Internet.
Un prochain tuto à venir sur le balisage des fiches produits ou des recettes et pourquoi pas les 2 ?.
L’article Le Knowledge Graph : comment intégrer la balise Organization ? est apparu en premier sur tactee Agence web.
]]>L’article L’importance des balises Hreflang en SEO est apparu en premier sur tactee Agence web.
]]>Dans un précédent article, nous vous avons donné de nombreuses pistes pour mieux gérer vos sites Internet à l’international. Aujourd’hui, nous vous proposons de nous attarder sur les balises Hreflang. En effet, lorsque l’on souhaite développer ses sites Internet à l’international, il est impossible d’en faire l’impasse.
Les balises Hreflang servent tout simplement à indiquer à Google le pays et la langue de chaque page de votre site Internet. Pour le moteur de recherche, il s’agit d’une indication très importante. En effet, bien que ce ne soit pas le seul critère pris en compte pour définir la langue et le pays d’un site Internet, il a tout de même une grande importance.
Si vous voulez bien positionner votre site Internet à l’international, votre site doit être considéré comme étant local par Google. Ainsi, si vous possédez un site en anglais qui vise le marché de la Grande-Bretagne, il ne vous sert à rien d’être bien positionné dans le moteur de recherche français. Ce n’est pas de cette manière que vous attirerez des internautes qualifiés sur votre site Internet.
C’est pourquoi, nous vous conseillons vivement d’intégrer les balises Hreflang à votre site Internet. Cela peut prendre un peu de temps, mais c’est un investissement que vous ne regretterez pas. Google n’aura pas d’autre choix que de comprendre que votre site Internet est en langue anglaise et s’adresse à une zone géographique ciblée, la Grande-Bretagne.
Vous voulez réussir le référencement de votre site Internet à l’international. Vous comprenez donc que vous allez devoir implémenter les balises Hreflang aux différentes pages de ce dernier. Cependant, vous ne savez pas par où commencer.
En réalité, intégrer les balises Hreflang sur site Internet, ce n’est pas compliqué. A condition de bien prendre le temps de les remplir selon les standards définis.
Vous possédez un site Internet pour 4 pays cibles : France, Allemagne, Espagne et Belgique.
Nous avons donc 4 répertoires (si vous souvenez de l’explication de l’article précédent) : Un répertoire pour chaque pays ciblé
Nous avons donc une particularité Belgique et France qui utilise tous deux la langue Française, nous allons spécifier, la langue et le pays concerné.
Le format à appliquer sur votre site internet sera donc le suivant : <link rel=”alternate” hreflang=”langue-PAYS” href=”URL” />
2 normes ISO sont utilisées pour les spécifications langues et pays.
Il existe une notion de réciprocité des balises. Ainsi, chaque page d’un site Internet doit pointer vers les URL de ses homologues dans chaque langue disponible. C’est une façon d’indiquer à Google les différentes versions traduites d’une même page, ce qui induit que votre site est totalement traduit.
Ainsi donc, nous répéterons ces balises sur les pages « mapage-de » ; « mapage-es » ; « mapage-be ».
Et cela pour chaque page du site.
Bien sur, cela se fait par l’appel de variables pour les sites dynamiques ou par l’utilisation de « modules|plugins|extensions » pour les cms standards du marché.
Ces balises trouvent leur place dans le <head> de vos pages.
Grâce à la Search Console de Google, il est tout à fait possible de vérifier qu’il n’y a pas d’erreurs dans l’implémentation de ses balises Hreflang. Dans la partie “Ciblage international” de l’outil. Une fois que vous aurez mis en place toutes vos balises Hreflang, nous vous conseillons donc de vous connecter à la Search Console pour vérifier qu’il n’y a pas d’erreurs et les corriger le cas échéant.
Avez-vous déjà intégré des balises Hreflang aux différentes versions de votre site Internet ? Avez-vous rencontré des difficultés lors de leur implémentation ? L’équipe de Tactee est à votre écoute.
L’article L’importance des balises Hreflang en SEO est apparu en premier sur tactee Agence web.
]]>L’article SXO : quand l’UX rencontre le SEO ! est apparu en premier sur tactee Agence web.
]]>Depuis quelques mois, l’équipe de l’agence de référencement SEO Tactee est régulièrement confrontée à un tout nouveau concept marketing : le SXO (Search Experience Optimization). Si vous possédez un site Internet et que vous souhaitez améliorer durablement ses performances, nous pensons qu’il est essentiel que vous vous intéressiez dès à présent à cette stratégie.
Dans cet article, l’équipe de Tactee vous propose donc de faire le point sur ce nouvel acronyme :
Le SXO est une stratégie webmarketing dont l’objectif est d’attirer, de convertir et de fidéliser des prospects sur les sites Internet. L’objectif est donc ici le même qu’avec le SEO. Ce qui diffère ? Les méthodes utilisées pour attirer, convertir et fidéliser les prospects.
En marketing, les acronymes sont nombreux, surtout dans la sphère du référencement. Vous n’arrivez peut-être déjà pas à vous y retrouver entre le SEO, le SMO ou encore le SEA… Alors le SXO ! Pourtant, ce qui se cache derrière cet acronyme est plutôt simple.
En effet, il est possible de considérer que le SXO est une stratégie qui rassemble le SEO et l’UX. Et c’est là que cette stratégie devient vraiment intéressante. En effet, il y a encore quelques années, les impératifs du SEO ne s’accordaient que très rarement avec l’UX… Mais ça, c’était avant que Google commence à donner une importance grandissante à l’expérience utilisateur. Aujourd’hui, il est devenu impossible de penser une stratégie SEO efficace en mettant de côté l’expérience utilisateur.
Concrètement, en quoi consiste donc le SXO ? Pour Google, il s’agit maintenant de garantir une expérience utilisateur de qualité aux internautes qui naviguent sur le moteur de recherche et sur les sites Internet. Vous voulez mettre en place une stratégie SXO ? Vous n’allez donc plus seulement devoir analyser les indicateurs de positionnement. Mais aussi et surtout devoir prendre en compte le comportement des visiteurs.
Depuis quelques années, Google ne peut plus juste être considéré comme étant un moteur de recherche. Les récentes évolutions ont transformé Google en un moteur de réponses en devenir. Les internautes d’aujourd’hui ne recherchent plus les informations de la même manière qu’il y a 10 ans : ils veulent des informations précises et complètes dans les plus brefs délais ! Rien d’étonnant au succès des assistants personnels comme Siri ou Cortana !
En fonction du comportement des internautes sur le moteur de recherche et sur les sites Internet, Google assigne des signaux positifs ou négatifs qui vont servir au positionnement. Prenons l’exemple suivant : un internaute se retrouve sur un site Internet suite à une requête, mais repart très rapidement sur le moteur de recherche. Dans un cas comme celui-là, Google considérera que le site Internet n’a pas su répondre à la question de l’internaute : le signal assigné sera donc plutôt négatif.
Avec l’avènement du SXO, l’erreur serait de continuer à considérer que le SEO et l’UX ne peuvent pas être complémentaires. Le SEO et l’UX ne sont pas des techniques webmarketing concurrentes, bien au contraire.
Il est essentiel de considérer le SXO comme une stratégie globale :
Mieux comprendre le comportement des internautes et améliorer leur expérience utilisateur est une nécessité : et si vous tentiez de mettre en place une stratégie SXO efficace sur votre site Internet avec les spécialistes de Tactee ? Dans un prochain article, nous vous présenterons comment mettre en place cette fameuse stratégie SXO sur votre site Internet !
L’article SXO : quand l’UX rencontre le SEO ! est apparu en premier sur tactee Agence web.
]]>L’article Gérer un site à l’international est apparu en premier sur tactee Agence web.
]]>Découvrez les conseils des spécialistes de l’équipe Tactee SEO. Chaque année, nous accompagnons des entreprises dans la mise en place de leur présence digitale à l’international.
Développer une stratégie SEO à l’international, ce n’est pas simple. Contrairement à ce que l’on pourrait penser au premier abord, pour se lancer sur un marché étranger, il ne suffit pas de traduire son site Internet, bien au contraire. Vous devez garder à l’esprit que votre site Internet va devoir cibler un marché local spécifique avec une audience bien particulière. En effet, d’un pays à un autre, la culture est très différente, tout comme les usages. Vous ne pouvez donc pas traiter de la même façon votre marché en France et au Japon. C’est pourquoi nous vous recommandons vivement d’établir une véritable stratégie à l’international. Celle-ci devra s’appuyer sur une étude de marché. Elle est essentielle afin que vous puissiez adapter votre offre et votre discours à chaque pays ciblé.
Il faut garder à l’esprit que la stratégie digitale d’un site à l’international est unique. Ce n’est pas parce que certains sites Internet utilisent certaines techniques que ces dernières seront efficaces dans votre cas. Vous êtes unique. Certes, certaines pratiques SEO, ne dérogent pas aux règles et celles ci seront valables dans l’ensemble, mais votre image doit s’adapter au pays ciblé.
Vous ne devrez pas faire les mêmes choix selon que vous vous adressiez à un pays en particulier (par exemple : l’Espagne) ou à un marché ayant comme point commun la langue (par exemple : les pays hispaniques).
L’équipe de Tactee vous donne quelques pistes pour que vous puissiez développer la stratégie SEO à l’international la mieux adaptée à votre site Internet :
La première chose à laquelle vous devez faire attention lorsque vous pensez votre stratégie à l’international, c’est l’architecture de votre nom de domaine. En effet, il existe au minima 4 méthodes de gestion qui possèdent chacune leurs avantages et leurs inconvénients :
En général, le plus judicieux est de choisir la gestion par ccTLD pour une stratégie digitale à l’international. En effet, grâce à cette technique, les moteurs de recherche associent automatiquement l’extension au pays ciblé. La géolocalisation est donc optimale, tout comme son indexation. En plus, la gestion par ccTLD permet de bien différencier ses différents sites Internet. Il est ainsi bien plus aisé de mettre en place une stratégie SEO différenciée sur chaque site. Cependant, cette solution n’est pas toujours celle qui est choisie par les webmasters. En effet, l’infrastructure est un peu plus lourde à gérer. Sans compter le budget des noms de domaine qui peut considérablement augmenter les coûts.
Si vous ne pouvez pas opter pour la gestion par ccTLD, devez-vous privilégier le sous-domaine ou le répertoire ? Ces 2 méthodes sont plus simples à gérer et beaucoup moins onéreuses. Cependant, elles ne permettent pas une géolocalisation optimale, surtout dans le cas des répertoires. Techniquement, vous devrez aussi faire face à certaines problématiques, notamment celles qui concernent la gestion des redirections en cas de détection de la langue du navigateur de l’internaute. La géolocalisation du sous-domaine étant tout de même plus intéressante qu’en répertoire, cette solution est bien souvent privilégiée. Mais attention tout de même aux sous-domaines : si vous en utilisez trop, les moteurs de recherche risquent de considérer cela comme du spam.
A noter que bien que le ccTLD semble être la solution la plus pertinente, elle n’est pourtant pas suffisante pour justifier le référencement local. Les moteurs de recherche comme Google donnent aussi une grande importance à la langue du site Internet ainsi qu’à la localisation du serveur. L’usage du ccTLD, d’un serveur local et d’une langue unique sur un site servent donc à aider Google à bien identifier le ciblage géographique des sites.
Lorsque l’on décide de lancer son site à l’international, il est important de ne pas penser ergonomiquement ses sites de la même manière en fonction du pays ciblé. En effet, d’un pays à un autre, les habitudes de lecture ne sont pas les mêmes. Les couleurs n’ont pas la même signification. Les formats de date ne sont pas présentés de la même façon. Par exemple, saviez-vous qu’aux Etats-Unis, le rouge est synonyme de danger ? Alors qu’en Chine, il fait référence à la joie et à la gaieté ? Pour éviter de véhiculer le mauvais message à votre audience, il est donc important de se renseigner sur les codes en vigueur dans les pays que vous souhaitez cibler.
Vous voulez que votre site Internet soit bien référencé dans les résultats locaux des moteurs de recherche ? Dans ce cas, il est essentiel que votre site Internet soit considéré comme local par Google. Vous allez devoir suivre certaines règles si vous voulez améliorer l’indexation de votre site à l’international :
Grâce à ces nombreux conseils, vous devriez y voir plus clair dans la gestion de vos sites à l’international. Si vous voulez vous faire conseiller par des experts, nous vous conseillons de vous rapprocher de nos équipes : nous pourrons faire le point sur votre projet et vos objectifs, mais également vous proposer la stratégie SEO la plus pertinente.
L’article Gérer un site à l’international est apparu en premier sur tactee Agence web.
]]>L’article Quelles solutions contre les pages orphelines ? est apparu en premier sur tactee Agence web.
]]>S’il vous arrive d’analyser les pages de votre site Internet qui sont crawlées par le Googlebot, vous vous êtes peut-être déjà rendu compte que certains résultats ne correspondaient pas. En effet, le Googlebot semble crawler ce que l’on appelle en SEO des pages orphelines (ou encore pages fantômes). L’agence SEO Tactee vous propose de faire le point sur ces pages orphelines :
Les pages orphelines sont tout simplement des pages qui ne sont pas présentes au sein de l’arborescence de votre site Internet, mais qui sont pourtant connues de Google. Aucun lien présent sur votre site Internet ne renvoie vers ces pages fantômes. Les internautes ne peuvent donc pas tomber dessus lorsqu’ils naviguent sur votre site web. Au final, ces pages appartiennent à votre site Internet… Seulement, elles ne sont pas reliées à celui-ci.
Il faut savoir que ce problème est très courant, notamment sur les sites Internet ayant un gros volume de pages. Heureusement, il est tout à fait possible de lutter contre ce phénomène. Mais avant de chercher à les identifier, il est important de comprendre comment ces pages fantômes se développent.
Si des pages orphelines apparaissent sur votre site Internet, c’est que ce dernier a un problème relatif à son maillage interne. En effet, il n’est pas rare de voir des pages fantômes se développer suite à :
Vous comprenez donc qu’il est tout à fait possible d’éviter le phénomène des pages orphelines. Il suffit de bien penser chacune de ses pages, de bien vérifier que celles-ci sont maillées et de ne pas oublier les redirections 301 lorsque celles-ci sont nécessaires. Seulement, sur les gros sites Internet, il est parfois difficile de s’y retrouver, le volume des pages étant parfois conséquent.
Des pages fantômes, il y en a sur votre site Internet. Mais est-ce vraiment un problème ? Pour le SEO, cette situation est loin d’être idéale. En effet, Google peut crawler ces pages, alors que celles-ci ne sont pas utiles pour le référencement de votre site Internet. Alors que le Googlebot ferait mieux de s’attarder sur les pages qui ont un réel intérêt : en passant son temps sur les pages orphelines, le risque est de voir le Googlebot ne pas crawler les bonnes pages de votre site Internet. En plus, comme le contexte structurel est très important de nos jours en référencement, les pages fantômes ne vous apporteront pas grand-chose en SEO. Elles sont beaucoup moins efficaces que les pages ancrées dans l’arborescence.
Vous voulez identifier les pages orphelines de votre site Internet ? Voici une méthode pour y parvenir :
Maintenant que vos pages orphelines sont identifiées, vous vous demandez sans doute ce que vous allez pouvoir en faire. Deux principales solutions sont à votre disposition :
Il y a un réel problème de pages orphelines sur votre site Internet et vous ne savez pas par où commencer pour régler le problème ? N’hésitez pas à contacter les experts de Tactee pour faire le point sur votre situation !
L’article Quelles solutions contre les pages orphelines ? est apparu en premier sur tactee Agence web.
]]>L’article Passer son site Internet en HTTPS devient obligatoire en 2017 ! est apparu en premier sur tactee Agence web.
]]>Les spécialistes en référencement de Tactee vous expliquent ce qui va changer cette année !
Pas de doute : en 2017, le HTTPS devient obligatoire ! Depuis 3 ans, les équipes de Google préparent le terrain en montrant aux webmasters et aux référenceurs l’importance de la sécurisation des sites sur le web. Mais fin 2016, le constat était sans appel : rares étaient les sites Internet à être passés en HTTPS ! Face à cet état des lieux, Google a décidé de passer à l’offensive en 2017 en indiquant que le protocole de sécurité devenait obligatoire !
Que vous le vouliez ou non, vous allez devoir procéder à ce changement. A moins que le positionnement de votre site Internet dans les SERPs n’ait pas une grande importance pour vous…
Jusqu’à l’an dernier, le protocole HTTPS n’était pas véritablement un critère de pertinence pour Google. Les sites sécurisés n’étaient pas spécialement mieux positionnés dans les SERPs. Cependant, depuis quelques mois, la tendance n’est plus la même. En effet, depuis octobre 2016, certains webmasters observent une hausse des positions dans les SERPs lors du passage de leur site Internet du protocole HTTP à HTTPS.
Si vous souhaitez conserver ou améliorer vos performances SEO dans les prochains mois, vous allez donc être dans l’obligation de réfléchir très sérieusement à la question du HTTPS. D’ailleurs, l’impact ne devrait pas seulement toucher le SEO, mais aussi le comportement des internautes qui visitent votre site Internet…
Depuis quelques mois, le navigateur Google Chrome indique grâce à un cadenas vert si le site Internet visité par un internaute est bien sécurisé. Depuis la mise à jour de janvier 2017, Chrome va plus loin. En effet, nous assistons à un véritable changement de paradigme : avant, le navigateur indiquait les sites sécurisés, maintenant il va aussi mettre en avant les sites qui ne le sont pas.
Des messages d’alerte apparaissent donc directement sur le navigateur comme indiqué sur l’image suivante :
Pire encore, dans certains cas, le navigateur indique à l’aide d’un triangle rouge les sites qui ne sont pas sécurisés : de quoi faire fuir les internautes…
Si vous ne voulez pas perdre la confiance des internautes en votre site Internet, il vaut donc mieux rapidement passer celui-ci en HTTPS. C’est encore plus important pour les sites e-commerce ainsi que les sites permettant aux internautes de disposer d’un espace personnel.
Vous vous demandez comment passer votre site en HTTPS et ainsi obtenir le précieux cadenas vert ? Il va falloir que vous installiez un certificat SSL sur votre serveur. Ce fichier contient des données permettant de crypter les informations efficacement. Nous aborderons le sujet du certificat SSL en profondeur dans un prochain article…
Comptez-vous passer votre site Internet en HTTPS en 2017 ? Quelles précautions comptez-vous prendre ?
L’article Passer son site Internet en HTTPS devient obligatoire en 2017 ! est apparu en premier sur tactee Agence web.
]]>L’article Le Web to store : une stratégie cross canal efficace pour votre site web est apparu en premier sur tactee Agence web.
]]>L’expression ne vous dit peut-être rien, mais le concept ne vous est sûrement pas étranger. En effet, le web to store consiste tout simplement, pour un consommateur, de se renseigner au préalable sur Internet avant de procéder à son achat en magasin. Un comportement qui est loin d’être marginal : 70% des internautes ont tendance à faire des recherches sur Internet afin de préparer leurs achats en boutique physique.
Si vous possédez à la fois un site e-commerce et une boutique physique, il est donc important de ne pas les considérer comme étant des concurrents, mais plutôt comme des moyens complémentaires de mener à un achat. Il faut bien garder à l’esprit que le processus d’achat est de moins en moins linéaire : un consommateur peut prendre connaissance d’un produit sur un réseau social, visiter plusieurs sites Internet pour comparer les prix et obtenir des informations complémentaires, puis décider au final, quelques jours plus tard, d’acheter le produit en question dans une boutique près de chez lui. Chaque étape a eu son importance dans le processus d’achat : aucune n’est à négliger !
Quand on parle de web to store, 2 concepts peuvent faire leur apparition : le showrooming et le ropo. Bien que très différents l’un de l’autre, il est difficile de les dissocier : ils font référence à un comportement du consommateur.
Ainsi, le showrooming consiste pour un consommateur de se rendre dans une boutique physique afin de prendre connaissance d’un produit, puis de l’acheter sur Internet pour des raisons économiques. Sur le web, il est possible de comparer les prix très facilement pour trouver la meilleure offre. 70% des consommateurs utilisent la technique du showrooming pour faire leurs achats.
Alors que la réalité du ropo (research online, purchase offline) est toute autre : il s’agit pour un consommateur de faire des recherches en ligne avant d’acheter le produit de son choix dans une boutique physique. En effet, certains consommateurs ont besoin de voir le produit en vrai afin de prendre leur décision finale. 92% des consommateurs ont ce comportement selon certaines études.
Mettre en place une stratégie web to store est une excellente idée pour les e-commerçants qui ont aussi une boutique physique. Voici les avantages d’une telle stratégie :
Il existe de nombreuses façons de mettre en place une stratégie web to store. Découvrez quelques méthodes qui ont fait leurs preuves et trouvez celle qui correspondra le mieux à votre image de marque :
Alors, qu’attendez-vous pour mettre en place une stratégie web to store ? Il n’y a pas de raison pour que votre site e-commerce et votre boutique physique se cannibalisent, bien au contraire ! Ce sont des canaux à utiliser de façon complémentaire pour avoir une chance d’améliorer son chiffre d’affaires !
L’article Le Web to store : une stratégie cross canal efficace pour votre site web est apparu en premier sur tactee Agence web.
]]>L’article Google Possum : un algorithme qui impacte le référencement local ! est apparu en premier sur tactee Agence web.
]]>
Google Possum est un nouvel algorithme qui vise les résultats locaux. Et plus précisément les résultats qui apparaissent dans les SERPs sous forme de carte ainsi que sur l’interface Google Maps. Si vous travaillez le référencement local de votre entreprise dans les moteurs de recherche, il est donc essentiel de se renseigner sur l’impact de Google Opossum dès aujourd’hui : en effet, cette mise à jour modifie en profondeur la façon dont les résultats locaux sont affichés.
Google Possum a été déployé le 1er septembre 2016 aux Etats-Unis. Le déploiement dans le monde entier s’est fait dans les semaines qui ont suivi. Lorsque vous faites une recherche locale sur Google, les résultats affichés tiennent donc compte du nouvel algorithme de Google.
Une petite anecdote sur le lancement de Google Possum : les équipes de Mountain View sont restées silencieuses lors du déploiement de la mise à jour. C’est un référenceur américain, Phil Rozek, qui a décidé de nommer ce nouvel algorithme Possum : l’opossum étant un animal connu pour faire le mort lorsqu’il se sent en danger.
Google Possum a un impact sur le classement des résultats dans le pack local de Google. Avant de rentrer dans le détail, il est donc important de bien comprendre en quoi consiste le pack local de Google. Il s’agit tout simplement de l’emplacement qui est utilisé par Google dans les SERPs pour afficher les résultats locaux suite à une requête locale d’un internaute. Traditionnellement, le pack local s’affiche sous les annonces Adwords et au-dessus des premiers résultats organiques. Lors de son lancement, 7 résultats étaient affichés. A ce jour, ils sont au nombre de 3.
Google n’ayant pas communiqué sur le lancement de son nouvel algorithme, des tests ont été effectués par les référenceurs du monde entier afin de mieux comprendre son impact. Voici les résultats obtenus :
Comment avez-vous vécu le déploiement de Google Possum ? L’impact vous semble-t-il positif ou négatif ?
L’article Google Possum : un algorithme qui impacte le référencement local ! est apparu en premier sur tactee Agence web.
]]>L’article Qu’est-ce que le pogosticking ? est apparu en premier sur tactee Agence web.
]]>L’équipe de Tactee SEO vous explique tout ce qu’il faut savoir sur ce concept qui participe au bon positionnement de votre site Internet dans les SERPS (page de résultats de Google).
A l’origine, le pogo stick est un jeu ludique qui permet de faire des bonds. Si Google utilise aujourd’hui ce terme pour parler de l’analyse du comportement des internautes dans les SERPs, ce n’est pas un hasard. En effet, l’image du “bâton sauteur” représente bien le concept du pogosticking.
Il s’agit donc pour Google d’analyser les allers-retours des internautes entre la SERP et les sites Internet positionnés sur la page de résultats. Prenons l’exemple suivant :
Pour Google, le comportement de l’internaute permet de montrer que le premier site Internet était décevant, alors que le second a répondu aux attentes. On peut considérer que le pogosticking relève de l’analyse du taux de rebond dans les SERPs.
Le pogosticking permet à Google d’obtenir des données au sujet de la pertinence des sites Internet par rapport à des requêtes données. L’objectif de Google étant de fournir des résultats toujours plus appropriés aux internautes, il n’est pas étonnant que ce système soit utilisé comme critère de pertinence dans l’algorithme. Bien évidemment, il ne s’agit que d’un seul critère : ce n’est pas suffisant pour positionner les pages web, même si ce critère y participe.
A noter que Google combine sans doute le pogosticking au temps passé sur les différents sites Internet. En effet, alors qu’une brève visite sur un site web peut montrer une inadéquation entre la page et la requête, une visite plus longue suivie d’un retour à la SERP peut être un signal positif pour le moteur de recherche.
Vous vous demandez sans doute s’il est possible d’identifier et surtout d’enrayer le phénomène du pogosticking ? Cela risque de vous prendre du temps, mais oui, grâce à Google Analytics, il est possible de l’identifier. Pour cela, nous vous conseillons de comparer les pages de votre site Internet qui ont un fort taux de rebond et une faible durée de visite. Vous pourrez aussi filtrer en fonction de la source des visites : ici les résultats organiques de Google.
Si vous parvenez à identifier le pogosticking pour l’une de vos pages web, vous pourrez essayer de le diminuer en mettant en oeuvre la technique suivante :
Avez-vous déjà identifié du pogosticking ? Avez-vous trouvé une solution pour enrayer le phénomène ?
L’article Qu’est-ce que le pogosticking ? est apparu en premier sur tactee Agence web.
]]>L’article Comprendre les micros data et leur impact sur le SEO est apparu en premier sur tactee Agence web.
]]>Voici un aperçu sur les données structurées réalisé par notre agence SEO et découvrez ce qui se cache derrière le concept de microdata afin de mieux comprendre quel peut être son impact sur le SEO !
Les micros data, qui sont aussi appelées les microdonnées, ont un objectif très simple. Elles permettent d’enrichir et de donner du sens aux différents contenus qui se trouvent sur votre site Internet.
Lorsque vous visitez un site Internet et que vous lisez son contenu, vous en comprenez automatiquement le sens, c’est tout à fait normal, pour les robots des moteurs de recherche, c’est un peu différent.
En effet, lorsqu’ils indexent les sites internet, ils ne comprennent pas forcément le sens exact des contenus qui sont présents sur ceux-ci. Ils réussissent à identifier les termes importants, ce qui permet de positionner les sites dans les SERPs. Mais la compréhension des textes n’est pas innée pour les robots des moteurs de recherche. C’est là que les micros data entrent en jeu ! En effet, elles vont permettre une meilleure compréhension des pages : le moteur de recherche va enfin être en mesure de comprendre si une page parle d’une personne, d’un film, d’un livre ou encore d’une entreprise.
Les microdonnées permettent aussi de mettre en valeur les contenus dans les SERPs. En effet, si un site Internet renseigne ses micros data, il sera possible pour le moteur de recherche de produire ce que l’on appelle un Rich Snippet. Le Rich Snippet (ou extrait enrichi) apporte à l’internaute des informations complémentaires qui peuvent lui permettre de mieux définir si une page est pertinente par rapport à sa recherche.
Prenons l’exemple d’une page qui parle d’un livre et vend ce dernier. Sur la page de résultats du moteur de recherche, en plus du Title et de la Méta Description, pourront apparaître les éléments suivants : le prix du livre, les évaluations des lecteurs ayant acheté le livre, une photo de la couverture, etc.
Avec l’avènement du web sémantique, les moteurs de recherche ont pour objectif de toujours apporter des réponses plus pertinentes et plus intelligentes aux internautes. Et c’est justement cela que les données structurées permettent.
Mettre en place les microdonnées sur son site Internet n’est pas compliqué. Par contre, cela peut prendre un peu de temps.
Pour résumer, les microdonnées sont des tags qui s’intègrent au code HTML des pages d’un site Internet. Nous vous conseillons d’utiliser les balises proposées par le site Schema.org. En effet, ce site, à l’initiative de plusieurs moteurs de recherche dont Google, a permis de structurer les données structurées : avant, il existait plusieurs langages et il était encore plus complexe de s’y retrouver !
3 éléments sont incontournables pour réussir à mettre en place les données structurées sur une page d’un site Internet :
Les micros data ont un impact à ne pas négliger sur le référencement. En effet, ce langage permet aux moteurs de recherche de mieux comprendre de quoi parlent les contenus présents sur le web : un atout pour mieux les indexer.
En ce qui concerne le Rich Snippet, l’intérêt est encore ailleurs. En effet, des études ont montré que les internautes ont tendance à cliquer davantage sur les résultats enrichis que sur les résultats classiques dans les SERPs. Rien d’étonnant à cela : ils ont plus d’informations à leur disposition et peuvent donc faire des choix plus éclairés ! Les données structurées permettent donc d’améliorer le taux de clic, et ça, c’est aussi un atout indéniable pour le référencement ! En effet, pour Google, il s’agit d’un signal très positif qui est pris en compte dans l’algorithme.
Pour l’instant, vous n’avez pas encore intégré les microdonnées à votre site Internet ? Nous vous conseillons de commencer à travailler sur votre stratégie. En effet, l’avenir est au web sémantique. Si vous souhaitez améliorer ou même tout simplement pérenniser la présence de votre site Internet dans les résultats des moteurs de recherche, il est donc important de miser sur les données structurées !
N’hésitez pas à contacter l’équipe de Tactee si vous souhaitez vous faire accompagner dans la mise en place de votre stratégie.
L’article Comprendre les micros data et leur impact sur le SEO est apparu en premier sur tactee Agence web.
]]>L’article Comment rédiger des Balises Title et Méta Description SEO Friendly ? est apparu en premier sur tactee Agence web.
]]>La balise Title (à ne pas confondre avec une balise méta) a un double objectif : améliorer le référencement de votre site Internet et inciter au clic. En effet, celle-ci apparaît dans les résultats des moteurs de recherche.
Dans le code HTML de votre site internet, la balise Title est intégrée aux balises Head. Elle se matérialise de la façon suivante :texte du title.
Voici nos conseils de rédaction :
Tout comme la balise Title, la Méta Description prend place entre les balises Head. En général, elle est intégrée peu après le title et se matérialise de la façon suivante :.
Contrairement à la balise Title qui a une grande importance en référencement, la Méta Description n’a qu’un impact indirect. En effet, le texte que vous allez rédiger pour la Méta Description ne va pas aider votre site Internet à être mieux positionné. Cependant, Google tenant compte du taux de clic dans les SERPs : si vous rédigez une Méta Description attractive, les internautes auront tendance à cliquer davantage sur votre lien, ce qui pourra améliorer votre CTR et pas conséquent votre positionnement.
Il est à noter que depuis quelques années, lorsque vous êtes sur de longues requêtes exemple : « faire de son blog un outil marketing efficace », Google vous propose des snippets bien plus longs, la copie écran ci-dessous affiche un snippet de 337 caractères. Ce snippet est généré par Google et il reprend des phrases de l’article comprenant des mots de votre requête.
Test sur une autre requête longue : « paramétrer outil gestion liens brisés broken link checker », nous avons 315 caractères présentés en meta description via la récupération d’éléments de contenu.
Comme vous l’avez compris, le CTR (click-through rate ou taux de clic) est étroitement lié aux balises Title et Méta Description. En effet, bien que le Title soit un critère important pour le positionnement de votre site Internet, il semble encore plus judicieux de le travailler, non pas seulement pour son impact SEO, mais surtout pour son impact marketing.
Des balises Title et Méta Description attractives ne peuvent qu’améliorer le CTR.
Grâce à la Search Console de Google, vous pouvez surveiller le taux de clics dans les SERPs. Nous vous conseillons de procéder à une vérification de temps à autre afin de définir s’il peut être judicieux de modifier vos balises Title et Méta Description. Faites des tests : vous vous rendrez rapidement compte de ce qui plait à votre cible !
Mais la Search Console peut aussi vous servir à vérifier si vos balises Title et Méta Description correspondent bien aux attentes de Google. L’outil vous indiquera si elles sont vides, en double, trop longues ou encore trop courtes. Vous pourrez ainsi les modifier, ce qui ne pourra être que bénéfique pour le positionnement et l’attractivité de votre site Internet dans les SERPs !
L’article Comment rédiger des Balises Title et Méta Description SEO Friendly ? est apparu en premier sur tactee Agence web.
]]>L’article Référencement local : kézako ? est apparu en premier sur tactee Agence web.
]]>Les requêtes locales représentent près de 30% des recherches sur Google. Si vous possédez un restaurant, une boutique ou une entreprise ayant une zone de chalandise locale (et non nationale), il peut être très judicieux pour vous d’investir dans le référencement local. L’agence SEO Tactee vous explique tout ce qu’il faut savoir avant de se lancer dans le référencement géolocalisé.
Le référencement local est un ensemble de techniques permettant d’être référencé sur des requêtes locales, qui représentent donc 30% des recherches à ce jour sur Google. Pour vous donner un exemple, “restaurant indien Nantes” est une requête qui est considérée comme étant locale. Alors que la requête “restaurant indien” est générale.
Lorsque l’on fait une recherche sur un moteur, plusieurs blocs apparaissent dans les résultats :
Notons également que Google utilise les données de géolocalisation des internautes afin de mettre à leur disposition des résultats qui correspondent parfaitement à leur recherche.
Le référencement local possède de nombreux avantages. En effet, il va vous permettre d’attirer une clientèle plus qualifiée et ainsi d’augmenter vos ventes ou vos demandes de contact. Votre présence sur le web sera tout simplement mieux ciblée. Prenons un exemple simple : si vous possédez un restaurant indien à Nantes, vous pourrez attirer les internautes qui sont à la recherche d’un tel restaurant dans la ville de Nantes. Si votre restaurant ressort dans les résultats d’un internaute situé à Lyon, cela ne va pas forcément aider votre business à décoller.
Un autre avantage ? Les internautes auront à leur disposition des informations très complètes sur votre boutique ou sur votre restaurant. En effet, les résultats des requêtes locales sont enrichis avec des éléments comme les horaires, le numéro de téléphone ou encore des avis clients.
Si vous souhaitez augmenter votre visibilité dans votre zone de chalandise et améliorer vos résultats, le référencement local est une technique sur laquelle vous allez pouvoir compter !
Le référencement local ne doit pas être mis en place à la légère. En effet, pour être efficace, il faut mettre sur pied une véritable stratégie. Voici les éléments incontournables pour optimiser votre référencement local :
Ensuite, vous pourrez procéder au plus important : vous inscrire sur Google My Business.
Ce service gratuit de Google permet de faire apparaître son entreprise, sa boutique ou son restaurant dans l’encart réservé aux requêtes locales. Pour vous inscrire, c’est très simple. Il vous suffit de localiser votre entreprise sur Google Maps, de créer un compte Google + et de compléter votre profil avec des informations concernant votre société : l’adresse, le numéro de téléphone, le site web, le secteur d’activité, les services complémentaires, les photos du lieu. Vous pourrez ensuite inciter vos clients à renseigner un avis sur votre entreprise : mieux votre entreprise sera notée, mieux celle-ci apparaîtra en bonne position dans la zone dédiée au référencement local.
Il vous est aussi possible de créer des annonces sponsorisées sur Google Adwords. Cependant, mettre en place des campagnes sur Adwords nécessite d’avoir un budget dédié à cette opération.
Vous voulez vous faire aider pour mettre en place votre stratégie de référencement local ? N’hésitez pas à contacter l’équipe de Tactee : nous sommes là pour vous aider !
L’article Référencement local : kézako ? est apparu en premier sur tactee Agence web.
]]>L’article Google Analytics, Adwords et Tag Manager est apparu en premier sur tactee Agence web.
]]>Google Analytics est un service gratuit qui permet d’analyser l’audience de son site Internet. Pour y parvenir, il suffit d’insérer un petit bout de code sur son site web : à partir de là, l’outil de mesure va commencer à engranger un grand nombre d’informations sur votre référencement naturel. Plus précisément, cet outil permet à tout moment de visualiser ses statistiques web : le nombre de visites, le nombre de visiteurs uniques, les pages les plus populaires de votre site, le taux de rebond, la provenance des visites, etc. Si vous liez votre compte Analytics à votre compte Adwords, ce que nous vous conseillons de faire si vous possédez un site e-commerce, vous pourrez aussi suivre les performances de votre référencement payant : le taux de conversion est-il à la hauteur de votre investissement sur la plateforme de Google ?
Google Analytics n’est pas seulement un outil de mesure. En effet, il peut aussi vous permettre de faire du A/B testing : en fonction des résultats obtenus, vous pourrez améliorer les performances de votre site Internet.
Au final, Google Analytics est un outil incontournable : les données que vous allez pouvoir obtenir grâce à celui-ci vont vous permettre d’optimiser l’ensemble de vos leviers marketing !
A noter : depuis Avril 2013, une version payante de google analytics existe : Google Analytics Premium, la première différence entre les outils le tarif : nous passons de 0 à environ 150 k$ et bien sur quelques fonctionnalités supplémentaires ou services en plus. (plus d’infos sur les différences entre google analytics et google analytics standard)
Fin 2000, Google a lancé une plateforme qui a aujourd’hui beaucoup de succès : Adwords, qui n’est ni plus ni moins que la régie publicitaire de la firme de Mountain View. Le fonctionnement de cet outil est très simple : comme le SEO (référencement naturel) peut mettre du temps à se mettre en place, il est possible pour les webmasters, marketeurs, ou chefs d’entreprises d’investir dans le SEA (référencement payant ou Search Engine Advertising) pour obtenir des résultats à plus court terme.
Grâce à Google Adwords, vous allez pouvoir lancer des campagnes publicitaires qui seront affichées dans les résultats du moteur de recherche à chaque fois que les internautes tapent les mots clés correspondants. Il s’agit ici d’un système d’enchères : plus vous définissez un CPC (coût par clic) élevé, plus vous aurez de chance de voir apparaître vos annonces et donc d’améliorer votre objectif de conversion.
Ce système est très apprécié des sites e-commerce qui ont ainsi à leur disposition un levier supplémentaire pour pousser leurs produits. A noter qu’il est possible, grâce à Adwords, de diffuser ses produits sur Google Shopping, une plateforme de comparaison de prix très populaire.
Google Adwords permet très simplement de gérer ses campagnes et ses annonces. Vous pouvez utiliser Adwords en ligne, mais également utiliser le logiciel Google Adwords Editor, qui vous permettra de gérer vos campagnes, mots clefs, enchères en local sur votre ordinateur (mac ou windows).
Bien évidemment, pour obtenir des données plus précises sur les performances de votre site Internet, nous vous invitons à lier Adwords à Google Analytics : vous pourrez ainsi mieux analyser vos datas et ajuster votre stratégie marketing en fonction !
Saviez-vous que Adwords est la « concaténation » de Ad (pour publicité) et Words (pour Mot) ?
Google Tag Manager, aussi appelé gestionnaire de balises, est un outil qui facilite la vie des webmasters. En effet, si vous utilisez Google Analytics ou Google Adwords de façon avancée et que votre site Internet est volumineux, vous avez sans doute déjà eu l’impression de perdre du temps à insérer et à gérer les nombreux codes de tracking à votre disposition.
Grâce à Google Tag Manager, vous pourrez mettre en place et gérer bien plus facilement l’ensemble de vos codes de tracking : plus besoin de les intégrer manuellement sur chaque page web, vous aurez à votre disposition un code unique à insérer sur l’ensemble de vos pages par le biais de vos templates. Une fois ce code unique intégré sur votre site web, la gestion des ajouts de tracker se fera directement sur la plateforme google tag manager et vous n’aurez plus à solliciter votre développeur ou vos équipes techniques. Reportez vous à un de nos articles sur le sujet GTM
A tous ceux qui cherchent à comprendre leurs cibles, à augmenter leur visibilité internet, à développer leur chiffre d’affaires ou le nombre de leads. Ces 3 outils réunis sont une aide très importante pour analyser son trafic (analytics), acquérir du visitorat rapidement (adwords) et tracker intelligemment ses objectifs (tag manager).
Ces outils ne demandent pas de connaissances techniques particulières, mais l’appel à des professionnels de leur utilisation est recommandé, l’expertise ou l’expérience pour une bonne utilisation de ces produits mais surtout une bonne extraction des données est indispensable.
Dans le prochain volet sur les outils Google, nous aborderons le sujet de Google Plus, My Business et Maps.
L’article Google Analytics, Adwords et Tag Manager est apparu en premier sur tactee Agence web.
]]>L’article Les outils Google : Search Console et Google Trends est apparu en premier sur tactee Agence web.
]]>Que vous soyez webmaster, référenceur ou chargé de webmarketing, vous le savez : Google a développé un grand nombre d’outils pouvant servir à améliorer les performances de son site Internet. Cependant, vous n’avez peut-être jamais utilisé ces différents outils. Après tout, il y en a tellement qu’il est parfois difficile de s’y retrouver.
Google Search Console, ça ne vous dit rien ? En fait, il y a quelques temps, cet outil gratuit était connu sous le nom Google Webmaster Tools. Il s’agit d’un outil incontournable pour optimiser son référencement naturel. En effet, Google Search Console permet de vérifier que son site est bien indexé par le célèbre moteur de recherche. Le cas échéant, il aide à identifier le problème et à le régler.
Bien que totalement gratuit, cet outil se compose d’un grand nombre de fonctionnalités. Quels que soient vos besoins, vous ne devriez donc pas avoir de difficulté à trouver des fonctionnalités qui vous permettront d’améliorer le SEO de votre site Internet.
Il existe encore bien d’autres fonctionnalités. Le plus simple est encore de se connecter à l’outil et de naviguer sur celui-ci pour découvrir tout ce qu’il va pouvoir faire pour votre site Internet. Si votre objectif est l’acquisition de trafic et l’amélioration du référencement naturel de votre site Internet, c’est un outil Google dont vous ne pourrez tout simplement pas vous passer.
A savoir : les données obtenues à partir de la Search Console sont plutôt techniques. Cependant, elles ne demandent pas forcément de compétences poussées en SEO pour être comprises. En cas de doute, faites-vous accompagner par votre agence de référencement naturel pour y voir plus clair.
Vous êtes à la recherche d’un outil gratuit élaboré par Google qui vous permette d’améliorer votre stratégie SEO et webmarketing ? Nous vous invitons à découvrir Google Trends (Google tendances des recherches en français) : grâce à cet outil web, vous allez pouvoir découvrir à quelle fréquence un mot clé est tapé dans Google et surtout procéder à des comparaisons par zone géographique, par langue et par période.
Google Trends est un outil de marketing digital très pertinent pour compléter une étude sémantique et une étude de marché. En effet, grâce à cet outil web, vous allez pouvoir affiner sur quels mots clés il peut être intéressant de se placer pour attirer le plus d’internautes.
Ce qui est aussi très intéressant avec cet outil, c’est qu’il vous permet de comparer jusqu’à 5 termes à la fois, qu’il s’agisse de termes génériques ou issus de la longue traine. Les données que vous allez obtenir vont devenir une aide à la prise de décision vraiment très pertinente pour votre service.
Une dernière chose à savoir sur Google Trends : cet outil se base sur les recherches en temps réel. En effet, vous pouvez obtenir des données très pertinentes juste après qu’un événement se soit produit : vous pourrez ainsi observer un pic de recherche sur les mots clés renseignés en rapport avec cet événement. Si votre stratégie webmarketing doit tenir compte des tendances récentes ou périodiques, Google Trends est donc un outil qui se révélera indispensable pour votre service.
Les professionnels du web peuvent tous être amenés à utiliser Google Trends ainsi que la Search Console.
Mais si l’amélioration du référencement naturel et l’acquisition de trafic sont les objectifs finaux des professionnels du web, ces deux outils ne permettent pas d’analyser les mêmes données. Ainsi, Google Trends possède un rôle stratégique alors que la Search Console permet plutôt d’agir sur les problématiques techniques de son site Internet.
Dans un prochain article dédié aux outils de Google, nous aborderons le sujet d’Analytics et d’Adwords.
L’article Les outils Google : Search Console et Google Trends est apparu en premier sur tactee Agence web.
]]>L’article Gérer ses liens brisés avec Broken Link Checker – partie 2 est apparu en premier sur tactee Agence web.
]]>
Rendez vous dans votre back office et dans outils sélectionner « liens cassés ».
Dans notre cas, les liens brisés ou cassés ont déjà étaient corrigés, l’interface se présente de la même façon que vous soyez dans l’onglet Tout, Cassé, Avertissements, Redirections ou Suspendu.
Prenons, l’exemple de la ligne 1 de la copie d’écran du dessus
4 actions sont possibles.
Modifier l’url : vous permet lorsque vous êtes en mode « Cassé » de changer à la volée tous les liens erronés vers une nouvelle adresse. Lorsque vous êtes en mode Redirection, vous pouvez agir de la même façon en indiquant la bonne url.
Délier : vous permet simplement de supprimer le lien inscrit sur l’ancre. Il n’y a donc plus de clic possible.
Suspendre : cache le lien tant que son état ne change, cela peut-être pratique dans le cas des « faux positif », le lien est bon mais le site vers lequel le lien soit disant redirigé ou cassé refuse le test du plugin. Vous avez à ce moment là 2 possibilités vous suspendez la vérification ou vous mettez dans la partie paramétrage quelques exclusions (onglet quels liens vérifier).
Revérifier : vous permet de revérifier (cqfd)
Sur cet exemple, nous sommes dans l’onglet redirection, l’url http://vendezvotrevoiture.fr est redirigée, il suffit de vous en assurer en affichant l’url et l’on se rend compte que ce site a migré sous https.
Votre action va consister à modifier l’url http vers https.
Puis de cliquez sur modifier et revérifier, après quelques secondes ou une autre action, l’alerte pour ce site disparait et dans notre cas de 93 redirections nous passons à 92.
En résumé les avantages sont certains
Une fonctionnalité intéressante
Vous pouvez modifier à la volée des liens via l’onglet tout et la boite de recherche.
Pourquoi faire cela :
A noter tout de même que la recherche sur texte de liens, n’est pas hyper pertinente.
Cet article vous à plu ? Partagez le !
L’article Gérer ses liens brisés avec Broken Link Checker – partie 2 est apparu en premier sur tactee Agence web.
]]>L’article Gérer ses liens brisés avec Broken Link Checker – partie 1 est apparu en premier sur tactee Agence web.
]]>Des liens brisés à tout va ! C’est quand même dommage de tenter de référencer un site wordpress et de se rendre compte, malgré toute notre attention qu’une une multitude de liens internes en 301 ralentissent nos efforts.
Des liens deviennent obsolètes facilement :
Je vais donc vous parler du plugin Broken Link Checker
Un outil bien pratique, qui s’installe en quelques minutes et qui servira de sentinelle pour avoir un site toujours exempt de liens brisés.
Dans le cadre de nos prestations en référencement naturel wordpress , cet outil est très pratique pour améliorer le maillage interne en limitant les redirections internes et parfois les redirections en cascade.
Je vous passe le « comment installer un plugin sous WordPress » et nous allons directement passer aux informations concernant les quelques réglages,.
Nous conseillons de rechercher vos liens au minima dans
La c’est assez simple, cochez tout sauf url en mode texte.
Pour avoir tester toutes les options, je n’ai pas vu de différence pour le site de notre agence de référencement avec l’option url en mode texte coché ou pas.
Vous avez plusieurs méthodes de contrôler vos liens brisés ou liens morts.
le basic http est largement suffisamment, mais si vous le souhaitez vous pouvez tous les cocher, cela devient surtout une histoire de web performance.
Dans cet onglet, nous allons pouvoir agir sur les performances du plugin WordPress Broken Link Checker et améliorer la consommation de nos ressources serveurs.
Time Out : par défaut, à 30 secondes, vous pouvez le laisser par défaut, le lien sera considéré comme brisé au dela de cette limite de temps.
Surveillance des liens : si vous ne cochez pas cela, le plugin surveillera tout le temps vos liens (en fonction du paramétrage de l’onglet général), avec l’option cochée le travail ne s’effectuera que lorsque vous serez connecté à votre tableau de bord et si vous avez coché la seconde option, le plugin vérifiera en tache de fond toutes les heures pendant que vous rédigez par exemple.
Afficher le widget sur le tableau de bord pour : qui peut voir le widget en mode connecté
Actions en masse : Vous permet de définir sur quels types de liens cassés vous souhaitez appliqués des actions en masse (faire une sélection et délier par exemple). Si vous souhaitez gérer les redirections vous pouvez cocher cette option. (nous utilisons un plugin différent pour cette fonctionnalité : WordPress redirection plugin.
Temps d’exécution maximal : Le plugin Broken Link Checker effectue en tache de fond des actions en parcourant les articles à la recherche de liens, puis vérifie ce lien, lui affecte un code de retour (404, 200, 503, time out) et vous indique la source du lien, par défaut, l’option est à 300, si votre serveur est très sollicité vous pouvez réduire cette durée à 200 ou 250.
Taux de charge limite du serveur : Si le taux de charge de votre serveur est supérieur à la limite que vous indiquez ici, les taches broken link checker seront stoppées. L’option vous donne la moyenne de la charge serveur, vous pouvez donc vous adapté à cette moyenne. Soyez vigilants sur l’utilisation de ce paramètre : plus il sera élevé , plus il jouera sur la navigation de vos internautes.
Niveau d’utilisation des ressources : Nous avons défini notre niveau d’utilisation des ressources à 7%, la valeur par défaut est à 25%, ce qui est beaucoup pour la configuration de notre site est serveur. C’est donc un paramètre à évaluer en fonction de votre configuration.
Activer les traces : vous permet d’avoir une gestion des logs de l’applicatif, A moins que vous ayez besoin de savoir comment cela se passe en visualisant au moins une fois le fichier, je vous invite à ne pas cocher cette option qui consomme de la ressource.
Forcer une revérification : Action de remise à 0, la base de Broken Link Checker est vidée et une nouvelle recherche est effectuée.
Nous voici au bout de ce premier tuto sur Broken Link Checker, vous trouverez ici la partie 2, concernant l’utilisation de ce plugin wordpress.
Et vous Comment avez vous paramétré ce plugin ? En utilisez-vous un autre ? N’hésitez pas à partager et à commenter !
L’article Gérer ses liens brisés avec Broken Link Checker – partie 1 est apparu en premier sur tactee Agence web.
]]>L’article Quel CMS adopter pour un référencement optimal ? est apparu en premier sur tactee Agence web.
]]>Cela n’a rien d’étonnant : cette solution permet de lancer un site Internet rapidement puis de le personnaliser simplement en ajoutant des thèmes et des extensions. Le tout pour un coût maîtrisé : en lui-même, le CMS de base est gratuit. Cependant, les extensions qui s’ajoutent au système de base sont souvent payantes.
Intéressons-nous au référencement de ces plateformes CMS : quelle solution vaut-il mieux choisir ? Comment optimiser votre CMS pour le SEO ?
Découvrez l’avis des spécialistes de l’agence Tactee :
Magento, Prestashop, WordPress, Drupal et Joomla sont les CMS open-source les plus utilisés en France et dans le Monde. Si Magento et Prestashop sont surtout réputés pour la création de sites e-commerce, Joomla, Drupal et WordPress semblent plus adaptés pour le développement des sites vitrines. Même s’il est toujours possible d’installer des extensions propres au e-commerce sur ces derniers. Par exemple, Woocommerce pour WordPress.
Le point commun entre ces différentes plateformes ? Sur le papier, elles seraient toutes parfaitement optimisées pour le SEO.
Mais dans les faits, qu’en est-il ?
Le CMS est une solution pratique et flexible pour créer son site Internet. Cependant, elle n’est pas optimale pour mettre en place un référencement efficace :
Si le paramétrage de base des CMS n’est pas optimal pour le référencement, cela ne veut pas dire qu’il n’est pas possible d’obtenir de bons résultats. Bien au contraire !
Pour le développement de votre boutique en ligne, vous faites confiance à Magento. C’est un choix pertinent : après tout, si 7% des sites e-commerce dans le monde sont développés à partir de cette plateforme, ce n’est pas pour rien. Cependant, si vous voulez que votre site Internet apparaissent en bonne place dans les SERPs, il va falloir que vous optimisiez votre CMS pour le référencement. Ce qui n’est pas le cas nativement. En effet, le gros risque avec un site e-commerce sous un CMS comme Magento, c’est la duplication des fiches produits, une des bêtes noires du référencement.
Nous vous conseillons donc de bien prendre le temps de paramétrer votre CMS et si besoin, de vous faire aider par un professionnel. Il n’y a aucune raison pour qu’un CMS dont le référencement a bien été pensé ne puisse pas apparaître en bonne place dans les SERPs. Bien évidemment, comme pour n’importe quel site Internet, il est essentiel de mettre en place une stratégie sur le long terme : il ne s’agit pas de travailler son SEO au lancement du site et de ne plus jamais y toucher, bien au contraire.
Avez-vous opté pour un CMS pour le développement de votre site Internet ? Pourquoi avez-vous fait ce choix ? Avez-vous eu des difficultés lors du référencement de votre site web ? Quelles solutions avez-vous dû mettre en oeuvre ?
L’article Quel CMS adopter pour un référencement optimal ? est apparu en premier sur tactee Agence web.
]]>L’article Blogueurs : attention aux partenariats sponsorisés ! est apparu en premier sur tactee Agence web.
]]>En mars dernier, Google a mis à jour les règles à suivre par les blogueurs testant des produits envoyés gratuitement par les annonceurs sur son blog dédié aux webmasters. Afin d’être au fait des risques éventuels d’une telle pratique pour votre site, l’agence de référencement naturel Tactee vous en dit plus sur les règles à suivre et sur les pénalités encourues en cas de partenariat sponsorisé.
Google n’apprécie pas ce que l’on peut appeler les réseaux de liens factices. En 2014, c’est le service Buzzea qui en avait fait les frais… ainsi que les nombreux blogueurs qui utilisaient ce service pour percevoir une rémunération en l’échange d’un article sponsorisé.
Mais Google ne semble pas avoir dit son dernier mot. Le mois dernier, Mountain View a réaffirmé sa lutte contre les liens factices en rappelant aux blogueurs ainsi qu’aux annonceurs les règles à respecter. Une mise à jour de ces règles qui vaut pour un avertissement dans le milieu des blogs.
Lorsqu’un annonceur contacte un blogueur pour lui demander de parler de son service et de ses produits, mais aussi de placer un ou plusieurs liens dans son article vers le service ou produit en question en l’échange d’une rémunération, on peut parler d’article sponsorisé. C’est aussi le cas lorsqu’une marque envoie gratuitement des produits à tester aux blogueurs en l’échange d’un article avec un ou plusieurs liens. Dans le cas présent, Google cible principalement les marques qui envoient gratuitement des produits à tester, mais la logique reste la même pour les autres cas, tant qu’il y a une rémunération perçue.
Sur son blog pour les webmasters, Google rappelle les 3 règles à respecter en cas d’article sponsorisé :
A l’origine, il ne s’agissait que d’un avertissement de la part de Google. Une annonce qui a eu le mérite de rappeler les règles aux annonceurs et aux blogueurs, qui sont encore trop souvent ignorées lors des partenariats sponsorisés. Quelques semaines à peine après cet avertissement qui pouvait permettre aux blogueurs de rectifier le tir sur leurs articles sponsorisés, Google a manuellement pénalisé des sites Internet sur lesquels des liens sortants factices ont été identifiés.
Reste encore une interrogation concernant l’identification des liens factices dans les blogs : en cas de non-respect des règles, comment Google peut-il s’y prendre pour identifier les liens qui sont naturels et les liens qui sont factices ? Un article de blog présentant un produit ou un service n’étant pas forcément de la publicité déguisée pour une marque ou une agence.
L’article Blogueurs : attention aux partenariats sponsorisés ! est apparu en premier sur tactee Agence web.
]]>L’article Une synergie optimale entre le SEO et le SEA est apparu en premier sur tactee Agence web.
]]>Le SEO (search engine optimization) et le SEA (search engine advertising) sont des leviers qui sont généralement opposés dans le monde du référencement. Mais ces deux approches ne peuvent-elles pas être complémentaires ? Une synergie entre ces deux leviers est-elle possible ? Analyse des spécialistes de Tactee :
Le SEO et le SEA sont des leviers très différents. Cependant, leur finalité est la même : améliorer la visibilité d’un site Internet dans les résultats des moteurs de recherche afin de répondre à des objectifs commerciaux. Alors, plutôt que de voir une oppposition franche entre ces deux approches, pourquoi ne pas plutôt réfléchir à une stratégie globale ?
Pour rappel, le SEO consiste en un ensemble de techniques Onpage et Offpage permettant d’améliorer la visibilité d’un site Internet dans les résultats organiques d’un moteur de recherche. Alors que le SEA fait référence à l’achat d’espaces publicitaires permettant d’apparaître dans les résultats sponsorisés des moteurs de recherche. Les plus connus étant Google Ads (anciennement Google Adwords) et dans une moindre mesure Bing Ads.
Ce qu’il faut voir dans la relation qui unit le SEO et le SEA, ce n’est pas une opposition, mais une complémentarité. Partant de ce postulat, quelle synergie peut-on développer entre ces deux leviers ?
Lorsqu’un nouveau site Internet est lancé, les robots du moteur de recherche doivent passer sur celui-ci pour indexer son contenu et le positionner dans les SERPs. Et cela peut prendre un certain temps. De la même manière, les leviers du référencement naturel sont des stratégies durables, mais qui portent leurs fruits sur le long terme : le contenu, le netlinking, etc. Le temps que le site Internet soit correctement référencé, le SEA peut être une stratégie judicieuse. La mise en place d’annonces sponsorisées sur Google représente un coût certain, mais permet de gagner en visibilité tant que le site Internet n’est pas bien positionné dans les SERPs.
La double présence d’un site Internet dans les résultats d’un moteur de recherche (dans les annonces sponsorisées et les résultats organiques) permet en outre de booster la visibilité de votre activité, en plus d’être un levier de réassurance pour les internautes.
Enfin, si le SEO est un levier incontournable pour positionner durablement un site dans les SERPs, son action est plus limitée pour des campagnes ponctuelles. Ainsi, pour la période des soldes, il peut être intéressant de mettre en place un budget pour le SEA : les promotions du site Internet seront ainsi bien visibles des internautes pendant toute la durée de la campagne.
Le SEO aussi possède un impact à ne pas négliger sur le SEA. La mise en place d’un ou plusieurs leviers du référencement naturel sur un site Internet ne permet pas seulement d’améliorer son positionnement dans les résultats organiques. En effet, des actions en SEO participent à une amélioration du Quality Score Adwords.
Cette note de 1 à 10 se calcule sur différents critères dont la page de destination, sur ce critère, l’expert SEO à son rôle à jouer : l’optimisation des pages de destinations (optimisation onpage) afin d’être au maximum en synergie avec la ou les annonces dédiées Adwords.
L’amélioration du quality score permet de bénéficier de quelques avantages : une baisse du CPC, un meilleur positionnement de votre annonce. Il faut aussi comprendre que cette note est recalculée en temps réel à chaque mise en concurrence de l’annonce et que la note que vous pouvez observer dans votre compte adwords est une note globale, elle reste toutefois un indicateur pertinent pour vous travailler vos optimisations onpage, Note inférieures à 7, il y a un peu de travail.
Le SEO et le SEA sont des approches qu’il est important de savoir différencier, mais qui sont complémentaires, à condition de mettre en place une stratégie cohérente et adaptée à votre activité. Dans votre cas, peut-être est-il judicieux de miser en priorité sur le SEO et d’utiliser le SEA pour des opérations ponctuelles, tout au long de l’année ?
Quels leviers utilisez-vous pour booster la visibilité de votre site Internet ? Avez-vous défini une stratégie couplant SEO et SEA ? Les résultats sont-ils à la hauteur de vos attentes ?
L’article Une synergie optimale entre le SEO et le SEA est apparu en premier sur tactee Agence web.
]]>L’article Pour quelles raisons utiliser Google Tag Manager ? est apparu en premier sur tactee Agence web.
]]>Google Tag Manager est un outil mis gratuitement à la disposition des webmasters et des chefs de projet web marketing en simplifiant la mise en place et la gestion des codes de tracking sur leur site Internet. Chaque agence web doit composer avec des outils Web analytics afin de suivre les performances de ses actions et GTM en fait parti.
L’équipe de Tactee vous propose de revenir sur l’intérêt et les avantages du gestionnaire de balises de Google : celui-ci peut-il être pertinent pour faciliter votre quotidien ?
Google Tag Manager est un gestionnaire de balises et de conteneurs. C’est un outil très pratique facilitant l’implémentation des tags sur les sites volumineux ou pas. En effet, au lieu d’ajouter manuellement des bouts de code sur différentes pages de votre site internet, tout se passe sur l’interface mise à la disposition des webmasters par Google. (Google Tag Manager). Il suffit d’intégrer un tag unique (conteneur) , une seule fois, sur l’ensemble des pages à tracker.
Au final, GTM est une interface unique pour gérer l’ensemble des codes de tracking utilisés sur un site Internet.
Vous possédez un site Internet volumineux et vous souhaitez collecter des données pertinentes qui vont vous permettre de prendre des décisions optimales pour le développement de votre stratégie marketing ? Dans ce cas, il va falloir que vous analysiez le comportement des internautes qui visitent votre site web, mais aussi que vous suiviez les conversions avec la plus grande précision. C’est justement en cela que Google Tag Manager va vous aider : grâce à cet outil, vous allez pouvoir rapidement et facilement implémenter les codes (par exemple, Analytics) vous permettant de collecter ces données. Ce qu’il faut que vous reteniez, c’est que les possibilités sont multiples : il vous est aussi possible d’intégrer des balises de remarketing ou encore des tags vous permettant de mesurer l’engagement sur vos contenus.
Bien que cet outil soit jeune et assure une fois de plus la domination de Google, ses avantages sont nombreux pour les acteurs du marketing :
Que pensez-vous de Google Tag Manager ? Quelles sont les utilisations que vous en faites ? Avez-vous un retour d’expérience à nous fournir sur cet outil ? Quels sont ses avantages et ses inconvénients ?
L’article Pour quelles raisons utiliser Google Tag Manager ? est apparu en premier sur tactee Agence web.
]]>L’article Comment faire du netlinking comme un pro ? est apparu en premier sur tactee Agence web.
]]>Levier d’importance à ne pas négliger, il faut toutefois être prudent dans la mise en place de sa stratégie d’acquisition de backlinks.
Tactee fait le point sur cette technique parfois controversée et vous donne ses conseils pour ne pas offenser Penguin.
Le netlinking, ou linking externe, est une stratégie d’échange et de collecte de liens (backlinks) entre plusieurs sites, qui permet d’augmenter son indice de pertinence aux yeux des moteurs de recherche.
Il existe deux façons d’acquérir des liens :
Parce qu’un lien transfert un peu de « jus » du site sur lequel il est posé, et que c’est bon pour votre stratégie de référencement SEO.
On ne le répètera jamais assez, un site qui propose du contenu de qualité à l’internaute, a toutes les chances de répondre, en partie du moins, aux exigences des moteurs de recherche. Dans la logique googlienne, un site pertinent recevra naturellement des backlinks, alors si l’on prend le problème à l’envers, un site fortement linké sera jugé d’intérêt.
Donc si mon site reçoit un grand nombre de backlinks, Google interprétera cela comme un signal de qualité ?
Et bien non, pas nécessairement. Le netlinking implique deux notions complémentaires : la qualité, mais également la popularité. Pour obtenir les faveurs du moteur, vous devez toujours veiller à allier les deux. Donc beaucoup de liens, c’est bien, à condition qu’ils respectent un certain nombre de critères. Car mieux vaut un lien en moins qu’un mauvais lien.
Pour venir à bout des spams et des sites peu qualitatifs, Google met régulièrement à jour son algorithme, entrainant ainsi des pénalités.
En 2012, le moteur de recherche californien tire la sonnette d’alarme face aux aux sites qui usent et abusent de techniques d’automatisation des procédés de netlinking et de l’utilisation massive de liens « artificiels » ; technique aujourd’hui considérée black hat.
Concrètement, un site recevant trop de liens de mauvaise qualité, et d’origine non naturelle, peut être pénalisé, allant d’un déclassement dans les moteurs de recherche à une désindexation, pour les cas les plus graves. Un risque que beaucoup d’entre nous ne souhaitent pas prendre à la légère.
Les mises à jour du filtre Penguin, se font encore de façon ponctuelle, mais l’on attend sous peu la version 4.0, qui intégrera la notion de « temps réel » avec une actualisation automatique et en continu. Une aubaine, quand on sait qu’il faut parfois aujourd’hui attendre plusieurs mois, voir plusieurs années avant de sortir d’une pénalité.
Il existe 2 sortes de pénalités :
Pour sortir d’une pénalité, il est nécessaire d’opérer un nettoyage complet de ses backlinks, en ne gardant que les plus bénéfiques.
Pour supprimer vos liens, 3 solutions s’offrent à vous :
Le linkbaiting est l’acquisition naturelle de lien par la production de contenu de qualité, pertinent et très viral. Obtenir des backlinks demande beaucoup de temps et de travail, et il vous faudra produire des documents facilement partageables comme des infographies ou des livres blancs. Vous pouvez, pour cela faire appel à un rédacteur web.
Malheureusement, depuis que les règles du jeu se sont raffermies, le linkbaiting n’est plus suffisant. Pour booster votre référencement, il faut parfois sculpter son profil de lien grâce au link building ou tissage de liens. Il faut néanmoins être vigilant avec les techniques employées, qui ont beaucoup évolué depuis 2012…
Quelques méthodes que vous pouvez encore utiliser, avec modération :
Afin de générer les meilleurs liens possibles, il vous faudra évaluer la source de votre lien, mais également la manière dont il est généré. Quelques explications :
Voici quelques indicateurs qui permettent de donner une note globale sur le site de provenance du lien :
Qu’est-ce que le profil de lien ?
Pour détecter les fraudeurs et les spammeurs, Google se réfère, entre autres, aux profils de liens des sites web. Celui-ci doit laisser penser que vous n’avez pas travaillé votre netlinking dans une logique d’optimisation de votre référencement naturel seo. Lors de votre audit, il est également important de vérifier celui de vos sites cibles.
Pensez donc à vérifier :
L’ancre de lien est le texte sur lequel vous cliquez pour accéder au lien hypertexte.
Celle-ci a deux utilités : elle améliore l’expérience utilisateur, et d’un point de vue SEO, permet de placer des mots clés lus par les moteurs de recherche.
Ancres désoptimisées, semi-optimisées et optimisées : le bon ratio !
Pour rester sous les radars des robots, l’ancre sur-optimisée (surchargée de mots–clés) est à proscrire.
Le contexte sémantique de votre ancre est très important. Avec un poids certes moins important que l’ancre elle même, il vous permet de contextualiser correctement votre lien ; notamment dans les cas d’utilisation d’ancre désoptimisée.
Pour auditer le potentiel d’un site internet et pour vous aider dans vos recherches de backlinks, plusieurs outils référencement sont à votre disposition. Vous obtiendrez entre autres informations, des notes de 0 à 100 qui évaluent la force, la notoriété ou la confiance du site et proposent une alternative intéressante au pagerank.
Avez Moz, vous pourrez consulter le DA (Domaine Authority) qui note la « force » du site, son poids, et le PA (Page Authority), centré sur une url en particulier. On considère qu’une note est intéressante à partir de 30. Au delà de 50, elle est forte.
Ahref, vous permettra également de suivre les positions de mots clés, et d’obtenir un certain nombre de statistiques.
Majestic seo présente deux indicateurs : le Citation Flow et le Trust Flow.
Le CF est un indicateur lié à la popularité de la page, du nombre total de liens qui pointent vers elle avec des IP différentes. Plus votre page reçoit de backlinks, plus son CF est élevé. Le Citation Flow, ne traduit pas la qualité des liens, mais la quantité.
Le TF quant à lui est complémentaire au CF puisqu’il représente davantage la qualité/trust/confiance des liens.
Tout est question d’équilibre, il faut donc éviter les trop grands écarts entre ces deux notes.
Vous l’aurez compris, construire une stratégie de linking externe efficiente, tout en évitant les pénalités, demande un investissement important. En tant qu’acteur du web, vous n’avez pas toujours le temps, ni les ressources internes pour mettre en place un référencement professionnel. C’est pourquoi, afin d’optimiser de façon pérenne votre site internet, vous pouvez vous tourner vers les services de spécialistes du métier.
Quels retours avez-vous eu sur vos actions de netlinking ? Quelle est selon vous la meilleure opération ?
L’article Comment faire du netlinking comme un pro ? est apparu en premier sur tactee Agence web.
]]>L’article Faut-il encore intégrer un blog à son site Internet ? est apparu en premier sur tactee Agence web.
]]>De nombreux sites Internet intègrent un blog à leur site Internet. C’est par exemple le cas de notre agence de référencement naturel. Mais devant la profusion d’informations que l’on peut trouver sur Internet, est-il toujours aussi intéressant de créer un blog pour son site vitrine ou son site e-commerce ? Et si oui, sous quelle forme le mettre en place pour profiter de son action sur le SEO ? Découvrez l’analyse de l’équipe de Tactee :
Même si le blog est de plus en plus courant, ce dernier n’a pas perdu de son intérêt pour le référencement naturel. Si vous ajoutez du contenu régulièrement à un blog, vous inciterez les robots de Google à repasser plus souvent pour l’indexation des nouvelles pages. Et s’il y a bien une chose que Google apprécie, c’est lorsqu’un site Internet est régulièrement mis à jour avec du contenu frais et pertinent pour les internautes.
Mais l’apport de contenu frais n’est pas son seul intérêt. Le blog peut permettre de se positionner sur des expressions complexes à travailler sur le site principal : un atout de taille pour créer une richesse sémantique ! Si vous prenez le temps de travailler le maillage interne du blog vers le site, vous renforcerez aussi son intérêt pour Google. Enfin, ne perdez pas de vue le plus important : l’internaute ! Si vous rédigez des articles pertinents sur votre blog, les internautes vous verront comme une référence. Vous gagnerez aussi en visibilité, car vos articles auront plus de chance d’être partagés sur les réseaux sociaux !
Mais faut-il créer son blog dans un répertoire de son site principal ou sur un domaine externe ? Ces deux méthodes ne vous apporteront pas le même bénéfice :
Tactee vous conseille d’intégrer un blog à votre site Internet, de préférence dans un répertoire, pour donner toutes ses chances à votre référencement naturel. Mais attention, faire un blog et l’alimenter, cela prend du temps ! Si vous voulez qu’il y ait un impact positif sur le SEO de votre site web, il est essentiel de travailler votre blog avec la plus grande attention. Voici nos conseils :
L’article Faut-il encore intégrer un blog à son site Internet ? est apparu en premier sur tactee Agence web.
]]>L’article Les bonnes pratiques du SEO multilingue est apparu en premier sur tactee Agence web.
]]>Votre site Internet s’adresse à plusieurs pays ? Vous souhaitez qu’il soit accessible en plusieurs langues ? Vous allez devoir mettre en oeuvre certaines bonnes pratiques pour optimiser le référencement de votre site web !
Tactee vous invite à faire le point sur ces quelques techniques :
Mais avant d’aborder les bonnes pratiques, qu’est-ce qu’un site multilingue ? Est-ce la même chose qu’un site multirégional ? Bien que la stratégie à mettre en place soit plus ou moins la même, ils ne définissent pas la même réalité. Ainsi, un site multilingue est disponible en plusieurs langues (Français/Anglais/Espagnol) alors qu’un site multirégional s’adresse à plusieurs pays (France/Belgique francophone).
Il ne faut pas penser la stratégie de référencement d’un site multilingue de la même manière que pour un site classique. Certaines méthodes doivent être mises en oeuvre pour éviter que Google n’indexe pas toutes vos pages, n’arrive pas à cibler ces dernières en fonction de la langue ou du pays et ne considère pas que votre site Internet se compose de contenu dupliqué.
Si vous utilisez un CMS, il faut savoir que certains plugins existent pour vous faciliter le travail. Cependant, même dans un cas comme celui-là, il peut être judicieux de faire appel à une agence de référencement pour éviter les erreurs !
Google donne des consignes aux webmasters pour le référencement de leur site multilingue. Vous pouvez les retrouver à cette adresse.
Pour compléter ces précieuses informations, SEOh vous conseille quelques bonnes pratiques :
Au final, le référencement multilingue est une combinaison de techniques qu’il faut mettre en place en plus des leviers traditionnels. Si vous avez le moindre doute par rapport à la mise en oeuvre de ces bonnes pratiques, n’hésitez pas à vous rapprocher de votre agence de référencement !
Possédez-vous un site multilingue ? Avez-vous eu des difficultés pour son référencement ? Quelles techniques avez-vous mis en oeuvre pour contourner les problématiques du multilingue ?
L’article Les bonnes pratiques du SEO multilingue est apparu en premier sur tactee Agence web.
]]>L’article Comment mettre en place Google AMP ? est apparu en premier sur tactee Agence web.
]]>Selon de récentes études, 49% des internautes s’attendent à ce qu’un site Internet s’affiche en 2 secondes ou moins. Une impatience marquée par l’avènement des smartphones et des tablettes !
Depuis le 24 février 2016, les sites web ont la possibilité d’adopter le format Accelerated Mobile Pages de Google. L’objectif de ce dernier est d’améliorer la rapidité de chargement des contenus depuis un terminal mobile.
Lors de son lancement, Google AMP a majoritairement été mis en place par les sites d’actualités ! Cela n’a rien d’étonnant, car les médias en ligne sont particulièrement lents. Leurs pages ne sont pas seulement remplies de textes et de contenus dynamiques. Elles contiennent aussi beaucoup de publicité.
Si cette publicité est incontournable pour la monétisation des sites d’actualités, elle n’en reste pas moins gênante pour l’expérience utilisateur : leur chargement ralentit beaucoup celui du contenu éditorial. Ce qui peut expliquer un taux de rebond particulièrement élevé sur ces sites, surtout sur mobile.
Mais Google AMP n’est pas réservé aux grands groupes médias ! Les sites contenant du contenu statique avec des actualités comme les blogs peuvent tirer profit de ce nouveau format.
Par contre, pour l’instant, Google AMP n’est pas adapté aux sites dynamiques et aux sites e-commerce. Mais dans les mois à venir, il y a fort à parier que le format sera développé pour ces sites Internet : les médias ne sont pas les seuls à souffrir de la lenteur et ça, Google l’a bien intégré !
Si vous possédez un site e-commerce ou présentant un contenu dynamique, il ne sert donc à rien d’installer Google AMP dès à présent. Par contre, si votre site est statique et possède une section avec des actualités, nous vous invitons à vous y intéresser de près. En plus, ce format n’est pas compliqué du tout à installer !
Vous utilisez un CMS comme WordPress, Joomla ou encore Drupal ? Dans ce cas, l’installation de l’Accelerated Mobile Pages ne devrait pas poser de problème. En effet, ces derniers ont développé des extensions pour le lancement de ce nouveau format. Cela n’a rien d’étonnant : WordPress, avec d’autres géants du web, a participé au développement d’AMP !
Par contre, si vous utilisez un CMS propriétaire, la mise en place de Google AMP sera un peu plus longue. En effet, il va falloir que vous fassiez appel à un développeur pour créer de nouveaux templates HTML adaptés.
Quelle que soit la méthode utilisée, Google sera averti qu’il existe deux versions pour un même contenu, ce qui est essentiel pour éviter la problématique du contenu dupliqué. En fonction du terminal utilisé, la version adéquate sera chargée. Dans le code source, cela se vérifiera de cette manière :
Ce qui vous intéresse surtout dans la mise en place de Google AMP n’est pas forcément la rapidité de chargement, mais la possibilité d’apparaître dans le carrousel d’actualités sur mobile.
Comment faut-il procéder pour y apparaître ? Contrairement à ce qui a été compris lors du lancement du format, il ne faut pas forcément être éligible à Google Actualités ! Par contre, il faut que votre site Internet intègre les balises sémantiques de Schema.org. Pour Google, ces données sont très importantes, car elles permettent à ses robots de mieux comprendre le sens des pages qui doivent être indexées.
Avez-vous mis en place Google AMP pour votre site Internet ? Avez-vous eu des difficultés lors de l’intégration de ce nouveau format ? Etes-vous satisfait des premiers résultats obtenus en matière de rapidité de chargement, mais aussi de taux de conversion et de taux de rebond ?
L’article Comment mettre en place Google AMP ? est apparu en premier sur tactee Agence web.
]]>L’article Une mise à jour Google visant les pages satellites ? est apparu en premier sur tactee Agence web.
]]>Le concept de pages satellites (qui rejoint celui des sites satellites) est simple : il consiste à créer une multitude de pages visant chacune un ou plusieurs mots clés pour cumuler du trafic sur un nombre important de termes différents. L’intérêt initial de cette pratique est donc de créer ces pages de la façon la plus rapide possible (en automatisant par exemple) avec une personnalisation des pages minimale et une intégration facile de ces pages pour le webmaster. Ce qui ne plaît pas à Google dans le cas présent, c’est que ce type de page vient souvent polluer les SERPs. Ces pages ne sont pas pertinentes pour deux raisons principales :
A l’annonce de cette mise à jour, j’ai immédiatement pensé aux sites qui ont une stratégie locale en SEO. En effet, si l’ont réfléchit bien aux conséquences potentielles d’une telle mise à jour, le réflexe est de penser aux sites travaillant sur des stratégies géolocalisées (voir l’article à ce sujet), comme des sites de petites annonces par exemple ou des annuaires qui vont multiplier les pages par villes, départements et régions.
Sur ces sites, on a l’habitude de fonctionner avec des formats de page qui génèrent, selon la base de données du site, des centaines voir même des milliers de pages à fort taux de similarité. C’est donc pour ces sites que mon intérêt se porte dans le contexte de cette update. Je pense qu’il faut casser, autant que possible, le format de ces pages afin de les différencier au maximum. Cela doit se faire par la balise <title> en premier lieu, mais aussi par les balises <hn> et bien évidemment le descriptif. Il faudra parfois envisager la solution de supprimer/modifier ce dernier s’il peut entraîner Google à considérer les pages concernées comme étant des pages satellites car trop similaires. Les descriptions ou <title> spinnés avec la ville comme seule variable sont donc à proscrire si on veut s’assurer un minimum de risque face à cette mise à jour. Je pense même qu’il faudra parfois envisager la suppression/modification du texte descriptif/contenu.
Je termine en précisant aussi qu’une bonne gestion de l’indexation me paraît être un point essentiel pour réduire les risques : en effet les pages à faible potentiel en SEO doivent selon moi rester désindexées. Cela permettra d’éviter de cumuler trop de pages d’un même format et qui risqueraient d’augmenter les « chances » de se faire toucher par cette update. L’idée est de préserver les pages à fort potentiel SEO en éléminant les pages les moins importantes.
Et vous , quel est votre avis sur le sujet ? Comment gérez-vous les sites ayant beaucoup de pages semblables ? N’hésitez pas à en parler dans les commentaires.
L’article Une mise à jour Google visant les pages satellites ? est apparu en premier sur tactee Agence web.
]]>L’article J’ai testé l’Outil de test du fichier robots.txt est apparu en premier sur tactee Agence web.
]]>Justement Google a mis à la disposition des Webmasters un outil de test du fichier robots.txt. Voici les retours des experts de l’agence SEO Tactee suite aux tests effectués.
On utilise en général uniquement la fonction Disallow qui sert à interdire le crawl d’une page ou de formats d’URL un peu plus élaboré en utilisant des REGEX simplifiées (Expressions régulières).
Voici deux REGEX utiles dans le robots.txt :
Le Allow est l’inverse du Disallow : il indique au bot du moteur de recherche qu’il est possible de crawler le format d’URL spécifié. Il est beaucoup moins utilisé que le Disallow, ce qui parait normal car par défaut, tout ce qui n’est pas en Disallow est autorisé au crawl donc en Allow.
J’ai donc testé de mettre des commandes contradictoires dans l’outil de test du fichier robots.txt afin de voir qui l’emporte entre Disallow et Allow :
Pour tous les Tests ci-dessous j’ai utilisé l’URL suivante : site.tld/test/ab/xyz avec le bot Googlebot :
> Est-ce que l’ordre entre le Allow et le Disallow a une influence ?
La ligne de commande surlignée (rouge ou verte) est elle qui prend le dessus sur les autres lignes de commande du fichier.
On constate que l’ordre entre Allow et Disallow ne change rien et qu’à nombre de signes égal, le Allow prend toujours le dessus.
> On va donc vérifier si avec des nombres de signes différents, il y des changements dans la commande qui prendra le dessus :
On remarque que la commande avec le plus de signes prend le dessus
> Mais est-ce que la wildcard * est comptée comme un signe et peut influencer dans la lutte entre Allow et Disallow ?
Donc le nombre de wildcard * serait également comptabilisé comme un caractère. Est-ce un bug de l’outil ou est-ce appliquer en vrai ? Ça n’a pas beaucoup de sens en tout cas…
> Et le $, est-ce comptabilisé comme la wildcard * ?
On voit que le dollar compte aussi comme un caractère. Donc tous les signes utilisés pour une expression régulière seraient comptabilisés pour voir quelle commande prend le dessus sur l’autre.
Pour résumer :
Le User-Agent sert à préciser à quel robot crawler les commandes justes en dessous s’appliquent.
Petit test pour voir quelles commandes prennent le dessus en cas de contradiction dans les règles avec User agent global * et plus spécifique comme Googlebot
Le User Agent le plus spécifique (ici Googlebot) prime (logique).
Je n’ai pas trouvé de traces dans la documentation Google sur l’utilisation du noindex (si vous en avez je veux bien que vous me la partagiez en commentaire), mais j’ai voulu tester le noindex dans le fichier robots.txt
On voit que le noindex est un code valide mais pas le index tout seul. Donc le noindex dans le fichier robots.txt serait toujours pris en compte (sauf si l’outil bug).
Après il faut faire attention, car si ce noindex dans le fichier robots.txt fonctionne il est probablement beaucoup moins fiable que la balise <meta name="robots" content="noindex">
dans le <head>
des pages concernées ou du X-Robots-Tag: noindex
en entête http, pour la simple raison que lorsque Google bot découvre une page depuis un backlink externe, il ne visite pas forcément avant le robots.txt avant de crawler cette page (enfin à ma connaissance). Si vous avez déjà testé, n’hésitez pas à partager en commentaires.
Personnellement je n’utilise et n’utiliserai probablement jamais le noindex dans le robots.txt… quoique pour des optimisations sur certaines plateformes de CMS en Saas où on ne peut pas modifier les <head>
mais seulement le robots.txt, ça peut être une solution de recours.
Je me demande aussi si cela revient au même de mettre une wildcard, un dollar ou rien en fin de commande dans un Disallow :
On remarque que :
Disallow: /ab
et Disallow: /ab*
concernent aussi bien l’URL site.tld/ab que site.tld/abc.Il y a aussi une fonctionnalité permettant de voir les dernières versions du robots.txt, ce qui peut être utile pour vérifier s’il y a un rapport avec une baisse passée du trafic sur l’Analytics ou si des pages ont mis du temps à s’indexer par exemple…
On y trouve aussi l’indication du code HTTP renvoyé par le robots.txt. Juste un petit rappel sur le code renvoyé par le robots.txt :
Si le fichier robots.txt à l’air simple d’utilisation, il faut faire attention à ne pas commettre d’erreurs néfaste au référencement. Les 2 erreurs les plus courantes sont :
Disallow: /
qui empêcherai les moteur de recherche de crawler tous le site.L’outil de test du fichier robots.txt est très utile pour vérifier que certaines URLs ne sont pas bloquées par le fichier robots.txt qui peut parfois contenir des dizaines de lignes avec différentes Expressions régulières ce qui la rend illisible à l’oeil nu.
Après ces tests, j’ai appris que le Allow pouvait donc servir à quelque chose : si on empêche le crawl d’un répertoire avec un Disallow, on peut autoriser le crawl d’une URL plus spécifique de ce même répertoire avec un Allow.
En ce qui concerne le duel Disallow VS Allow, on apprend qu’avec un tronc commun, la commande avec le plus de caractères l’emporte et qu’en cas d’égalité le Allow prend l’avantage. On apprend aussi qu’on peut ruser avec l’ajout d’autres Expressions régulières qui son comptées comme des caractères.
N’ayant pas fait de test en réel sur des sites pour ce duel Allow vs Disallow, je ne peux affirmer si certains résultats sont des bugs de l’outil (un outil Google buggé? non impossible!), ou si tout fonctionne correctement.
Si vous avez des retours d’expérience la dessus, je vous invite à les partager en commentaires.
L’article J’ai testé l’Outil de test du fichier robots.txt est apparu en premier sur tactee Agence web.
]]>L’article Vous envisagez le passage en HTTPS ? 3 points essentiels pour le SEO est apparu en premier sur tactee Agence web.
]]>Après avoir accompagné quelques clients lors du passage de leur site en HTTPS, l’agence experte en référencement naturel Tactee, a pu lister 3 points qui pouvaient poser problème côté SEO :
Il faut bien sûr que toutes les URLs du site aient une redirection 301 vers leur version en HTTPS dès que cette version est mise en ligne.
Il faut aussi penser à faire pointer tous les liens internes vers les URLs avec https. Je vois souvent cette erreur lorsque le site comporte des liens absolus. Lorsque l’on laisse présent des liens vers ces URLs en simple HTTP, la désindexation se fait beaucoup plus lentement, alors que l’on voudrait que Google indexe uniquement nos pages en HTTPS et désindexe toutes les autres le plus rapidement possible.
Quand je parle de liens, je parle évidemment des liens traditionnels (en dur) mais également tous les autres types de liens que Google s’efforce de lire depuis plusieurs mois :
<option value="">
<link href="">
avec attribut rel NEXT ou PREVLe passage en HTTPS a aussi pour conséquence de faire perdre les données sur le compte Google Webmaster Tools qui a été créé pour la première version du site en HTTP.
En fait tout n’est pas perdu, il suffit d’ajouter un nouveau site sur son compte mais cette fois en rajoutant le protocole HTTPS au moment de saisir l’URL du nouveau site.
Même si on ne le fait pas tout de suite, on récupère l’historique des requêtes et pages ayant générées des impressions et des clic sur une version HTTPS.
Enfin, il ne faudra pas négliger le temps de chargement lorsqu’on fait la bascule de son site en protocole sécurisé auprès de son hébergeur. J’ai vu des sites devenir vraiment plus lent au moment du changement de protocole, et on sait que le temps de chargement joue de plus en plus sur le trafic d’un site (confirmé lors de ma formation Watussi). Il ne faudrait pas que le gain du passage en HTTPS soit entaché par une baisse de la conversion ou du positionnement. J’ai par contre vu un de nos clients faire baisser le temps de chargement des pages de son site à cette occasion en prenant un meilleur serveur, avec une hausse de trafic à la clé.
Une solution pour améliorer la rapidité du site pourrait être le HTTP/2 comme expliqué dans cet article.
Comme toute refonte de site avec changement de domaine ou d’URLs, la migration de son site en total sécurisé (certificat SSL) comporte certains risques qui peuvent impacter négativement le référencement du site.
Personnellement, je suggère au client avec des sites à fort niveau de transactions de passer en HTTPS lorsqu’une refonte est prévue (pour une autre raison) afin de faire d’une pierre deux coups.
Et vous, avez-vous déjà fait la bascule ?
L’article Vous envisagez le passage en HTTPS ? 3 points essentiels pour le SEO est apparu en premier sur tactee Agence web.
]]>L’article Le référencement avant, pendant, et après les soldes est apparu en premier sur tactee Agence web.
]]>On constate que la quasi-totalité des e-commerçants ont choisi l’URL « intemporelle », type /soldes.html sans notion de l’année (2014, 2015, 2016…) ni de la période (hiver, été). J’ai l’impression que les années précédentes, certains e-commerçants distinguaient les URLs. Le but de conserver une URL fixe (/soldes.html) est évidemment de conserver le linking externe dont bénéficie la page et donc de se positionner rapidement sur les mots clés concurrentiels.
On pourrait supposer que de créer deux URLs /soldes-hiver.html et /soldes-ete.html permettrait de mieux se positionner sur les sous-requêtes correspondantes (« soldes hiver » et « soldes été »). Pourtant, sur « soldes hiver » ce sont bien les mêmes pages qui se positionnent que sur « soldes » puisque Google considère que ces deux recherches doivent amener aux mêmes résultats. Sur « soldes d’été », la granularité est plus importante puisque, bien qu’on retrouve 2 e-commerces en 1ère page, la majorité des résultats sont des pages informatives sur la date des soldes d’été.
La présence d’une page e-commerce de soldes, pendant les soldes d’hiver, sur la requête « soldes été » indique que certains internautes confondent hiver et été. Il ne fait peut-être pas assez froid chez eux
Concernant le contenu de la page avant les soldes, la mode est au compte à rebours avec la possibilité de laisser son adresse email pour être prévenu dès le démarrage des réductions.
Prévoir évidemment un contenu éditorial intéressant pour le lecteur en ne se limitant pas aux dates et à la description des soldes. On peut notamment parler des collections, tendances, produits qui se sont bien vendus et qui seront soldés. Certains e-commerces affichent même en amont les produits qui seront soldés.
Si le e-commerçant a les moyens humains et techniques suffisants, il peut dupliquer les éléments importants de la catégorisation du site pour en faire des pages « soldes + catégories » (soldes chaussures, soldes hommes, soldes femmes, etc.) avec un contenu unique et différent de la catégorie « classique ». Si cela demande trop d’efforts de rédaction pour les pages profondes, on place la page en NOINDEX (ex : https://www.zalando.fr/soldes-femme/ballerines-femme/).
On notera qu’il reste possible de se positionner directement avec les pages catégories sur certaines requêtes, comme La Redoute, Tati et Kiabi sur « soldes chaussures ».
Comme la page soldes est permanente, l’idée est de la conserver dans le maillage du site hors période de soldes, en footer par exemple. Quelques semaines/jours avant la date fatidique, on peut donner plus de poids à la page en rendant le lien plus visible, en haut de la page d’accueil.
Pour faire vivre la page en dehors de la période des soldes, continuer d’attirer des visiteurs et des liens, on peut plutôt travailler sur une page « soldes / promo » où les produits en réduction remplacent les produits soldés en dehors de la période légale.
Quand les soldes commencent, tout est plus ou moins joué et c’est surtout les critères utilisateurs qui feront la différence, donc la qualité des produits et des réductions…
Sarenza rajoute notamment un filtre par « démarque », très pratique pour l’utilisateur :
En référencement on-site, l’intégralité du site reçoit souvent un habillage spécial soldes avec un lien vers la page, lui donnant donc d’un coup beaucoup de poids. Certains rajoutent la catégorie « soldes » dans le menu principal, comme BrandAlley :
De plus, certains sites innovent en adaptant le title de sa page catégories à l’évènement. C’est le cas de La Boutique de Pêche:
En off-site, faire un peu d’outreaching en communiquant auprès de ses partenaires (blogueurs, presses, etc.) sur les soldes et le niveau des réductions permet de récupérer quelques liens intéressants et du trafic ciblé.
Après les soldes, il ne reste qu’à se remettre dans la situation initiale, adapter le contenu et le compte à rebours aux prochains soldes et c’est reparti pour un tour !
L’article Le référencement avant, pendant, et après les soldes est apparu en premier sur tactee Agence web.
]]>L’article Comment gérer les pages produit expirées d’un e-commerce ? est apparu en premier sur tactee Agence web.
]]>L’agence Tactee va tenter de reprendre quelques pistes de réflexion pour le référencement de votre e-commerce, ce qui permettra de choisir la solution de gestion des pages produits expirées la plus adaptée à chaque situation :
Pour chaque cas de page expirée on aura plusieurs solutions :
Chacune de ces solutions a ses avantages et ses inconvénients en terme de SEO pur :
Le jus des éventuels backlinks sera transmis si l’URL de la page reste en 200 ou devient une 301, contrairement à une 404.
Le temps et le taux de crawl moyen accordé au site par Googlebot sera optimal en utilisant des 404 car le contenu des pages ne sera plus re-crawlé et elles seront rapidement désindexées. Au contraire, une 301 incitera Googlebot à repasser de nombreuses fois (parfois pendant plusieurs semaines) sur la page redirigée avant de la désindexer, si c’est ce que l’on souhaite. La page expirée, qui reste accessible en code http 200, restera crawlable donc consommera forcément beaucoup de temps de crawl (mais moins qu’en passant par une 301).
Pour savoir si le site est déficient ou non en terme de crawl Googlebot, il faudra faire une analyse de logs (j’en parle dans mon retour d’expérience de la formation Watussi). Sinon on peut faire son choix en fonction du nombre de pages actives du site (pages avec au moins 1 visite/mois). Alexandre Santoni nous donne une astuce pour calculer le nombre de pages actives à la 21e minute de la vidéo de sa conférence au SeoCamp d’Albi 2014 (en gros total des URLs avec 1 visite Analytics / total des URL dans le maillage interne du site).
L’Expérience utilisateur sera également à prendre en considération : Laisse-t-on le lien dans la catégorie comme si de rien n’était ? le rétrograde-t-on en fin de listing catégorie ou sur une page dédiée aux produits expirés voire sur le plan de site html ? Plus drastique, est-ce que l’on supprime tout lien pointant vers le produit ? Ces choix peuvent varier selon le type de business et la clientèle d’un site. Garder un lien ou non vers une page joue également sur la transmission du PageRank de la page et donc son référencement.
On va distinguer deux types de sites : Les sites avec du contenu expiré massif et fréquent (plusieurs centaines ou milliers de page expirées quotidiennement, exemple : LeBonCoin) et les sites avec du contenu expiré rare et en faible quantité (une dizaine de page par semaines). Bien sûr il y a des cas intermédiaires mais c’est pour simplifier.
Les réponses aux questions suivants vont aussi guider mon choix dans mes recommandations au gestionnaire du site :
Tout cela rentre en compte car la solution idéale sera choisie en fonction des possibilités du client par rapport à la quantité de travail et sa difficulté de mise en place.
Si le site à des problèmes de crawl (site de taille importante), la solution idéale est la mise en 404 automatique des produits expirés et faire des vérifications régulière des backlinks sur pages produits expirés pour faire des redirections 301 vers produit de remplacement (ou similaire) sinon vers la catégorie parente.
Si le site a de la marge en terme de crawl Googlebot ou s’il n’y a pas de ressources humaines suffisantes, il sera préférable de programmer des redirections 301 automatiques des produits définitivement expirés vers leurs catégories parentes.
Dans la majorité des cas, on va laisser la page indexée en 200 avec un message personnalisé qui sera bien mis en valeur pour que l’utilisateur comprenne directement la situation (comme le fameux « Produit victime de son succès » du Macdo). La possibilité de passer une précommande ou d’avoir une alerte lorsque le produit sera à nouveau disponible est également recommandée. Pour ne pas trop augmenter le taux de rebond il est sera bénéfique de mettre en valeur des liens de cross-selling vers des produits similaires de la même catégorie en les plaçant au dessus de la ligne de flottaison.
Vient ensuite le dilemme entre UX et transmission de « jus » pour savoir si on laisse ou pas le lien depuis la catégorie parente. Cela va dépendre de la quantité de produits en rupture de stock simultanément dans la catégorie, de la quantité totale de produits dans la catégorie et de l’expérience utilisateur qu’on juge la meilleur. Globalement il faut éviter de mettre des liens en haut de catégorie vers des produits en rupture de stock sauf pour certains « best-seller ». Pour la majorité de produits ne générant pas énormément de trafic organique, on pourra supprimer les liens depuis la catégorie le temps de la rupture. A court terme je ne vois pas de problème au fait que la page soit orpheline (plus aucun lien interne vers cette page produit sur le site) du moment que ce n’est pas un best-seller avec de bonnes positions dans les SERPs. Si on veut absolument laisser des liens vers ce produit on pourra le rétrograder et mettre en fin de listing catégorie ou éventuellement laisser un lien vers ces produits depuis un sitemap html ou une page dédiée aux produits en rupture de stock pour garder la transmission du PageRank.
Pour les sites qui ont beaucoup de produits saisonniers (exemple : site de mode), on gérera les produits exactement comme une rupture de stock temporaire car on voudra garder l’indexation et améliorer le positionnement de ces pages même hors saison.
Dans le cas de certains sites généralistes avec beaucoup de produits et des problèmes de crawl, on pourra envisager de mettre en noindex les produits saisonniers hors saison pour optimiser le crawl du reste du site
Chaque site est un cas particulier et la façon de gérer les contenus expirés ne sera pas toujours la même. Lorsque j’audite un site, je fais souvent mes recommandations en mixant ce qui me parait le mieux pour l’utilisateur (UX), pour le SEO (maillage, crawl et indexation) et selon les contraintes techniques du client.
Si vous prenez d’autres éléments en compte ou avez d’autres façons de gérer les expirations de page produit, je vous invite à le partager en commentaire.
L’article Comment gérer les pages produit expirées d’un e-commerce ? est apparu en premier sur tactee Agence web.
]]>L’article Présentation de Merge Words pour une recherche de mots clés SEO est apparu en premier sur tactee Agence web.
]]>
Le fonctionnement de l’outil est simple : combiner des mots rapidement et simplement. Merge Words peut donc être utilisé dans de nombreux domaines (SEA, Achat de noms de domaine, etc.) mais évidemment, ce qui m’intéresse dans cet outil, en priorité, c’est la possibilité de générer une liste de mots clés contenant toutes les variations possibles, pour le SEO.
Prenons un exemple concret :
Je dois effectuer une recherche de mots clés pour une chaîne d’hôtel pas cher (1 ou 2 étoiles) et comme n’importe quel site de ce type, la liste de mots clés peut être longue compte tenu de l’aspect géolocalisé de la stratégie (les villes dans lesquels la chaîne est présente). et des variations de syntaxes de chaque mots (singulier/pluriel, accent/sans accent, avec faute / sans faute…).
Il suffit alors de remplir chaque variation des mots clés dans les cases grises :
27 combinaisons en quelques secondes
Petite précision : J’ai laissé un retour à la ligne (en appuyant sur Entrée) dans la 3ème case grise (après « deux etoile ») afin d’obtenir une variation sans 3ème mot clé, exemple : « hôtel Paris ».
J’obtiens donc une liste conséquente de mots clés (ici 572 combinaisons). Il suffit ensuite de passer cette liste dans l’Outil de planification des mots clés de Google Adwords pour ne garder que les mots clés avec un volume de recherche intéressant. J’obtiens finalement ma liste de mots clés pertinentes et définitive.
Merge Words propose des options de combinaisons avancées :
Vous pouvez par exemple supprimer l’espacement automatique entre chaque mot ou même rajouter un élément (comme « [espace]à[espace] »). Les options « Wrap in » étaient utiles à l’époque de l’ancien Générateur de mots clés de Google Adwords, pour lequel il fallait entrer les mots clés en Exact (donc entre « [ ] »).
Pour ceux qui ne connaissaient pas l’outil, je vous invite à le tester et à me dire ce que vous en pensez. Et pour ceux qui utilisent d’autres outils pour la recherche de mots clés, n’hésitez pas à me les suggérer en commentaire !
L’article Présentation de Merge Words pour une recherche de mots clés SEO est apparu en premier sur tactee Agence web.
]]>L’article Le SERP Bounce : le critère de positionnement le plus sous-estimé ? est apparu en premier sur tactee Agence web.
]]>Le SERP Bounce c’est le pourcentage d’utilisateurs qui vont cliquer sur un résultat présent sur la page de résultats d’une requête donnée, puis revenir à cette même page de résultats pour en choisir un autre. Plus il est bas, mieux vous serez positionné.
L’inverse pourrait être le taux de satisfaction du résultat pour une requête, correspondant au pourcentage d’internautes qui vont taper cette requête et ne pas revenir à la page de résultats (l’internaute est satisfait). Plus il est élevé, mieux vous serez positionné.
Le SERP Bounce va beaucoup plus loin que le taux de rebond, car il intègre d’autres dimensions qui le rendent plus pertinent pour classer des résultats : la requête tapée par l’internaute et la page de destination.
Votre page peut être pertinente et avoir un taux de rebond important. C’est le cas des sites de recettes de cuisine ou des sites de parole de musiques. En revanche si quelqu’un recherche les paroles d’une musique, clique sur le premier résultat, revient à la page de résultats, clique sur le deuxième résultat parce qu’il n’a pas trouvé ce qu’il cherchait (une vidéo pour chanter en même temps que la musique par exemple) et que la majorité des internautes font comme lui, le deuxième résultat a de grande chance de passer devant, sans lien ou optimisation interne supplémentaire.
De la même façon, si je recherche les ingrédients de la recette du pain perdu, je vais rester quelques secondes sur le site de recettes et cela n’enlève rien à la pertinence de la page.
Prenez donc du recul par rapport à ces métriques qui dépendent de chaque thématique, de chaque page, du chemin de l’internaute avant de trouver cette page et de l’intention de l’internaute Tactee SEO vous en dit plus sur cet élément.
Faisons un sondage. Mettez-vous à la place de Google, dont le second but après la vente de publicité, est d’afficher les résultats les plus pertinents afin de vendre encore plus de publicité sur le long terme.
Dans quel ordre positionneriez-vous ces 5 pages à popularité et autorité égale (en théorie) sur la requête [blouson de moto] :
Je n’ai pas fait de sondage précis auprès de motards mais je serai prêt à parier que l’ordre de ces pages classées par SERP Bounce de façon croissante serait le suivant :
Techniquement, la récupération de ces données comportementales est très simple et peu couteuse comparé au coût lié au développement d’une intelligence artificielle. Google n’a pas besoin non plus d’aspirer et de décortiquer tout le trafic de Chrome pour le calculer. Et s’il le fait, c’est à but de profilage publicitaire, arrêtons la parano SEO deux minutes !
Si ce critère est si magique que cela, on pourrait se demander pourquoi Google ne laisserait-il pas tomber ses autres critères de positionnement comme le HTTPS (lol) ou les liens entrants, critère dont il a tant de mal à enrayer la manipulation ?
Quelques éléments de réponse :
J’aurai tendance à dire que oui, c’est manipulable, mais plus complexe et moins légal (utilisation de botnets) que les liens.
On pourrait imaginer que pour s’en prémunir, Google ne récolte seulement les données des utilisateurs connectés avec une activité naturelle (réception d’emails, envoi d’emails, navigation régulière). Il éviterait ainsi la majorité des tentatives de manipulation.
Le plus simple reste encore de l’influencer plutôt qu’essayer de le manipuler en surpassant ses concurrents (des call-to-action qui donnent envie, des contenus de meilleure qualité, des contenus similaires à consulter, des réponses aux besoins de tous les internautes, etc.). Cela a un réel intérêt puisque ces changements impactent aussi positivement votre business.
SERP BOUNCE ! Qui n’est pas friand d’histoires sensationnelles sur une personne ou une société dont on recherche le nom sur Google ? Personne ! Et voilà pourquoi ces pages restent parfois très longtemps, malgré un travail d’e-réputation acharné.
La solution ? Consolider à l’avance la première page de résultats sur votre nom avec des pages fortes en autorité, de façon à ce qu’un simple article négatif n’arrive jamais en première page. Si l’actualité est reprise sur plusieurs journaux, c’est un travail perdu d’avance avec la prime que ces sites reçoivent lorsque Google détecte une vague d’actualité pour un sujet donné.
SERP BOUNCE ! Il faut s’inscrire pour voir le profil Viadeo de quelqu’un, contrairement à LinkedIn qui affiche au moins une partie des informations… notamment la photo de ladite personne. Ce dernier satisfait donc la majorité des internautes. Deux résultats simples à départager pour Google !
Si l’on oublie le fait que Bing soit édité par Microsoft, la principale raison pour laquelle Google est meilleur que Bing et n’importe quel autre moteur est sa part de marché écrasante grâce à laquelle il peut accumuler beaucoup plus de données de comportement utilisateur et ainsi mieux les exploiter pour classer les résultats de façon plus précise et pertinente.
Tous les sites n’utilisent pas Google Analytics et le calcul du SERP Bounce sans ces données est immensément plus simple et moins couteux. De plus, manipuler les données de Google Analytics est un jeu d’enfant.
Quel intérêt pour Google de pénaliser un site plus pertinent qu’un autre ? Le résultat final n’est-il pas de satisfaire l’internaute ? A moins qu’il veuille en faire un exemple, ce n’est vraiment pas dans son intérêt. Et c’est d’ailleurs pour cela que les gros sites sanctionnés reviennent dans les bonnes grâces quelques semaines après la pénalité, malgré un nettoyage de liens sommaire. Je pense notamment à l’affaire RapGenius, un site de paroles de musique clairement meilleur que les autres (signification des paroles, commentaires, vidéos, expérience utilisateur générale) qui a été pénalisé parce qu’une affaire de lien factice était devenue publique et que Google devait agir pour les apparences. Le site était revenu 10 jours après…
Votre page doit répondre exactement à la requête de l’internaute. Par exemple, certains plombiers travaillant dans un ou deux arrondissements de Paris vont s’obstiner, à coup de milliers d’euros de SEO dans le vent, à essayer de se positionner sur la requête [plombier paris] alors qu’il est plus logique d’afficher prioritairement des sociétés intervenant dans tous les arrondissements ou des annuaires. Ce n’est pas ce qui manque.
Google est un robot, et restera un robot. Certes, il peut détecter assez facilement quand un texte est dupliqué ou généré automatiquement et vous déclasser pour cela, mais le meilleur lien du monde et un texte de 2000 mots rédigé par le meilleur rédacteur de l’univers n’auront aucun effet si vous ne répondez pas à ce que recherche la majorité des internautes. Il comprend l’intérêt de vos textes par l’analyse des comportements de l’internaute.
Ne me faîtes pas dire quelque chose que je n’ai pas dis ! C’est la qualité des clics qui compte, pas la quantité. Comme les liens en fait. Le résultat de cette étude de Moz est à prendre avec des pincettes, la majorité des participants ayant certainement cliqué sur le résultat demandé.
C’est secondaire. Le temps de chargement influence surtout l’expérience utilisateur, comme le montre cette infographie de KissMetrics. Si votre site est trop lent, les internautes iront consulter un autre résultat et à terme cela influencera négativement votre positionnement.
J’observe ce phénomène depuis fin 2011, l’utilisation de ce critère est particulièrement évidente dans les cas suivants :
Vous pensiez que tout le monde s’arrêtait au premier résultat sur une requête contenant le nom d’un site (« zalando », « badoo », etc.) ? Vous vous trompez, même si le taux de clics est en baisse suite au passage de ces pages à 7 résultats et à la démocratisation des mega-sitelinks, une part non négligeable du trafic revient aux sites situés sous le site officiel. Le SERP Bounce étant toutefois catastrophique (à moins que le résultat soit « choc » ou « négatif »), Google ne sait plus quel résultat afficher. Il n’est pas rare de voir les résultats de ces requêtes changer complètement d’un jour à l’autre, avec de toutes nouvelles pages propulsées du jour au lendemain, comme si Google ne pouvait rien faire de ces données utilisateurs et essayait de nouveaux résultats dans l’objectif d’en trouver un plus pertinent.
Une start-up bouscule un marché en divisant les prix par deux, ou en abordant différemment un marché ? Si son site se positionne rapidement sur des requêtes concurrentielles, ce n’est certainement pas à cause d’une hypothétique « prime fraîcheur ». C’est juste parce que ce qu’il propose est meilleur que ses concurrents.
Il fut un temps où j’éditais des sites de rencontre. J’ai eu l’idée d’insérer un chat gratuit et sans inscription sur toutes les pages avec une base commune à tous les sites pour plus d’activité. Du jour au lendemain, la durée moyenne d’une visite a doublé, le taux de rebond a fortement diminué (et le SERP Bounce a très certainement baissé) et les positions ont fortement progressé.
Et vous, que pensez-vous de ce critère de positionnement ?
L’article Le SERP Bounce : le critère de positionnement le plus sous-estimé ? est apparu en premier sur tactee Agence web.
]]>L’article Liens faciles – Les secrets de la nouvelle version de Google Alerts est apparu en premier sur tactee Agence web.
]]>Beaucoup de clients me demandent ce qu’ils peuvent faire eux-même pour créer de nouveaux liens. Ma première recommandation est la suivante :
« Vous écoutez le web sur votre marque ou votre nom de site pour savoir ce qu’on dit de vous ? Et bien, faites d’une pierre 2 coups et utilisez ces alertes pour créer des liens. »
Comment ? Voilà une technique très simple pour créer des liens avec Google Alerts en 5 minutes par jour !
Cet article sert également de complément aux autres techniques de netlinking plus classique de l’on peut trouver dans un audit de linking.
Google visite et analyse chaque jour des millions (milliards ?) de pages, alors il est évident d’utiliser un de ses outils pour être informé de ce qui se passe sur le net : Google Alerts !
Lorsque vous arrivez sur l’outil, tapez votre requête dans le champs prévu à cet effet :
Astuce
Ne tapez pas uniquement le nom de votre site/marque, mais excluez de votre recherche le nom de votre site ou de vos sites pour qu’il(s) ne vienne(nt) pas rendre les résultats inexploitables.
Pour faire cela ajouter à votre requête : -inurl:monsite.com
Exemple de requête pour leboncoin : Leboncoin -inurl:leboncoin.fr
Ensuite il est utile de bien configurer la requête pour qu’elle soit la plus pertinente possible. Pour cela cliquez ici :
Voici les explications des différents champs qui apparaissent alors :
A – Fréquence : C’est la fréquence à laquelle vous allez recevoir les alertes. Une fois par jour c’est ce qu’on souhaite ici.
B – Sources : Vous pouvez le laissez en automatique ou sélectionner ce qui convient le mieux à votre marque.
C – Langue : On garde Français
D – Région : Correspond au pays, vous pouvez sélectionner France si vous voulez ignorer les résultats des autres pays francophones ou internationaux
E – Nombre de résultats : Changez pour sélectionner « Tous les résultats »
F – Envoyer à : Indiquez sur quel email lié à votre compte Google vous souhaitez recevoir les alertes (utiles pour faire vos filtres au niveau de votre boite mail)
Ensuite, vous cliquez sur « Créer une alerte » et c’est en place.
Maintenant que vous êtes averti quand quelqu’un parle de vous sur internet, il est temps d’exploiter cela pour obtenir facilement des liens. Comment ? Suivez simplement ces 3 étapes.
C’est à dire de vérifier dans un premier temps que la source parle bien de votre site (ou de votre entreprise) et qu’il n’y a pas de lien vers votre site déjà présent dans la page.
Pour vérifier cela, afficher le code source de la page et faites une recherche sur votre url.
Exemple : si je veux vérifier qu’il n’y a pas de lien vers le bon coin dans mon code je vais rechercher dans mon code source : « leboncoin.fr »
Si les deux conditions sont remplies (on parle de vous et il n’y a pas de lien), il est temps de passer à la 2e étape.
Recherchez la page de contact du site. En général, elle se trouve soit tout en haut de la page, soit tout en bas dans le footer. S’il n’y a pas de page contact, optez pour la page « A propos », « L’équipe », « Qui sommes nous ? », bref toutes ces pages susceptibles de contenir des informations de contact.
Pour réussir votre mail de contact, voici quelques règles à respecter :
Dans le monde du web, votre interlocuteur aura vite fait d’oublier votre requête ! Ajoutez une tâche à votre To-Do et vérifiez si le lien est en place. Si ce n’est pas le cas, relancez gentiment le webmaster.
Astuce
Utilisez des modèles de mails avec des trous pour renseigner l’URL de la page où se trouve la mention et le prénom de votre interlocuteur.
Sur Gmail, je vous recommande « Canned response » que vous trouverez dans Paramètres > Labs.
Et voilà, j’espère que ces précisions vous ont été utiles. Sachez que cette technique me permet d’acquérir tous les mois quelques liens de plus pour mes clients.
L’article Liens faciles – Les secrets de la nouvelle version de Google Alerts est apparu en premier sur tactee Agence web.
]]>