10 façons de penser comme Googlebot et de booster votre référencement technique

10 façons de penser comme Googlebot et de booster votre référencement technique

Vous êtes-vous retrouvé à atteindre un plateau avec votre croissance organique?

Un contenu et des liens de haute qualité vous mèneront loin dans le référencement, mais vous ne devriez jamais ignorer la puissance du référencement technique.

L'une des compétences les plus importantes à apprendre pour 2019 est de savoir comment utiliser le référencement technique pour penser comme Googlebot.

Avant de plonger dans les trucs amusants, il est important de comprendre ce qu'est Googlebot, comment cela fonctionne. , et pourquoi nous devons le comprendre.

Qu'est-ce que Googlebot?

Googlebot est un robot d'exploration de sites Web (aka, robot ou araignée) qui gratte les données des pages Web.

Googlebot n'est qu'un des nombreux robots d'exploration Web. Chaque moteur de recherche a sa propre araignée de marque. Dans le monde du référencement, nous appelons ces noms de robots de marque des «agents utilisateurs.

Nous aons les agents utilisateurs plus tard, mais pour l'instant, comprenez simplement que nous faisons référence aux agents utilisateurs en tant que bot d'exploration Web. Certains des agents utilisateurs les plus courants incluent:

  • Googlebot - Google
  • Bingbot - Bing
  • Slurp Bot - Yahoo
  • Alexa Crawler - Amazon Alexa
  • DuckDuckBot - DuckDuckGo

Comment fonctionne Googlebot?

Nous ne pouvons pas commencer à optimiser Googlebot tant que nous ne comprenons pas comment il découvre, lit et classe les pages Web.

Comment le robot d'exploration de Google découvre les pages Web

Réponse courte: Liens, plans de site et demandes de récupération.

Réponse longue: Le moyen le plus rapide pour que Google explore votre site consiste à créer une nouvelle propriété dans la Search Console et à soumettre votre plan du site. Cependant, ce n'est pas tout.

Bien que les plans de site soient un excellent moyen pour que Google explore votre site Web, cela ne tient pas compte du PageRank.

La liaison interne est une méthode recommandée pour indiquer à Google quelles pages sont liées et détiennent une valeur. Il existe de nombreux excellents articles publiés sur le Web sur la page classement et liens internes , donc je ne

Google peut également découvrir vos pages Web à partir des listes, répertoires et liens Google My Business.

Il s'agit d'une version simplifiée du fonctionnement de Googlebot. Pour en savoir plus, vous pouvez lire Google's documentation sur leur robot.

Comment Googlebot lit les pages Web

Google a parcouru un long chemin avec le rendu de son site. L'objectif de Googlebot est de rendre une page Web de la même manière qu'un utilisateur la verrait.

Pour tester la façon dont Google affiche votre page, consultez l'outil Récupérer et rendre dans la Search Console. Cela vous donnera une vue Googlebot par rapport à la vue Utilisateur. Ceci est utile pour découvrir comment Googlebot voit vos pages Web.

Facteurs de classement technique

Tout comme le référencement traditionnel, il n'y a pas de solution miracle pour le référencement technique. Tous les 200+ facteurs de classement sont importants!

Si vous êtes un professionnel du référencement technique réfléchissant à l'avenir du référencement, alors les plus grands facteurs de classement à surveiller tournent autour de l'expérience utilisateur.

Pourquoi devrions-nous penser comme Googlebot?

Lorsque Google nous dit de créer un excellent site, ils le pensent. Oui, c'est une vague déclaration de Google, mais en même temps, elle est très précise.

Si vous pouvez satisfaire les utilisateurs avec un site Web intuitif et utile, tout en apaisant les exigences de Googlebot, vous pouvez connaître une croissance plus organique. .

Expérience utilisateur vs Crawler Experience

Lors de la création d'un site Web, qui cherchez-vous à satisfaire? Utilisateurs ou Googlebot?

Réponse courte : Les deux!

Réponse longue: C'est un débat brûlant qui peut provoquer des tensions entre Concepteurs UX, développeurs Web et professionnels du référencement. Cependant, c'est aussi une occasion pour nous de travailler ensemble pour mieux comprendre l'équilibre entre l'expérience utilisateur et l'expérience du robot.

Les concepteurs UX ont généralement le meilleur intérêt des utilisateurs à l'esprit, tandis que les professionnels du référencementroi pour satisfaire Google. Au milieu, nous avons des développeurs Web qui essaient de créer le meilleur des deux mondes.

En tant que professionnels du référencement, nous devons apprendre l'importance de chaque domaine de l'expérience Web.

Oui , nous devrions optimiser pour la meilleure expérience utilisateur. Cependant, nous devons également optimiser nos sites Web pour Googlebot (et d'autres moteurs de recherche).

Heureusement, Google est très axé sur l'utilisateur. La plupart des tactiques de référencement modernes visent à fournir une bonne expérience utilisateur.

Les 10 conseils d'optimisation de Googlebot suivants devraient vous aider à gagner en même temps votre concepteur UX et votre développeur Web.

1. Robots.txt

Le robots.txt est un fichier texte qui est placé dans le répertoire racine d'un site Web. Ce sont l'une des premières choses que Googlebot recherche lors de l'exploration d'un site. Il est fortement recommandé d'ajouter un fichier robots.txt à votre site et d'inclure un lien vers votre sitemap.xml.

Il existe de nombreuses façons d'optimiser votre fichier robots.txt, mais il est important de prendre des précautions.

Un développeur peut accidentellement laisser un refus à l'échelle du site dans robots.text, bloquant tous les moteurs de recherche des sites d'exploration lors du déplacement d'un site de développement vers le site en direct. Même après correction, cela pourrait prendre quelques semaines pour que le trafic organique et les classements reviennent.

Il existe de nombreux conseils et tutoriels sur la façon d'optimiser votre fichier robots.txt. Faites vos recherches avant d'essayer de modifier votre fichier. N'oubliez pas de suivre vos résultats!

2. Sitemap.xml

Les sitemaps sont une méthode clé pour Googlebot pour trouver des pages sur votre site Web et sont considérés comme un facteur de classement important.

Voici quelques conseils d'optimisation de sitemap:

  • Un seul index de plan de site.
  • Séparez les blogs et les pages générales en plans de site séparés, puis créez un lien vers ceux de votre index de plan de site.
  • Ne créez pas tous les sites page une priorité élevée.
  • Supprimez les pages 404 et 301 de votre sitemap.
  • Envoyez votre fichier sitemap.xml à la Google Search Console etou l'exploration.

3. Vitesse du site

La rapidité de chargement est devenue l'un des facteurs de classement les plus importants, en particulier pour les appareils mobiles. Si la vitesse de chargement de votre site est trop lente, Googlebot peut réduire votre classement.

Un moyen simple de savoir si Googlebot pense que votre site Web se charge trop lentement est de tester la vitesse de votre site avec l'un des outils gratuits disponibles. .

Beaucoup de ces outils fourniront des recommandations que vous pourrez envoyer à vos développeurs.

4. Schéma

L'ajout de données structurées à votre site Web peut aider Googlebot à mieux comprendre le contexte de vos pages Web individuelles et de votre site Web dans son ensemble. Cependant, il est important de suivre les Google's. .

Pour plus d'efficacité, il est recommandé d'utiliser JSON-LD pour implémenter un balisage de données structuré. Google a même noté que JSON-LD était leur langage de balisage préféré.

5. Canonisation

Un problème majeur pour les grands sites, en particulier le commerce électronique, est le problème des pages Web en double.

Il existe de nombreuses raisons pratiques d’avoir des pages Web en double, telles que des pages dans différentes langues.

Si vous exécutez un site avec des pages en double, il est essentiel d'identifier votre page Web préférée avec une balise canonique et un attribut hreflang.

6. Taxonomie des URL

Une structure d'URL propre et définie s'est révélée conduire à des classements plus élevés et améliorer l'expérience utilisateur. La définition de pages parent permet à Googlebot de mieux comprendre la relation de chaque page.

Cependant, si vous avez des pages assez anciennes et bien classées, John Mueller de Google ne recommande pas de modifier l'URL. Une taxonomie d'URL propre est vraiment quelque chose qui doit être établie dès le début du développement du site.

Si vous croyez absolument que l'optimisation de vos URL vous aideravotre site, assurez-vous de configurer les redirections 301 appropriées et de mettre à jour votre sitemap.xml.

7. Chargement JavaScript

Bien que les pages HTML statiques soient sans doute plus faciles à classer, JavaScript permet aux sites Web de fournir des expériences utilisateur plus créatives grâce au rendu dynamique. En 2018, Google a consacré de nombreuses ressources à l'amélioration du rendu JavaScript.

Dans un récente session de questions-réponses avec John Mueller, Mueller a déclaré que Google prévoyait de continuer à se concentrer sur Rendu JavaScript en 2019. Si votre site dépend fortement du rendu dynamique via JavaScript, assurez-vous que vos développeurs suivent la cible Recommandations de Google sur les meilleures pratiques.

8. Images

Google fait depuis longtemps allusion à l'importance de l'optimisation des images, mais en a parlé davantage ces derniers mois. L'optimisation des images peut aider Googlebot à contextualiser la façon dont vos images sont liées et à améliorer votre contenu.

Si vous cherchez des gains rapides pour optimiser vos images, je recommande:

  • Nom du fichier image: Décrivez ce qu'est l'image avec le moins de mots possible.
  • Texte alternatif de l'image: Bien que vous puissiez copier le nom du fichier image, vous sont également en mesure d'utiliser plus de mots ici.
  • Données structurées: Vous pouvez ajouter un balisage de schéma pour décrire les images sur la page.
  • Image Plan du site: Google recommande d'ajouter un plan du site distinct pour explorer vos images.

9. Liens rompus et boucles de redirection

Nous savons tous que les liens rompus sont mauvais, et certains référenceurs ont affirmé que les liens rompus pouvaient gaspiller le budget d'exploration. Cependant, John Mueller a déclaré que les liens rompus ne pas réduire crawl budget.

Avec un mélange d'informations, je pense que nous devons jouer en toute sécurité et nettoyer tous les liens rompus. Consultez Google Search Console ou votre outil d'exploration préféré pour trouver des liens cassés sur votre site!

Les boucles de redirection sont un autre phénomène courant avec les sites plus anciens. Une boucle de redirection se produit lorsqu'il y a plusieurs étapes dans une commande de redirection.

10 façons de penser comme Googlebot et de booster votre référencement technique
La version 3 de la chaîne de redirection redirige vers la précédente page (v2), qui continue de rediriger vers la version 3, ce qui provoque la boucle de redirection.

Les moteurs de recherche ont souvent du mal à explorer les boucles de redirection et peuvent potentiellement mettre fin à la crawl. La meilleure action à prendre ici est de remplacer le lien d'origine sur chaque page par le lien final.

10. Titres et méta descriptions

Cela peut être un peu ancien pour de nombreux professionnels du référencement, mais il est prouvé que des titres et des méta descriptions bien optimisés peuvent conduire à des classements et des CTR plus élevés dans le SERP.

Oui, cela fait partie des principes fondamentaux du référencement, mais cela vaut quand même la peine d'être inclus car Googlebot le lit. Il existe de nombreuses théories sur les meilleures pratiques pour les écrire, mais mes recommandations sont assez simples:

  • Je préfère les tubes (|) au lieu des tirets (-), mais Googlebot s'en fiche.
  • Dans vos méta-titres, incluez votre nom de marque sur votre page d'accueil, à propos et de contact. Dans la plupart des cas, les autres types de pages n'ont pas autant d'importance.
  • Ne pas pousser sur la longueur.
  • Pour votre méta description, copiez votre sapinst paragraphe et modifier pour tenir dans la plage de longueur 150-160 caractères. Si cela ne décrit pas correctement votre page, vous devriez envisager de travailler sur le contenu de votre corps.
  • Testez! Vérifiez si Google conserve vos titres et méta descriptions préférés.

Résumé

En ce qui concerne le référencement technique et l'optimisation pour Googlebot, il y a beaucoup de choses à faire attention. Beaucoup d'entre elles nécessitent des recherches, et je recommande de demander à vos collègues leur expérience avant de mettre en œuvre des modifications sur votre site.

Bien que la découverte de nouvelles tactiques soit passionnante, elle a le potentiel de conduire à une baisse du trafic organique. Une bonne règle d'or consiste à tester ces tactiques en attendant quelques semaines entre les modifications.

Cela permettra à Googlebot d'avoir un peu de temps pour comprendre les modifications à l'échelle du site et mieux classer votre site dans l'index.


Crédits d'image

Capture d'écran prise par l'auteur, janvier 2019