Google confirme 3 façons de faire en sorte que Googlebot crawle davantage

Google shares three ways to make Googlebot crawl a website

Gary Illyes et Lizzi Sassman, de Google, ont évoqué trois facteurs qui favorisent l’exploration par Googlebot. Bien qu’ils aient minimisé la nécessité d’une exploration constante, ils ont reconnu qu’il existe des moyens d’encourager Googlebot à revisiter un site web.

1. Impact du contenu de haute qualité sur la fréquence d’exploration

L’un des sujets abordés est la qualité d’un site web. Beaucoup de gens souffrent du problème des sites découverts non indexés et cela est parfois dû à certaines pratiques de référencement que les gens ont apprises et qu’ils croient être de bonnes pratiques. Je travaille dans le domaine du référencement depuis 25 ans et une chose n’a jamais changé : les meilleures pratiques définies par l’industrie ont généralement des années de retard sur ce que fait Google. Pourtant, il est difficile de voir ce qui ne va pas si une personne est convaincue qu’elle fait tout correctement.

Gary Illyes explique la raison d’une fréquence d’exploration élevée à la minute 4:42, en précisant que l’un des éléments déclencheurs d’un niveau élevé d’exploration est la détection par les algorithmes de Google de signaux de haute qualité.

Gary l’a dit à la minute 4:42 :

« …généralement, si le contenu d’un site est de haute qualité, qu’il est utile et que les gens l’apprécient en général, alors Googlebot – eh bien, Google – a tendance à explorer davantage ce site… »

Il manque beaucoup de nuances dans la déclaration ci-dessus, comme par exemple quels sont les signaux de haute qualité et d’utilité ? qui inciteront Google à effectuer des recherches plus fréquentes ?

Google ne le dit jamais. Mais nous pouvons spéculer et voici quelques-unes de mes suppositions éclairées.

Nous savons qu’il existe des brevets sur la recherche de marque qui considèrent les recherches de marque effectuées par les utilisateurs comme des liens implicites. Certains pensent que les « liens implicites » sont des mentions de marque, mais les « mentions de marque » ne sont absolument pas ce dont parle le brevet.

Il y a ensuite le brevet Navboost, qui existe depuis 2004. Certains associent le brevet Navboost aux clics, mais si vous lisez le brevet de 2004, vous verrez qu’il ne mentionne jamais les taux de clics (CTR). Il y est question de signaux d’interaction avec l’utilisateur. Les clics ont fait l’objet d’intenses recherches au début des années 2000, mais si vous lisez les documents de recherche et les brevets, il est facile de comprendre ce que je veux dire quand ce n’est pas aussi simple que « un singe clique sur le site web dans les SERPs, Google le classe mieux, le singe reçoit une banane ».

En général, je pense que les signaux qui indiquent que les gens perçoivent un site comme utile peuvent aider un site web à mieux se classer. Et parfois, cela peut consister à donner aux gens ce qu’ils s’attendent à voir, à donner aux gens ce qu’ils s’attendent à voir.

Les propriétaires de sites me diront que Google classe des déchets et quand j’y jette un coup d’œil, je comprends ce qu’ils veulent dire, les sites sont en quelque sorte des déchets. Mais d’un autre côté, le contenu donne aux gens ce qu’ils veulent parce qu’ils ne savent pas vraiment comment faire la différence entre ce qu’ils s’attendent à voir et un contenu de bonne qualité (c’est ce que j’appelle l’algorithme Froot Loops).

Qu’est-ce que l’algorithme Froot Loops ? Il s’agit d’un effet de la dépendance de Google à l’égard des signaux de satisfaction des utilisateurs pour juger si leurs résultats de recherche les rendent heureux. Voici ce que j’ai publié précédemment sur l’algorithme Froot Loops de Google. algorithme Froot Loops de Google:

« Vous êtes-vous déjà promené dans le rayon céréales d’un supermarché et avez-vous remarqué le nombre de sortes de céréales pleines de sucre qui s’alignent sur les étagères ? C’est la satisfaction de l’utilisateur en action. Les gens s’attendent à voir des céréales bombes à sucre dans leur rayon céréales et les supermarchés satisfont cette intention de l’utilisateur.

Je regarde souvent les Froot Loops dans le rayon des céréales et je me dis : « Qui mange ce truc ? ». Apparemment, beaucoup de gens en mangent, c’est pourquoi la boîte se trouve dans les rayons du supermarché – parce que les gens s’attendent à la voir là.

Google fait la même chose que le supermarché. Google affiche les résultats les plus susceptibles de satisfaire les utilisateurs, tout comme ce rayon de céréales ».

Un exemple de site poubelle qui satisfait les utilisateurs est un site de recettes populaire (que je ne nommerai pas) qui publie des recettes faciles à cuisiner qui ne sont pas authentiques et qui utilisent des raccourcis comme la crème de champignons en boîte en tant qu’ingrédient. Je suis assez expérimentée en cuisine et ces recettes me font froid dans le dos. Mais les gens que je connais adorent ce site parce qu’ils ne connaissent pas mieux, ils veulent juste une recette facile.

La conversation sur la serviabilité consiste en fait à comprendre le public en ligne et à lui donner ce qu’il veut, ce qui est différent de lui donner ce qu’il devrait vouloir. Comprendre ce que les gens veulent et le leur donner est, à mon avis, ce que les chercheurs trouveront utile et qui fera sonner les cloches du signal d’utilité de Google.

2. Augmentation de l’activité de publication

Selon Illyes et Sassman, l’augmentation de la fréquence de publication, par exemple si un site augmente soudainement le nombre de pages qu’il publie, est un autre élément qui pourrait inciter Googlebot à explorer davantage. Mais Illyes a expliqué cela dans le contexte d’un site piraté qui aurait soudainement commencé à publier plus de pages web. Un site piraté qui publie beaucoup de pages amènerait Googlebot à explorer davantage.

Si nous examinons cette déclaration du point de vue de la forêt, il est évident qu’elle implique qu’une augmentation de l’activité de publication peut entraîner une augmentation de l’activité d’exploration. Ce n’est pas le fait que le site ait été piraté qui incite Googlebot à explorer davantage, c’est l’augmentation des publications qui en est la cause.

C’est ici que Gary cite une explosion de l’activité de publication comme déclencheur de Googlebot :

« …mais cela peut aussi signifier que, je ne sais pas, le site a été piraté. Il y a alors un tas de nouvelles URL que Googlebot s’empresse de découvrir, puis il sort et se met à ramper comme un fou ».

Un grand nombre de nouvelles pages excite Googlebot et lui permet d’explorer un site « comme un fou », c’est ce qu’il faut retenir. Il n’est pas nécessaire d’en dire plus, passons à autre chose.

3. Cohérence de la qualité du contenu

Gary Illyes poursuit en mentionnant que Google peut reconsidérer la qualité globale du site et que cela peut entraîner une baisse de la fréquence de crawl.

Voici ce que Gary a dit :

« …si nous ne crawlons pas beaucoup ou si nous ralentissons progressivement le crawling, cela peut être le signe d’un contenu de faible qualité ou que nous avons repensé la qualité du site. »

Que veut dire Gary lorsqu’il affirme que Google a « repensé la qualité du site » ? À mon avis, la qualité globale d’un site peut parfois diminuer si certaines parties du site ne répondent pas aux mêmes normes que la qualité du site d’origine. À mon avis, d’après ce que j’ai vu au fil des ans, à un moment donné, le contenu de faible qualité peut commencer à l’emporter sur le bon contenu et entraîner le reste du site dans sa chute.

Lorsque les gens viennent me voir en me disant qu’ils ont un problème de « cannibalisme de contenu », lorsque j’y jette un coup d’œil, ce dont ils souffrent en réalité, c’est d’un problème de contenu de faible qualité dans une autre partie du site.

Lizzi Sassman demande ensuite, vers 6 minutes, s’il y a un impact si le contenu du site est statique, s’il ne s’améliore pas ou ne se détériore pas, mais s’il ne change tout simplement pas. Gary s’est refusé à donner une réponse, se contentant de dire que Googlebot revient vérifier le site pour voir s’il a changé et dit que « probablement » Googlebot pourrait ralentir le crawling s’il n’y a pas de changement, mais il a nuancé cette affirmation en disant qu’il ne savait pas.

Une chose qui n’a pas été dite mais qui est liée à la cohérence de la qualité du contenu est que parfois le sujet change et si le contenu est statique, il peut automatiquement perdre de sa pertinence et commencer à perdre des classements. C’est donc une bonne idée de procéder régulièrement à un audit du contenu pour voir si le sujet a changé et, le cas échéant, de mettre à jour le contenu pour qu’il reste pertinent pour les utilisateurs, les lecteurs et les consommateurs lorsqu’ils discutent d’un sujet.

Trois façons d’améliorer les relations avec Googlebot

Comme Gary et Lizzi l’ont clairement expliqué, il ne s’agit pas vraiment de titiller Googlebot pour qu’il vienne, juste pour le plaisir de le faire ramper. Il s’agit de réfléchir à votre contenu et à sa relation avec les utilisateurs.

1. Le contenu est-il de qualité ?
Le contenu traite-t-il d’un sujet ou d’un mot-clé ? Les sites qui utilisent une stratégie de contenu basée sur les mots-clés sont ceux qui, selon moi, souffriront des mises à jour de l’algorithme de base en 2024. Les stratégies basées sur des sujets ont tendance à produire un meilleur contenu et ont survécu aux mises à jour de l’algorithme.

2. Augmentation de l’activité de publication
Une augmentation de l’activité de publication peut inciter Googlebot à venir plus souvent. Que ce soit parce qu’un site est piraté ou parce qu’un site met plus de vigueur dans sa stratégie de publication de contenu, un calendrier régulier de publication de contenu est une bonne chose et l’a toujours été. En matière de publication de contenu, il n’y a pas de solution miracle.

3. Cohérence de la qualité du contenu
La qualité du contenu, son actualité et sa pertinence pour les utilisateurs au fil du temps sont des éléments importants qui permettront à Googlebot de continuer à venir vous saluer. Une baisse de l’un de ces facteurs (qualité, actualité et pertinence) pourrait affecter l’exploration par Googlebot, qui est elle-même un symptôme du facteur le plus important, à savoir la façon dont l’algorithme de Google lui-même considère le contenu.

Écoutez le podcast Google Search Off The Record à partir de la 4e minute environ :

Image présentée par Shutterstock/Cast Of Thousands

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *