Google confirma 3 formas de hacer que Googlebot rastree más

Google comparte tres formas de hacer que Googlebot rastree un sitio web

Gary Illyes y Lizzi Sassman, de Google, hablaron de tres factores que fomentan el rastreo de Googlebot. Aunque restaron importancia a la necesidad de un rastreo constante, reconocieron que hay formas de animar a Googlebot a volver a visitar un sitio web.

1. Impacto de los contenidos de alta calidad en la frecuencia de búsqueda

Uno de los temas tratados fue la calidad de un sitio web. Mucha gente sufre el problema de que los sitios descubiertos no se indexan y esto a veces se debe a ciertas prácticas de SEO que la gente ha aprendido y cree que son buenas prácticas. Llevo 25 años trabajando en SEO y hay algo que nunca ha cambiado: las mejores prácticas definidas por el sector suelen ir años por detrás de lo que hace Google. Sin embargo, es difícil ver qué está mal si alguien está convencido de que lo está haciendo todo bien.

Gary Illyes explica la razón de la alta frecuencia de rastreo en el minuto 4:42, diciendo que uno de los desencadenantes de los altos niveles de rastreo es que los algoritmos de Google detectan señales de alta calidad.

Gary dijo en el minuto 4:42:

"...por lo general, si el contenido de un sitio es de alta calidad, útil y gusta a la gente, entonces Googlebot -bueno, Google- tiende a rastrear más ese sitio...".

Faltan muchos matices en la afirmación anterior, como por ejemplo ¿cuáles son las señales útiles y de alta calidad? que animará a Google a buscar con más frecuencia?

Google nunca lo dice. Pero podemos especular y aquí están algunas de mis conjeturas.

Sabemos que existen patentes sobre búsqueda de marcas que consideran las búsquedas de marcas realizadas por los usuarios como enlaces implícitos. Algunas personas piensan que los "enlaces implícitos" son menciones de marca, pero las "menciones de marca" no son definitivamente de lo que habla la patente.

Luego está la patente Navboost, que existe desde 2004. Algunas personas asocian la patente Navboost con los clics, pero si lees la patente de 2004, verás que nunca menciona las tasas de clics (CTR). Habla de señales de interacción con el usuario. Los clics fueron objeto de intensa investigación a principios de la década de 2000, pero si lees los documentos de investigación y las patentes, es fácil entender a qué me refiero cuando no es tan sencillo como "un mono hace clic en el sitio web en las SERP, Google lo clasifica mejor, el mono se lleva un plátano".

En general, creo que las señales de que la gente percibe un sitio como útil pueden ayudar a que un sitio web se clasifique mejor. Y a veces eso puede significar dar a la gente lo que espera ver, dar a la gente lo que espera ver.

Los propietarios de sitios me dirán que Google clasifica basura y cuando lo miro entiendo lo que quieren decir, los sitios son basura en cierto modo. Pero, por otro lado, el contenido da a la gente lo que quiere, porque no saben realmente cómo distinguir entre lo que esperan ver y el contenido de buena calidad (esto es lo que yo llamo el algoritmo Froot Loops).

¿Qué es el algoritmo Froot Loops? Es un efecto de la dependencia de Google de las señales de satisfacción de los usuarios para juzgar si sus resultados de búsqueda les hacen felices. Esto es lo que publiqué anteriormente sobre el algoritmo Froot Loops de Google. El algoritmo Froot Loops de Google:

"¿Alguna vez ha paseado por el pasillo de los cereales de un supermercado y se ha fijado en la cantidad de tipos diferentes de cereales cargados de azúcar que hay alineados en las estanterías? Es la satisfacción del usuario en acción. La gente espera ver cereales azucarados en su pasillo de cereales y los supermercados están satisfaciendo esa intención del usuario.

A menudo veo Froot Loops en el pasillo de los cereales y pienso: "¿Quién come esto?". Al parecer, mucha gente lo come, y por eso la caja está en el estante del supermercado: porque la gente espera verlo ahí.

Google hace lo mismo que el supermercado. Google muestra los resultados que tienen más probabilidades de satisfacer a los usuarios, como este pasillo de cereales".

Un ejemplo de sitio basura que satisface a los usuarios es un popular sitio de recetas (que no nombraré) que publica recetas fáciles de cocinar que no son auténticas y utilizan atajos como la crema de champiñones como ingrediente. Tengo bastante experiencia en la cocina y estas recetas me dan escalofríos. Pero a la gente que conozco le encanta este sitio porque no saben nada mejor, sólo quieren una receta fácil.

La conversación sobre la utilidad consiste realmente en comprender al público en línea y darle lo que quiere, que es diferente de darle lo que debería querer. Entender lo que la gente quiere y dárselo es, creo, lo que los investigadores encontrarán útil y lo que hará sonar las campanas de la señal de utilidad de Google.

2. Aumento de la actividad editorial

Según Illyes y Sassman, un aumento de la frecuencia de publicación, por ejemplo si un sitio aumenta repentinamente el número de páginas que publica, es otro elemento que podría animar a Googlebot a explorar más. Pero Illyes explicó esto en el contexto de un sitio pirateado que de repente hubiera empezado a publicar más páginas web. Un sitio pirateado que publica muchas páginas haría que Googlebot rastreara más.

Si observamos esta afirmación desde el punto de vista del bosque, está claro que implica que un aumento de la actividad de publicación puede provocar un aumento de la actividad de exploración. No es el hecho de que el sitio haya sido pirateado lo que incita a Googlebot a explorar más, es el aumento de las publicaciones lo que lo provoca.

Aquí es donde Gary cita una explosión de la actividad editorial como desencadenante de Googlebot:

"...pero también podría significar que, no sé, el sitio ha sido pirateado. Entonces hay un montón de URL nuevas que Googlebot se apresura a descubrir, entonces sale y empieza a rastrear como un loco".

Un gran número de páginas nuevas excita a Googlebot y le permite explorar un sitio "como loco", eso es lo importante que hay que recordar. No hace falta decir nada más, sigamos adelante.

3. Coherencia en la calidad de los contenidos

Gary Illyes continúa mencionando que Google puede reconsiderar la calidad general del sitio y que esto puede provocar un descenso en la frecuencia de rastreo.

Esto es lo que dijo Gary:

"...si no rastreamos mucho o si ralentizamos gradualmente el rastreo, podría ser señal de contenidos de baja calidad o de que nos hemos replanteado la calidad del sitio".

¿Qué quiere decir Gary cuando afirma que Google se ha "replanteado la calidad de los sitios"? En mi opinión, la calidad general de un sitio a veces puede disminuir si partes del sitio no cumplen los mismos estándares que la calidad del sitio original. En mi opinión, por lo que he visto a lo largo de los años, en algún momento el contenido de baja calidad puede empezar a pesar más que el buen contenido y hacer que el resto del sitio caiga con él.

Cuando la gente viene a mí diciendo que tienen un problema de "canibalismo de contenidos", cuando lo miro, lo que realmente están sufriendo es un problema de contenidos de baja calidad en otra parte del sitio.

Lizzi Sassman pregunta entonces, en torno al minuto 6, si hay algún impacto si el contenido del sitio es estático, no mejora ni se deteriora, sino que simplemente no cambia. Gary se niega a dar una respuesta, limitándose a decir que Googlebot vuelve a comprobar el sitio para ver si ha cambiado y afirma que "probablemente" Googlebot podría ralentizar el rastreo si no hay cambios, pero matiza diciendo que no lo sabe.

Una cosa que no se ha dicho pero que está relacionada con la consistencia de la calidad del contenido es que a veces el tema cambia y si el contenido es estático puede perder relevancia automáticamente y empezar a perder posiciones. Así que es una buena idea auditar regularmente el contenido para ver si el tema ha cambiado y, si es así, actualizar el contenido para que siga siendo relevante para los usuarios, lectores y consumidores cuando se habla de un tema.

Tres formas de mejorar las relaciones con Googlebot

Como Gary y Lizzi dejaron claro, en realidad no se trata de pinchar a Googlebot para que venga, sólo por el hecho de hacerlo rastrear. Se trata de pensar en tu contenido y en su relación con los usuarios.

1. ¿El contenido es de calidad?
¿El contenido trata de un tema o de una palabra clave? Los sitios que utilizan una estrategia de contenidos basada en palabras clave son los que creo que sufrirán las principales actualizaciones del algoritmo en 2024. Las estrategias basadas en temas tienden a producir mejores contenidos y han sobrevivido a las actualizaciones del algoritmo.

2. Aumento de la actividad editorial
Un aumento de la actividad de publicación puede animar a Googlebot a visitarlo más a menudo. Ya sea porque un sitio está siendo pirateado o porque un sitio está poniendo más vigor en su estrategia de publicación de contenidos, un calendario regular de publicación de contenidos es algo bueno y siempre lo ha sido. En lo que respecta a la publicación de contenidos, no existe una fórmula mágica.

3. Coherencia en la calidad de los contenidos
La calidad de tus contenidos, su actualidad y su relevancia para los usuarios a lo largo del tiempo son factores importantes para que Googlebot siga viniendo a saludarte. Una caída en cualquiera de estos factores (calidad, actualidad y relevancia) podría afectar al rastreo de Googlebot, que es a su vez un síntoma del factor más importante, es decir, la forma en que el propio algoritmo de Google ve el contenido.

Escucha el podcast Google Search Off The Record a partir del minuto 4 aproximadamente:

Imagen cortesía de Shutterstock/Cast Of Thousands

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *