Google bestätigt 3 Wege, wie Sie den Googlebot dazu bringen können, mehr zu crawlen

Google teilt drei Möglichkeiten, wie Googlebot eine Website crawlen kann

Gary Illyes und Lizzi Sassman von Google sprachen über drei Faktoren, die das Crawlen durch den Googlebot begünstigen. Obwohl sie die Notwendigkeit eines ständigen Crawlings herunterspielten, räumten sie ein, dass es Möglichkeiten gibt, den Googlebot dazu zu bringen, eine Website erneut zu besuchen.

1. Auswirkungen hochwertiger Inhalte auf die Crawling-Häufigkeit

Eines der Themen ist die Qualität einer Website. Viele Menschen leiden unter dem Problem der entdeckten, nicht indizierten Websites, und manchmal liegt das an bestimmten SEO-Praktiken, die die Leute gelernt haben und für gute Praktiken halten. Ich bin seit 25 Jahren im Bereich Suchmaschinenoptimierung tätig und eines hat sich nie geändert: Die von der Branche festgelegten Best Practices hinken dem, was Google tut, in der Regel um Jahre hinterher. Dennoch ist es schwer zu erkennen, was falsch läuft, wenn eine Person davon überzeugt ist, dass sie alles richtig macht.

Gary Illyes erklärt den Grund für eine hohe Crawlingfrequenz in Minute 4:42. Einer der Auslöser für ein hohes Maß an Crawling sei, dass Googles Algorithmen qualitativ hochwertige Signale erkennen.

Gary hat es in Minute 4:42 gesagt:

"...Generell gilt: Wenn der Inhalt einer Website von hoher Qualität ist, nützlich ist und den Leuten im Allgemeinen gefällt, dann neigt der Googlebot - nun ja, Google - dazu, diese Website stärker zu crawlen...".

In der obigen Aussage fehlen viele Nuancen, z. B. welche Signale von hoher Qualität und Nützlichkeit sind? die Google zu häufigeren Suchanfragen veranlassen?

Google sagt das nie. Aber wir können spekulieren, und hier sind einige meiner fundierten Vermutungen.

Wir wissen, dass es Patente auf die Markensuche gibt, die von Nutzern durchgeführte Markensuchen als implizite Links betrachten. Manche meinen, dass "implizite Links" Markenhinweise sind, aber "Markenhinweise" sind absolut nicht das, worum es in dem Patent geht.

Dann gibt es noch das Navboost-Patent, das seit 2004 existiert. Einige bringen das Navboost-Patent mit Klicks in Verbindung, aber wenn Sie das Patent von 2004 lesen, werden Sie feststellen, dass es nie Klickraten (CTR) erwähnt. Es ist dort von Signalen für die Interaktion mit dem Nutzer die Rede. Klicks waren Anfang der 2000er Jahre Gegenstand intensiver Forschung, aber wenn Sie die Forschungsdokumente und Patente lesen, ist es leicht zu verstehen, was ich meine, wenn es nicht so einfach ist wie "Ein Affe klickt in den SERPs auf die Website, Google bewertet sie besser, der Affe bekommt eine Banane".

Im Allgemeinen glaube ich, dass Signale, die darauf hindeuten, dass Menschen eine Website als nützlich wahrnehmen, einer Website helfen können, besser zu ranken. Und manchmal kann dies darin bestehen, den Menschen das zu geben, was sie erwarten zu sehen, den Menschen das zu geben, was sie erwarten zu sehen.

Seitenbesitzer werden mir sagen, dass Google Müll einstuft, und wenn ich mir die Seiten ansehe, verstehe ich, was sie meinen, die Seiten sind in gewisser Weise Müll. Aber auf der anderen Seite gibt der Inhalt den Leuten, was sie wollen, weil sie nicht wirklich wissen, wie sie zwischen dem, was sie erwarten, und gutem Inhalt unterscheiden können (das ist es, was ich den Froot Loops-Algorithmus nenne).

Was ist der Froot Loops-Algorithmus? Es handelt sich um eine Auswirkung von Googles Abhängigkeit von den Zufriedenheitssignalen der Nutzer, um zu beurteilen, ob ihre Suchergebnisse sie glücklich machen. Hier ist, was ich zuvor über den Froot Loops-Algorithmus von Google veröffentlicht habe. Froot Loops-Algorithmus von Google:

"Sind Sie schon einmal durch die Cerealienabteilung eines Supermarkts gegangen und haben bemerkt, wie viele zuckerhaltige Cerealiensorten sich in den Regalen aneinanderreihen? Das ist Nutzerzufriedenheit in Aktion. Die Menschen erwarten, dass sie in ihrem Müsliregal Zuckerbomben-Cerealien sehen, und die Supermärkte erfüllen diese Absicht des Nutzers.

Ich schaue mir oft die Froot Loops im Müsliregal an und frage mich: "Wer isst das Zeug?". Offensichtlich essen es viele Leute, deshalb steht die Packung im Supermarktregal - weil die Leute erwarten, dass sie dort zu sehen ist.

Google macht das Gleiche wie der Supermarkt. Google zeigt die Ergebnisse an, die die Nutzer am ehesten zufriedenstellen, genau wie dieses Regal mit Cerealien".

Ein Beispiel für eine Müllseite, die die Nutzer zufriedenstellt, ist eine beliebte Rezeptseite (die ich nicht nennen werde), die leicht zu kochende Rezepte veröffentlicht, die nicht authentisch sind und Abkürzungen wie Champignoncreme aus der Dose als Zutat verwenden. Ich bin ziemlich erfahren im Kochen und diese Rezepte lassen mir einen kalten Schauer über den Rücken laufen. Aber die Leute, die ich kenne, lieben diese Seite, weil sie es nicht besser wissen, sondern einfach nur ein einfaches Rezept haben wollen.

Bei der Konversation über Hilfsbereitschaft geht es im Grunde darum, das Online-Publikum zu verstehen und ihm zu geben, was es will, was nicht dasselbe ist wie ihm zu geben, was es wollen sollte. Zu verstehen, was die Menschen wollen, und es ihnen zu geben, ist meiner Meinung nach das, was die Forscher nützlich finden werden und was die Glocken von Googles Nützlichkeitssignal läuten lässt.

2. Erhöhung der Publikationsaktivität

Illyes und Sassman zufolge ist eine erhöhte Veröffentlichungsfrequenz, z. B. wenn eine Website plötzlich mehr Seiten veröffentlicht, ein weiteres Element, das den Googlebot dazu veranlassen könnte, mehr zu erforschen. Illyes erklärte dies jedoch im Zusammenhang mit einer gehackten Website, die plötzlich begonnen hat, mehr Webseiten zu veröffentlichen. Eine gehackte Website, die viele Seiten veröffentlicht, würde Googlebot dazu bringen, mehr zu erkunden.

Wenn wir diese Aussage aus der Perspektive des Waldes betrachten, ist es offensichtlich, dass sie impliziert, dass eine erhöhte Veröffentlichungsaktivität zu einer erhöhten Explorationsaktivität führen kann. Nicht die Tatsache, dass die Website gehackt wurde, veranlasst Googlebot, mehr zu erkunden, sondern die Zunahme der Veröffentlichungen ist die Ursache dafür.

Hier nennt Gary eine Explosion der Veröffentlichungsaktivität als Auslöser für Googlebot :

" ... aber das kann auch bedeuten, dass, ich weiß nicht, die Seite gehackt wurde. Dann gibt es einen Haufen neuer URLs, die der Googlebot schnell entdeckt, dann kommt er raus und krabbelt wie ein Verrückter herum".

Eine große Anzahl neuer Seiten regt den Googlebot an und lässt ihn eine Website "wie verrückt" erkunden, das ist die wichtigste Erkenntnis. Mehr muss nicht gesagt werden, kommen wir zu etwas anderem.

3. Konsistenz der inhaltlichen Qualität

Gary Illyes fährt fort, indem er erwähnt, dass Google die Gesamtqualität der Website überdenken kann und dass dies zu einer geringeren Crawl-Frequenz führen kann.

Gary sagte Folgendes:

"...wenn wir nicht viel crawlen oder das Crawling allmählich verlangsamen, kann dies ein Zeichen für qualitativ minderwertige Inhalte sein oder dafür, dass wir die Qualität der Seite überdacht haben."

Was meint Gary, wenn er sagt, dass Google "die Qualität der Website überdacht" hat? Meiner Meinung nach kann die Gesamtqualität einer Website manchmal sinken, wenn bestimmte Teile der Website nicht denselben Standards entsprechen wie die Qualität der ursprünglichen Website. Meiner Meinung nach und nach dem, was ich im Laufe der Jahre gesehen habe, kann an einem bestimmten Punkt der qualitativ minderwertige Inhalt beginnen, den guten Inhalt zu übertrumpfen und den Rest der Website mit in den Abgrund reißen.

Wenn Leute zu mir kommen und sagen, sie hätten ein Problem mit "Inhaltskannibalismus", dann ist das, woran sie in Wirklichkeit leiden, bei genauerem Hinsehen ein Problem mit minderwertigem Inhalt in einem anderen Teil der Website.

Lizzi Sassman fragte dann gegen 6 Minuten, ob es Auswirkungen habe, wenn der Inhalt der Website statisch sei, wenn er sich nicht verbessere oder verschlechtere, sondern sich einfach nicht ändere. Gary weigerte sich, eine Antwort zu geben, sagte nur, dass Googlebot zurückkomme, um die Seite auf Veränderungen zu überprüfen, und sagte, dass "wahrscheinlich" Googlebot das Crawling verlangsamen könnte, wenn es keine Veränderungen gibt, schränkte diese Aussage jedoch ein, indem er sagte, dass er es nicht wisse.

Eine Sache, die noch nicht gesagt wurde, aber mit der Konsistenz der Inhaltsqualität zusammenhängt, ist, dass sich manchmal das Thema ändert und wenn der Inhalt statisch ist, kann er automatisch an Relevanz verlieren und beginnen, Rankings zu verlieren. Es ist daher eine gute Idee, regelmäßig eine Inhaltsprüfung durchzuführen, um zu sehen, ob sich das Thema geändert hat, und den Inhalt gegebenenfalls zu aktualisieren, damit er für Nutzer, Leser und Verbraucher relevant bleibt, wenn sie über ein Thema diskutieren.

Drei Möglichkeiten, die Beziehung zu Googlebot zu verbessern

Wie Gary und Lizzi deutlich gemacht haben, geht es nicht wirklich darum, den Googlebot zu kitzeln, damit er kommt, nur um des Krabbelns willen. Es geht darum, über Ihre Inhalte und deren Beziehung zu den Nutzern nachzudenken.

1. Ist der Inhalt qualitativ hochwertig?
Behandelt der Inhalt ein Thema oder ein Schlüsselwort? Websites, die eine auf Schlüsselwörtern basierende Inhaltsstrategie verwenden, sind meiner Meinung nach diejenigen, die unter den Aktualisierungen des Kernalgorithmus im Jahr 2024 leiden werden. Themenbasierte Strategien produzieren tendenziell bessere Inhalte und haben die Algorithmus-Updates überlebt.

2. Erhöhung der Publikationsaktivität
Eine erhöhte Veröffentlichungsaktivität kann den Googlebot dazu bringen, häufiger vorbeizuschauen. Ob es nun daran liegt, dass eine Website gehackt wird, oder daran, dass eine Website mehr Nachdruck auf ihre Strategie zur Veröffentlichung von Inhalten legt, ein regelmäßiger Zeitplan für die Veröffentlichung von Inhalten ist eine gute Sache und war es schon immer. Bei der Veröffentlichung von Inhalten gibt es keine Patentlösung.

3. Konsistenz der inhaltlichen Qualität
Die Qualität des Inhalts, seine Aktualität und seine Relevanz für die Nutzer im Laufe der Zeit sind wichtige Faktoren, die dafür sorgen, dass der Googlebot Sie weiterhin begrüßt. Ein Rückgang bei einem dieser Faktoren (Qualität, Aktualität und Relevanz) könnte sich auf das Crawling durch den Googlebot auswirken, was wiederum ein Symptom des wichtigsten Faktors ist, nämlich wie der Google-Algorithmus selbst den Inhalt betrachtet.

Hören Sie sich den Podcast Google Search Off The Record ab ca. Minute 4 an :

Dieses Bild wurde präsentiert von Shutterstock/Cast Of Thousands

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert