Neue Google Crawl-Richtlinien für Dynamic Search Ads beeinflussen Webseiten-Ranking
February 8, 2024

Google hat kürzlich Änderungen an den Crawl-Frequenzen für Dynamic Search Ads (DSA) vorgenommen, die Auswirkungen auf die Sichtbarkeit und das Ranking von Webseiten in den Suchergebnissen haben können. Ursprünglich alle zwei Wochen durchgeführt, finden diese Crawls nun alle drei Wochen statt. Diese Anpassung wurde in Googles Dokumentation zum Management von Crawl-Budgets unter dem Abschnitt zur Behandlung von übermäßigem Crawling Ihrer Website (Notfälle) aktualisiert.
Zuvor war in der Dokumentation zu lesen, dass Google alle zwei Wochen versucht, die für Dynamic Search Ads erstellten Zielseiten zu crawlen. Wenn ein Webserver nicht über die Kapazität verfügt, diese Crawls zu bewältigen, wurde empfohlen, die Anzahl der Anzeigenziele zu reduzieren oder die Serverkapazität zu erhöhen.
Nunmehr heißt es, dass diese Crawls alle drei Wochen stattfinden. Google erklärte, dass die Änderung vorgenommen wurde, um die Belastung der Websites zu verringern und die Crawls weniger häufig, konkret alle 21 Tage statt 14 Tage, durchzuführen.
Die Dynamic Search Ads sind eine Funktion von Google Ads, die es Werbetreibenden ermöglicht, Anzeigen zu schalten, die automatisch auf Basis des Inhalts ihrer Website generiert werden. DSA nutzen den Googlebot, um die Website zu crawlen und relevante Zielseiten für die Schaltung von Anzeigen zu ermitteln. Die Anzeigen selbst werden dann mit dynamisch generierten Überschriften angezeigt, die zu den Suchanfragen der Nutzer passen.
Diese Änderung könnte für Websites mit dynamischen Inhalten von Bedeutung sein, da eine geringere Crawl-Frequenz bedeutet, dass Änderungen an der Website möglicherweise später in den Suchergebnissen erscheinen. Für Webmaster bedeutet dies, dass sie ihre Strategien zur Suchmaschinenoptimierung möglicherweise überdenken und anpassen müssen, um sicherzustellen, dass ihre Seiten effektiv von Google erfasst und indexiert werden.
In Bezug auf das Crawl-Budget – die Anzahl der von Googlebot besuchten und gecrawlten Seiten auf einer Webseite innerhalb eines bestimmten Zeitraums – könnten die Änderungen einerseits dazu führen, dass weniger Ressourcen für das Crawling aufgewendet werden müssen. Andererseits könnte es aber auch bedeuten, dass wichtige Inhaltsaktualisierungen oder neue Seiten länger brauchen, um von Google erkannt und in den Suchergebnissen angezeigt zu werden.
Webmaster sollten daher ihre robots.txt-Dateien und Server-Einstellungen überprüfen, um sicherzustellen, dass sie Googlebot nicht unbeabsichtigt daran hindern, ihre Seiten zu crawlen. Ebenso könnte es sinnvoll sein, die Sitemaps regelmäßig zu aktualisieren und über Google Search Console sicherzustellen, dass Google die wichtigsten Seiten der Website kennt und priorisiert.
Außerdem könnte es für Websites, die sich auf zeitkritische Inhalte konzentrieren, ratsam sein, Wege zu finden, Google über wichtige Updates zu informieren, beispielsweise durch die Nutzung der Search Console oder durch markierte Updates in Sitemaps.
Insgesamt spiegelt die Änderung der Crawl-Frequenz Googles Bestreben wider, das Web-Erlebnis sowohl für Nutzer als auch für Webmaster zu verbessern. Indem die Belastung von Servern reduziert wird, sollen die Geschwindigkeit und Zuverlässigkeit des Webs insgesamt gesteigert werden. Allerdings bedeutet dies auch, dass Webmaster ihre SEO-Praktiken an diese neuen Gegebenheiten anpassen müssen, um die Sichtbarkeit ihrer Inhalte aufrechtzuerhalten.