Effizienter und ressourcenschonender: Die Evolution des Google Crawling-Prozesses
April 2, 2024

In den letzten Jahren hat sich die Art und Weise, wie Suchmaschinen das Internet durchsuchen und indexieren, weiterentwickelt. Eines der zentralen Elemente dieser Entwicklung ist die Effizienz des sogenannten Crawling-Prozesses. Google, als einer der führenden Akteure in diesem Bereich, hat sich zum Ziel gesetzt, die Art und Weise, wie seine Suchmaschine, der Googlebot, Websites durchsucht, stetig zu optimieren. Ein aktueller Schritt in dieser Entwicklung, der von Gary Illyes, einem Analysten bei Google, kommuniziert wurde, ist das Bestreben, das Crawling weiter zu reduzieren, um so die Effizienz zu steigern und Ressourcen zu schonen.
Gary Illyes teilte kürzlich in einem LinkedIn-Post mit, dass sein persönliches Ziel für das Jahr darin besteht, herauszufinden, wie Google noch weniger crawlen kann und dabei gleichzeitig weniger Daten über das Netzwerk sendet. Illyes betonte, dass der Googlebot intelligenter in Bezug auf Caching und das Teilen von internen Caches zwischen verschiedenen User-Agents werden sollte und dass generell weniger Daten übertragen werden sollten. Er fügte hinzu, dass eine Verringerung des Crawlings ohne Qualitätseinbußen beim Crawling für alle Beteiligten von Vorteil wäre.
Diese Aussagen werfen einige Fragen auf: Was bedeutet es konkret, wenn Google weniger crawlt, und welche Vorteile könnte dies für Webseitenbetreiber und Nutzer mit sich bringen? Inwiefern wird die Qualität des Crawlings dadurch beeinflusst, und wie wird sichergestellt, dass trotz reduzierten Crawlings die Aktualität und Relevanz der Indexierung nicht leiden?
Illyes erklärte, dass Google derzeit genauso viel crawlt wie zuvor, entgegen der Wahrnehmung einiger, die glauben, dass Google weniger crawlt. Die Verbesserungen lägen hauptsächlich in der intelligenteren Planung des Crawlings. Google konzentriere sich mehr auf URLs, die es wahrscheinlich mehr "verdienen", gecrawlt zu werden. Dies impliziert eine stärkere Fokussierung auf Seiten mit hohem Wert oder hoher Aktualität und könnte für Webseitenbetreiber bedeuten, dass die Qualität ihrer Inhalte noch stärker in den Vordergrund rückt, um von der Suchmaschine berücksichtigt zu werden.
Die Idee, weniger zu crawlen, wird nicht nur von Google verfolgt. Auch Microsoft Bing zeigt ähnliche Bestrebungen. Fabrice Canel von Microsoft und Gary Illyes von Google scheinen ähnliche Ziele zu verfolgen. Microsoft versucht, dieses Ziel zu erreichen, indem es Website-Betreiber ermutigt, IndexNow zu verwenden, ein Protokoll, das Suchmaschinen über neue oder geänderte Inhalte auf einer Webseite informiert. Google hatte im November 2021 erwogen, IndexNow zu übernehmen, aber diese Überlegungen verliefen im Sande.
John Mueller, ebenfalls von Google, kommentierte den Post von Illyes scherzhaft mit dem Vorschlag, dass man einfach RSS-Feeds crawlen und eine Art Reader erstellen könnte – eine Anspielung auf den eingestellten Google Reader.
Die Diskussionen und Überlegungen von Google zeigen, wie das Unternehmen bestrebt ist, seinen Crawling-Prozess zu optimieren. Dabei geht es nicht nur darum, die Last auf den Servern der Webseitenbetreiber zu verringern, sondern auch um eine effizientere Nutzung der Netzwerkressourcen. Dies wiederum könnte zu einer schnelleren und relevanteren Indexierung führen, die den Nutzern aktuellere und gezieltere Suchergebnisse liefert.
Die Herausforderung besteht darin, einen Gleichgewichtspunkt zwischen der Häufigkeit und Intensität des Crawlings und der Qualität und Aktualität der indexierten Inhalte zu finden. Illyes bittet um Feedback aus der Community, insbesondere um Empfehlungen für Internetentwürfe von Standardisierungsgremien, die bei diesem Bestreben hilfreich sein könnten.
Abschließend lässt sich sagen, dass die Ankündigung von Gary Illyes und die damit verbundene Richtungsänderung in Googles Crawling-Strategie wichtige Implikationen für die Zukunft der Suchmaschinenoptimierung und des Web-Betriebs haben könnte. Webseitenbetreiber sollten diese Entwicklung im Auge behalten und ihre Inhalte und Technologien entsprechend anpassen, um sicherzustellen, dass ihre Seiten weiterhin effektiv von Google erfasst und indiziert werden.