Neue Ära der Web-Crawling-Technologien: Bingbot setzt auf Brotli und Zstd
April 19, 2024

In den letzten Jahren hat sich die Landschaft der Web-Crawling-Technologien rasant weiterentwickelt. Mit dem Ziel, das Internet effizienter zu durchsuchen und die Datenübertragung zu optimieren, haben Suchmaschinen wie Bing stetig an der Verbesserung ihrer Crawler gearbeitet. Eine der jüngsten Entwicklungen in diesem Bereich ist die vollständige Implementierung der Brotli-Kompression durch den Bingbot, den Webcrawler von Microsofts Suchmaschine Bing. Darüber hinaus bereitet sich der Bingbot darauf vor, Tests mit der Zstandard-Kompression, kurz Zstd, zu beginnen. Diese Entwicklungen könnten weitreichende Auswirkungen auf das Web-Crawling und die Suchmaschinenoptimierung (SEO) haben.
Der Bingbot ist ein automatisiertes Programm, das das Web durchsucht und Informationen über Webseiten sammelt, die dann in den Suchindex von Bing aufgenommen werden. Die Effizienz dieses Prozesses hängt stark von der Technologie ab, die zur Datenkompression eingesetzt wird. Kompressionsalgorithmen spielen eine entscheidende Rolle, da sie die Größe der zu übertragenden Daten reduzieren und damit die Geschwindigkeit der Datenverarbeitung und -übertragung verbessern.
Brotli ist ein von Google entwickelter Kompressionsalgorithmus, der speziell für das Web entwickelt wurde und insbesondere bei der Übertragung von Webinhalten über das HTTP-Protokoll Vorteile bietet. Im Vergleich zu älteren Kompressionsmethoden wie zlib bietet Brotli in der Regel bessere Kompressionsraten und ist effizienter in der CPU-Nutzung. Microsoft kündigte an, dass der Bingbot nach einer erfolgreichen Testphase nun Brotli-Kompression für alle URLs unterstützt. Diese schnelle Implementierung ist beachtlich und zeigt Microsofts Engagement für eine schnellere und effizientere Webdurchsuchung.
Zstandard, oder Zstd, ist ein weiterer fortschrittlicher und verlustfreier Kompressionsalgorithmus, der von Yann Collet bei Facebook entwickelt wurde. Zstd bietet eine beeindruckende Balance zwischen Kompressionsrate und Geschwindigkeit und ist besonders für Echtzeitanwendungen geeignet. Es wird erwartet, dass die Unterstützung von Zstd durch den Bingbot die Effizienz des Crawlers weiter steigern wird. Die Tatsache, dass der Bingbot sich auf Tests mit Zstd vorbereitet, kurz nachdem der vollständige Support für Brotli erreicht wurde, verdeutlicht das Bestreben von Microsoft, führend in der Crawler-Technologie zu bleiben.
Interessanterweise war Google der erste, der Brotli-Kompression für seinen Googlebot im Jahr 2020 einführte. Zstd-Kompression wird von Googlebot bisher nicht verwendet. Die jüngste Unterstützung von Zstd in der Content-Encoding-HTTP-Header der Version 123 von Google Chrome und anderen auf Chromium basierenden Browsern wie Brave oder Microsoft Edge zeigt jedoch das wachsende Interesse an dieser Komprimierungstechnologie im Webumfeld.
Für Webentwickler und SEO-Experten sind diese Nachrichten besonders relevant. Die Unterstützung moderner Kompressionsmethoden durch Webcrawler bedeutet, dass Webseitenbetreiber ihre Inhalte effizienter ausliefern können. Dies kann zu einer besseren Nutzererfahrung führen, da Seiten schneller geladen werden, und gleichzeitig die Serverlast sowie die übertragenen Datenmengen reduziert werden. In der SEO-Welt, in der Ladezeiten und die Performance einer Webseite wesentliche Rankingfaktoren sind, könnte dies erhebliche Auswirkungen haben.
Die Ankündigung von Microsoft, dass der Bingbot nun vollständig Brotli unterstützt und sich auf die Einführung von Zstd vorbereitet, ist ein klares Signal dafür, dass die Effizienz der Datenübertragung und das Web-Crawling weiterhin im Fokus der Suchmaschinenentwickler stehen. Es bleibt abzuwarten, wie diese Technologien die Landschaft des Internets und die Praktiken der Suchmaschinenoptimierung in den kommenden Jahren prägen werden.