UTM Parameter und SEO: Mythen geklärt und beste Praktiken für Webmaster
February 28, 2024

Im Zeitalter des digitalen Marketings sind UTM-Parameter (Urchin Tracking Module) ein wesentliches Instrument für Marketingexperten, um die Effektivität ihrer Online-Kampagnen zu verfolgen. Diese Parameter werden an URLs angehängt, um detaillierte Informationen darüber zu liefern, wie Nutzer auf eine Website gelangen. Doch wie wirkt sich die Verwendung dieser Parameter auf die Crawling- und Ranking-Vorgänge von Suchmaschinen aus? Kürzlich gab es hierzu eine wichtige Klärung von Google, die für Betreiber von Websites und SEO-Experten von Interesse ist.
John Mueller, ein renommierter Mitarbeiter von Google, äußerte sich auf der Diskussionsplattform Reddit zu diesem Thema und stellte klar, dass das Blockieren von URLs, die UTM-Parameter enthalten, keine positiven Auswirkungen auf das Crawling oder Ranking einer Website in der Google-Suche hat. Diese Aussage ist besonders relevant, da sie ein häufiges Missverständnis in der SEO-Community korrigiert. Einige Webseitenbetreiber glaubten, dass das Disallowing solcher URLs in der robots.txt-Datei Google davon abhalten könnte, diese Parameter zu berücksichtigen, was wiederum zu einem übersichtlicheren Crawling und möglicherweise zu einem verbesserten Ranking führen könnte.
Mueller betonte jedoch, dass eine solche Maßnahme keinen erkennbaren Einfluss auf die Crawling- oder Ranking-Prozesse habe. Er empfahl, stattdessen die interne URL-Struktur einer Website sauber und konsistent zu halten. Canonical-Tags (rel="canonical") seien ein geeignetes Mittel, um Suchmaschinen dabei zu helfen, die bevorzugten Versionen von URLs zu identifizieren, insbesondere wenn externe Links UTM-Parameter enthalten.
Darüber hinaus riet Mueller dazu, die Website so zu optimieren, dass unwichtige URLs nicht gecrawlt werden müssten. Dabei sollten Aspekte wie interne Verlinkung, Canonical-Tags und Konsistenz bei der Nutzung von URLs in Feeds beachtet werden. Er bezeichnete dies als "gute Website-Hygiene". Falls externe Links zufällige Parameter-URLs enthalten würden, so würden diese durch Canonical-Tags über die Zeit hinweg bereinigt. Eine Blockierung solcher URLs über die robots.txt-Datei hielt Mueller nicht für notwendig. Vielmehr sollten Webmaster darauf abzielen, die Erzeugung zufälliger Parameter-URLs direkt an der Quelle zu bereinigen, anstatt später versuchen, sie zu blockieren.
Diese Informationen von Mueller stehen im Einklang mit früheren Empfehlungen von Google bezüglich der Behandlung von URL-Parametern. In der Vergangenheit hat Google mehrfach darauf hingewiesen, dass Webmaster die robots.txt-Datei nicht dazu verwenden sollten, das Indizieren von URLs mit Parametern zu blockieren. Stattdessen sollten sie auf eine saubere URL-Struktur und die korrekte Anwendung von Tags wie "rel=canonical" setzen, um Suchmaschinen die relevanten Informationen zu liefern.
Zusammenfassend lässt sich sagen, dass eine gute Website-Struktur und eine klare Kommunikation mit Suchmaschinen über die gewünschten URLs für das Crawling und Ranking entscheidend sind. UTM-Parameter spielen eine wichtige Rolle beim Tracking von Marketingkampagnen und sollten nicht blockiert werden, da dies keinen positiven Einfluss auf SEO-Maßnahmen hat. Stattdessen sollten Webmaster auf bewährte Methoden wie Canonical-Tags und eine konsistente URL-Struktur zurückgreifen, um sicherzustellen, dass ihre Inhalte effektiv von Suchmaschinen erfasst und bewertet werden.