XML Sitemap und SEO

18.05.2016

Immer wieder taucht bei unseren Kunden die Frage im Rahmen von SEO nach einer XML-Sitemap auf. Da diese auch bei Google in der Search-Console hinterlegt werden kann, liegt auch hier der Anreiz nahe dieses Feature auch zu nutzen, um Google eine Übersicht über die zu indexierenden Seiten zu bieten.

Gleichzeitig muss hierbei auch bedacht werden, dass jede Seite von Google ein entsprechendes Crawling Budget erhält. Das bedeutet, dass Google entscheidet wie viele Crawls pro Woche auf den entsprechenden Host zugelassen werden. Hintergrund hierbei ist, dass Crawling sowie die Datenauswertung nach den Crawls recht rechenintensiv sind und auch Google -trotz enormer Kapazitäten- auch nur eingeschränkte Ressourcen zur Verfügung hat.

Regelmäßig sind bei Google eingerichtete Sitemaps jedoch DER Grund für eine schlechte Nutzung des Crawling Budegts. Hintergrund hierfür liegt in einer regelmäßig fehlerhaft auffindbaren Sitemap. Innerhalb der XML Sitemaps sind:

  1. Verlinkungen zu Error 4XX Seiten,
  2. Verlinkungen zu 301- und 302 weitergeleiteten Seiten,
  3. Angabe von Seiten mit einem Canonical auf eine andere Seite,
  4. Ausgabe von URLs aus dem Entwicklungs-System,
  5. sowie fehlende Verweise auf wichtige Seiten.

Diese Liste ließe sich noch deutlich verlängern. Die vorgenannten Punkte sind nur die gängigsten Probleme, die bei der Nutzung einer XML Sitemap in Verbindung mit SEO auftauchen.

Theoretisch ist es möglich eine fehlerfreie XML Sitemap bereitzustellen. Bislang konnten wir jedoch kein CMS- oder Shopsystem ermitteln welches mit den Punkten des vorgenannten Absatzes auch im Live-Betrieb umgehen und damit eine fehlerfreie Sitemap bereitstellen konnte. Immer wieder finden wir in der Google Search Console zahlreiche Error Dokumente und somit wird das Crawling-Budget suboptimal genutzt. Gleichzeitig wurden regelmäßig durch eine Hierarchie-Angabe in Verbindung mit fehlenden wichtigen Landingpages auch noch keine optimalen Rankingsignals übermittelt. Um diese Problematik dauerhaft zu vermeiden, müsste man mithin mindestens wöchentlich einen Crawl und Abgleich der Sitemap mit den Solldaten durchführen. Da die Solldaten regelmäßig durch angepasste Inhalte, weitergeleitete URLs sowie weiteren Faktoren regelmäßig abweichen, müsste auch hier eine manuelle und zeitintensive Prüfung stattfinden, die schlussendlich auch fehlerbehaftet sein könnte.

Um also ein derartiges Negativszenario zu vermeiden gilt es abzuwägen wie viel Nutzen eine fehlerfreie und gepflegte XML Sitemap bzw. wie viel Schaden bei fehlerhaften Daten im Bereich SEO angerichtet werden kann. Im Rahmen einer optimierten Seitenstruktur bedarf es ohnehin keine Sitemap, um den Google-Crawler zielgerichtet durch die Seitenarchitektur zu führen. Sofern hier Probleme vorliegen hilft erfahrungsgemäß auch keine Sitemap für eine bessere SEO Optimierung weiter.

Nach Abwägung des fraglichen Nutzen und der immanenten Risiken im Bereich SEO bei der Nutzung einer XML Sitemap, stellen wir regelmäßig wieder fest, dass ein Leben ohne Sitemap sicherer und damit regelmäßig besser ist.

Aus dieser Überlegung empfehlen wir im Rahmen der SEO Optimierung immer wieder auf die Nutzung einer Sitemap.XML gänzlich zu verzichten. Die Indexierungsteuerung mittels interner Linkstruktur sowie Seitenhierarchien führen regelmäßig zu spürbaren besseren Ergebnissen.

Weitere Einträge im Seotrust Newsbereich:


» nächster Eintrag Aktuelle Warnung vor Email Spam von SEO-TRUST.NET