SMX 2016 Recap – Tag 2

Das Breuninger SEO-Team war auf der SMX 2016 in München um sich über die aktuellen Trends und Entwicklungen der Branche zu informieren. Nachdem Florian bereits über den 1. Tag der SMX berichtet hat, folgt hier nun der Bericht über den 2. Tag.

Webmasters on the Roof

Auch der 2. Tag der SMX hatte es thematisch in sich. Die Titel der Tracks stimmten bereits auf einen weiteren sehr technischen Tag ein.
Im alljährlichen Webmasters on the Roof diskutiert Tandler mit seinen Gästen, namentlich diesesmal Rand Fishkin, Jost de Valk, Mike King und Marcus Tober. Vor allem Googles RankBrain bot sich in diesem Jahr als Thema mit hohem Diskussionsbedarf an. Als Learning konnte auf jeden Fall mitgenommen werden, dass RankBrain für keine neuen Faktoren bei der Berechnung der Rankings sorgen wird. Viel mehr beeinflusst RankBrain den Einfluss einzelner, schon bestehender Faktoren. Ein zuvor mit Hilfe der SMX-Besucher durchgeführtes Experiment zeigt außerdem, wie schnell Nutzersignale mittels RankBrain erkannt und in die Algorithmen aufgenommen werden.

Crawl Budget Best Practices

Der Track Crawl Budget Best Practices versprach schon allein durch den Titel eine hohe hands-on-Menatlität. Dieser Verdacht bestätigte sich auch schnell mit den ersten Slides von Philipp Klöckner, welcher sich das Thema und die Zeit mit Bastian Grimm teilte.

Klöckner drehte den Spies einmal um und regte an, das Thema Crawl Budget einmal durch Googles Brille zu sehen. Crawling kostet Google Geld. Ist dieser Punkt einmal begriffen, wird so manches Handeln der Suchmaschine verständlicher. Die Suchmaschine muss mit der Ressource Crawler haushalten. Ziele, wie beispielsweise einen möglichst großen Index zu haben und Content in Echtzeit aufzunehmen, sind für Google kostspielig. Weil diese Kosten nicht steigen sollen, die Qualität der Suchergebnisse sich aber stetig verbessern muss, wird als dritte Komponente die Ladegeschwindigkeit der Webseiten belohnt. Für Webmaster ergibt sich eine weitere Aufgabe: eine effiziente Crawling-Struktur muss geschaffen werden. Alle wichtigen Seiten sollen ständig aktuell in Googles Index landen und demzufolge häufig gecrawlt werden. Gleichzeitig ist es Ziel, durch unnötigen Ballast der Seite wie Duplicate Content und weniger relevante Inhalte kein wertvolles Crawlbudget zu verlieren.

Um diese Aufgabe für Webmaster verständlicher zu machen analysiert Grimm in der zweiten Hälfte des Tracks die 10 häufigsten Crawl Budget Fehler und Wege zur Lösung.

  1. Crawler richtig steuern
    Wer sorgfältig prüft, welche Seite wirklich indexiert werden soll, der macht alles richtig. Mit Meta Robots und eine auf ein Minimum reduzierte Robots.txt sollte sichergestellt werden, dass nur Seiten mit signifikantem Mehrwert für den Nutzer freigegeben werden.
  2. Weiterleitung
    Mit Ausnahme der Sprachumstellungen, die mittels 302- oder 303-Weiterleitung eingerichtet werden, sollten alle Weiterleitungen mit Statuscode 301 eingerichtet werden. Jede Weiterleitung kostet wertvolles Crawl-Budget und Google verfolgt nur bis zu drei Redirects einer Kette.
  3. Fehlerseiten
    Egal ob aus den Webmastertools oder Logfiles: Fehlerseiten sollten behoben werden. Das bedeutet, die interne Verlinkungen sollten ständig unter Beobachtung stehen und bei Fehleraufkommen auch auf alternative Referenzen wie Canonicals oder die Sitemap geprüft werden. Um Seiten endgültig aus dem Index zu bekommen, eignet sich der Status Code 410. Jedoch Vorsicht: Ein wiederbeleben der Seite für die Indexierung ist nach Nutzen dieses Fehlercodes nur sehr schwer wieder möglich.
  4. Canonical Tags
    Der Redirect des kleinen Mannes. Auf Canonicals sollte so wenig wie irgendwie möglich zurückgegriffen werden. Korrekt gesetzte Canonicals besitzen eine absolute URL, die auch richtig auflöst und als Element höchstens 1x pro Seite vorkommt. Zusätzlich sollte man verschiedene Seiten mit Canonicals nicht ineinander verketten, also nicht von Seite A per Canonical auf Seite B verweisen und von Seite B per Canonical auf Seite C.
  5. XML Sitemaps
    In die Sitemap gehören ausschließlich indexierbare URLs. Damit entfallen Seiten mit Redirects, durch Meta Robots oder Robots.txt gesperrte Seiten und diese, die mit einem abweichendem Canonical Tag auf eine andere Seite zeigen.
  6. Faceted Navigation
    In einer perfekten Welt sind Filter und Sortierungen, die Unmengen an möglichen URL-Kombinationen erzeugen, mit einem POST-Redirect-GET Pattern umgesetzt. Zur Sicherheit sollte die Indexierung der Zielseite per noindex bzw. einem Canonical auf die Ursprungsseite verhindert werden.
  7. Paginierungen
    Die allseits bekannte Lösung, in der die erste Seite indexiert und darauf folgende Seiten zwar per noindex aus dem Index genommen, aber durch den Zusatz follow auf weitere Unterseiten verlinkt, funktioniert wie gewohnt. Zusätzlich kann dieser Ansatz noch mit der Implementierung von rel=“next“ und rel=“prev“ verstärkt werden. So stärken alle Links die sich im Index befindende Seite. Absolut wichtig: Für die Paginierungen kommt kein Canonical zum Einsatz.
  8. GET-Parameter Reihenfolge
    Auch wenn die Inhalte identisch sind, neue URL zählt als neue URL: Mit jeder unterschiedlichen Anordnung von GET-Parametern wird für die Suchmaschine eine neue Seite erzeugt. Um diesem verhalten Herr zu werden, sollte es eine feste Reihenfolge geben, in der Parameter angehängt werden.
  9. Die interne Suche
    Die Zielseiten der internen Suche sollte mittels Robots noindex nicht von der Suchmaschine aufgenommen werden. Google crawlt GET-Formulare, auch hier ist also POST-Redirect-GET als Pattern der richtige Weg, um Besuche eines Crawlers von Anfang an zu verhindern.
  10. Non-HTMLs wie AJAX Calls
    Google lernt ständig dazu. AJAX Calls und JSON-Objekte können vom Roboter gecrawlt und indexiert werden. Hier dient das X-Robots-Tag, dass analog zum Robots Meta Tag als Element der http-Header-Antwort für die jeweilige URL verwendet werden kann, zur Indexierungssteuerung.
    Werden diese 10 häufigen Fehler berücksichtigt, so ist man laut Grimm mit der Crawl-Budget Optimierung bereits sehr Fortgeschritten. Grundsätzlich ist eine regelmäßige Logfile-Analyse der Schlüssel zur Steuerung und Verbesserung des Crawlings, also lohnt es sich Zeit und Wissen in die Auswertung zu stecken.