Quelle: Google

Gute Nachrichten für alle SEOs und Webmaster: Google hat ein Update für die Crawling-Statistiken in der Search Console veröffentlicht, wie der Konzern Ende November im Blog der Google Search Central sowie per Twitter mitteilte:

Der neue Crawl-Report soll es laut Google den „Webseiten-Besitzern erlauben, besser zu verstehen, wie der Googlebot ihre Seiten crawlt“. In diesem Blog-Beitrag erhalten Sie einen Überblick darüber, was die neuen Crawling-Statistiken alles zu bieten haben und ob Google der Aufbau des neuen Crawl-Reports gelungen ist.

Wo finde ich den neuen Report?

Nicht so ganz intuitiv wie der Report selbst ist das Auffinden der Crawling-Statistiken. Die verstecken sich nämlich unter den Einstellungen:

Crawl-Report finden

Das geben die Crawling-Statistiken wieder

Einmal gefunden, zeigen Ihnen die Crawl-Statistiken die Crawl-Anfragen von Google an Ihre Domain in den letzten 90 Tagen. Hier können Sie sich Anzahl der Crawling-Anfragen, die Downloadgröße der Crawls (in Bytes) sowie die durchschnittliche Reaktionszeit Ihrer Seite (in Millisekunden) im Zeitverlauf anzeigen lassen.

Neben dieser allgemeinen Übersicht gibt es noch vier Aufschlüsselungen, nach denen die Crawling-Anfragen sortiert werden:

  • Nach Antwort
  • Nach Dateityp
  • Nach Zweck
  • Nach Googlebot-Typ

Das sieht dann so aus:

Jede Zeile der einzelnen Aufschlüsselungs-Kategorien leitet Sie zu einer Liste von betroffenen URLs sowie einer weiteren Übersicht zur durchschnittlichen Anfragenmenge, Downloadgröße und Reaktionszeit bezogen auf diese URLs weiter.

So können Sie beispielsweise sehen, bei welchen URLs der Crawlerbot von Google eine 404-Antwort bekommen hat und wie sich die Anzahl der 404er in den letzten 90 Tagen verändert hat. Die angezeigten URLs sind zwar nur Beispiele und nicht vollständig, geben aber schnell und unkompliziert einen guten Überblick darüber, in welchen Bereichen, Kategorien oder Verzeichnissen es gegebenenfalls hakt.

Einfaches Identifizieren von konkreten Problemen

Zu viele 404-Anfragen, zu langsame Reaktionszeiten sowie Client-Fehler können Sie im neuen Crawl-Report auf den ersten Blick sehen. Auch Probleme mit dem Host sind aber schnell identifiziert. Über den Hoststatus-Button unterhalb der oberen Übersicht …

… gelangen Sie zu einer Übersicht potenzieller Probleme mit dem Host. Das betrifft drei Bereiche:

  • Abruf von robots.txt
  • DNS-Auflösung
  • Serververbindung

Im Idealfall sieht diese Seite so aus:

Sollten derweil Probleme auftreten, sagt Ihnen der Report genau, wie hoch die Fehlerquote ist und wann die akzeptable Fehlerquote überschritten wurde:

Quelle: Google

Wenn bei einer Domain mehrere Hosts existieren, gibt Google auch zu jedem Host einzeln eine Übersicht an:

Quelle: Google

Zusammengefasst: Der neue Crawl-Report von Google

Alles in allem ist der neue Crawl-Report in der Google Search Console übersichtlich, gibt Ihnen die wichtigsten Infos wieder und gewährleistet eine intuitive Navigation. Der Überblick über die Gesamtzahl an Crawl und die durchschnittliche Antwortzeit der Seite ist ebenso praktisch und sinnvoll wie die vier Aufschlüsselungen der Crawls.

Auch der aktuelle Hoststatus gibt einen guten Überblick über die Verfügbarkeit des Servers. Grundsätzlich wäre es für SEOs und Webmaster interessant, auch die Daten des letzten Jahres und nicht nur die der vergangenen 90 Tage einzusehen, aber die dauerhafte Verfügbarkeit von Daten ist ja kein neues Thema im Zusammenhang mit der Google Search Console. Zusammengefasst ist die Überarbeitung der Crawling-Statistiken aber definitiv gelungen.

Wenn Sie mehr erfahren möchten, sollten Sie sich die detaillierte Dokumentation zu den Crawling-Statistiken von Google anschauen.

Wobei können wir Ihnen helfen?

Fordern Sie jetzt Ihre kostenlose und unverbindliche Ersteinschätzung an

Jetzt Kontakt aufnehmen