, Peter Herzer

„Die Struktur einer Webseite legt fest, wie gut die einzelnen Dokumente erreichbar sind“ – Tobias Schwarz im Interview

Tobias Schwarz spricht im Interview über die Anforderungen an eine stimmige Website-Struktur und die Herausforderungen großer Websites.

von Peter Herzer
Lesezeit: 5 Minuten

Über Tobias Schwarz

Tobias Schwarz ist seit mehr als 10 Jahren im Bereich SEO aktiv und betreibt mit meiner Firma, der AmbiWeb GmbH, einige größere Webseiten. Darüber hinaus betreibt er zusammen mit Gerd Riesselmann den Strukturanalysedienst strucr.com.

Hallo, Tobias und willkommen bei LEAP/. Erzähl uns bitte etwas zu dem Ansatz, der hinter strucr.com steckt.

Der Ansatz hinter strucr.com ist es, die technischen Details von Webseiten zu erfassen und die erfassten Daten nutzbar zu machen. Der Fokus liegt auf dem Thema Struktur. Unser Anspruch ist es, auch große Webseiten möglichst vollständig zu erfassen. Nach einem vollständigen Crawl kann man verlässliche Aussagen zur Seitenstruktur machen und Probleme werden sichtbar oder können ausgeschlossen werden. Aktuell können wir Angebote bis 10 Millionen Unterseiten ohne Probleme crawlen.

Du hast in deinem sehr praxisnahen Vortrag über die Struktur einer Webseite gesprochen. Warum ist die interne Struktur einer Webseite so wichtig für mich und meine User?

Die Struktur einer Webseite legt fest, wie gut die einzelnen Dokumente für Benutzer und Suchmaschinen erreichbar sind. Eine gute Struktur ermöglicht es, schnell durch die Seite zu navigieren und alle Dokumente mit wenigen Klicks aufzurufen. Bei Webseiten mit einer schlechten internen Struktur kann es vorkommen, dass Seiten von den Benutzern und Suchmaschinen nicht gefunden werden.

Kannst du uns kurz die wichtigsten Probleme erläutern, die große Webseiten hier haben?

Große Webseiten haben meist mit zwei Problemen zu kämpfen: Das erste Problem sind zu tief liegende Seiten wegen einer schlecht gemachten Pagination, also der Funktion zum Blättern durch Seiten. Das zweite Problem sind schlecht gemachte Filterfunktionen, die zu einer extrem hohen Zahl an Seiten führen können.

Wie schaffe ich es, meine Pagination sinnvoll zu limitieren?

Nimmt man z. B. einen WordPress-Blog und schaut sich dort die Standard-Pagination an, so wird erstmal das Kernproblem deutlich. Die Pagination ist so gestaltet, dass man lediglich eine Seite vor und eine Seite zurückgehen kann. Hat man nur eine Pagination mit 100 Seiten, so liegt eine Vielzahl von Dokumenten so tief, dass diese für Benutzer nicht mehr erreichbar sind. Gleiches gilt meist auch für Suchmaschinen. Die Kernfrage ist also: Wie kann man die Pagination so gestalten, dass alle Unterseiten mit wenigen Klicks erreichbar sind? Im Wesentlichen ist der Ansatz, Sprünge innerhalb der Pagination zu erlauben. Darüber hinaus ist es oft sinnvoll, die Seitenzahlen einer Pagination zu beschränken und die Inhalte lieber über andere Strukturelemente erreichbar zu machen.

Du hast auch Filter angesprochen: Was kann passieren, wenn ich meine Filter nicht im Griff habe?

Bei Shops gibt es z. B. oft die Möglichkeit, die Produkte nach einer Vielzahl von Kriterien zu filtern und diese beliebig miteinander zu kombinieren. Wird bei dieser Funktion jedes Mal eine neue URL generiert und ist diese zugleich auch für Suchmaschinen abrufbar, so ergeben sich schnell Seitenzahlen in astronomischen Höhen. Ab einem gewissen Punkt wird dann die Seite von Suchmaschinen nicht mehr vollständig gecrawlt. Oft schaffen es dadurch wichtige Dokumente nicht mehr in den Suchindex und viele Dokumente werden durch die hohe Zahl an Seiten schlechter im Suchindex gelistet, als dies im Falle von weniger Seiten möglich wäre. Abhilfe kann man schaffen, indem man Filterfunktionen anders umsetzt und dadurch keine neuen Seiten generiert. Durch den Einsatz von POST-Formularen in Kombination mit sogenannten PRG-Patterns, welche zurück zur Ursprungsseite leiten, kann dies erreicht werden. Eine weitere Möglichkeit ist der Einsatz von AJAX.

Kann ich die Pages nicht einfach auf noindex setzen?

Noindex ist für das Filterproblem leider genau wie der Einsatz des Canonical-Elements: keine Lösung. Beide sorgen zuverlässig dafür, dass alle/viele entsprechend markierten Seiten nicht mehr im Index auftauchen. Die Seiten sind jedoch weiterhin existent und die Seiten werden auch weiterhin gecrawlt. Das Crawling der Seite lässt sich damit also nicht verbessern. Die einzige Lösung für das Filterproblem ist der Umbau der Filterfunktion und die Reduktion der Seiten bzw. anwendbaren Filter.

Geht mir durch die Begrenzung der Filter in der URL nicht mein Longtail-Traffic verloren?

Ziel eines Filter-Umbaus sollte es sein, einige Filterkombinationen nach wie vor als eigenständige Seiten zu haben. Die Kunst ist es, maximal so viele Seiten zu haben, wie Suchmaschinen auch bereit sind zu crawlen und zu indexieren. Idealerweise sollte man den Traffic der einzelnen Filterkombinationen abschätzen und sich für Kombinationen entscheiden, die viel Traffic auf die Webseite bringen können. Unsere Erfahrung ist, dass Webseiten, denen wir zur Reduktion von sinnlosen Filterseiten geraten haben, immer einen starken Trafficsprung machen konnten.

Spannendes Thema sind Breadcrumbs: Warum sollte ich als Webmaster unbedingt Breadcrumbs nutzen?

Breadcrumbs sind ein sehr wirkungsvolles Strukturelement. Hat man eine ausführliche Breadcrumb so lassen sich im Zusammenspiel mit Deeplinks starke Strukturverbesserungen erreichen. Wichtig dabei ist, dass die Breadcrumb möglichst alle Hierarchieebenen abbildet. Von einer tief liegenden Seite lassen sich dann alle übergeordneten Ebenen mit einem Klick erreichen. Bei einem gut gefüllten Breadcrumb-Pfad kann man mit gezielten Deeplinks für viele Seiten die Klickpfade reduzieren. Die wichtigen Navigationsseiten profitieren darüber hinaus von der Vielzahl von internen Links.

Uns interessiert natürlich auch: Wie geht es mit strucr weiter und welche Features können wir in der nächsten Zeit erwarten?

Unsere weitere Entwicklung wird darauf abzielen, unsere Stärken weiter auszubauen. Wir sind in der Lage, auch große Webseiten vollständig zu analysieren. Für die Betreiber genau dieser großen Webseiten wollen wir weitere Funktionen schaffen und alle erhobenen Daten auch über Schnittstellen zur Verfügung stellen. Mit vielen Kunden arbeiten wir eng zusammen und die Prioritäten der Entwicklung richten sich hier sehr oft nach unseren Kunden. Aktuell arbeiten wir an Konzepten wie der Erkennung von doppelten Inhalten, der Gruppierung von URLs, dem Thema Monitoring sowie weiteren Hinweisen.

Für das Jahr 2013 haben wir uns aber auch vorgenommen die Nutzerinteraktion mit dem Dienst zu steigern und zu verbessern. Wir werden dazu mehr Benachrichtigungen versenden. Wenn z. B. ein Crawl fertiggestellt wurde, so werden wir den Nutzer darüber per Mail informieren, um ihm lästige Checks zu ersparen. Auch werden wir einige Dialoge bzgl. ihrer Usability optimieren.

Insgesamt haben wir mehrere Hundert Tickets auf unserer Ideenliste stehen. So schnell wird uns die Arbeit also erstmal nicht ausgehen.

Danke, Tobias, dass du dir die Zeit genommen und uns einen spannenden Einblick in deine Tätigkeiten gewährt hast!

Über den Autor

Peter Herzer

Nach meinem Studium bin ich ins Online-Marketing gekommen und seit 2013 bei LEAP/ (ehemals Barketing). Angefangen habe ich als Trainee und wurde dann zum Account Manager im Offpage-SEO. Dort helfe ich Unternehmen bei der Entwicklung und Umsetzung ihrer Offpage-Strategien.