„Man sollte sich immer überlegen, wie einfach man es Google machen möchte“ – Stephan Walcher im Interview - LEAP/
, Peter Herzer

„Man sollte sich immer überlegen, wie einfach man es Google machen möchte“ – Stephan Walcher im Interview

Stephan Walcher spricht im Interview über die neue Google Search Console und die besten Wege, um diese zielführend einzusetzen.

von Peter Herzer
Lesezeit: 6 Minuten

Über Stephan Walcher

Stephan Walcher ist in Hamburg geboren, aber in Mailand, Italien, aufgewachsen. Seine beruflichen Anfänge im SEO hat er 2006 in Südtirol unternommen, wo er im Agenturumfeld primär Kunden im Tourismusbereich betreut hat. 2011 ging es dann nach München zu Microsoft Bing und anschließend zur Agentur Catbird Seat, wo er als Head of SEO Consulting das SEO-Team verantwortete. Seit Oktober 2014 ist er Senior SEO Manager bei der 1&1 Media GmbH.

Hallo, Stephan und willkommen bei LEAP/. Du hast in der Academy einen Vortrag zur neuen SearchConsole gehalten. Was hältst du vom Rebranding und was denkst du, will Google vor allem für die SEOs erreichen?

Das Rebranding macht noch kein neues Produkt. Ein neuer Name bedeutet viele Kosten, denn es müssen alle Dokumente, URLs usw. umbenannt werden, was neben Geld auch Zeit kostet. Daher denke ich, dass Google hier sicherlich nicht aus einer Laune heraus diese Entscheidung gefallen hat. Zum einen können sie sich durch den Namen von Konkurrenz wie z. B. der Bing Webmaster-Tools besser differenzieren, zum anderen sagen sie selber, dass „… Fans der Webmaster-Tools sind ganz unterschiedliche Personen: […]. Damit unser Produkt alle anspricht, denen die Google-Suche wichtig ist, haben wir beschlossen, die Google Webmaster-Tools in Google Search Console umzutaufen.“ Ob der Namenswechsel wirklich neue User anzieht, kann ich nicht vorhersehen, aber ich denke, dass durch den neuen Namen auch viel mehr Priorität auf das Produkt gelegt wird und wir uns sicherlich bald schon über viele neue Funktionen freuen können.

Zur Verifizierung gibt es verschiedene Möglichkeiten und du sagtest, den DNS-Eintrag findest du am besten. Was ist das genau und warum eignet es sich so gut?

Die Authentifizierung via DNS wird den meisten Webmaster sicherlich bekannt sein, jedoch wenig genutzt sein, da HTML-File und Meta-Tag-Authentifizierung, gerade wenn man FTP-Zugang hat, schneller und bequemer sind. Bei größeren Webseiten hat man leider oft keinen FTP-Zugang und kann auch nicht einfach am Template mal einen Meta-Tag einfügen. Daher braucht es eine Lösung, die nicht nur umsetzbar, sondern auch dauerhaft ist, denn ein Template-Release kann schnell einen Meta-Tag überschreiben.

Die DNS-Authentifizierung erfolgt dabei direkt über einen Eintrag beim Domain-Hoster und kann direkt für alle Subdomains aktiviert werden. Wenn also z. B. eine neue Subdomain angelegt wird, kann der inhouse diese direkt in der Search Console anmelden, ohne eine weitere Authentifizierung vorzunehmen. Einmal angelegt hat man nicht nur eine sehr beständige Authentifizierung (muss manuell entfernt werden), sondern auch eine sehr flexible.

Was sollte man beim Anlegen der Search Console noch beachten?

In der Search Console kann man maximal 1.000 Domains anmelden. In der Regel meldet man nur die Domains an, die man überwachen will, aber man kann auch Verzeichnisse und sogar Landingpages anmelden. Voraussetzung ist, diese Seiten dürfen nicht mit .html, .php usw. enden, sondern mit einem Trailing Slash. Der Vorteil bei den Verzeichnissen ist, man erhält schon in der ersten Ebene ca. 20 % mehr Suchbegriffe als im Root-Verzeichnis. Führt man das Ganze auch in die Unterverzeichnisse der anderen Ebene weiter, erhält man viel detailliertere Informationen zu den Suchbegriffen, was gerade im Zeitalter von not provided sehr wichtig ist. Bei einzelnen Landingpages bekommt man dank der Suchanalyse nicht nur ein großes Portfolio an Suchbegriffen, sondern auch wichtige Informationen wie Impressions, Klicks und Ranking Positionen auf Keyword Ebene.

Denkst du die Verwendung von Mikro-Daten wie schema.org birgt auf lange Sicht auch Gefahren?

Strukturierte Daten werden von Google zum Teil gesondert dargestellt. Um konkurrenzfähig zu bleiben, sollte man seine Daten entsprechend auszeichnen, denn wenn man es selbst nicht macht, macht es die Konkurrenz und kann sich somit einen eventuellen Marktvorteil sichern. Trotzdem darf man nicht vergessen, dass Google ständig in neue Bereiche einsteigt und durch neue Integrationen in den Suchergebnissen Webseiten den Traffic entwendet. Um an diese Daten zu kommen, gibt es nichts Besseres, als wenn sie von den Webseiten Betreibern selber geliefert werden.

Man sollte sich daher immer überlegen, wie einfach man es Google machen möchte. Handelt es sich um einzigartige Daten, die nur ich besitze, würde ich bei der Verwendung von Mikro-Daten sehr vorsichtig sein bzw. diese sogar vermeiden. Nutze ich hingegen Daten, die frei zugänglich sind, dann würde ich den Einsatz empfehlen, aber immer bedenken, dass ich zwar heute sehr erfolgreich bin, aber morgen schon mein Traffic durch Google oder durch einen Konkurrenten übernommen werden kann.

Was sind die besten Features der neuen Suchanalyse?

Ich mag die Möglichkeit für ausgewählte Keywords Impressionen, durchschnittliche Position auf Tagesebene darstellen zu können und diese dann auf Device und Länderebene herunterzubrechen oder miteinander zu vergleichen.

Welche Informationen liefert der Indexierungsstatus für Domains und Verzeichnisse bei der täglichen Arbeit?

Zuerst muss man immer bedenken, dass der Indexierungstatus in der Serach Console nicht täglich, sondern nur alle 7 Tage aktualisiert wird. Die Daten sind somit sehr träge und „plötzliche“ Veränderung sieht man im schlimmsten Fall erst 7 Tage später. Trotzdem liefert der Wert, egal ob jetzt für eine Domain, für Verzeichnisse oder auch Landingpages (Traling-Slash am Ende benötigt) ein wichtiges Indiz dafür, wie es mit der Anzahl der URLs aussieht. Ein plötzlicher Anstieg der URLs kann zum Beispiel ein Indiz dafür sein, dass bei der Indexierungskontrolle etwas nicht stimmt. Ein Parameter, fehlender Canonical Tag oder auch ein defekte Meta-Robots, kann Google dazu veranlassen, viele URLs zu indexieren und somit die Kurve im Indexierungstatus nach oben springen zu lassen.

Gerade bei großen Seiten, wo viele Bereiche und Entwickler ständig neue Funktionen releasen, können solche Fehler schnell passieren. Der Indexierungstatus ist kein Live-Monitoring Tool, aber man sollte trotzdem jeden Tag bei allen seinen Projekten mal reinschauen, um hier sicherzugehen, dass alles passt.

Du hast von ISO-Codes beim Einsatz des hreflang-Tags gesprochen, was bedeutet das in diesem Zusammenhang?

Ein häufiger Fehler beim hreflang-Tag ist ein falscher ISO-Code für die Länder bzw. die Sprache. Wenn dort etwas nicht stimmt, kann dies in einem wichtigen Land eventuell für große Probleme sorgen.

Welche Exporte stellt die Search Console zur Verfügung und wo sind die Grenzen?

Mit der alten Suchanfrage hatte man zwar nicht so ein Detailgrad wie mit der neuen Suchanalyse, aber mit dem richtigen Set-up konnte man sehr viele Keywords erfassen und ohne Limit exportieren. Leider kann man nur maximal 1.000 Domains anmelden. Außerdem kann man nur maximal 1.000 Suchbegriffe exportieren. Ich hoffe, dass mit der API V4, die gerade in Arbeit ist, dieses Limit aufgehoben wird. Wenn nicht, wird es noch wichtiger, alle Verzeichnisse anzumelden, um das Limit zu umgehen.

Welcher ist dein Lieblingsanwendungsfall der Search Console?

Aktuell gucke ich sehr gerne auf die Anzahl der Impressions im Mobile Bereich, um zu sehen, ob das Mobilegeddon irgendwie zugeschlagen hat. Dann nutze ich gerne die Keyword-Daten von ausgewählten Landingpages, dessen URL ich direkt angemeldet habe, um deren Performance zu beobachten. Welche Begriffe bringen die meisten Klicks? Welche Rankingposition nehmen sie im Desktop- und Mobile-Bereich ein? Und wie verändert sich das Ranking über die Zeit? Aus diesen Informationen kann man sehr gut überprüfen, ob die SEO-Strategie die richtige ist und ob man Keyword-technisch nicht einen anderen Weg einschlagen sollte.

Wir möchten uns noch mal für den tollen Vortrag und dieses Interview bedanken! Sicher sieht man sich bald wieder, Stephan. Bis dahin alles Gute.

Das ist ein Artikel von

Peter Herzer

Nach meinem Studium bin ich ins Online-Marketing gekommen und seit 2013 bei LEAP/ (ehemals Barketing). Angefangen habe ich als Trainee und wurde dann zum Account Manager im Offpage-SEO. Dort helfe ich Unternehmen bei der Entwicklung und Umsetzung ihrer Offpage-Strategien.