Hallo, Eoghan, schön, dass wir uns mal wieder unterhalten. Heute geht es um ein Thema, das wirklich alle Suchmaschinenoptimierer angeht: Tests und Experimente. Wann ist dir das erste Mal bewusst geworden, dass es ohne eigene Testumgebungen nicht geht?
Hi Oliver! Es freut mich auch, dass wir uns heute wieder unterhalten.
Ich weiß nicht mehr genau, wann mir das erste Mal klar geworden ist, wie wichtig Experimente in der Suchmaschinenoptimierung sind, um zu lernen, wie Google oder andere Suchmaschinen mit bestimmten Situationen umgehen. Über die letzten Jahre habe ich allerdings gemerkt, dass Experimente wirklich dabei helfen können, die eigenen Überzeugungen, oder sogar die der ganzen Branche, zu hinterfragen und zu widerlegen. Ich würde hier allerdings nicht unbedingt von „Testumgebungen“ sprechen, denn realistische Testumgebungen sind im SEO-Bereich schwer zu schaffen. Die meisten SEO-Experimente muss man am offenen Herzen durchführen, um aussagekräftige Ergebnisse zu bekommen.
Das führt mich direkt zur nächsten Frage: Bevorzugst du es, Tests auf kleinen, eigenen Projekten durchzuführen? Oder auch mal an fremden Seiten mit großem Traffic, wenn du dir sehr sicher bist?
Am unkompliziertesten ist es natürlich auf der eigenen Seite. Unsere Unternehmenswebsite bei searchVIU ist ein regelrechter Friedhof von SEO-Experimenten. Wenn ich mir relativ sicher bin, dass der Ausgang wie gewünscht verläuft oder dass ich zumindest keine Katastrophe verursache, dann schrecke ich allerdings auch nicht davor zurück, SEO-Experimente an Kunden-Websites durchzuführen. In solchen Fällen kläre ich die Kunden aber natürlich komplett über die Risiken und Umstände auf und hole sie an Bord.
Es gibt ja Experimente in den unterschiedlichsten Ausprägungen. Was testest du am liebsten? Und was ist am schwersten umzusetzen?
In letzter Zeit habe ich mich in erster Linie damit auseinandergesetzt, wie Google mit Elementen umgeht, die nicht im ursprünglichen HTML vorhanden sind, sondern erst per JavaScript ins gerenderte HTML eingefügt werden. In dem Zusammenhang habe ich auch versucht, zu tracken, wann Google-Seiten komplett rendert und wann nur das Quell-HTML abgerufen wird, um hier Muster und Unterschiede in der Frequenz festzustellen. Das hat auch halbwegs gut geklappt, war aber wahnsinnig umständlich, weil man eine Kombination aus einem speziellen Tracking-Code, der von Google auch wirklich ausgeführt wird und einer Logfile-Analyse braucht. Die neue DSGVO hat die Logfile-Analyse im letzten Jahr noch einmal deutlich verkompliziert, weil IPs jetzt auf vielen Webservern aus Datenschutzgründen nicht mehr gespeichert werden. Um Zugriffe von Google zu verifizieren, braucht man allerdings unbedingt die IPs in den Logfiles. Es gibt zwar natürlich für alles Workarounds und Lösungen, aber in der begrenzten Zeit, die ich für solche Experimente habe, konnte ich leider immer noch keine simple und skalierbare Lösung dafür finden, Crawling- und Rendering-Anfragen von Google zu tracken und zu unterscheiden.
Das hört sich wahnsinnig spannend an, ist für jemanden wie mich aber viel zu technisch. Hast du Tipps, wie man auch sinnvolle Tests implementieren kann, wenn einem Dinge wie Logfile-Analysen zu hoch sind?
Ja! Man sollte einfach immer alles hinterfragen, was man sich angewöhnt hat, weil man es irgendwo gelesen hat oder weil ein Google-Vertreter gesagt hat, dass man es so machen sollte. Wenn man z. B. immer stur in allen Title-Tags das Fokus-Keyword an den Anfang stellt und versucht, möglichst genau auf 65 Zeichen oder eine bestimmte Pixelbreite zu kommen, dann kann man dieses Konzept umwerfen und eine neue Hypothese aufstellen und testen. Das ist jetzt ein übersimplifiziertes Beispiel, aber die Denkweise ist die richtige, um einfach mit dem Testen und Experimentieren zu beginnen. Es ist nämlich wirklich nicht alles so, wie die meisten (auch wir selbst) glauben, und in der Suchmaschinenoptimierung ändern sich die Dinge sehr schnell. Da kann man nichts falsch machen, wenn man einfach immer neue Ansätze probiert.
Du sagst es ja selbst: Dinge ändern sich wahnsinnig schnell. Gibt es Tests, die du regelmäßig fährst (oder gerne regelmäßig fahren würdest), um bestimmte Dinge immer wieder zu validieren?
Es wäre optimal, Tests regelmäßig zu wiederholen, um sicherzustellen, dass die Ergebnisse weiter reproduzierbar sind. Das mache ich aber ehrlich gesagt eher selten.
Manchmal ist man allerdings gezwungen, einen Test zu wiederholen, z. B. wenn jemand die Ergebnisse berechtigt anzweifelt oder wenn es andere Quellen oder Informationen gibt, die den Ergebnissen widersprechen.
Ein schönes Beispiel: Letztes Jahr hat Tom Greenaway von Google in einem gemeinsamen Vortrag mit John Mueller bei Googles I/O behauptet, Canonical-Tags würden von Google nur beachtet werden, wenn sie im Quell-HTML vorhanden sind, und per JavaScript eingefügte Canonical-Tags würden ignoriert. Diese Aussage hat sich dann sehr schnell in der SEO-Szene verbreitet und wurde natürlich von den meisten als absolute Wahrheit akzeptiert. Einige wenige SEOs waren skeptisch und haben bei John Mueller nachgefragt, der die Aussage von Tom auch ausdrücklich gestützt hat. Der Drops schien also gelutscht.
Wir hatten bei searchVIU allerdings einige Monate vorher recht ausführlich getestet, wie Google mit per JavaScript eingefügten Elementen umgeht und dabei auch festgestellt, dass Canonical-Tags, die per JavaScript ins gerenderte HTML injiziert werden, funktionieren. Jetzt gab es mehrere Möglichkeiten: Unsere Tests waren falsch, Googles Verhalten hatte sich seit unseren Tests geändert oder Googles (bzw. Tom und Johns) Aussagen waren falsch.
Wir waren also gezwungen, unsere Tests noch einmal durchzuführen und haben uns dieses Mal explizit auf Canonical-Tags konzentriert und auch sorgfältig darauf geachtet, dass keine äußeren Faktoren die Ergebnisse verfälschen. Die Ergebnisse haben bestätigt, was wir schon vermutet hatten: Die Aussagen von Google waren falsch und John Mueller hat sie, nachdem er die Ergebnisse unserer Tests gesehen hatte, auch revidiert und bestätigt, dass per JavaScript eingefügte Canonical-Tags funktionieren können, obwohl es nicht die von Google empfohlene Methode ist.
Dieser Fall hat ganz klar gezeigt, wie wichtig es ist, zusätzlich zu „Best Practices“ und offiziellen Dokumentationen und Aussagen von Google auch eigene Beobachtungen zurate zu ziehen und skeptisch zu bleiben, selbst wenn man sich dabei manchmal wie ein verrückter Verschwörungstheoretiker fühlt.
Man hört von Google ja öfter Aussagen wie: „Es funktioniert, aber wir mögen es nicht.“ Gerade hier ist dann beim Testen sicher Vorsicht geboten. Aber auch außerhalb von Google gibt es immer wieder Leute, die Dinge als absolute Wahrheiten darstellen. Hast du schon mal solche Aussagen getestet und bist dann zu total überraschenden Ergebnissen gekommen?
Letztes Jahr habe ich einige internationale Websites untersucht, die den hreflang-Wert „en-EU“ für ihre europäischen Website-Versionen einsetzten. Ich habe sehr überrascht festgestellt, dass diese Auszeichnung zu funktionieren scheint, obwohl sie ganz objektiv betrachtet falsch ist. Google versucht allerdings bei der Interpretation von Indexierungssignalen immer, Fehler von Website-Betreibern großzügig zu handhaben und Signale so zu deuten, wie sie gemeint sind. Beim Thema hreflang ist ein weiteres Beispiel hierfür „en-UK“, ein klassischer Fehler, wenn eigentlich „en-GB“ gemeint ist. Google weiß, dass „en-UK“ sehr wahrscheinlich nichts anderes als „en-GB“ heißen kann, und interpretiert es deshalb einfach so. Solche Dinge lernt man nicht, indem man offizielle Dokumentationen oder Implementierungs-Guides liest, sondern nur durch Beobachten, Testen und Hinterfragen.
Sehr spannend! Gab es auch mal Experimente, wo du vom Ergebnis total schockiert warst? Weil du zum Beispiel etwas ganz anderes erwartet hast oder ein Effekt viel größer war als gedacht.
Vor ein paar Jahren habe ich mal einen Test mit strukturierten Daten gemacht, der dazu geführt hat, dass ich anderen Websites ihre Bilder-Rankings geklaut habe. Das war aber wahrscheinlich nur ein vorübergehender Bug in der Google-Suche und ich habe das Thema nicht weiter ausgeschlachtet, obwohl mich das Ergebnis schon sehr überrascht hat. Meistens ist es aber leider andersherum: Ich teste etwas Neues, mache mir große Hoffnungen und am Ende passiert gar nichts. So gehen wahrscheinlich 90 Prozent meiner Tests und Experimente aus und über die rede ich dann natürlich weniger, weil es einfach nichts zu berichten gibt.
Trotzdem ist es natürlich wichtig, weiter dranzubleiben. Kennst du eigentlich überhaupt SEOs, die gar nicht testen? Und wenn ja, was ist deren Argumentation?
Ich glaube, dass alle guten SEOs eine „Test-Mentalität“ haben, das gehört irgendwie zum Beruf dazu. Viele haben aber wahrscheinlich leider nicht immer die Zeit oder die Möglichkeiten zum Testen. Als ich noch Angestellter in einer Agentur war, konnte ich auch noch nicht so viel testen, wie ich wollte. Und selbst jetzt, als Selbstständiger, scheitern die meisten meiner Ideen daran, dass ich nicht genügend Zeit habe, sie richtig umzusetzen oder überhaupt anzugehen.
Wichtig ist natürlich auch, dass man das richtige Werkzeug zur Hand hat. Welche Tools empfiehlst du, um gute Ergebnisse in den verschiedenen Facetten der SEO zu erzielen?
Das kommt ganz stark darauf an, was man testen möchte und welche Ergebnisse man tracken will. Für viele meiner JavaScript-SEO-Experimente habe ich den Google Tag Manager eingesetzt, weil man mit diesem sehr einfach Elemente per JavaScript in Websites einfügen kann. So lässt sich simulieren, wie Google mit Websites umgeht, bei denen JavaScript eine wichtige Rolle spielt, weil sie mit Frameworks wie Angular oder React programmiert wurden. Für die Überwachung der Ergebnisse bieten sich z. B. Rank-Tracking-Tools, Google Search Console oder Google Analytics an. Beim Testen setzt man wahrscheinlich in der Regel wenige Tools ein, die man im normalen SEO-Alltag nicht sowieso schon braucht.
Sehr richtig. Zum Abschluss möchte ich dir die Gelegenheit für ein Wort zum Sonntag geben: Warum sollte wirklich jeder Mensch testen und was sollen wir jemandem entgegenschleudern, der sagt, dass er keine Lust/keine Zeit/keine Ahnung hat?
Keine Ahnung gibt’s nicht. Jeder, der sich mit SEO auskennt, ist in der Lage, eigene Tests aufzusetzen. Man muss ja, vereinfacht gesagt, eigentlich nur das, was man immer macht oder was jeder macht, ein bisschen anders machen und schauen, was passiert. Keine Zeit ist schon etwas schwieriger. Vielleicht ist es eine Lösung, Kunden oder das eigene Team vom Testen zu überzeugen, um sich innerhalb der laufenden Projekte Zeit zu schaffen. Wenn Tests und Experimente Teil des normalen SEO-Prozesses sind, dann ist Zeitmangel auch kein Problem mehr. Und „keine Lust“ ist hoffentlich nach der Lektüre der Beispiele weiter oben auch kein Thema mehr! Es sollte also wirklich jeder, der sich mit SEO beschäftigt, testen und experimentieren, um das eigene Wissen und die eigene Erfahrung zu vergrößern und die Branche insgesamt vorwärtszubringen.
Dein Wort in Gottes Ohr! Danke für deine Insights und bis zum nächsten Interview!