SEO-DAY 2018 – Der LEAP/ Recap - LEAP/
, Rico Melzer

SEO-DAY 2018 – Der LEAP/ Recap

Wie war der SEO-DAY 2018? Was haben wir gelernt und was haben wir beigetragen? Das erfährst du in unserem Recap.

by Rico Melzer
Reading time: 11 minutes

Das erwartet dich in diesem Recap:

  • Wie war die Veranstaltung organisiert?
  • Welche Speaker haben uns am meisten begeistert?
  • Welche Vorträge blieben hinter den Erwartungen zurück?

Zum mittlerweile achten Mal fand in Köln der SEO-DAY statt, eine der Top-Konferenzen für Suchmaschinenoptimierung in Deutschland. Auch dieses Mal wieder im RheinEnergieSTADION des 1. FC Köln, doch statt zweitklassigem Fußball gab es erstklassige Speaker und Vorträge zu hören und zu sehen.

Nachfolgend möchte ich dir nicht zu allen meinen besuchten Vorträgen etwas berichten, sondern die wichtigsten und beeindruckendsten Speaker und Vorträge herausgreifen.

René Dhemant: „JavaScript SEO: Unerlässliche Optimierungen für Frameworks wie Angular, React, Vue.js und Konsorten“

Bereits der erste Vortrag war eines meiner persönlichen Highlights. Das Crawling von JavaScript-Inhalten und deren beschleunigte Bereitstellung mittels Pre-Rendering ist eine der größten Challenges für SEO und wird auch in 2019 ein großes Thema bleiben.

René berichtet, dass Google nun schon seit einigen Jahren in der Lage ist, JavaScript zu crawlen, auszuführen und damit auch zu indexieren (Anmerkung des Autors: Ganz im Gegensatz zu den Crawlern von Bing, Facebook und Twitter). Allerdings liegt das Problem dabei wie so oft im Detail, nämlich bei den verschiedenen Varianten des Pre-Renderings und den vielen unterschiedlichen Frameworks hierfür.

Allerdings ist der Web Rendering Service (WRS) von Google, welcher das JavaScript ausführt und indexiert, nicht vergleichbar mit einer aktuellen Version des Chrome-Browsers, sondern basiert vielmehr auf Chrome 41 von vor über 3 Jahren. Hierdurch werden viele moderne Webtechniken von Google nicht unterstützt, wie zum Beispiel HTTP/2 oder HTTP Cookies. Nach Renés Einschätzung soll der WRS aber Ende diesen oder Anfang nächsten Jahres aktualisiert werden, allerdings nicht auf einen aktuellen Chrome 70, sondern auf einen Chrome 62. Aber auch dies wird schon ein großer Fortschritt für die Erfassung von JavaScript sein.

Bei der Nutzung von JavaScript-Techniken wird von einem reinen Client Side Rendering abgeraten und stattdessen ein Server Side Rendering oder das von Google präferierte Dynamic Rendering empfohlen. Neben Frameworks, die auf dem eigenen Server laufen, kann man hierfür auch kostenpflichtige Prerendering-Dienstleister nutzen, welche aber auch mal ausfallen können oder bei Zahlungsverzögerungen abrupt ihre Dienste einstellen.

Generell sollte man darauf achten, dass nach Möglichkeit im initialen HTML-DOM alle Metadaten, Texte und Links enthalten sind und „nur“ anspruchsvolle Designs und Funktionen nachträglich per JavaScript hineingerendert werden. Ist dies nicht möglich, sollen Metadaten und Links zumindest nicht durch JavaScript verändert und überschrieben werden, damit die HTML- und die JavaScript-Ansicht konsistent sind.

Ein weiterer wichtiger Punkt ist die Beschleunigung der Ausführung von JavaScript-Inhalten entlang dem Critical Rendering Path. Dies ist nicht nur für den Google-Crawler wichtig, sondern auch für den User und dessen Nutzererfahrung.

Weitere Insights von René findest du in unserem Interview.

Johannes Beus: „Braucht Google deine Website?“

Der Gründer und Geschäftsführer von Sistrix, der bekannten SEO-Toolbox aus Deutschland, sprach über die aktuellen Quality Rater Guidelines von Google. Dieses fast 200 Seiten starke Dokument gibt eine genaue Anleitung, wie die Qualität einer Website bei manuellen Prüfungen zu beurteilen ist. Ein wichtiger und essentieller Aspekt ist hierbei der sogenannte User Intent, also die Absicht und der Wunsch des Nutzers, wenn er bestimmte Suchanfragen eingibt.

Diese User Intents wurden früher im klassischen Modell nach informationalen, transaktionalen und navigationalen Suchanfragen unterteilt. Die neue Klassifikation ist etwas anders und feiner unterteilt. Zunächst gibt es „Visit-in-Person“-Anfragen, also jene nach Orten und Dienstleistungen die man physisch besuchen möchte. In der Analyse von Sistrix wurden 1 Million Keywords nach den verschiedenen Intents klassifiziert und über deren Suchvolumen mit einem ungefähren Traffic gleichgesetzt. Die „Visit-in-Person“-Anfragen sind hierbei 15 % der 1 Mio. Keywords und ca. 13 % des potenziellen Traffics. Als Suchergebnisse tauchen hier oft Maps-Integrationen auf, welche den Traffic vor den organischen Ergebnissen abziehen und damit ein SEO-Geschäftsmodell wenig lukrativ erscheinen lassen.

Die nächste Kategorie sind die „Website“-Anfragen, also wenn nach einer konkreten Website oder URL gesucht wird. Diese Anfragen sind nur 8 % der besagten 1 Mio. Keywords, aber bilden 33 % des Traffisc ab. Als Ergebnistyp tauchen hier oft organische Treffer mit Sitelinks auf.

Die dritte Gruppe sind sogenannte „Do“-Anfragen, also konkrete Kaufabsichten oder mit Transaktionen verbundene Intents. Diese Anfragen waren 28 % der Keywords im Set von Sistrix, aber nur 16 % des Traffic-Volumens. Genau diese Gruppe an Keywords ist aber die spannendste für Google, denn hierfür werden massiv Ads geschaltet, welche die Haupteinnahmequelle von Google sind.

Eine weitere Gruppe an Suchanfragen wird als „Know“ bezeichnet, also dann, wenn es um Informationen und Wissen geht. Diese sind 37 % der Keywords im Set und 62 % des Traffics. Hier tauchen häufig Direct Answers und Featured Snippets als Suchergebnisse auf.

Eine letzte Gruppe an Suchanfragen bilden die „Device Actions“, also die typischen „Ok, Google“ Kommandos, um ein Smart Home Gerät zu steuern oder den nächsten Song in der Playlist abzuspielen. Diese wurden von Sistrix allerdings ausgeklammert, da sie nur in Sprachassistenten stattfinden und gar keine Ergebnisliste mit SEO-Potenzial abbilden.

Das Fazit von Johannes Beus war, dass innerhalb der zuvor genannten Kategorien nur wenig Spielraum für SEO und organische Treffer ist, da Google viele Suchanfragen schon selbst direkt beantwortet oder mit eigenen Integrationen wie Maps oder Ads die organischen Ergebnisse verdrängt. Seine Tipps für dieses Armdrücken mit Google sind:

  • „Werde eine Marke“, um die eine Website und Autorität zu sein, nach der gesucht wird
  • „Gehe in die Tiefe“, also behandle ein Thema so ausführlich und tiefgehend, wie es Google selbst auf der SERP nicht leisten kann

Im Anbetracht dieser Transparenz von Google bzgl. der eigenen Qualitätsrichtlinien, ganz im Gegensatz zu etwa Facebook, kommt Johannes zum launigen Fazit: „Google ist Mist, aber (aktuell) die beste Option.“

Patrick Lürwer: „R4SEO – Dokumentation, Reproduktion und Kommunikation von SEO-Analyse mit R“

R ist eine Programmiersprache, welche vor allem für statistische Analysen eingesetzt wird. Das technische Ökosystem von R ist aber mittlerweile so ausgebaut, dass es mit RMarkdown eine einfache Möglichkeit zur Formatierung von Inhalten gibt und mit RStudio eine Softwaresuite, die alle Tools und Schnittstellen bündelt.

Patrick zeigte keine Slides, sondern in einer Art Live Coding Session, wie in RStudio Daten aus verschiedenen Tools und Schnittstellen eingelesen werden können. Diese Daten können anschließend ohne Excel analysiert und ausgewertet werden, um sie alsdann ebenfalls mittels R in Charts und Diagrammen darzustellen. Die Erklärungen zu den Charts und die sich daraus ergebenden Handlungsanweisungen werden ebenso im gleichen RNotebook-Fenster hinein getippt und mittels RMarkdown formatiert. Als Exportformate sind dann alle Optionen wie PDF oder PowerPoint möglich.

Der große Vorteil eines solchen Analyse-Workflows in einem RNotebook ist, dass man auf zusätzliche Programme wie Excel und PowerPoint verzichten kann, da alle Daten direkt in R eingelesen werden, darin analysiert und in ein Output-Format für den Kunden exportiert werden können. Dieser gesamte Prozess ist anschließend problemlos nachvollziehbar und reproduzierbar, um auch nach Monaten genau zeigen zu können, welche Daten aus welcher Quelle zu welchen Empfehlungen geführt haben.

Nedim Sabic: „Wirkungsvolle Funnels für die Akquisition von B2B-/B2E-Kunden“

Nach der wohlverdienten Mittagspause ging es bei mir weiter mit Nedim Sabic, der schon mehrere Start-ups erfolgreich aufgebaut und diese dann an große Konzerne verkauft hat. In seinem Vortrag beschreibt er die Sales-Funnels, um mit sehr kleinen und spitzen Zielgruppen mit B2B- oder B2E- (Enterprise) Entscheidern in Kontakt zu kommen und ihnen zum Beispiel erfolgreich eine Softwarelizenz für 300.000 € zu verkaufen.

Laut Nedim benötigen diese Arten von Verkaufsstrecken eine sehr gute Vorbereitung, denn: „Die doppelte Vorbereitungszeit führt zur Halbierung der Implementierungszeit.“ Seiner Meinung nach beruht das Scheitern von anderen Funnels auf einer nicht genügenden Definition der Zielgruppe, denn jeder Mensch ist erreichbar und ansprechbar. Hierfür muss genau recherchiert werden, was die Entscheidungsträger suchen und lesen, was sie lesen müssen und was sie inspiriert. Die Ansprache der Entscheider muss personalisiert erfolgen und zuvor händisch analysiert und vorbereitet werden. Massen-Mailings helfen hier gar nicht weiter, denn oft genug hat man nur eine einzige Chance zur Kontaktaufnahme. Diese kann auch per Google oder LinkedIn Ads auf den Namen des Geschäftsführers erfolgen, da diese oft nach sich selbst googeln. Dieses personalisierte Ego-Marketing kann man dann noch durch Remarketing unterstützen, wodurch das eigene Produkt überall aufzutauchen scheint und anscheinend flächendeckend teure Werbeflächen gebucht wurden.

Ist der erste Kontakt geglückt, leitet man natürlich nicht sofort zu einem Produkt oder Angebot hin, sondern versucht zunächst Vertrauen aufzubauen und über Incentives das Interesse zu wecken. Hierfür werden zum Beispiel Live-Webinare, zeitlich begrenzte Demo-Versionen oder Wikis die Insider-Fragen beantworten; eingesetzt. Um die eigene Kredibilität zu unterstreichen, werden Pressemitteilungen veröffentlicht, Siegel zum Vertrauensaufbau genutzt, Referenzkunden genannt und saubere Impressumsangaben mit Umsatzsteuer-ID und Geschäftsführerdaten veröffentlicht.

Nach dem geglückten Kontakt und einem ersten Vertrauensaufbau, kommen die üblichen Funnel-Prozesse ins Rollen, wobei aber immer wichtig ist, dass eine sekundenschnelle Reaktion per Mail oder Telefon erfolgt.

Ein weiterer interessanter Tipp von Nedim war, dass der Internet Explorer und Edge Browser nicht die ungeliebten Stiefkinder der Webdesign-Gestaltung sein sollten, denn gerade in großen Konzernen werden oft nur Microsoft-Produkte eingesetzt und keine anderen Webbrowser.

John Mueller: „Google-konforme Websitegestaltung“

Es folgte ein Hangout mit dem Webmaster Trends Analyst, der eine Präsentation zeigte und danach noch auf Fragen der andächtig lauschenden Zuschauer einging. Auch John kam auf den schon ganz am Anfang erwähnten Web Rendering Service (WRS) zu sprechen, auch er nannte das Q1/2019 als einen möglichen Termin zur Aktualisierung, und dass das Update auf eine „aktuelle“ Chrome-Version erfolgen soll. Es bleibt also zu hoffen, dass es eine aktuellere Version als Chrome 62 sein wird.

John bestätigte ebenso, dass der Google-Crawler nicht „scrollt“, um zum Beispiel mehr Inhalte durch ein Nachladen zu sehen. Stattdessen nutzt der Crawler einen riesigen Viewport [Anmerkung des Autors: Vermutlich 10.000 Pixel], um entsprechend viele Inhalte einer Website erfassen zu können.

Eine weitere interessante Aussage war, dass neue Domains zunächst über deren Desktop-Ansicht indexiert und erst danach in den Mobile First Index überführt werden. Dies wird in Zukunft aber vielleicht umgestellt, so dass direkt der MFI bedient wird.

Auch die Kollegen von LEAP/ hatten Fragen eingereicht und eine davon wurde sogar live beantwortet. So bestätigte John, dass bei abweichenden Link-Signalen zwischen der initialen HTML-Version im DOM und der gerenderten Website-Ansicht, mit eventuell anderen Link-Zielen/-Parameter und Attributen, immer die gerenderte Version die für eine Bewertung herangezogene Ansicht ist.

Eine aktuelle Diskussion im SEO-Dorf ist die Bewertung von Seiten, die auf Noindex stehen, da früher zum Beispiel Paginationsseiten auf Noindex gestellt wurden, um diese aus dem Index heraus zu halten und nur die darauf verlinkten Produkte indexieren zu lassen. John bestätigte indirekt, dass Noindex-Seiten nach einer Weile als Nofollow-Seiten angesehen werden, wodurch das obige Vorgehen obsolet werden wird. Stattdessen soll für wichtige Seiten und Inhalte einer Pagination nur das Prev-/Next-Markup genutzt werden, während „unwichtige“ Inhalte gern weiterhin einen Noindex-Tag haben können. Dies bestätigt das bisherige Geraune in den SEO-Blogs, wodurch viele Optimierungs-Leitfäden überarbeitet werden müssen.

Jean Pereira: „Hacking“

Ein letztes Highlight des diesjährigen SEO-DAYs gab es im abschließenden Superpanel, wo Jean von secbiz.org allen Anwesenden das blanke Entsetzen in die Augen schrieb. Der ehemalige Blackhat-Hacker hat inzwischen die Fronten gewechselt und hilft als ethischer Hacker Firmen dabei, Sicherheitslücken zu schließen und ihre Produkte sicherer zu machen. Ein Produkt, das sicher alle Leser nutzen, ist der Chrome Browser von Google. Hier fand Pereira durch Intelligent-Fuzzing einen Weg, im aktuellen Chrome einen Pufferüberlauf und damit einen Browserabsturz zu provozieren, nur um dann im Anschluss den Taschenrechner auf den Laptop zu starten. Der versierte Leser wird hier sofort aufgewacht sein, denn statt des Taschenrechners lassen sich auch beliebige Programme und Skipte ausführen, um den Rechner komplett zu übernehmen.

Eine zweites Horrorszenario von Pereira war die Umgehung der SSL-Verschlüsselung, ebenfalls im aktuellen Chrome. Er zeigte, wie trotz HSTS und grünem SSL-Schloss in der Adressleiste des Browsers, beliebige Inhalte auf den angezeigten Websites abgeändert oder ausgelesen werden konnten. So lassen sich zum Beispiel Überweisungen und Bitcoin-Transaktionen beliebig abändern, ohne dass der User dies mitbekommt.

Es bleibt nur zu hoffen, dass Google diese Lücken schnell beseitigt, um den Millionen an Nutzern keinen realen Security-Alptraum zu bescheren.

Der SEO-DAY 2018 war eine rundum gelungene und mit spannenden Vorträgen gefüllte Veranstaltung. Die Location war toll gewählt, um auch als nur gelegentlicher Fußballfan einmal ein Stadion von innen zu sehen. Ich kann den SEO-DAY nur weiterempfehlen und hoffe, auch im nächsten Jahr wieder dort sein zu können.

This post was written by

Rico Melzer

Ich leite das SEO Team bei LEAP/, mache Kunden noch glücklicher und helfe den Trainees beim Start in den SEO-Dschungel. In meiner Freizeit suche ich den sportlichen Ausgleich im Fitnessstudio oder beim Radfahren.