Campixx 2018 – Der LEAP/ Recap - LEAP/
, Sebastian Adler

Campixx 2018 – Der LEAP/ Recap

Wie war die Campixx 2018? Was haben wir gelernt und was haben wir beigetragen? Das erfährst du in unserem Recap.

by Sebastian Adler
Reading time: 17 minutes

Das erwartet dich in diesem Recap:

  • Wie war die Veranstaltung organisiert?
  • Welche Speaker haben uns am meisten begeistert?
  • Welche Vorträge blieben hinter den Erwartungen zurück?

Am 01. und 02. März 2018 fand am Müggelsee-Südufer im Berliner Bezirk Köpenick zum zehnten Mal die SEO-Konferenz Campixx statt. Die LEAP Digital Marketing GmbH war Mit-Sponsor und damit Namenspate für einen der größeren Konferenzräume und mit sechs Mitarbeiterinnen und Mitarbeitern vor Ort. Im Folgenden haben einige von ihnen ihre Eindrücke niedergeschrieben.

Recap von Stefan Drescher:

Die Atmosphäre war betriebsam und zugleich lässig – letzteres ablesbar an den T-Shirts für jeden Teilnehmer mit Namen, Firma und URL sowie an den umfangreichen Abendprogrammen: Kicker-Turnier und Karaoke am Vorabend; Lach-Yoga, Quiz, Flugsimulator, Live-Musik und Lagerfeuer am Donnerstagabend, dem 01. März. Die Campixx 2018 hatte jüngere wie ältere Besucher mit einem gefühlten Durchschnittsalter von Mitte 30, wobei der Männer-Anteil überwog.

Die Sessions verteilten sich auf elf Räume.

Andi Petzoldt: „10 + 5 Tricks mit Google Analytics für SEOs und Conversion Optimierer“

Andi führt vor wie für Nutzer, die zurück zu Google navigieren, mit dem hash #gref die Zeit erfasst werden kann, die sie auf der Seite verbracht haben. Die Analytics-Besuchszeit habe keine Aussagekraft.

Er empfiehlt, die Kennzahlen anderer Tools wie Sistrix, Google Search Console oder Bing Webmaster Tools mit APIs in Google Drive zu laden und anschließend als Event an Google Analytics zu senden. So hat man sie auf einen Blick zur Hand.

Weitere Tipps betreffen

  • PageSpeed genauer messen und
  • Wie trackt Analytics?

Anschließend erläutert Andi, dass eine Vielzahl möglicher Gründe für eine hohe Absprungrate verantwortlich sein können:

  • Fehlendes CrossDomain-Tracking
  • Der Nutzer klickt oder kopiert die E-Mail/Telefonnummer
  • Der Nutzer kopiert Produktnamen oder anderes aus der Seite
  • Content-Seiten
  • Gibt Hinweise, wie die Ungenauigkeit verbessert werden kann

Nach der Darstellung von Micro- und Macro-Zielen stellt Andi seine Empfehlungen für deren Conversions vor: Macro-Ziele sollten als „E-Commerce“ oder „Ziel“ getrackt werden, Micro-Ziele als „Ereignis (Event)“, „Segment“, „sekundäre Dimension“, „berechneter Messwert“ oder „Site Search“.

Weitere Tipps:

  • AdBlock Nutzer identifizieren
  • Scrolltiefen-Messung
  • PDF-Download als Event tracken
  • Bewertung von Ausstiegs-Seiten
  • Fehler-Tracking (404, Abbruch, Javascript)
  • Messung von Besuchszeiten.

Andi ist sich sicher, dass die Besuchszeit, die Google Analytics benennt, alleine keine ausreichende Aussagekraft habe.

Er stellt außerdem dar, wie in Analytics eigene Kennzahlen erstellt werden können und benennt weitere Suchmaschinen, die oft keine Berücksichtigung fänden, obwohl sie zum organischen Traffic beitrügen.

Nachdem er den Nutzen verschiedener Filter und Alerts bewertet hat beschließt Andi seine Rundreise mit einer Liste der besten Browser-Plugins.

Julian Dziki: „SEO-Zeitreise – Best of 2008 – 2018“

Julian springt mit der Wiederholung seines launigen Vortrags vom Vorabend ein, weil der ursprünglich vorgesehene Referent auf diesem Slot erkrankt ist. Er betont, dass hier nichts „zu lernen“ sei, was so nicht stimmt, denn mehrere Fakten aus seinem Vortrag werden am Abend in der Campixx-Quizveranstaltung „Wer wird SEOnär“ wieder auftauchen.

Unterlegt von sehr unterhaltsamen Kurzfilmen und Bildern von Campixx-Veranstaltungen, bevorzugt aus dem vergangenen Jahrzehnt stellt er Ereignisse vor, die folgenreich für die SEO waren:

  • 2006 BMW-Ausschluss
  • 2007-2013 Google Page Rank Updates, werden seit 2016 nicht mehr dargestellt
  • 2008 Sistrix Toolbox
  • 2009 Linkbuilding-Abstrafungen
  • 2010 Google Panda Update führt zu Firmenpleiten (Geschäftsmodell Content-Farmen)
  • 2012 Google führt den Knowledge Graph ein
  • 2013 Google Algorithmus-Umstellung Hummingbird
  • 2014 Google Penalties gegen Linknetzwerke
  • 2015 „Mobilegeddon“ mobile first

René Schröter: „Siteclinic-Workshop – Worauf achten Nutzer und worauf SEOs?“

Alle im Auditorium sind aufgerufen, sich zu beteiligen. Wir betrachten uns per Zufall ausgewählte Websites jeweils sieben Minuten lang und bombardieren den Webmaster mit Ideen, Verbesserungsvorschlägen, Wünschen, Anregungen und mehr.

Empfohlene Browsererweiterungen:

  • OpenSEO Stats (Meta-Informationen, Auszeichnungen)
  • Lighthouse (Analyse, Optimierungstipps)
  • Checkmylinks (Linkstatus)
  • Linkclumb (öffnet mehrere Links)
  • Page Analytics (Daten, Folgeseite)
  • SEO Dashboard (sammelt Tools)
  • Page Monitor (regelmäßige Kontrolle)

Tipps aus den Bewertungsdiskussionen:

  • Burgermenü als solches beschriften
  • Seite verkleinern, um Fokus zu finden
  • Call-to-Action in der Navi rechts platzieren und hervorheben
  • Nicht von Startseite extern verlinken
  • Auch Links auf der Impressumseite setzen
  • „Vorteilskommunikation“ auf jeder Seite hinterlegen

Markus Baersch: „Bounce Rate Demystified – Von guten, schlechten und falschen Absprungraten und Verweildauern in Google Analytics“

Absprungraten gehören für viele zum Standardsatz wichtiger Kennzahlen zur Bewertung von (SEO-) Traffic. Aber welche Werte sind „gut“? Das kommt auf die Branche und Art der Seite an. Was davon ist relevant? Hier hilft eine Sortierung nach Content-Gruppen.

Wir werfen einen Blick auf die typischen Messfehler, Strategien zur Optimierung von Absprungraten und auf die Möglichkeiten zur Messung der Rücksprungrate zu Google-Ergebnissen sowie der Verweildauer (Dwell Time) aus Sicht der Google Suchergebnisse, welche in einer Standardimplementierung von Analytics überhaupt nicht erfasst werden, obschon gerade das die „Absprungrate“ und „Dwell Time“ sind, die für die vielzitierten User-Signale stehen.

Darius Erdt: „SEO Cases aus der Praxis“

  1. „Black Friday“ (umsatzstärkster Tag, Rechtsunsicherheit): neue Seiten für den Tag vs. vorhandene
  2. FID Gesundheitswissen: Penguin Sichtbarkeitsabsturz 2014 > Analysen > mehrere Ursachen
  3. Askari: Sichtbarkeitseinbruch 2015 mit Relaunch > Analysen > mehrere Ursachen
  4. Fehlerhafte AMP: Ursache unzulässige, nicht valide Attribute > strenges Fehler-Handling
  5. Content Optimization > Content auf relevante Keywords Platz 5-10 mit Suchvolumen ausrichten
  6. Relaunchfalle (Shop)

Artur Kosch: „JavaScript SEO – Crawling, Indexierung und Auditing von JavaScript-Websites“

Websites, die komplett mit JavaScript realisiert werden, sind in der SEO immer noch ein unerforschtes Gebiet. Laut Google kann der Googlebot Inhalte, die durch JavaScript ausgespielt werden, rendern und crawlen. Wieso diese Aussage gefährlich ist und welche Fallstricke sich hinter JavaScript und SEO verstecken, werden in diesem Vortrag erläutert.

Der Google Rendering Browser ist der Chrome 41 von 2015.

WRS = Web Rendering Service

Isomorphic Rendering: Wendet die New York Times an

Browservergleich: Can I use

Jens Fauldrath: Talkrunde der Fokusgruppe Search Bundesverband Digitale Wirtschaft (BVDW) e.V.

Was leistet BVDW für Branche und Mitgliedsunternehmen? Sucht Anregungen/Kritik.

Es gibt ca. 600 Mitgliedsunternehmen in Deutschland.

Ziele: Verbreitung der Qualitätszertifikate OnPage und OffPage – ist bisher ebenso wie der „Code of Conduct“ zu wenig relevant/bekannt (Nichtmitglieder: 449,- € netto für Gültigkeitszeitraum von mindestens einem Jahr).

Kosten/Aufwand erheblich für ein Zertifikat von nur einem Jahr Gültigkeit. Ob eine Definition von Mindeststandards nötig ist, ist umstritten. Ähnlich bei Berufsbilddefinitionen: Inhouse/Agentur, SEO/SEA, Junior/Senior. Vorbild Typo3-Zertifizierungen?

Mehr Infos zu diesem Thema findest du auch in unseren Interview mit Martin Witte.

Mario Jung: „Links, die echten Traffic generieren und deren Auswirkungen auf die Rankings“

Das Linkbuilding einen der wichtigsten Ranking-Faktoren darstellt, ist schon lange (besonders seit der Aussage von Andrey Lipattsev – Google Mitarbeiter) kein Geheimnis mehr.

Während die einen sagen, dass Linkbuilding immer unwichtiger wird, denken andere, dass langfristig nur der Traffic (bzw. die Nutzerdaten, die der Traffic bringt) entscheidend ist, egal über welche Linkart dieser kommt.

Frei nach dem Motto: Ein Link, der Traffic bringt, ist besser als ein Link, der keinen Traffic bringt.

Im Beispiel brachten zwei Links 10-15 Besuche pro Tag, und damit stiegen sowohl Traffic als auch Sichtbarkeitsindex. Auch die „Veredelung“ vorhandener Links bringt etwas, zumal sie für die Konkurrenz schwer zu durchschauen ist.

Recap von Carolin Kocher: Als Trainee auf der SEO Campixx 2018

Als ich mich am ersten Tag durch die klirrende Kälte an den Müggelsee kämpfte, war ich sehr froh, als mich im quaderförmigen, grauen Konferenzgebäude nicht nur ein schicker Goodiebag, sondern auch gleich ein wärmender Kaffee erwartete.

AMP – Accelerated Mobile Pages

Nach der Begrüßung und der Keynote entschied ich mich, den Vortag von Kim Lembeck und Tim Weidemann mit dem spannenden Titel „AMP: Stolperstein oder Zukunftsmusik?“ zu besuchen. Dort berichteten die beiden von ihren eigenen Erfahrungen mit AMP, haben Lösungsvorschläge für Probleme präsentiert und einen Ausblick für die Zukunft gegeben. Besonders interessant für mich war der Hinweis, dass bei der Verwendung des bekannten AMP Plugins von Automattic für WordPress den Nutzern eine Abmahngefahr droht. Dieses Plug-in entfernt nämlich den kompletten Footer mitsamt aller rechtlichen Verweise. Neu war für mich auch, dass das „Optimized AMP“, eine noch schnellere Variante der klassischen AMP, nicht AMP-valide ist. In Punkto Ausblick für die Zukunft bin ich gespannt, wie sich AMP für E-Mails und die AMP Stories weiterentwickeln werden.

Google PageSpeed

Ein weiterer interessanter Vortrag kam von Dennis Hermsmeiers: „Google Pagespeed 100/100 – Einfach schnelle Ladezeiten“. In den knappen 45 Minuten zeigte er live an einer Beispielseite, wie man durch ein paar gekonnte Kniffe den Wert des Google PageSpeed auf 100 Punkte erhöht. Wichtige Schritte dabei waren das Auslagern des Critical CSS, das Reduzieren von CSS, JavaScript und HTML, sowie die GZIP-Optimierung.

Weitere Tipps zur Pagespeed-Optimierung findest du in diesem Artikel.

Texter richtig briefen

Besonders informativ fand ich auch den Vortrag von Christiane Sohn mit dem Titel „So briefst Du Deine Texter – und erhältst die Text, die Du Dir vorgestellt hast“. Das Publikum bestand hier sowohl aus Textern als auch aus reinen Texterbriefing-Erstellern. Ich fand es sehr interessant, auch einmal die Perspektive der Texter zu hören. Was ich aus dem belebten Vortag mitnehme ist, dass ein Gespräch zwischen Texter und Auftraggeber viele Ungewissheiten aus dem Weg räumt und meist der schnellere Weg zum Ziel – einem gelungen Text – ist. Desweiteren sollte der Auftraggeber, der das Produkt zumeist am besten kennt, nicht vergessen, den USP der Marke oder eines bestimmten Produktes dem Texter mitzuteilen.

Mehr Insights von Christiane findest du auch in unserem Interview.

SEO-Cases – aus Vergangenem lernen

Speziell für mich als SEO-Neuling, war „10 Jahre SISTRIX – Was du von den besten Case Studies lernen kannst“ von Lisa Bastian ein sehr lehrreicher Vortrag, da es dort einen Einblick in zehn verschiedene SEO-relevante Themen gab. Besonders positiv in Erinnerung ist mir auch die Diskussion nach dem Vortrag geblieben. Dort äußerte eine Teilnehmerin aus dem Publikum ihr Problem, welches sie bei ihrer Website hat, und nicht nur die Vortragende und ihre Teamkollegen, sondern auch einige versierte Teilnehmer, versuchten sofort Erklärungen zu liefern oder Lösungsvorschläge zu präsentieren.

Abschließend kann ich sagen, dass ich mit einem sehr positiven Eindruck die Campixx wieder verlassen haben und trotz meiner geringen Erfahrung im Bereich SEO schon einiges mitnehmen konnte.

Recap von Rico Melzer

Maximilian Bloch – Mobile Index

Maximilian beschreibt zunächst die Typen mobiler Websites (Responsiv, Dynamic Serving und separate Domain) sowie die wichtigsten Auszeichnungen und Tags (Canonical, Hreflang, etc.). Für ihn sind Ladezeiten der entscheidende Faktor. Abschließend begann eine interessante Diskussion darüber, warum und wieso Google dies alles tut: User sollen länger im Google-Ökosystem verweilen und Google möchte immer mehr Kontrolle über die Daten haben.

Marco Lauerwald – Content-Audit

Ein Content-Audit ist eine sinnvolle Vorgehensweise, um automatisiert eine Vielzahl von eigenen Content-Seiten (Urlaubsguru) bewerten zu lassen. So wird es möglich, abgelaufene Deals zu löschen und die restlichen Artikel hinsichtlich Traffic und Links zu kategorisieren. Durch das Audit erhälst du außerdem eine Skala, die von „Seite gelöscht“ über „zu optimieren“ bis zu „schon optimal“ reicht. Und eine Index-Bereinigung und -Konsolidierung wirkt. Sie führte bei Urlaubsguru zu einem Anstieg der Visibility. Dazu sollte man aus Sistrix die Visibility- und Indexseiten-Übersicht übereinander legen, um Effekt sehen zu können.

Sebastian Erlhofer – SEO-Traineeships

Sebastian stellt vor, wie seine Agentur mindshape Trainees ausbildet. Dazu gehören unter anderem wöchentliche 1-on-1 Meetings mit Vorgesetztem und zueinander passende Persönlichkeitsprofile (Rot, Grün, Blau). Diese sind auch für Kundenansprechpartner von zentraler Bedeutung.

Valentin Pletzer – Protocol Buffer und Reverse-Engineering der Google-SERP

Ich empfehle jedem, sich die Slides des Referenten anzuschauen. Valentin zeigte in einem sehr spannenden Vortrag, wie man den JavaScript-Code der Google-SERP analsiert, um erkennen zu können, ob es einen A/B-Test gibt.

Kaspar Szymanski – Google Strafen erklärt

Der ehemalige Googler klärt auf, welche Google-Penalties es gibt und wie man auf sie reagieren sollte. Ein wichtiges Thema, denn bekanntlich werden nur manuelle Abstrafungen über die GSC mitgeteilt – alle algorithmischen Abstrafungen erkennt man nur an Ranking-Verlusten.

Abendprogramm Tag 1

SEOnär: Sie rocken im goldenen Anzug, aber es gab leider Tonprobleme für die hinteren Reihen, wie jedes Jahr.

Außerdem bringt die Cover-Band „Right Now“ für jeden ein passendes Lied.

Markus Baersch – Absprungraten in Google Analytics

Was sind „gute“ oder „schlechte“ Absprungraten in Google-Analytics und wie misst Google diese? Laut Markus lassen sich die berühmten User Signals nicht wirklich mit Google Analytics messen. So ist zum Beispiel Time on Site aus Analytics KEIN User Signal. Google misst nämlich für Rankings nur die sog. „Dwell Time“ und die Back to SERP Rate. Daher gab Markus seinen Zuhörern ein paar Tricks und Codes an die Hand, um diese u. a. über den Google-Tag-Manager zu messen.

Thomas Mindnich – Content und Suchmaschinen

Thomas begann mit einer kurzen Einführung in die Information Retrieval Theorie. Nebenbei gab es ein paar Gewinnspiele, bei denen Plüschtiere verteilt wurden. Seine zentrale Frage ist: was haben die hinteren Rankings verkehrt gemacht, um nicht vorn zu sein? So möchte er Webmaster dazu anhalten, aus dem Schlechten zu lernen und es besser zu machen. Das kannst du auch in seinem Interview mit uns tun.

Stefan Fischerländer – NLP

Stefan gab zunächst eine kurze Einführung in NLP und Linguistik. Die Frage ist, wie Maschinen Suchanfragen verstehen. Klassische SEO-Faktoren sind teilweise am Ende. Wenn man beispielsweise die SERPs zu „unheilig geboren“ und „wann wurde unheilig geboren“ vergleicht, sieht man, dass „wann wurde“ NICHT auf den Ergebnisseiten steht, UND „unheilig“ eigentlich keine Person ist. Im Anschluss gab es praktische Beispiele dafür, wie man NLP für Chatbots im Reisebereich anwenden kann.

Mehr zum Thema NLP erfährst du in unserem Interview mit Jacqueline Köppen.

SEO Expert Panel (Florian Stelzner, Jens Fauldraht, Rhea Moore, Nils Dahnke, Sandra Mannebach, Kai Spriestersbach)

Das Panel diskutierte zunächst die Vorteile und Nachteile von AMP. Die Experten sagen einhellig Nein, da Google nur seine Marktmacht („Mafia“) ausspielt und Publisher in das Google Ökosystem zwingt, um die eigene Marktmacht zu erhalten.

Die nächste Frage war, ob gutes SEO für schlechte Produkte möglich ist. Auch hier gab es ein Nein von allen Beteiligten, da man in der Lage sein muss, Kunden die Wahrheit zu sagen.

Dann ging es um die Frage, wie man man SEO-Improvements bei der IT platziert. Wichtig ist hierbei vor allem, die Uplifts vorherzusagen und mit Beweisen belegen zu können. Außerdem sollte man sich das Team zum Freund machen und auch mal Kuchen zum Meeting mitbringen.

Martin Schirmbacher – DSGVO:

Die DSGVO kommt zum 25.05.2018. Mit ihr wird der Datenschutz auf ein gemeinsames europäisches Level gehoben. Daher sind nun erweiterte Datenschutzerklärungen für ALLE Website-Betreiber nötig und die Datenschutz-Generatoren werden noch angepasst.

Recap von Sebastian Adler

Kim Lembeck & Tim Weidemann – „AMP: Zukunftsmusik oder Stolperstein?“

Die interne Optimierung auf SiteSpeed steht immer im Fokus. Ziel war es, einen SpeedIndex von 5.000 oder kleiner zu erreichen – denn alles andere lohnt nicht. Zudem wurde die Implementierung von AMP für alle SEO-Landingpages geplant. Die Tests auf einigen Seiten zeigten aber, dass es immer noch einige Probleme und Unwägbarkeiten gibt, z. B. beim Tracking:

  1. AMP-Analytics ist zu stark beschränkt
  2. Eigene Lösung mit Tag-Manager ist auch zu restriktiv
  3. Versuch: über Iframe „normale“ Seite mit Tag-Manager Code mitliefern → löst aber zu spät aus, um tatsächlich alle Besuche zu tracken
  4. Nächster Versuch: GTM-Iframe + eigene Tracking-Parameter auf den CTA-Elementen → hoch kompliziert, da man für jedes Element den Parameter einbinden müsste
  5. Inzwischen hat Google die „AMP-Client ID“ eingeführt → bringt AMP-Client ID mit GA ID zusammen: GA Problem ist gelöst

Trotz dieser Lösung rät Google weiterhin zu einer eigenen AMP-Property in GA. Das ist jedoch problematisch, da man dann nicht mehr den gesamten Funnel im Blick hat. Zudem ist das AMP für WordPress Plug-in eingeschlafen. Die beiden empfehlen daher: nutzt AMP for WP. Doch Vorsicht: Das Plug-in entfernt den Footer und damit i. d. R. den Impressums-Link – ABMAHNGEFAHR!

AMP ist irgendwie cool, aber in Sachen tracking noch so unausgereift, dass es keinen wirklichen Business-Use gibt.

Jens Altmann – Automatisierung von SEO Prozessen ohne Programmierkenntnisse

Wenn Jens sagt „für Nichtprogrammierer“, heißt das in der Regel „Code lesen, kopieren und anpassen musst du schon können“ – aber das ist okay. Entsprechend zeigt er uns einige Google Sheets, die er mit AppScripts aufgebohrt hat, um verschiedene Dinge zu automatisieren.

Google Spreadsheets-Formate greifen auf die Browsereinstellungen zurück! Wenn also ein Kollege in den USA ein Spreadsheet erstellt und geteilt hat, nutzt am besten Chrome mit Englisch/USA in den Einstellungen, sonst kann es sein, dass einige Zahlenformate etc. nicht richtig funktionieren! Andere wichtige Grundlagen:

  • Die mächtigste Funktion in Spreadsheets ist =ImportXml() wird zusammen mit Xpath-Abfragen zum Schweizer Taschenmesser
  • Schema: =IMPORTXML(URL;Xpath), Beispiel ==IMPORTXML(https://leap.de/;”//head/title”)
  • Quasi alles an HTML-Inhalten abfragen und auslesen
  • Sitemaps einlesen und Inhalte wieder ausgeben

Tipps:

  • Im Funktionseditor eine Teilfunktion markieren → zeigt das Zwischenergebnis an
  • Im Script Editor kann man eigene Funktionen schreiben → das ist ja kein richtiges Programmieren
  • B. fetch(url) → um HTTP-Requests abzusetzen & die Antworten weiterzuverarbeiten; so kann man z. B. Weiterleitungen testen oder Sitemaps überwachen
  • Hint: die Abfragen werden gecached, d. h. Google spart Last und die Funktionen geben nicht immer zu 100 % in Realtime neue Daten zurück
  • So lassen sich auch APIs anzapfen → Dashboards bauen – Jens hat z. B. die Instagram API abgefragt und das aktuellste Foto zum Hashtag #campixx ausgegeben
  • Man kann Trigger für zeitgesteuerte Abfragen nutzen
  • Bonus: es gibt eine integrierte E-Mail App, die dann per Mail Alerts versenden könnte

Das Ganze ist eine coole Sache, gerade für kleine Unternehmen und Projekte ist das sicher eine gute Idee!

Auch Jens haben wir schon einmal zum Interview gebeten. Damals ging es um das Thema YouTube.

Gerald Steffens – „Neues aus dem SEO Testlabor“

Gerald hat Tests zu verschiedenen Phänomenen in der Google Suche angestellt, um die Funktionsweisen hinter den Ergebnissen zu verstehen. Was anfangs etwas seltsam und eher nerdig anmutete, warf schnell eine große Frage auf: Warum testen wir nicht viel mehr? Denn Gerald merkt zurecht an, dass wir zu oft einfach hinnehmen, was wir so sehen (Daten in der GSC etc.).

Was hat er so alles getestet?

  1. „Abruf wie durch Google“ mit Crawl aller Links der abgerufenen Seite:
  • Ein HTML-Dokument mit Tausenden ausgehenden Links auf weitere HTML Dokumente eingereicht und Bot-Zugriffe überwacht
  • Bis zu 100.000 URLs werden verfolgt und kommen so schnell wie möglich in den Index
  • Keyword-Vererbung über den Linktext funktioniert nur bis zum 200. Keyword
  1. Maximale Anzahl von Keywords im Ankertext:
  • Lange Ankertexte auf interne Links zeigen lassen → in GSC „eingehende Links“ die Linktexte untersucht
  • Bei 16 Keywords ist Schluss → verlinkte Textpassagen
  1. Eingabelimit der Suche:
  • 32 Suchbegriffe
  • 128 Zeichen je Keyword
  1. Max. Länge des Titles:
  • Dokumente mit n Zeichen (M,W,L,I,i) und in den SERPS nachgeschaut
  • 131 Zeichen (I), 35 W, 39 M
  • Anmerkung aus dem Publikum: der Title ist länger, wird nur per CSS gekürzt
  • Auf einem iPad ließ sich ein 240 Zeichen langer Title beobachten

Wir müssen also ganz einfach alle wieder mehr testen!

Johannes Giesche & Eduard Protzel – Crawling Analysis to the fullest

Bei allen Analysen müssen immer auch die Logfiles angeschaut werden. Dies wird wieder wichtiger, da Crawler oft mit den dynamischen Inhalten nicht mehr klar kommen. Am interessantesten für sie: GoogleBot, kommt von 66.249.*  – dies dann aus den Logs extrahieren und dann untersuchen. Da hierbei nur Zugriffe vom Bot gerechnet werden und die IP auf 66.249.* gekürzt wird, sollte das auch hinsichtlich des Datenschutzes okay sein.

In der Regel wird dabei ein Zeitraum von einem Monat untersucht. Die beiden empfehlen, mit einer der folgenden Methoden zu machen:

  1. Pivot-Tabellen in Excel (hier ist bei großen Kunden aber flott Sense)
  2. BigQuery & Python (helfen, das Ganze in die Cloud zu heben und mit Google DataStudio auszuwerten, sieht gut aus und spart eigenen Rechenaufwand)

Wichtigste Learnings:

  • URL-Fingerprinting kann für Probleme sorgen: Der Bot crawlt die Bilder wie ein verrückter
  • Crawling von Nicht-HTML Dateien beachten
  • Ladezeit-Optimierung lohnt sich immer
  • Sobald im Logfile erkennbar ist, dass der mobile GoogleBot häufiger die Seite crawlt als der normale GoogleBot, dann ist die Seite vom Desktop Index auf den Mobile Index gewechselt. Das kann zu Traffic-Verlusten führen

Kontrovers ging es zu, als die Kombination von Canonical mit noindex diskutiert wurde. Macht man es, macht man es nicht, gut oder schlecht, aus der Session mit Gerald weiß man schon: Wir müssen eindeutig mehr testen.

This post was written by

Sebastian Adler

Den Einstieg in die Online-Marketing-Welt fand ich 2011 bei Barketing, war dann bei Searchmetrics und LEAP/ als SEO-Consultant tätig und habe dort sehr viele breit gestreute Erfahrungen sammeln dürfen. Zurzeit bin ich SEO-Manager beim Sparkassen-Finanzportal und kümmere mich dort um die Optimierung der Portale und Webseiten der Sparkassen-Finanzgruppe. Mehr über mich erfährst du auf meiner Website.