Das erwartet dich in diesem Recap:
- Wie war die Veranstaltung organisiert?
- Welche Speaker haben uns am meisten begeistert?
- Welche Vorträge blieben hinter den Erwartungen zurück?
Am 01. und 02. März 2018 fand am Müggelsee-Südufer im Berliner Bezirk Köpenick zum zehnten Mal die SEO-Konferenz Campixx statt. Die LEAP Digital Marketing GmbH war Mit-Sponsor und damit Namenspate für einen der größeren Konferenzräume und mit sechs Mitarbeiterinnen und Mitarbeitern vor Ort. Im Folgenden haben einige von ihnen ihre Eindrücke niedergeschrieben.
Die Atmosphäre war betriebsam und zugleich lässig – letzteres ablesbar an den T-Shirts für jeden Teilnehmer mit Namen, Firma und URL sowie an den umfangreichen Abendprogrammen: Kicker-Turnier und Karaoke am Vorabend; Lach-Yoga, Quiz, Flugsimulator, Live-Musik und Lagerfeuer am Donnerstagabend, dem 01. März. Die Campixx 2018 hatte jüngere wie ältere Besucher mit einem gefühlten Durchschnittsalter von Mitte 30, wobei der Männer-Anteil überwog.
Die Sessions verteilten sich auf elf Räume.
Andi führt vor wie für Nutzer, die zurück zu Google navigieren, mit dem hash #gref die Zeit erfasst werden kann, die sie auf der Seite verbracht haben. Die Analytics-Besuchszeit habe keine Aussagekraft.
Er empfiehlt, die Kennzahlen anderer Tools wie Sistrix, Google Search Console oder Bing Webmaster Tools mit APIs in Google Drive zu laden und anschließend als Event an Google Analytics zu senden. So hat man sie auf einen Blick zur Hand.
Weitere Tipps betreffen
Anschließend erläutert Andi, dass eine Vielzahl möglicher Gründe für eine hohe Absprungrate verantwortlich sein können:
Nach der Darstellung von Micro- und Macro-Zielen stellt Andi seine Empfehlungen für deren Conversions vor: Macro-Ziele sollten als „E-Commerce“ oder „Ziel“ getrackt werden, Micro-Ziele als „Ereignis (Event)“, „Segment“, „sekundäre Dimension“, „berechneter Messwert“ oder „Site Search“.
Weitere Tipps:
Andi ist sich sicher, dass die Besuchszeit, die Google Analytics benennt, alleine keine ausreichende Aussagekraft habe.
Er stellt außerdem dar, wie in Analytics eigene Kennzahlen erstellt werden können und benennt weitere Suchmaschinen, die oft keine Berücksichtigung fänden, obwohl sie zum organischen Traffic beitrügen.
Nachdem er den Nutzen verschiedener Filter und Alerts bewertet hat beschließt Andi seine Rundreise mit einer Liste der besten Browser-Plugins.
Julian springt mit der Wiederholung seines launigen Vortrags vom Vorabend ein, weil der ursprünglich vorgesehene Referent auf diesem Slot erkrankt ist. Er betont, dass hier nichts „zu lernen“ sei, was so nicht stimmt, denn mehrere Fakten aus seinem Vortrag werden am Abend in der Campixx-Quizveranstaltung „Wer wird SEOnär“ wieder auftauchen.
Unterlegt von sehr unterhaltsamen Kurzfilmen und Bildern von Campixx-Veranstaltungen, bevorzugt aus dem vergangenen Jahrzehnt stellt er Ereignisse vor, die folgenreich für die SEO waren:
Alle im Auditorium sind aufgerufen, sich zu beteiligen. Wir betrachten uns per Zufall ausgewählte Websites jeweils sieben Minuten lang und bombardieren den Webmaster mit Ideen, Verbesserungsvorschlägen, Wünschen, Anregungen und mehr.
Empfohlene Browsererweiterungen:
Tipps aus den Bewertungsdiskussionen:
Absprungraten gehören für viele zum Standardsatz wichtiger Kennzahlen zur Bewertung von (SEO-) Traffic. Aber welche Werte sind „gut“? Das kommt auf die Branche und Art der Seite an. Was davon ist relevant? Hier hilft eine Sortierung nach Content-Gruppen.
Wir werfen einen Blick auf die typischen Messfehler, Strategien zur Optimierung von Absprungraten und auf die Möglichkeiten zur Messung der Rücksprungrate zu Google-Ergebnissen sowie der Verweildauer (Dwell Time) aus Sicht der Google Suchergebnisse, welche in einer Standardimplementierung von Analytics überhaupt nicht erfasst werden, obschon gerade das die „Absprungrate“ und „Dwell Time“ sind, die für die vielzitierten User-Signale stehen.
Websites, die komplett mit JavaScript realisiert werden, sind in der SEO immer noch ein unerforschtes Gebiet. Laut Google kann der Googlebot Inhalte, die durch JavaScript ausgespielt werden, rendern und crawlen. Wieso diese Aussage gefährlich ist und welche Fallstricke sich hinter JavaScript und SEO verstecken, werden in diesem Vortrag erläutert.
Der Google Rendering Browser ist der Chrome 41 von 2015.
WRS = Web Rendering Service
Isomorphic Rendering: Wendet die New York Times an
Browservergleich: Can I use
Was leistet BVDW für Branche und Mitgliedsunternehmen? Sucht Anregungen/Kritik.
Es gibt ca. 600 Mitgliedsunternehmen in Deutschland.
Ziele: Verbreitung der Qualitätszertifikate OnPage und OffPage – ist bisher ebenso wie der „Code of Conduct“ zu wenig relevant/bekannt (Nichtmitglieder: 449,- € netto für Gültigkeitszeitraum von mindestens einem Jahr).
Kosten/Aufwand erheblich für ein Zertifikat von nur einem Jahr Gültigkeit. Ob eine Definition von Mindeststandards nötig ist, ist umstritten. Ähnlich bei Berufsbilddefinitionen: Inhouse/Agentur, SEO/SEA, Junior/Senior. Vorbild Typo3-Zertifizierungen?
Mehr Infos zu diesem Thema findest du auch in unseren Interview mit Martin Witte.
Das Linkbuilding einen der wichtigsten Ranking-Faktoren darstellt, ist schon lange (besonders seit der Aussage von Andrey Lipattsev – Google Mitarbeiter) kein Geheimnis mehr.
Während die einen sagen, dass Linkbuilding immer unwichtiger wird, denken andere, dass langfristig nur der Traffic (bzw. die Nutzerdaten, die der Traffic bringt) entscheidend ist, egal über welche Linkart dieser kommt.
Frei nach dem Motto: Ein Link, der Traffic bringt, ist besser als ein Link, der keinen Traffic bringt.
Im Beispiel brachten zwei Links 10-15 Besuche pro Tag, und damit stiegen sowohl Traffic als auch Sichtbarkeitsindex. Auch die „Veredelung“ vorhandener Links bringt etwas, zumal sie für die Konkurrenz schwer zu durchschauen ist.
Als ich mich am ersten Tag durch die klirrende Kälte an den Müggelsee kämpfte, war ich sehr froh, als mich im quaderförmigen, grauen Konferenzgebäude nicht nur ein schicker Goodiebag, sondern auch gleich ein wärmender Kaffee erwartete.
Nach der Begrüßung und der Keynote entschied ich mich, den Vortag von Kim Lembeck und Tim Weidemann mit dem spannenden Titel „AMP: Stolperstein oder Zukunftsmusik?“ zu besuchen. Dort berichteten die beiden von ihren eigenen Erfahrungen mit AMP, haben Lösungsvorschläge für Probleme präsentiert und einen Ausblick für die Zukunft gegeben. Besonders interessant für mich war der Hinweis, dass bei der Verwendung des bekannten AMP Plugins von Automattic für WordPress den Nutzern eine Abmahngefahr droht. Dieses Plug-in entfernt nämlich den kompletten Footer mitsamt aller rechtlichen Verweise. Neu war für mich auch, dass das „Optimized AMP“, eine noch schnellere Variante der klassischen AMP, nicht AMP-valide ist. In Punkto Ausblick für die Zukunft bin ich gespannt, wie sich AMP für E-Mails und die AMP Stories weiterentwickeln werden.
Ein weiterer interessanter Vortrag kam von Dennis Hermsmeiers: „Google Pagespeed 100/100 – Einfach schnelle Ladezeiten“. In den knappen 45 Minuten zeigte er live an einer Beispielseite, wie man durch ein paar gekonnte Kniffe den Wert des Google PageSpeed auf 100 Punkte erhöht. Wichtige Schritte dabei waren das Auslagern des Critical CSS, das Reduzieren von CSS, JavaScript und HTML, sowie die GZIP-Optimierung.
Weitere Tipps zur Pagespeed-Optimierung findest du in diesem Artikel.
Besonders informativ fand ich auch den Vortrag von Christiane Sohn mit dem Titel „So briefst Du Deine Texter – und erhältst die Text, die Du Dir vorgestellt hast“. Das Publikum bestand hier sowohl aus Textern als auch aus reinen Texterbriefing-Erstellern. Ich fand es sehr interessant, auch einmal die Perspektive der Texter zu hören. Was ich aus dem belebten Vortag mitnehme ist, dass ein Gespräch zwischen Texter und Auftraggeber viele Ungewissheiten aus dem Weg räumt und meist der schnellere Weg zum Ziel – einem gelungen Text – ist. Desweiteren sollte der Auftraggeber, der das Produkt zumeist am besten kennt, nicht vergessen, den USP der Marke oder eines bestimmten Produktes dem Texter mitzuteilen.
Mehr Insights von Christiane findest du auch in unserem Interview.
Speziell für mich als SEO-Neuling, war „10 Jahre SISTRIX – Was du von den besten Case Studies lernen kannst“ von Lisa Bastian ein sehr lehrreicher Vortrag, da es dort einen Einblick in zehn verschiedene SEO-relevante Themen gab. Besonders positiv in Erinnerung ist mir auch die Diskussion nach dem Vortrag geblieben. Dort äußerte eine Teilnehmerin aus dem Publikum ihr Problem, welches sie bei ihrer Website hat, und nicht nur die Vortragende und ihre Teamkollegen, sondern auch einige versierte Teilnehmer, versuchten sofort Erklärungen zu liefern oder Lösungsvorschläge zu präsentieren.
Abschließend kann ich sagen, dass ich mit einem sehr positiven Eindruck die Campixx wieder verlassen haben und trotz meiner geringen Erfahrung im Bereich SEO schon einiges mitnehmen konnte.
Maximilian beschreibt zunächst die Typen mobiler Websites (Responsiv, Dynamic Serving und separate Domain) sowie die wichtigsten Auszeichnungen und Tags (Canonical, Hreflang, etc.). Für ihn sind Ladezeiten der entscheidende Faktor. Abschließend begann eine interessante Diskussion darüber, warum und wieso Google dies alles tut: User sollen länger im Google-Ökosystem verweilen und Google möchte immer mehr Kontrolle über die Daten haben.
Ein Content-Audit ist eine sinnvolle Vorgehensweise, um automatisiert eine Vielzahl von eigenen Content-Seiten (Urlaubsguru) bewerten zu lassen. So wird es möglich, abgelaufene Deals zu löschen und die restlichen Artikel hinsichtlich Traffic und Links zu kategorisieren. Durch das Audit erhälst du außerdem eine Skala, die von „Seite gelöscht“ über „zu optimieren“ bis zu „schon optimal“ reicht. Und eine Index-Bereinigung und -Konsolidierung wirkt. Sie führte bei Urlaubsguru zu einem Anstieg der Visibility. Dazu sollte man aus Sistrix die Visibility- und Indexseiten-Übersicht übereinander legen, um Effekt sehen zu können.
Sebastian stellt vor, wie seine Agentur mindshape Trainees ausbildet. Dazu gehören unter anderem wöchentliche 1-on-1 Meetings mit Vorgesetztem und zueinander passende Persönlichkeitsprofile (Rot, Grün, Blau). Diese sind auch für Kundenansprechpartner von zentraler Bedeutung.
Ich empfehle jedem, sich die Slides des Referenten anzuschauen. Valentin zeigte in einem sehr spannenden Vortrag, wie man den JavaScript-Code der Google-SERP analsiert, um erkennen zu können, ob es einen A/B-Test gibt.
Der ehemalige Googler klärt auf, welche Google-Penalties es gibt und wie man auf sie reagieren sollte. Ein wichtiges Thema, denn bekanntlich werden nur manuelle Abstrafungen über die GSC mitgeteilt – alle algorithmischen Abstrafungen erkennt man nur an Ranking-Verlusten.
SEOnär: Sie rocken im goldenen Anzug, aber es gab leider Tonprobleme für die hinteren Reihen, wie jedes Jahr.
Außerdem bringt die Cover-Band „Right Now“ für jeden ein passendes Lied.
Was sind „gute“ oder „schlechte“ Absprungraten in Google-Analytics und wie misst Google diese? Laut Markus lassen sich die berühmten User Signals nicht wirklich mit Google Analytics messen. So ist zum Beispiel Time on Site aus Analytics KEIN User Signal. Google misst nämlich für Rankings nur die sog. „Dwell Time“ und die Back to SERP Rate. Daher gab Markus seinen Zuhörern ein paar Tricks und Codes an die Hand, um diese u. a. über den Google-Tag-Manager zu messen.
Thomas begann mit einer kurzen Einführung in die Information Retrieval Theorie. Nebenbei gab es ein paar Gewinnspiele, bei denen Plüschtiere verteilt wurden. Seine zentrale Frage ist: was haben die hinteren Rankings verkehrt gemacht, um nicht vorn zu sein? So möchte er Webmaster dazu anhalten, aus dem Schlechten zu lernen und es besser zu machen. Das kannst du auch in seinem Interview mit uns tun.
Stefan gab zunächst eine kurze Einführung in NLP und Linguistik. Die Frage ist, wie Maschinen Suchanfragen verstehen. Klassische SEO-Faktoren sind teilweise am Ende. Wenn man beispielsweise die SERPs zu „unheilig geboren“ und „wann wurde unheilig geboren“ vergleicht, sieht man, dass „wann wurde“ NICHT auf den Ergebnisseiten steht, UND „unheilig“ eigentlich keine Person ist. Im Anschluss gab es praktische Beispiele dafür, wie man NLP für Chatbots im Reisebereich anwenden kann.
Mehr zum Thema NLP erfährst du in unserem Interview mit Jacqueline Köppen.
Das Panel diskutierte zunächst die Vorteile und Nachteile von AMP. Die Experten sagen einhellig Nein, da Google nur seine Marktmacht („Mafia“) ausspielt und Publisher in das Google Ökosystem zwingt, um die eigene Marktmacht zu erhalten.
Die nächste Frage war, ob gutes SEO für schlechte Produkte möglich ist. Auch hier gab es ein Nein von allen Beteiligten, da man in der Lage sein muss, Kunden die Wahrheit zu sagen.
Dann ging es um die Frage, wie man man SEO-Improvements bei der IT platziert. Wichtig ist hierbei vor allem, die Uplifts vorherzusagen und mit Beweisen belegen zu können. Außerdem sollte man sich das Team zum Freund machen und auch mal Kuchen zum Meeting mitbringen.
Die DSGVO kommt zum 25.05.2018. Mit ihr wird der Datenschutz auf ein gemeinsames europäisches Level gehoben. Daher sind nun erweiterte Datenschutzerklärungen für ALLE Website-Betreiber nötig und die Datenschutz-Generatoren werden noch angepasst.
Die interne Optimierung auf SiteSpeed steht immer im Fokus. Ziel war es, einen SpeedIndex von 5.000 oder kleiner zu erreichen – denn alles andere lohnt nicht. Zudem wurde die Implementierung von AMP für alle SEO-Landingpages geplant. Die Tests auf einigen Seiten zeigten aber, dass es immer noch einige Probleme und Unwägbarkeiten gibt, z. B. beim Tracking:
Trotz dieser Lösung rät Google weiterhin zu einer eigenen AMP-Property in GA. Das ist jedoch problematisch, da man dann nicht mehr den gesamten Funnel im Blick hat. Zudem ist das AMP für WordPress Plug-in eingeschlafen. Die beiden empfehlen daher: nutzt AMP for WP. Doch Vorsicht: Das Plug-in entfernt den Footer und damit i. d. R. den Impressums-Link – ABMAHNGEFAHR!
AMP ist irgendwie cool, aber in Sachen tracking noch so unausgereift, dass es keinen wirklichen Business-Use gibt.
Wenn Jens sagt „für Nichtprogrammierer“, heißt das in der Regel „Code lesen, kopieren und anpassen musst du schon können“ – aber das ist okay. Entsprechend zeigt er uns einige Google Sheets, die er mit AppScripts aufgebohrt hat, um verschiedene Dinge zu automatisieren.
Google Spreadsheets-Formate greifen auf die Browsereinstellungen zurück! Wenn also ein Kollege in den USA ein Spreadsheet erstellt und geteilt hat, nutzt am besten Chrome mit Englisch/USA in den Einstellungen, sonst kann es sein, dass einige Zahlenformate etc. nicht richtig funktionieren! Andere wichtige Grundlagen:
Tipps:
Das Ganze ist eine coole Sache, gerade für kleine Unternehmen und Projekte ist das sicher eine gute Idee!
Auch Jens haben wir schon einmal zum Interview gebeten. Damals ging es um das Thema YouTube.
Gerald hat Tests zu verschiedenen Phänomenen in der Google Suche angestellt, um die Funktionsweisen hinter den Ergebnissen zu verstehen. Was anfangs etwas seltsam und eher nerdig anmutete, warf schnell eine große Frage auf: Warum testen wir nicht viel mehr? Denn Gerald merkt zurecht an, dass wir zu oft einfach hinnehmen, was wir so sehen (Daten in der GSC etc.).
Was hat er so alles getestet?
Wir müssen also ganz einfach alle wieder mehr testen!
Bei allen Analysen müssen immer auch die Logfiles angeschaut werden. Dies wird wieder wichtiger, da Crawler oft mit den dynamischen Inhalten nicht mehr klar kommen. Am interessantesten für sie: GoogleBot, kommt von 66.249.* – dies dann aus den Logs extrahieren und dann untersuchen. Da hierbei nur Zugriffe vom Bot gerechnet werden und die IP auf 66.249.* gekürzt wird, sollte das auch hinsichtlich des Datenschutzes okay sein.
In der Regel wird dabei ein Zeitraum von einem Monat untersucht. Die beiden empfehlen, mit einer der folgenden Methoden zu machen:
Wichtigste Learnings:
Kontrovers ging es zu, als die Kombination von Canonical mit noindex diskutiert wurde. Macht man es, macht man es nicht, gut oder schlecht, aus der Session mit Gerald weiß man schon: Wir müssen eindeutig mehr testen.