„SEO-Texte“ sind ein Relikt aus alten Zeiten, wie ich in meinem vorangegangenen Beitrag aufgezeigt habe. Schließlich hat Content heute weitaus mehr zu bieten. Das gilt auch für Onlineshops. Berücksichtigen Texte dort nicht die Suchintention der Nutzer und Nutzerinnen und werden stattdessen nur unter semantischen SEO-Gesichtspunkten erstellt, bleiben Shops unter ihren Möglichkeiten. Nicht nur in puncto Ranking. „Einmal TF*IDF anschmeißen, Termfrequenz der Gewinner-Rankings nachbauen und prominent in Headlines und im Text einbauen“ kann und darf hier also nicht mehr die primäre bzw. alleinige Maßgabe für Content sein.
Klar ist: Gute Texte gehen auf Kundenbedürfnisse ein. Sie beraten und verkaufen.
Ich möchte das im Folgenden anhand einer Reihe von A/B-Tests untermauern, die wir kürzlich durchgeführt haben. Hierdurch lässt sich verdeutlichen, inwiefern sich guter Content ganz direkt auf Umsatz und Conversion Rate auswirkt.
Lohnt es sich, Content auf Kategorieseiten zu integrieren?
Getestet wurde bei einem unserer KundInnen, der oder die weitestgehend dem Funktionsmode-Segment zuzuordnen ist. Der bzw. die KundIn hat im deutschsprachigen Raum eine starke Marke aufgebaut, ist aber auch in anderen europäischen Märkten aktiv.
Die Ausgangssituation stellte sich so dar: Die Onlineshops in den verschiedenen Ländern verfügten teilweise über Content auf den wichtigsten Kategorieseiten. Kategorieseiten sind der Dreh- und Angelpunkt eines Onlineshops. Sie sind in den meisten Fällen „Träger“ der wichtigsten Keywords mit dem größten Suchvolumen und einer hohen Conversion-Relevanz.
Folgende Kernfrage galt es zu beantworten: Lohnt es sich, auf Kategorieseiten „flächendeckend“ Content zu integrieren, der einerseits für Suchmaschinen optimiert ist und andererseits dem potenziellen KäuferInnen eine Beratung bzw. Orientierung geben soll?
So funktionieren A/B-Tests
„Ein A/B-Test (auch split test) ist eine Testmethode zur Bewertung zweier Varianten eines Systems“, heißt es auf Wikipedia. Auf Websites übertragen bedeutet das, dass man die Original-Variante einer Unterseite mit einer zweiten bis n-ten Variante vergleichen kann. Diese Variationen erstellt man in einem A/B-Testing-Tool wie zum Beispiel Google Optimize oder Kameleoon. Sobald der Test gestartet wird, wird der echte Website-Traffic gesplittet: Ein Teil der Nutzer und Nutzerinnen sieht die Original-Variante, ein Teil sieht die Variation(en).
Im A/B-Testing-Tool wird ein Primärziel festgelegt, anhand dessen gemessen wird, welche Variante besser performt. Das Tool errechnet dann auch das Risiko, ob dem Ergebnis zu trauen ist oder nicht. Bei einer statistischen Signifikanz von 95 Prozent geht man in der Regel von validen Ergebnissen aus.
Das Test-Setup bei unseren KundInnen
In verschiedenen Tests haben wir in den Onlineshops des Kunden oder der Kundin sowohl für die mobile als auch für die Desktop-Version am Ende des Produktlistings (also unter den Produkten) Content eingeblendet.
Der Content wurde in der jeweiligen Landessprache und gemäß SEO-Richtlinien verfasst (Termfrequenz, W-Fragen, Headlines, Alt-Tags etc.).
Der Content selbst hatte beratenden Charakter und beantwortete die wichtigsten Fragen von NutzerInnen bzw. KäuferInnen, die sich innerhalb dieser Kategorie noch nicht auf ein genaues Produkt festgelegt haben und eine entsprechende Hilfestellung benötigten.
Darüber hinaus wurde im First View der mobilen und Desktop-Version ein kleiner Teaser-Text integriert. Der First View einer Webseite ist der Bereich, den Nutzer bzw. die Nutzerin beim Aufruf der Seite sehen, ohne scrollen zu müssen. Damit sollte sichergestellt werden, dass NutzerInnen auf das Informationsangebot hingewiesen werden.
Diese Varianten („Variation A“) wurde gegen die Original-Version ohne Teaser und Text unter dem Produktlisting („Control“) getestet.
So kann das aussehen
Testing des Contents in mehreren Ländern
Der Test wurde in Onlineshops in Deutschland, Österreich und Großbritannien durchgeführt. Ziel war es, zu validieren, ob der Content auch auf NutzerInnen, die mit der Marke nicht gut vertraut sind, eine Auswirkung hat. In Großbritannien ist das Unternehmen noch relativ neu am Markt, die Marke ist kaum bekannt.
Unterschiedliche Märkte erfordern unterschiedliche Maßnahmen
Hinweis: In einem Land war der Text schon vorhanden. Hier wurde genau umgekehrt getestet: Was passiert, wenn wir den Content entfernen?
Erhebliche Steigerung der Conversion Rate und Sales
Die Ergebnisse der Tests waren eindeutig: Das Primärziel des Tests „Conversion Rate“ zeigt in Deutschland einen Uplift von + 16,61 Prozent auf die Conversion Rate und + 29,06 Prozent auf den Gesamtumsatz. Der Test wurde bei einem Signifikanzlevel von 96 Prozent nach rund sechs Wochen abgeschlossen.
In Österreich zeigte sich ein noch besseres Bild: + 30,12 Prozent auf die Conversion Rate und + 36 Prozent auf den Gesamtumsatz bei einem Signifikanzlevel von 99,83 Prozent. In Großbritannien konnten + 11,56 Prozent auf die Conversion Rate und + 12,39 Prozent beim Gesamtumsatz gemessen werden, ebenfalls mit einer Signifikanz von mehr als 95 Prozent.
Bei diesem Test war schon Content vorhanden – er wurde in „Variation 1“ entfernt
Content auf Kategorieseiten sorgt also dafür, dass nicht nur die Conversion Rate steigt, sondern auch wesentlich mehr gekauft wird. Oder anders ausgedrückt: Es haben insgesamt mehr Kunden und Kundinnen gekauft, während gleichzeitig der Pro-Kopf-Umsatz gestiegen ist. Entsprechend ist der Gesamtumsatz gestiegen.
Der höhere Umsatz pro Warenkorb/KundIn lässt sich dadurch erklären, dass Nutzer und Nutzerinnen, nachdem sie die spezifischen Eigenschaften und Auswahlkriterien eines Produkts verstanden haben, eher bereit dazu waren, teurere Produkte zu wählen.
Im Übrigen haben wir uns auch angeschaut, wie viele der NutzerInnen tatsächlich den Content unter den Produkten wahrnehmen. Wir konnten bei der Control (Ausgangsvariante) eine durchschnittliche Scrolltiefe von 10 Prozent messen, bei der Variante mit Teaser und Content unter den Produkten eine Scrolltiefe von 38 Prozent. Es liegt also nahe, zwischen Conversion-Rate-Steigerung und der Scrolltiefe einen Zusammenhang zu sehen.
Fazit: Was man aus diesen A/B-Tests lernen kann
Die Tests haben deutlich gezeigt, was guter Content bewirken kann. Wobei der Teaser-Text dafür gesorgt hat, dass NutzerInnen den beratenden Content überhaupt erst einmal wahrnehmen. Der Content selbst hat dazu geführt, dass mehr Nutzer und Nutzerinnen bereit waren, die betreffenden Produkte zu kaufen.
Um diese Effekte zu erzeugen, kommt es natürlich auf die Umsetzung an. Ein Teaser-Text darf zum Beispiel nicht dazu führen, dass NutzerInnen, die bereits wissen, was sie wollen, gewissermaßen nicht mehr in der Lage sind, einzukaufen. Ein solcher Fall kann eintreten, wenn die Produktbilder aus dem sichtbaren Bereich verdrängt werden.
Eine gute Kategorieseite muss NutzerInnen im First View an jedem Schritt der Customer Journey signalisieren, dass es hier eine Antwort auf ihre Fragen gibt.
Dieser A/B-Test kann sich durchaus ins Negative verkehren. Zum Beispiel, wenn man einen „SEO-Schrott-Text“ (Entschuldigung!) einbaut, der sowohl inhaltsleer als auch schlecht konsumierbar ist.
Unter „schlecht konsumierbaren“ Texte verstehen wir die leider typischen „SEO-Texte“, die im schlimmsten Fall aus einem Block bestehen, in kleinstmöglicher Schrift („Das soll ja eh niemand lesen!“) mit geringem Kontrast (grau auf weiß) und ohne sinnvolle Verwendung von strukturierenden Elementen und Bildern.
Welche Variation auf deiner Website am besten konvertiert, muss getestet werden. Beim Layout führen viele Wege nach Rom: Designs von Texten können ein-, zwei- oder dreispaltig sein, es können viele Bilder enthalten sein, Schriftgrößen müssen an die Zielgruppe angepasst werden und so weiter.
Bilder und Fettungen wie hier sind ein guter Ansatz
Dass es eine enorme Rolle spielt, wie der Content selbst aussieht, versteht sich. Über den Einfluss von Psychologie auf Kaufentscheidungen und wie das bei Content zum Tragen kommt, werde ich zu einem späteren Zeitpunkt schreiben.