Conversion-Optimierung für Onlineshops – Die besten Learnings aus 1.800 A|B-Tests - LEAP/
, Fabian Hans

Conversion-Optimierung für Onlineshops – Die besten Learnings aus 1.800 A|B-Tests

Wer viele A|B-Tests zur Conversion-Optimierung macht und strategisch vorgeht, lernt ständig hinzu. Dieses LEAP/-Wissen teilen wir mit dir.

von Fabian Hans
Lesezeit: 10 Minuten

Das erfährst du in diesem Beitrag:

  • Warum lassen sich erfolgreiche A|B-Tests meist nicht 1:1 übertragen?
  • Was funktioniert unserer Erfahrung nach beim A|B-Testing immer?
  • Welches sind unsere beiden lehrreichsten Best Cases?

Zugegeben, die Headline verspricht viel, und du kannst diesen Beitrag gerne lesen und unsere besten A|B-Tests später 1:1 übernehmen. Aber Vorsicht: Was für uns funktioniert, muss nicht zwingend auch bei dir zum Erfolg führen! Dafür hängt erfolgreiches A|B-Testing von zu vielen verschiedenen Faktoren ab – unter anderem weil Website nicht gleich Website ist. Und Zielgruppe nicht gleich Zielgruppe. Um nur zwei Parameter zu nennen.

Umso wichtiger ist es, A|B-Tests strategisch richtig anzugehen und „fremde“ Testideen nicht einfach nur für den eigenen Onlineshop zu kopieren. So erfolgreich sie anderswo auch waren. Vor allem kommt es auch auf das richtige Mindset gegenüber dem gesamten Testprozess an.

Klar ist: Der Erfolg einer Idee liegt immer in der Umsetzung, und eben hier steckt der Teufel im Detail. Betrachte unsere in diesem Beitrag vorgestellten Ideen und Best Cases also in erster Linie als Ansporn und Inspiration und adaptiere das eine oder andere davon für dein Business. Passe sie auf deine eigenen Rahmenbedingungen ab.

Es wird sich lohnen, denn strategisch ausgeklügelte A|B-Tests sind im Online-Marketing – und speziell bei der Conversion-Optimierung im E-Commerce – weiterhin ein mächtiges Tool.

Wenn du zuvor mehr über Zieldefinitionen bei A|B-Tests erfahren möchtest, hilft dir unser Beitrag „A|B-Testing und CRO – so definierst du die richtigen Ziele“ weiter.

A|B-Tests erfolgreich gestalten? Es kommt darauf an …

Wenn ein Berater keine Antwort auf eine scheinbar einfache Frage hat, dann sagt er oft: „Es kommt darauf an …“ Beim A|B-Testing ist das in der Regel nicht anders. Fakt ist jedoch: Hier trifft es tatsächlich zu, denn es kommt nun einmal auf viele verschiedene Dinge an, um A|B-Tests erfolgreich durchführen zu können. Sprich: zu verwertbaren Ergebnissen zu kommen.

So gibt es nicht wenige A|B-Testansätze, die bei einigen unserer Kunden zielführend waren – bei anderen hingegen nicht. Insofern müssen auch vermeintliche Nobrainer getestet werden. Zum einen wird so das Potenzial des einen getesteten Elements klar, und zum anderen besteht das Problem, dass eine scheinbar banale Handlungsempfehlung nach wie vor viele verschiedene Möglichkeiten in der Umsetzung haben kann.

Dazu haben wir die mehr als 1.800 im Laufe der Zeit von uns durchgeführten A|B-Tests anhand verschiedener Test-Case-Merkmale nach Erfolg und Misserfolg kategorisiert. Die zentralen Fragen lauteten dabei: Für welche Zielgruppe, mit welchem Kaufverhalten und bei welcher Markenpositionierung war ein Test erfolgreich – und warum? Dadurch lässt sich die Erfolgswahrscheinlichkeit von A|B-Testing für jeden Kunden erhöhen. Auch weil wir seriöse Studien hinzuziehen und die Tests gemeinsam mit unseren Kunden ausarbeiten.

All dies versetzt uns heute in die Lage, A|B-Testings planvoll, systematisch und höchst differenziert aufzusetzen. Die richtige Strategie ist hier der Schlüssel zum Erfolg. Für uns wie für dich.

Beispiel „Eurozeichen-Test“

Ein Beispiel für den Einfluss der Rahmenbedingungen auf den Testerfolg ist der „Eurozeichen-Test“, bei dem bei der Preisdarstellung das Währungssymbol weggelassen wird. Grund: Dieses bereitet Kunden gewissermaßen Kopfschmerzen und hemmt ihre Kauflust.

Im Ergebnis hat der A|B-Test zwar zu signifikant höheren Warenkorb-Werten geführt – allerdings hat sich in vielen Fällen die Sales-Rate verschlechtert.

Das Ganze beruht auf einer Offline-Studie in Restaurants: Forscher der Cornell University in den USA haben 2009 nachgewiesen, dass der Verzicht auf das Währungszeichen in der Speisekarte den Gesamtverzehr ankurbelt. Dadurch werden also in Summe mehr Gerichte verkauft und insgesamt bessere Umsätze erzielt. In Restaurants wird jedoch erst nach dem Verzehr bezahlt, und wenn die Rechnung kommt, gibt es kein Zurück mehr. Dort ist der Währungszeichen-Test ein klarer Erfolg.

Verallgemeinernd lässt sich damit sagen, dass es ganz offensichtlich einen großen Unterschied macht, ob Nutzer zunächst konsumieren und erst dann bezahlen müssen – oder umgekehrt. Es hängt also stark von den entsprechenden branchenspezifischen Gepflogenheiten ab, ob ein solcher A|B-Test zielführend verläuft. Oder besser: Erst auf Basis strategischer A|B-Testings lässt sich entscheiden, welcher Weg für dich der jeweils richtige ist.

Die deutsche Elektronikhandelskette Saturn beispielsweise lässt in ihrem Onlineshop das Eurozeichen komplett weg. Sie dürfte gute Gründe dafür haben.

Zwei höchst wirksame psychologische Heuristiken

Eine wirkmächtige Heuristik in der Conversion-Optimierung ist die Verlustaversion. Also die Tendenz von Menschen, einen Verlust höher zu gewichten als einen möglichen Gewinn. Heißt: Nutzer von Onlineshops ärgern sich mehr darüber, eine bestimmte Sache nicht zu bekommen, als sich darüber zu freuen, sie zu erwerben. Um zu verhindern, dass sich „unsichere“ Menschen in Entscheidungssituationen irrational verhalten, kann die Verlustaversion zum Beispiel durch die Angabe von „Nur noch wenige Stück von Produkt XY verfügbar“ getriggert werden.

Mittlerweile hat der Gesetzgeber diese Möglichkeit jedoch massiv eingeschränkt. Entsprechend gesunken ist das Umsatz-Potenzial. Heute muss die Angabe „Nur noch wenige Stück von Produkt XY verfügbar“ unbedingt wahrheitsgetreu sein, weshalb sich nur noch wenige Produkte auf diese Weise besser bzw. vermehrt verkaufen lassen. Unser Rat: Du solltest es im Zweifelsfall besser nicht darauf ankommen lassen, sonst drohen dir teils empfindliche Strafen.

Aus diesem Grund sind viele Onlineshops dazu übergegangen, den psychologischen Effekt der Verlustaversion anders für sich zu nutzen: Sie informieren den Nutzer im Warenkorb darüber, dass der Artikel nicht für ihn reserviert ist (siehe Beispiel unten). Aus seiner Sicht könnte ihm dieser, wenn er zu lange zögert, also jederzeit vor der Nase weggeschnappt werden. Das „stubst“ viele zögerliche Nutzer dann zum Kauf, und deine Conversion-Rate geht nach oben.

Werden die Produkte hingegen bis auf Weiteres für ihn reserviert, dann performt der Effekt sehr viel schlechter. Das kannst du relativ leicht per A|B-Testing überprüfen.

Wenn sich die Verlustaversion aus welchen Gründen auch immer nicht nutzen lässt, können Onlineshops auf den Endowment-Effekt setzen. Auch dieser ist im Online-Marketing bzw. in der Conversion-Rate-Optimierung psychologisch höchst wirksam. Im Kern geht es darum, dass Menschen denjenigen Gegenständen mehr Wert zusprechen, die sie bereits besitzen, als solchen, die sie noch nicht besitzen. Es ist deswegen sinnvoll, die Entscheidung der Nutzer durch ein Cheering zu verstärken – sie also beispielsweise zu ihrer Auswahl zu beglückwünschen, wie im folgenden Beispiel zu sehen ist.

Spreche deine Nutzer zusätzlich durch Possessivpronomen wie „Mein/Ihr Warenkorb“ an und teste beide Ansätze gegeneinander, um die für dich am besten funktionierende Variante zu finden.

Was funktioniert unserer Erfahrung nach immer?

Okay … „Button-Testing“ lässt so gut wie jedem Conversion-Optimierer die Haare zu Berge stehen. Trotzdem solltest du diese Tests konsequent durchziehen, wenn deine Analyse zeigt, dass für dich hier jede Menge Potenzial schlummert. Selbst dann, wenn deine Buttons bislang kaum oder gar nicht geklickt wurden. Bei deinen A|B-Tests solltest du allerdings ein paar wichtige Regeln beachten.

Viele unserer Heatmap-Analysen für Kunden haben ergeben, dass Buttons meist nicht eindeutig gestaltet sind und unterdurchschnittlich oft geklickt werden. Das liegt nicht selten daran, dass sich in den vergangenen Jahren die sogenannten Flat-Buttons durchgesetzt haben.

Problem: Diese Buttons fallen auf Websites weniger auf und laden nicht zum Klick ein.

Lösung: Wir konnten durch einen Schatten im oder hinter dem Button die Anzahl der Klicks deutlich erhöhen.

Doch warum haben wir das gezielt getestet? Nun, Steve Jobs hat mal gesagt, dass die Buttons am iPhone so gestaltet wurden, dass man sie am liebsten „ablecken“ möchte. Das war zwar verkaufstechnisch clever, ist aber eher so 1990er Jahre und damit alles andere als zeitgemäß. Hinzu kommt, dass das weitaus modernere Konzept der „Action Affordance“ fordert, dass die Gebrauchseigenschaft klickbarer Elemente sofort erkennbar sein muss. Kurzum, sie sollten einen hohen Aufforderungscharakter haben.

Die Frage ist also, wie man diesen Aufforderungscharakter in einem modernen Design umsetzt?

Zunächst einmal kommt es bei Button-Tests auf eine konsistente Gestaltung der Buttons an. Stelle daher beim A|B-Testen keine Hypothesen auf, bei denen nur manche Buttons angepasst werden. Wichtig ist vielmehr, dass alle Buttons in derselben Farbe gestaltet sind – und zwar derjenigen mit dem höchsten Farbkontrast zur Hauptfarbe der Seite. Nutze also keine unterschiedlichen Buttons, denn Nutzer lernen über den Nutzerpfad hinweg, welche Elemente klickbar sind.

Neben dem Button-Design ist auch das Wording essenziell. Dieses muss an die Nutzer-Intention und den Seiten-Kontext angepasst sein. Bei Affiliates, die über eine CPC vergütet werden, lässt sich der Umsatz zum Beispiel durch das Button-Wording „Mehr erfahren“ (statt „Jetzt kaufen“ oder „Zum Shop“) deutlich steigern.

Die Nutzer suchen auf den Affiliate-Seiten nach Informationen, die dazu beitragen, das Kaufrisiko zu verringern und die richtige Entscheidung zu treffen. Das Button-Wording muss dabei an den jeweiligen Inhalt angepasst werden.

Diesen Test haben wir schon 2016 erfolgreich durchgeführt, und wir konnten den gewünschten Effekt mehrmals bei unseren Kunden wiederholen.

A|B-Testing: Zwei Best Cases für lange Leadstrecken

Lange Leadstrecken stellen für die Conversion Rate im Kontaktformular nicht selten ein Problem dar. So wird zwar versucht, den Nutzer durch einfache Fragen zu einem Engagement zu bewegen, sodass dieser am Ende des Pfades einen gewissen Aufwand mit der Seite hatte. Dieser Aufwand führt dazu, dass der Nutzer eher abschließt. Zudem startet der Nutzerpfad häufig mit „unklaren“ Informationen, um möglichst viele Nutzer neugierig auf das Ergebnis zu machen. Dabei haben viele jedoch das Gefühl, mit einer Maschine zu interagieren, was dann hinderlich für die Conversion ist, wenn Nutzer kein positives Feedback auf ihre Eingabe erhalten.

Sehr viel erfolgversprechender ist das Chatbot-Konzept des „Persönlichen Assistenten“. Hier werden lange Leadstrecken wie eine persönliche Kommunikation zwischen Menschen gestaltet, wobei der Assistent Fragen stellt und dem Nutzer nach der Eingabe der Antwort ein angemessenes Feedback gibt. Dieses Feedback wirkt motivierend, und außerdem können so nach und nach weitere mit dem Abschluss verbundene Vorteile an den Nutzer kommuniziert werden.

In der Praxis hat es sich bewährt, wenn der Assistent einen Charakter bekommt. Viele Nutzer haben dann mehr Spaß beim Ausfüllen der Leadstrecke.

Einstiegsbereiche, in denen Nutzer nicht passend zu ihrer Intention abgeholt werden, erweisen sich häufig als Bottleneck. Folge: Manche Nutzer werden dadurch ausgebremst und machen nicht weiter. Denn unterschiedliche Nutzer können auf ein und derselben Seite nun einmal unterschiedliche Intentionen verfolgen. So benötigen etwa Nutzer, die regelmäßig in deinem Onlineshop einkaufen, andere Informationen über Vorteile von Kauf und Marke als diejenigen, die zum ersten Mal bei dir sind. Bei Letzteren sind zunächst einmal vertrauensbildende Maßnahmen wichtig, wohingegen wiederkehrende Nutzer deine Marke und Produkte ja bereits kennen. Alle Nutzer mit demselben Einstieg zu empfangen, ist also schwer.

Du solltest deshalb genau testen, welche Vorteilskommunikation für welches Verhalten auf deiner Seite am besten funktioniert. Darüber hinaus ist es sinnvoll, dem Nutzer zuletzt angesehene Inhalte oder andere wichtige Elemente anzuzeigen. Auch hier kommt es darauf an, welches Geschäftsmodell du verfolgst und welche USPs du im Markt vertrittst.

Fazit

Teste nicht einfach nur, weil du A|B-Tests machen musst! Sondern teste, um gezielt Probleme auf deiner Seite zu beheben, für die es viele mögliche Lösungen gibt. Gehe strategisch vor und denke beim ersten A|B-Test immer schon an die nächsten beiden Tests, welche ebenfalls Lösungen für dasselbe Problem darstellen könnten. Denn die „Magie“ von A|B-Tests entfaltet sich erst, wenn du eine gute Roadmap hast, mit der sich gezielt die richtigen Probleme angehen und Folgetest einplanen lassen. Umso effizienter ist deine A|B-Testing-Landschaft.

Und testee auch nur, wenn dir das Problem zu 100 Prozent klar ist. Und nicht schon dann, wenn du ein Problem lediglich vermutest. Zuvor musst du das Problem durch Usertests und/oder Heatmap-Analysen klar identifizieren und validieren – nur so kannst du eine Hypothese als Lösung für ein eindeutiges Problem definieren. Andernfalls ist es sehr unwahrscheinlich, dass du richtige bzw. zielführende Ergebnisse bekommst, mit denen du deine Conversion Rate steigern kannst.

Die Learnings, die du für erfolgreiches A|B-Testing benötigst, generierst du übrigens entlang der gesamten Roadmap. Zumal ein negativer Test in der Regel genauso wertvoll ist wie ein erfolgreicher Test. Fällt ein Test also negativ aus, dann mache im nächsten Schritt einfach das Gegenteil davon. Auch das haben wir aus unseren mehr als 1.800 A|B-Tests für Kunden und eigene Projekte gelernt und verinnerlicht.

Über den Autor

Fabian Hans

Ich sammelte noch während meines Studiums der Business Psychology viele Erfahrungen in verschiedenen Bereichen des Online-Marketing. Als Conversion-Analyst bei der Berliner Agentur LEAP/ berate ich Unternehmen mit meinem psychologischen Wissen, um ihre Websites effizient und zielgerichtet zu optimieren.