Serie, Teil 1 17.10.2015, 08:45 Uhr

Conversion-Optimierung: So werden aus Besuchern Kunden

A/B-Testing gilt als Mittel der Wahl, um den Effekt von Optimierungsmassnahmen zu messen. Ohne langfristige Planung verpufft jedoch die Wirkung der Experimente.
Mann sitzt vor PCs
(Quelle: shutterstock.com/Danang Setiawan)
von André Morys, Geschäftsführer WebArts
Die Harvard-Psychologin Ellen Langer kam 1978 zu einem interessanten Forschungsergebnis: Menschen, die ohne Nennung von Gründen darum bitten, in einer Schlange am Kopierer vorgelassen zu werden, haben eine 60-prozentige Erfolgschance. Liefern sie zudem eine Begründung für ihren Wunsch, erhöht sich diese auf 94 Prozent. Selbst eine irrelevante Begründung führte in 93 Prozent der Fälle dazu, vorgelassen zu werden.
Die Beobachtung von Ellen Langer ist eines von vielen bekannten ­irrationalen Verhaltensmustern und wird als "Reason Why"-Effekt bezeichnet. Auch im Internet werden Erkenntnisse aus der Psychologie häufig genutzt, um die Besucher zur Conversion zu animieren. In der Praxis wird A/B-Testing eingesetzt, um herauszufinden, welche Auswirkung das eingesetzte Element auf das Nutzerverhalten hat. Der Reisevermittler Booking.com etwa nennt gute Gründe, seine Seite zu nutzen. Ein solches Element steht nicht zufällig auf der Seite, es ist Ergebnis vieler Tests. 

Realistische Ziele als Fundament für den Erfolg beim A/B-Testing

Der "Reason Why"-Effekt wurde erst kürzlich im A/B-Testing des Versandhändlers Frontlineshop überprüft. Was in der Psychologie "Begründung" genannt wird, heisst im Marketingjargon "Value Proposition". Der korrekte Einsatz solcher "Value Propositions" auf der Website des Modehändlers (Nennung einer Hotline-Telefonnummer und Hinweis auf Zusammen­arbeit mit anerkannten Logistikpartnern) führte zu einem signifikanten Anstieg der Bestellungen in Höhe von 15,57 Prozent.
Solche Ergebnisse sind keine Zufallstreffer, sondern oft Resultat eines geplanten Vorgehens. Viele Unternehmen nutzen bisher gelegentlich A/B-Testing, um die eine oder andere Idee zu überprüfen. Kommt A/B-Testing jedoch im Rahmen eines auf Kontinuität ausgerichteten Optimierungsprogramms zum Tragen, wird es zum bedeutsamen Element einer Wachstumsstrategie.
Denn die Aufgabe eines Verantwortlichen für die Optimierung - nennen wir ihn "Head of Conversion Optimization" - besteht darin, diesen Effekt zu skalieren und einen möglichst optimalen ROI zu liefern.

Möglichst viele verschiedenartige Optimierungsrunden durchführen

Konkret bedeutet dies: Er sollte möglichst viele verschiedenartige Optimierungsrunden durchführen lassen. Nur so ist die Wachtsumskurve des Unternehmens positiv zu beeinflussen. Von der ersten Idee bis zum Abschluss des A/B-Testings vergingen beim Frontlineshop-Beispiel rund 6 Wochen - am Ende konnte die Variante der Seite, die sich in den Tests als stärkste herausgestellt hatte, per Knopfdruck "ausgerollt" und so der Uplift realisiert werden.
Ausgehend von dem Gedanken, dass sich diese Erfolge wiederholen lassen, stellen sich aus Planungssicht eine Reihe von Fragen: Ist der Uplift aus dem Frontlineshop beispielhaft für eine valide und realistische Zahl von E-Commerce-Optimierungen? Wie hoch ist die Erfolgsquote? Wie viele solcher Optimierungsrunden lassen sich pro Jahr durchführen? Wie hoch ist der kumulierte Effekt? 

Fehlende eigene Erfahrungswerte

Vielen Unternehmen fehlen eigene Erfahrungswerte für ihre Planung und damit belastbare Daten für ihre Investitionsentscheidung. Doch Tools und Ressourcen für ein effektives Conversion-Optimierungsprogramm kosten Geld. Die Investition muss folglich einem erwartbaren Nutzen gegenübergestellt werden.
Strategische Grundlage für ein effektives Optimierungsprogramm sind zunächst klar definierte Ziele. Ein häufiges Versäumnis vieler Unternehmen ist, dass unterschiedliche betriebswirtschaftliche Szenarien und die damit verbundenen Investitionen und Ziele nicht sauber untersucht und entsprechend umgesetzt werden.
Booking.com Argumente
Booking.com nutzt den "Reason why"-Effekt und nennt Argumente
Quelle: booking.com
So können zwischen einer gelegentlichen und einer permanenten Optimierung im Extremfall Umsatzunterschiede von mehreren Millionen Euro liegen. Ohne eine sorgfältige Planung entsteht kein echtes Optimierungsprogramm - die durchgeführten Experimente haben keine Wirkung. 

A/B-Testing: Finden Sie die Optimierungshebel

"Wo sollen wir anfangen?" Eine der grössten Herausforderungen für die meisten Website- und Shop-Betreiber ist das ­Erkennen der relevanten Schwachstellen für die Optimierung. Es landen ohnehin schon Dutzende oder gar Hunderte ­kleinerer und grösserer Ideen in der Schublade oder in Backlogs, und die Mitarbeiter haben auch ohne "Optimierungsprogramm" schon genug zu tun.
Das oben genannte Beispiel der "Value Propositions" soll jedoch eines verdeutlichen: Manche Dinge sind für die meisten Unternehmen tatsächlich "nicht sichtbar", das heisst, das Fehlen eines bestimmten Aspekts wird weder in Web-Analytics-Daten noch in Usability-Lab-Ergebnissen wirklich abgebildet.
Es braucht einen umfassenderen Blick auf ein Angebot, um auch solche effektive Optimierungshebel zu erkennen. Wie entsteht dieser Blick? Ganz einfach: Wir müssen den Blickwinkel ändern, um Neues zu erkennen. Dies gelingt zum Beispiel durch die Entwicklung sogenannter Personas und einer anschliessenden Customer-Journey-Analyse.

Eine Zielgruppe namens "Melanie"

Personas sind im Gegensatz zu demografischen Zielgruppendefinitionen extrem zugespitzt formulierte Kundentypen mit Bild und Namen. Ist die durchschnittliche Zielgruppe zwischen 35 und 55 Jahren alt und zu 65 Prozent weiblich, so heisst die Persona "Melanie", ist 39 Jahre alt und zeichnet sich durch eine eher harmoniebedürftige Persönlichkeit aus.
Persona "Melanie": Eine fiktive Person steht für eine Zielgruppe
Quelle: www.web-arts.com
Für den einen oder anderen "datengetriebenen E-Commercler" wirkt der Einsatz von Personas zunächst wie eine "esoterisch" anmutende Methode. Schliesslich fehlen meist die ­Daten, um derlei Aussagen zu validieren.
Die fehlenden Daten sollen uns an dieser Stelle jedoch nicht stören - schliesslich werden die aus der Persona-Entwicklung entstandenen Hypothesen später sauber über A/B-Testing validiert. Mithilfe der richtigen Kombination aus qualitativen und quantitativen Methoden lassen sich die ­relevanten Schwachstellen finden und die Wirksamkeit der Optimierung überprüfen. Dabei liegt erfahrungsgemäss der Schwerpunkt auf dem Prozess der Persona-Entwicklung, diese wird hierfür ganz aus dem Blickwinkel des Website-Nutzers gesehen.

Keine linearen Nutzerentscheidungen

Als Ergänzung zur Entwicklung von Personas ist daher eine Customer-Journey-Analyse sinnvoll. Auch wenn Konsumentenverhalten gerne als Funnel (Trichter) verstanden wird - so linear laufen Nutzerentscheidungen in der Realität nicht ab. In der Customer-Journey-Ana­lyse werden passend zu den Personas typische "Reiseverläufe" definiert. Dies schliesst Online- wie Offline-Wege mit ein.
Melanie wird zum Beispiel auf der Suche nach einem schwarzen Oberteil nicht nur in Google suchen und auf Facebook klicken. Sie wird mit Freundinnen sprechen, sich von Arbeitskollegen beeinflussen lassen, auf dem Smartphone nach Preisvergleichen schauen und später auf dem Sofa gemeinsam mit ihrem Mann per iPad kaufen.

Personas und Customer-Journey-Analysen reichen nicht aus

Für einen umfassenden Blick reichen Personas und Customer-Journey-Analyse nicht aus. Wenn es darum geht, bisher nicht bekannte Stellschrauben zu finden, stellen sie jedoch erfahrungsgemäss ein grosses Potenzial dar. Es ergibt durchaus Sinn, zusätzlich in Web-Analytics-Daten nach Belegen für die gefundenen Hypothesen zu schauen.
Auch Expertenevaluationen auf Basis sogenannter Conversion-Frameworks, wie dem Lift-Modell von Wider Funnel oder dem 7-Ebenen-Modell von Konversionskraft, liefern einen vollständigen und objektiven Blick auf ­eine Website, da mit ihnen auch die eingangs erwähnten aus der Konsumpsychologie bekannten Stellschrauben abgedeckt werden.
Wer das eigene Angebot mit unterschiedlichen Methoden testet, wird einen umfassenden und unverstellten Blick auf die Optimierungsmöglichkeiten erhalten. Das Resultat ist eine möglichst umfangreiche Sammlung von Optimierungsideen. Da die Wirksamkeit der Ideen noch nicht überprüft wurde, sprechen Optimierer von "Hypothesen", die in einem Backlog gesammelt werden.

Priorisierung beim A/B-Testing: Die Spreu vom Weizen trennen

Als letzte Aufgabe einer guten Planung und Analyse steht die Priorisierung der Hypothesen an. Da es aufgrund von Ressourcen- und Traffic-Begrenzungen nur eine bestimmte Anzahl von Optimierungsrunden gibt, muss sichergestellt werden, dass nur wirklich gute, also "wirksame" Hypothesen in die Optimierungen einfliessen.
Doch wie lassen sich die Hypothesen bewerten, wenn sie noch nicht getestet wurden? Ganz einfach: Es müssen die richtigen Fragen gestellt werden. Dabei müssen wir bedenken, dass es beim A/B-Testing nicht um die Änderungen an der Website geht - die Resultate des A/B-Testing zeigen, welche Veränderung des Nutzerverhaltens diese bewirken.

Veränderungen bei Nutzern wahrnehmen

Wer also herausfinden möchte, was eine wirklich gute Hypothese ist, der muss schauen, welche Auswirkungen eine Veränderung auf das Nutzerverhalten hat. Ein gutes A/B-Testing hat aufgrund von Daten ­einen "Uplift" geliefert, aus psychologischer Sicht hat sich jedoch das Nutzerverhalten verändert - es haben schliesslich mehr Menschen gekauft.
Damit sich ein Nutzerverhalten ändert, muss die Veränderung bei den Nutzern auch wahrgenommen werden. Die Veränderung muss also relevant und sichtbar sein. Eine Verhaltensänderung kommt zustande, wenn die Veränderung innerhalb der Customer-Journey für den Nutzer  in irgendeiner Form eine Rolle spielt. Die Veränderung muss also zu den Motiven und Bedenken der Nutzer passen.

Wirksames A/B-Testing auf einer Produktdetailseite

Hier werden die zuvor entwickelten Personas und Customer-Journey-Maps wieder hilfreich. Zu guter Letzt sollte die Veränderung auch auf Seiten stattfinden, die von den Nutzern auch wirklich besucht werden. Ein wirksames A/B-Testing findet im Idealfall auf einer Produktdetailseite statt und nicht etwa auf dem Impressum.
Die Wirksamkeit einer Hypothese muss also im Vorfeld betrachtet und ein Testkonzept so entwickelt werden, dass es eine signifikante Veränderung im Nutzerverhalten verursacht. Dem gegenüber steht der Aufwand, der nötig ist, um entsprechendes A/B-Testing zu entwickeln.
Im zweiten Teil geht es darum, wie aus einer zuvor erarbeiteten Hypothese möglichst wirksames A/B-Testing entwickelt wird und wie sich Stolperfallen bei der statistischen Auswertung der Testergebnisse vermeiden lassen.




Das könnte Sie auch interessieren