-

27 fouten om te voorkomen tijdens A/B-testen (3/3)

Na veel enthousiasme en een gevoel van vooruitgang door AB-testen volgt vaak de grote deceptie. In het beste geval waren er een aantal testen met 5 tot 30 procent verbetering, maar ondanks dat beweegt de conversielijn in Google Analytics niet echt omhoog. Met de 27 valkuilen van AB-testen in deze serie kun je kijken of je organisatie conversie optimalisatie wel op de juiste manier benadert. Vandaag deel drie.

Deel II gaat in zijn geheel over het testen van de verkeerde dingen, de meest onvergeeflijke fout bij AB-testen. Deel I of deel II gemist? Bekijk ze hier: Deel I en Deel II.

Deel III: Verkeerde uitvoering & conclusies testen

  1. Je data klopt niet

Gebruik je ‘click tracking’ als basis voor je conversiedoelen in Optimizely of VWO? En heb je deze conversies al eens vergeleken het pageview goal van die volgende pagina in je check-out?

Grote kans dat de click tracking conversies lager zijn dan de pageviews. Vaak is Internet Explorer de boosdoener.

Als je maar 90 procent van de daadwerkelijke conversies naar de volgende funnelstap meet, duurt je experiment al snel 15 tot 50 procent langer (bij een conversieverhoging van 10 procent).

3-1 Dilbert data

Kies je conversie track methode zorgvuldig en vergelijk deze met andere bronnen.

  1. Je vergeet de (ervaren) laadtijd van je variatie

Zelfs als je data klopt kan het zijn dat je toch appels met peren aan het vergelijken bent. Tools als Optimizely en VWO hebben wel degelijk invloed op de laadtijd.

Laadtijd

In het geval van Zelf.nl leidde een 0.9 seconde snellere pagina tot 48 procent meer conversie. Als je variant dus langzamer zou deze wel eens direct op 1-0 achterstand kunnen beginnen ten op zichte van je normale pagina.

Controleer minimaal of je test last heeft van het bekende ‘knipper effect’. Dit zorgt er namelijk voor dat de ervaren laadtijd langer wordt en je conversies verliest.

  1. Je optimaliseert voor de verkeerde mensen

Bezoekers uit social media en e-mailcampagnes hebben een andere mindset dan die van andere kanalen en komt vaak in golven naar je site toe. Je kiest immers zelf wanneer je gaat deze campagnes live zet. Dit verkeer verdient een aparte benadering, maar ‘vervuilt’ ook je experimenten gericht op de andere kanalen.

3-2 modalities

Idealiter ga je uiteindelijk aparte testen opzetten voor deze doelgroepen.

  1. Je test moet langer lopen. Ja, nog langer.

AB-test software oplossingen die alleen ‘significantie’ aangeven vertellen het halve verhaal.

95 procent significantie wil alleen maar zeggen dat er een 5 procent kans is dat je bijvoorbeeld 7 procent verbetering meet, terwijl er eigenlijk geen verschil is.

Het doel is uiteindelijk om zeker genoeg te zijn dat die 7 procent inderdaad betekent dat je variant het beter doet. Daar komt het begrip ‘power’ om te hoek kijken.

Bereken daarom altijd van te voren de sample size die je nodig hebt op basis van 95 procent significantie en 80 procent power. Power is de andere helft van het verhaal dat AB-test software partijen altijd lijken te negeren.

  1. Je test loopt geen volledige weken

Conversiepercentages op verschillende dagen van de week zijn niet te vergelijken.

3-3 conversie dagen per week

Test dus altijd volle weken om geen vertekend beeld te krijgen.

  1. Je meet niet alle conversiepunten

Iedereen zou 10 euro betalen voor een klant die in zijn 1e order 100 euro oplevert. in de praktijk wordt er vaak gekozen om niet deze 100 euro te meten, maar het aantal keren dat bezoekers doorklikken naar een vervolgpagina. Hierbij wordt er vanuit gegaan dat een hogere doorklikratio ook goed is voor de eindconversie en dus meer omzet oplevert.

De reden voor deze keuze is dat een experiment hierdoor veel sneller afgerond kan worden. Dat kan een prima pragmatische keuze zijn.

Maak echter niet de fout om de eindconversie helemaal niet te meten. Een hogere doorklik ratio kan gepaard gaan met een lagere omzet, doordat mensen ‘te snel’ doorklikken zonder je waarde propositie goed te hebben gezien.

  1. Je test 2 aanpassingen tegelijkertijd

Dit is een fout als je niet bewust hier een keuze voor maakt. Het probleem van 2 aanpassingen tegelijkertijd testen is dat als je geen verbetering meet je niet weet wat de aanpassingen apart van elkaar voor effect zouden hebben.

Kies er in de basis voor om veranderingen te isoleren, of juist een hele radicale wijziging te testen om zo snel mogelijk een sterke conversieverbetering te bereiken.

  1. Je vergeet te segmenteren bij je testevaluatie

Alle verkeersbronnen sturen bezoekers die andere karakteristieken hebben en dus anders kunnen reageren op veranderingen. Controleer dus altijd wat het effect op deze segmenten is. Het zou zonde zijn om een 10 procent verbetering op SEA traffic te laten liggen, omdat je alleen naar het totaal gemiddelde kijkt.

  1. Je kijkt naar de conversietrend op al het verkeer samen

Uiteindelijk wil je dat je gemiddelde conversie percentage in Google Analytics of Omniture omhoog gaat. Maar ook hier moet je segmenteren.

Als je dat niet doet kan het zijn dat je schrikt van een dalende conversietrend, terwijl je juist heel blij moet zijn.

Dit kun je zien in dit eenvoudige voorbeeld van een fictieve site met bezoekers uit maar twee kanalen. Het conversiepercentage is sterk gestegen voor het directe verkeer en het organische verkeer (SEO). Toch is het totale conversiepercentage niet veranderd.

Schermafbeelding 2015-08-18 om 12.26.16

De reden is hier snel duidelijk: Het minder converterende SEO-kanaal heeft meer bezoekers binnengebracht. Kennelijk heeft je SEO-team of -bureau goed werk gedaan waardoor je nu zou kunnen denken dat je conversie optimalisatie inspanningen voor niets zijn geweest.

Zeer logisch, maar toch gaan er altijd mensen zijn die schrikken van een dalende lijn, omdat ze naar een totaal gemiddelde kijken wat eigenlijk niets zegt.

3-4 averages lie

Als je echt je conversietrend wil zien, zul je minimaal moeten segmenteren tot op bijvoorbeeld het SEO-verkeer op desktop.

  1. Ervaring is de opeenstapeling van fouten waarvan we hebben geleerd

3-5 Experience mistakes
Deel altijd de lessen die je leert om het A/B- testproces in jouw organisatie naar het volgende niveau te brengen.

 

Deel dit bericht

3 Reacties

leonard wolters

Erg leuk en verhelderend artikel. Thanks!

Peter

Graag gedaan! Leuk te horen dat je er iets aan hebt gehad!

Martin Voorzanger

De serie is compleet. Vond ‘m erg goed. Mede omdat veel best-practices en white papers over A/B testing van de hand van tooling leveranciers komen en niet de praktijkervaringen van agencies (zoals OrangeValley in dit geval) meenemen.

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond