27 fouten om te voorkomen tijdens A/B-testen (1/3)

Na veel enthousiasme en een gevoel van vooruitgang door A/B testen volgt vaak de grote deceptie. In het beste geval waren er een aantal testen met 5 tot 30 procent verbetering, maar ondanks dat beweegt de conversielijn in Google Analytics niet echt omhoog. Met deze 8 valkuilen van A/B-testen kun je kijken of je organisatie conversie optimalisatie wel op de juiste manier benadert. De 19 andere tips volgen in de volgende twee artikelen.

Deel 1: Onterechte verwachtingen & de organisatie van conversie optimalisatie.

Onterechte verwachtingen

Te hoge verwachtingen zorgen altijd voor teleurstelling. Zorg ervoor dat jij en alle relevante personen een realistisch beeld hebben van de tijd en moeite die A/B-testen vereisen en de resultaten die het kan opleveren. Anders valt binnen de kortste keren het draagvlak weg.

  1. Je ziet conversie optimalisatie als heilige graal

Conversie optimalisatie en A/B-testen draaien niet om een trukendoos die alle problemen gaat oplossen.

Je kunt het je gebruikers zo makkelijk mogelijk maken, je kan je waardepropositie zo goed mogelijk communiceren en zo veel mogelijk verkeer naar je website sturen. Maar uiteindelijk kopen je klanten een product of dienst en geen geoptimaliseerde website. Als je verhaal in de basis niet voldoende is dan heb je twee uitdagingen: Product en conversie.

Ook hier gaat op: ‘Advertising is the price of being unremarkable’– Jeff Bezos van Amazon

  1. Je verwacht grote verbeteringen door kleine aanpassingen

Er zijn talloze case studies te vinden waarbij een andere kleur knop zorgt voor 367 procent meer conversie. Dat klinkt leuk, maar men heeft het daar niet over eindconversie. Tien meer kliks op een knop op je landing pagina zorgen niet voor tien extra orders. Mogelijk zelfs voor minder orders, omdat deze mensen jouw verhaal en waardepropositie nog niet voldoende kennen.

(kleine) aanpassingen x grote pijnpunten = sterke conversieverhoging

Alleen kleine aanpassingen op grote pijnpunten kunnen de eindconversie sterk verhogen.

  1. Je extrapoleert het resultaat van een test op je omzet

Zelfs als je een tien procent verbetering ‘meet’ op je eindconversie wil dit absoluut niet zeggen dat je tien procent meer omzet gaat draaien. Die ‘tien procent’ vertelt eigenlijk alleen dat je variant het beter doet dan het origineel, maar hoeveel precies? Who knows.

  1. Je kijkt vreemd op als een aantal tests helemaal geen resultaat opleveren

Als één op de vier experimenten succesvol zijn betekent dat dat er 32 procent kans is dat je in vier experimenten geen enkel succes hebt. Testen zonder conversieverbetering als resultaat zijn inherent aan A/B-testen. Immers, je test veranderingen in je site omdat je nooit 100 procent zeker bent dat dat dit voor een verbetering zorgt.

Lees verder om het fenomeen ‘gefaalde’ testen te minimaliseren.

Organisatie belemmert conversie optimalisatie

  1. Je conversieverantwoordelijke wordt niet betrokken bij een site-redesign

Zelfs in organisaties waar over conversie wordt nagedacht komt het vaak voor dat een extern bureau de opdracht krijgt om een nieuwe huisstijl te maken, waarbij er ook site designs worden gemaakt. Dit zijn de klassieke opdrachten voor online marketing bureaus waarbij de vraag is: We hebben een compleet site-redesign gedaan en de conversie is sterk gedaald, hoe komt dit? Tja…

Een evolutionaire strategie vermindert dit risico.

  1. Je  hebt een 1-man of woman army

Conversie optimalisatie is een multi-disciplinair vak, waarbij usability, psychologie, copywriting, techniek en design samenkomen. Deze kunnen effectief ingezet worden wanneer deze disciplines met product, markt en klantkennis binnen de organisatie worden gecombineerd.

Alleen met de volledige set aan kennis en middelen kan worden doorgepakt door de juiste dingen te doen.

  1. Kleinere testen doen, omdat de grotere te complex zijn

Het is verleidelijk om kleinere testen te blijven doen, omdat deze makkelijk op te zetten zijn. Het risico bestaat dat je hierdoor met veel moeite en testtijd het maximale uit een sub optimale pagina haalt.

valley of tears

De enige manier om hier achter te komen is door de zure appel heen te bijten en waar nodig radicale testen te doen. Dit kan vooral nuttig zijn in twee situaties:

  1. De basis van de pagina zit niet goed in elkaar en stap voor stap de basisverbeteringen testen zou tot meer dan vijf experimenten leiden voordat je überhaupt aan finetunen kan beginnen. Ga voor de home run.
  2. Bij het finetunen nemen de verbeteringen steeds verder af en het testen duurt onacceptabel lang. Tijd om met een grote wijziging het gedrag van de bezoeker te beïnvloeden.
  1. Hippo’s hebben onredelijk veel invloed

Hippo

Hippo = Highest Paying Person’s Opinion. Wanneer deze persoon de beslissingen neemt over wat en hoe er getest moet worden zal het testproces al snel gefrustreerd worden. De persoonlijke voorkeuren van niemand in het team zijn representatief voor de doelgroep, dus ook van de Hippo niet.

In het volgende deel wordt in gedaan op het thema ‘de verkeerde dingen testen’. Sommige fouten zijn te vergeven, de foute elementen op je site testen niet.

2 Reacties

Dank je Peter voor het delen van je eerste 8 praktijkinzichten voor A/B testen. Ik zie uit naar de volgende 19.

Waar ik ook benieuwd naar ben is hoe je komt tot een A/B test. Met andere woorden, hoe ontdekt je ‘what will move the needle substantially’? De pagina in de check-out flow met de meest exits is niet per se de pagina die geoptimaliseerd dient te worden.

Hi Martin, ‘what moves the needle’ valt onder ‘de juiste elementen testen’. En daar gaat toevallig deel II al over!

http://www.emerce.nl/best-practice/2-3-27-fouten-om-voorkomen-ab-testen

Stap 1 is vaak erachter komen waar je bezoeker mee zit, vervolgens kun je inderdaad bekijken waar je dat gaat oplossen. Exit surveys zijn hier erg nuttig voor.

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond.

terug