Zo voer je een succesvolle A/B test uit

Wil je een A/B test uitvoeren? Sla deze checklist op om overzicht te krijgen in wat je het beste voor, tijdens en na een A/B test kunt doen om de beste resultaten te krijgen en de conversie van je website en je email marketing campagnes te optimaliseren.

 

Wanneer wij marketeers landingspagina's ontwerpen, email teksten schrijven of call-to-action knoppen maken kan het verleidelijk zijn om puur op onze intuïtie te vertrouwen qua verwachting van waar bezoekers op zullen klikken en converteren.

Maar marketing beslissingen baseren op een ‘gevoel’ kan schadelijk zijn voor je resultaten. In plaats van te vertrouwen op aannames bij het maken van dit soort beslissingen, kan je beter een A/B test uitvoeren - ook wel een split test genoemd.

A/B testen kan waardevol zijn omdat verschillende doelgroepen zich simpelweg verschillend gedragen online. Iets wat voor het ene bedrijf goed werkt, kan voor een ander bedrijf wellicht niet werken. Sterker nog, conversie optimalisatie specialisten hebben een hekel aan “de beste strategie” kiezen, omdat het misschien voor jou helemaal niet de beste strategie is.

Maar A/B testen kan ook zeer ingewikkeld zijn. Je moet ervoor waken niet de verkeerde aannames te maken van wat mensen willen en van wat er precies voor zorgt dat ze doorklikken - door hierin verkeerde aannames te doen kan dit ook in latere stadia van je strategie voor problemen zorgen.

Blijf vooral lezen om meer te leren over A/B testen voor, tijdens en na het verzamelen van data, zodat je de best gegronde beslissingen maakt voor jouw resultaten.

Wat is A/B testen?

Om een A/B test uit te voeren moet je twee versies van één stuk content maken, met één enkel verschil. Vervolgens presenteer je deze twee versies aan twee groepen van dezelfde grootte en analyseer je welke beter ontvangen wordt gedurende een bepaald tijdsbestek (maar wel lang genoeg om accurate conclusies te kunnen trekken).

Gratis ebook: Invalshoek Marketing Handboek [Download Nu]

A/B testen kan marketeers helpen in te zien hoe de ene versie van een stuk content presteert ten opzichte van een andere versie. Hier volgen twee soorten A/B tests die je zou kunnen uitvoeren wanneer je de conversieratio van je website wilt verhogen:

Voorbeeld 1: Gebruikerservaring Test

Misschien wil je erachter komen of er vaker doorgeklikt wordt wanneer je een call-to-action (CTA) knop bovenaan je homepage zet in plaats van in de sidebar.

Om deze theorie aan een A/B test te onderwerpen kan je een andere webpagina ontwerpen waarin je de CTA dus ergens anders plaatst. Het bestaande ontwerp - ofwel de “control” - is dan Versie A. Versie B is de “challenger”. Vervolgens test je deze twee versies door ze allebei aan een zelfde percentage van je bezoekers te laten zien. Idealiter is dit percentage van bezoekers per versie precies hetzelfde.

Voorbeeld 2: Design Test

Stel je wil onderzoeken of het veranderen van de kleur van je call-to-action knop voor meer kliks zorgt.

Om deze theorie de A/B testen zou je een alternatieve CTA knop moeten ontwerpen in een andere kleur, maar die wel naar dezelfde landingspagina leidt als de originele. Als je normaliter een rode call-to-action knop gebruikt en de groene variant blijkt je meer op te leveren na de A/B test, dan kan het dus waardevol zijn om vanaf nu je call-to-action knoppen groen te maken.

De voordelen van A/B testen

A/B testen kan veel voordelen bieden voor een marketing team, afhangend van wat je wilt testen. Deze testen zijn vooral waardevol voor een bedrijf omdat ze zo weinig kosten, maar wel veel op kunnen leveren.

Stel je hebt een copywriter in dienst die werkt voor een salaris van €50.000,- per jaar. Hij publiceert vijf artikelen per week op het blog van je bedrijf. In totaal dus 260 artikelen per jaar. Als een artikel gemiddeld 10 leads oplevert, kan je stellen dat het €192,- kost om 10 leads te generen voor het bedrijf (€50.000,- ÷ 260 artikelen = €192,- per artikel). Dat is een significante verandering.

Als je vervolgens deze copywriter de opdracht geeft zich om twee dagen bezig te houden met het ontwikkelen van een A/B test voor één artikel, in plaats van dat hij er in dezelfde tijd twee zou schrijven, loop je misschien wel €192,- mis omdat je een artikel minder publiceert. Maar als uit die A/B test blijkt dat je per artikel de conversieratio van 10 naar 20 leads zou kunnen verhogen, heb je die €192,- misschien wel uitgegeven aan een verdubbeling van de klanten die je met je blogs werft.

Als de test faalt, verlies je natuurlijk €192,- maar kan je je volgende A/B test met de kennis van die eerste test wel beter uitvoeren. Als die tweede test slaagt in het verdubbelen van de conversieratio van je blog, geef je uiteindelijk dus €284,- uit voor een mogelijke verdubbeling van de omzet van je bedrijf. Hoe vaak een A/B test ook faalt, uiteindelijk zal het succes ervan bijna altijd opwegen tegen de gemaakte kosten.

Er zijn veel soorten split testen die je kunt doen om het experiment uiteindelijk wat op te laten leveren. Hier volgen een aantal algemene doelen die marketeers hebben wanneer ze gaan A/B testen:

Meer webverkeer: Verschillende blogposts of webpagina titles testen kan een verhoging opleveren in het aantal mensen dat op de hyperlink titel klikt om op je website te komen. En dit kan weer meer webverkeer opleveren.

Hogere conversieratio: Het testen van verschillende locaties, kleuren of zelfs anchor teksten op je CTA’s kan invloed hebben op het aantal mensen dat er daadwerkelijk op klikt om zo bij een landingspagina te komen. Dit kan weer zorgen voor een toename in het aantal mensen dat een formulier invult op je website, hun contactgegevens achterlaten en in een lead “converteren”.

Lagere bounce rate: Als je websitebezoekers snel je website verlaten (“bouncen”), kan je testen of ander soort blogpost introducties, een ander lettertype of een andere afbeelding dit aantal omlaag kan brengen en bezoekers zo langer op je website blijven.

Minder “cart abandonment”: In ecommerce zien we volgens MightyCall dat 40% - 75% van de klanten een website verlaten terwijl er nog dingen in hun winkelwagentje liggen. Dit wordt “shopping cart abandonment” genoemd. Je kan de “abandonment rate” verlagen door testen te doen met bijvoorbeeld verschillende productfoto's, een ander paginaontwerp op de checkout pagina of zelfs de plaatsing van de verzendkosten.

Laten we nu door de checklist gaan van het opstellen, uitvoeren en meten van een A/B test.

Hoe voer je een A/B test uit

Vóór de A/B test

Ten eerste zetten we de stappen uiteen die je doorloopt voordat je begint met de A/B test.

1. Kies één variabele die je gaat testen.

Als je je webpagina’s en emails wil optimaliseren, zijn er een aantal variabelen die je kan gaan testen. Maar om goed te kunnen evalueren hoe effectief een bepaalde aanpassing is, moet je één van die variabelen en de aanpassing daarvan ‘isoleren’ om de prestaties ervan meten - anders weet je nooit zeker welke aanpassing een bepaalde verandering teweeg heeft gebracht.

Je kunt natuurlijk wel meer dan één variabele testen voor één webpagina of email; alleen zorg er dan wel voor dat je één aanpassing per keer test.

Kijk naar de verschillende elementen in je marketing en naar mogelijke alternatieven wat betreft ontwerp, woordkeuze en layout. Andere dingen die je zou kunnen gaan testen zijn bijvoorbeeld email onderwerpregels, afzenderadressen en manieren van het personaliseren van emails.

Onthoud dat zelfs kleine aanpassingen, zoals het veranderen van de afbeelding in je email of de woorden op je call-to-ation button, grote verbetereingen teweeg kunnen brengen. Sterker nog, dit soort kleine aanpassingen zijn vaak makkelijker te meten dan grotere.

2. Bepaal je doel.

Ook al meet je bij iedere test een aantal gegevens, kies een soort metric waarop je je richt - voordat je de test begint. Doe dit zelfs voordat je de tweede variabele bepaalt. Dit is dan je “ondergeschikte variabele.”
Bedenk je ook waar je wil dat deze variabele uitkomt na afloop van de test. Je zou een hypothese op kunnen stellen en de uitkomsten van de test analyseren aan de hand van deze voorspelling.

Als je wacht tot ná de test met bepalen welke waarden eigenlijk belangrijk zijn om te meten, welke doelen je hebt en hoe de aanpassingen die je in gedachte hebt iets zouden kunnen doen, dan kan het zijn dat je de test niet op de meest effectieve manier uitvoert.

3. Bepaal wat de ‘control’ is en wat de ‘challenger’ is.

Je hebt nu de onafhankelijke variabele, de afhankelijke variabele en de gewenste uitkomst. Gebruik deze informatie om de oorspronkelijke versie van wat je wil testen tot de “control” te maken. Als je een webpagina test, neem dan de webpagina die al bestaat. Als je een landingspagina test, is dit dus het landingspagina ontwerp en de tekst die je normaal gesproken ook aanhoudt.

Maak van daaruit een variatie, een “challenger” - de website, landingspagina of email die je gaat testen ten opzichte van je control. Als je je bijvoorbeeld afvraagt of je een testimonial aan je landingspagina moet toevoegen, maak dan eerst een control pagina zonder testimonials. Maak daarna een variatie van die pagina mét een testimonial.

4. Deel je testgroepen gelijkmatig en willekeurig op.

Wanneer je testen uitvoert waarin je meer controle hebt over je doelgroep - zoals emails - moet je met twee of meer gelijke doelgroepen om doorslaggevende resultaten te krijgen.

Hoe je dit het beste doet hangt af van welke A/B test tool je gebruikt. Als je een HubSpot Marketing Pro klant bent en een A/B test uitvoert op email, dan zal HubSpot automatisch verkeer opdelen in willekeurige, gelijke delen.

5. Bepaal de grootte van je steekproef(indien van toepassing).

Hoe je de steekproefgrootte bepaalt hangt af van je A/B test tool en van het soort A/B test dat je uit wilt voeren.

Als je een email gaat A/B testen, wil je de A/B test waarschijnlijk naar een kleiner deel van je lijst sturen om statistisch waardevolle resultaten te krijgen. Nadien kies je een beste optie en hanteer je die voor de rest van je lijst.

Als je een HubSpot Marketing Pro klant bent, heb je hulp bij het bepalen van de grootte van je steekproef groep aan de hand van een schuifregelaar. Het geeft je de mogelijkheid om een 50/50 A/B test te doen in elk formaat - terwijl alle andere proeven tenminste 1000 ontvanger vereisen.

Als je iets wilt testen waarin geen afgebakende groepsgrootte is, zoals een webpagina, past de duur in tijd van je test automatisch de steekproefomvang aan.

Je moet je test wel lang genoeg laten lopen om een substantieel aantal views te trekken, anders gaat het lastig zijn om te zien of er statistisch gezien een groot verschil was tussen de twee variaties.

6. Bepaal hoe bepalend je resultaten moeten gaan zijn.

Zodra je je doelen gesteld hebt, moet je nadenken over hoe bepalend je resultaten gaan zijn in het kiezen voor een verandering; voor het verkiezen van de ene variatie boven de andere. Statistische significantie is een heel belangrijk deel van het A/B test proces dat vaak verkeerd begrepen wordt.

Hoe hoger het percentage van jouw betrouwbaarheid, hoe zekerder je van je resultaten kan zijn. In de meeste gevallen streef je naar een betrouwbaarheidspercentage van minimaal 95% - liever zelfs 98% - vooral wanneer het een tijdrovend experiment geweest is om uit te voeren. Soms kan je echter wel een lager betrouwbaarheidspercentage accepteren als je de test niet te bindend wilde laten zijn.

Matt Rheault, senior software engineer bij HubSpot, vergelijkt statistische significantie met meedoen aan een weddenschap. Onder welke mogelijk nadelige gevolgen wil je toch nog wel een weddenschap aangaan? Wanneer je zegt “Ik ben er voor 80% zeker van dat dit het goede ontwerp is en ik ben bereid er alles op in te zetten” is dat hetzelfde als het uitvoeren van een A/B test waarbij je van te voren al voor 80% zeker bent van welke variatie er als winnaar uit zal komen.

Rheault stelt ook dat je er beter aan doet om een hogere drempel qua betrouwbaarheid te hanteren wanneer je iets gaat testen dat je conversieratio maar een klein beetje zal verbeteren. Waarom? Omdat willekeurige variatie anders een te grote rol kan spelen.

“Alleen bij een experiment waarin het te verwachten is dat de conversieratio met 10% of meer toe zal nemen, voelt het veilig genoeg om de betrouwbaarheid drempel te verlagen,” legt hij uit.

“De aanname hier is dat hoe radicaler en groter de verandering is, hoe minder wetenschappelijk we moeten zijn in het proces. Hoe specifieker de verandering (CTA knop kleur, microcopy etc.), hoe meer wetenschappelijk we moeten zijn in het proces, omdat de kans kleiner is dat het een grote en opvallende gelijk al duidelijke impact heeft op je conversieratio.”

7. Zorg dat je maar één test per keer uitvoert in een campagne.

Meer dan één ding testen in één campagne - zelfs als het niet exact dezelfde dingen zijn - kan je resultaten compliceren. Als je bijvoorbeeld een email campagne die naar een landingspagina verwijst aan een A/B test onderwerpt , terwijl je tegelijkertijd die landingspagina aan het A/B testen bent...hoe weet je dan welke verandering precies leidde naar een toename in leads?

Tijdens de A/B test

Vervolgens zetten we de stappen uiteen die je doorloopt tijdens de A/B test.

8. Gebruikt een A/B test tool.

Wanneer je een A/B test op je website of in je email uitvoert, moet je een A/B test tool hebben. Als je een HubSpot Marketing Pro of CMS Hub Pro klant bent, kan je deze software gebruiken die het gemakkelijk maakt A/B testen uit te voeren in emails, calls-to-action en landingspagina’s.

Voor niet-klanten van HubSpot bestaan er andere opties, zoals Google Optimize, waarmee je tien versies van een webpagina kan A/B testen aan de hand van willekeurige gebruikers en zo de prestaties ervan kan vergelijken. Andere opties zijn Optimizely en AB Tasty.

9. Test beide variaties tegelijkertijd.

Timing speelt een belangrijke rol in de resultaten van je marketing campagne, of het nou gaat om de tijd van de dag, van de maand of van het jaar. Als je Versie A in de ene maand uitvoert en Versie B een maand later, hoe weet je dan of het verschil in prestatie gevolg is van het andere design of doordat het verschilt omdat het een andere maand is?

Wanneer je A/B test moet je de twee variaties dus rond dezelfde tijd uitvoeren, anders kan je alsnog vraagtekens zetten bij je resultaten.

De enige uitzondering hierop is wanneer het juist timing is wat je wilt testen, zoals bijvoorbeeld het beste tijdstip waarop je emails verstuurt. Dit is belangrijk om te testen, omdat juist dit iets is wat erg afhankelijk is van je het soort bedrijf en de soort abonnees. De beste tijd voor abonnee engagement kan erg variëren per sector en doelgroep.

10. Geef de A/B test genoeg tijd om bruikbare data te genereren.

Nogmaals, je wil er zeker van zijn dat je je test lang genoeg laat lopen om een substantiële proef te hebben. Anders gaat het lastig zijn om te bepalen of er wel echt een statistisch significant verschil tussen de twee variaties zit.

Hoe lang is lang genoeg? Afhankelijk van je bedrijf en van hoe je de A/B test uitvoert, kun je statistisch significante resultaten verwachten in een paar uur … of in een paar dagen … of weken. Hoe lang het duurt hangt voor een groot deel af van hoeveel verkeer jouw website genereert - dus wanneer jouw bedrijf niet zoveel webverkeer trekt, zal het langer duren om resultaten te zien uit een A/B test.

In theorie zou je de tijd waarin je resultaten wil verzamelen niet moet beperken.

11. Vraag feedback aan echte gebruikers.

A/B testen heeft vooral te maken met kwantitatieve data … maar dat maakt nog niet dat je zal begrijp waarom mensen de ene actie eerder zullen uitvoeren dan een andere. Waarom zou je niet ook kwalitatieve feedback verzamelen van echte gebruikers, naast de uitvoering van een A/B test?

Een van de beste manieren om mensen om hun meningen te vragen is door middel van een enquête of survey. Je zou een enquête kunnen aanbieden op het moment dat je bezoekers je website verlaten die ze vraagt waarom ze niet op een bepaalde CTA geklikt hebben of een op je bedankpagina die ze juist vraagt waarom ze wél op een knop hebben geklikt of een formulier hebben ingevuld.

Je kan er bijvoorbeeld achter komen dat veel mensen op een call-to-action klikte die ze naar een ebook leidde, waarvan ze de prijs te hoog vonden en toen dus toch niet converteerden. Dat soort informatie geeft je een hoop inzicht in waarom de bezoekers zich op bepaalde manieren gedragen op je website.

Na de A/B test

Tot slot zetten we de stappen uiteen die je doorloopt nadat je de A/B test hebt uitgevoerd.

12. Focus op de statistieken van je primaire doel.

Nogmaals, al zal je meerdere dingen gaan meten, blijf je wel focussen op dat primaire meetdoel dat je wilt meten wanneer je een analyse doet.

Als je bijvoorbeeld twee variaties van een email getest hebt en je koos voor leads als primair meetdoel, laat je dan niet teveel meeslepen door de open rate en de click through rate. Het zou kunnen dat je een hoge click through rate ziet en een lage conversieratio, waardoor je ervoor zou kunnen kiezen de variatie te gebruiken met de lagere doorklikratio.

13. Meet het belang van je resultaten door de significantie te berekenen

Nu je hebt ondervonden welke variatie het beste presteert, is het tijd om te bepalen of je resultaten statistisch significant zijn of niet. In andere woorden, geven ze resultaat genoeg om definitief een verandering door te voeren?

Om dat te achterhalen moet je een test voor statistische significantie uitvoeren. Je zou de significantie met de hand kunnen berekenen, maar goed A/B test systemen zoals HubSpot en Optimizely doen deze berekeningen voor je zodat je het niet zelf hoeft te doen 

14. Onderneem acties gebaseerd op je resultaten.

Als één variatie het statistisch gezien beter doet dan de andere, dan heb je de winnende variant gevonden. Rond je test af door de verliezende variant uit je A/B test te halen.

Als geen van de twee variaties statistisch beter presteert dan de andere, heb je daarmee ontdekt dat de variabele die je getest hebt kennelijk geen impact heeft op de resultaten en kan je stellen dat je test niet overtuigend was. Blijf in dit geval bij de originele variant - of voer een andere test uit. Je kan de mislukte data wel gebruiken om een nieuwe versie van een test te bedenken.

Hoewel een A/B test case-specifiek is, kan je de lessen die je eruit trekt wel gebruiken in toekomstige experimenten.

Als je bijvoorbeeld een A/B test in je email marketing hebt uitgevoerd en er achter kwam dat het gebruik van nummers in de onderwerpregel hogere doorklik frequenties behaalde, kun je overwegen om die tactiek in meer uitgaande emails toe te passen.

15. Plan je A/B test

De A/B test die je net gedaan hebt kan je een hoop bijgebracht hebben over nieuwe manieren om jouw marketing effectiever te maken - maar stop niet hier. Er is altijd ruimte voor meer verbetering.

Je kan zelf proberen een A/B test uit te voeren op een andere feature van dezelfde webpagina of email als waar je de test op gedaan hebt. Wanneer je bijvoorbeeld net een headline van een landingspagina getest hebt, waarom zou je dan niet ook de hoofdtekst testen? Of het kleurenpalet? Blijf altijd alert op kansen om je conversieratio te blijven verbeteren.

Start vandaag nog met A/B testen

Door middel van A/B testen kom je erachter wat voor content en marketing jouw doelgroep echt wil.

Download nu het Invalshoek Marketing Handboek!

Het uitvoeren van A/B testen is één van de manieren waarop je de conversie van je website verbetert. Wil je hier meer over weten? Lees dan het artikel 'Conversie optimalisatie: de beginnersgids'.

Dit artikel is gebaseerd op "How to Do A/B Testing: A Checklist You'll Want to Bookmark" van HubSpot.

Plaats een reactie

Meld je aan voor blog updates