Verdieping

5 voorbeelden van A/B-tests die je zelf op kunt zetten

0

Als online marketeer ben je continu bezig om je digitale kanalen te verbeteren. Een A/B-test helpt je om te valideren of dat wat je verandert daadwerkelijk positief effect heeft. Maar vaak heb je hier de hulp van een developer bij nodig. Toch kun je als online marketeer ook eenvoudig zelf een A/B-test opzetten. Ik deel 5 praktijkvoorbeelden met je.

Voordat je begint, zet je het experiment eerst op papier

Voordat je aan de slag gaat, zet je het experiment eerst op papier. Wat ga je testen en waarom? Houd in een roadmap bij welke experimenten je opzet. Op die manier houd je netjes bij welke experimenten je hebt gedaan, en welke nog in het verschiet liggen.

Zo kun je ook prioriteiten bepalen, welke A/B-test zet je als eerste op? Beschrijf per experiment de volgende onderdelen:

  • Naam van het experiment
    Hoe heet het experiment? Dit is vaak dezelfde benaming die je meegeeft in de tooling waarmee je het experiment opzet, zoals Google Optimize of VWO.
  • Omschrijving
    Wat is de hypothese voor het experiment? Baseer je hypothese op data, zodat je het experiment ook meetbaar kunt maken. Dit voorkomt ook discussies. Om data kun je immers niet heen, toch?
  • Setup
    Omschrijf beknopt hoe je het experiment inricht. Wat ga je veranderen aan een webpagina?
  • Apparaten
    Is het experiment voor iedereen of alleen als bezoekers een bepaald apparaat gebruiken? Bijvoorbeeld mobiele apparaten.
  • Success metric(s)
    Waarop baseer je of het experiment een succes is? Denk aan KPI’s zoals clickthrough, conversie, leads en kliks op een specifiek element zoals een telefoonnummer.
  • Let op voor…
    Zitten er risico’s aan dit experiment? Je experiment beïnvloedt straks het gedrag van je bezoeker. Het liefst positief, natuurlijk. Maar als er een risico aan zit, kun je dat alvast benoemen. Beschrijf ook wat je doet als het risico zich voordoet. Het betekent misschien dat je het experiment voortijdig moet beëindigen.
  • Business impact
    Hoe groot is de business impact van je experiment? Op een schaal van 1 tot 5 (weinig, veel) is dit een handig hulpmiddel om te bepalen welk experiment prioriteit heeft.

Deel je experiment

Deel je experiment ook met collega’s. Zo is iedereen op de hoogte dat je een A/B-test doet. In een korte presentatie kun je ook visueel laten zien wat de huidige situatie is en hoe het experiment eruitziet. Samen met je inzichten en hypothese is het helemaal compleet. Je kunt er met collega’s zelfs een wedstrijd van maken. “Welke variant is volgens jou de winnaar?” Dit vergroot absoluut betrokkenheid!

Stem samen met collega’s op de winnende variant en vergroot daarmee betrokkenheid bij je experiment

5 voorbeelden van succesvolle A/B-tests

Voorbeeld #1. Toevoegen van een (secundaire) call-to-action

Voor het platform van duxxie.nl zijn nieuwe registraties van zorgprofessionals een belangrijke KPI. Om het aantal registraties toe te laten nemen, hebben we een extra call-to-action toegevoegd aan een webpagina. Hiermee creëerden we tegelijk een Hobson-keuze.

Met deze secundaire call-to-action konden bezoekers zich registreren als zorgprofessional versus alleen de primaire call-to-action waarmee je zorghulpmiddelen kunt bekijken en bestellen.

Secundaire call-to-action bij duxxie.nl

Resultaat
De toevoeging van een secundaire call-to-action op de webpagina zorgde voor een toename in conversieratio op nieuwe registraties van maar liefst +206%. Ook het conversieratio op de primaire call-to-action om zorghulpmiddelen te bestellen nam toe met +21%.

Voorbeeld #2. Volgorde van content

In een ander experiment voor zelfde website hebben we de volgorde van contentblokken op de homepage aangepast. We merkten dat het thema ‘Kraamzorg’ continu de hoogste clickthrough had.

Maar kwam dat omdat het een populair zorgthema is, of omdat het in het midden staat? En bezoekers daardoor onbewust daarnaartoe worden aangetrokken? Door de volgorde aan te passen, wilden we valideren of positie invloed heeft op clickthrough.

De volgorde van Content Blokken op de homepage zorgde voor een toename in CTR en conversie

Resultaat
De positie van een thema had wel degelijk invloed op clickthrough. Alle mogelijke posities hebben we getest. Eén variant kwam terug als winnaar waarbij de volgorde op alle contentblokken een hogere clickthrough opleverde.

Die variant hebben we nog een keer getest, maar ditmaal op conversie als success metric. En wat blijkt? Die variant zorgt niet alleen voor een hogere clickthrough, maar ook voor een toename van +10% in conversieratio.

Voorbeeld #3. Positie van content

Uit een analyse bij Philips merkten we dat bezoekers niet goed begrepen hoe een abonnement op tandenborstelkopjes werkte. Hoewel het wel benoemd staat op de webpagina. In deze A/B-test hebben we de volgorde van content op de webpagina aangepast.

De informatie hoe een abonnement werkt, is naar boven gehaald. We geloofden dat we hiermee bezoekers eerder konden informeren hoe een abonnement werkt, en daarmee conversie laten toenemen.

Door de volgorde aan te passen, nam het conversieratio af

Resultaat
Door de content over het abonnement naar boven te halen, nam het conversieratio af met -15,35%. Hoewel we er nog steeds in geloven dat het goed is om bezoekers te informeren over het abonnement, was dit niet de juiste positie om dit te doen.

Voorbeeld #4. Split-URL op productpagina

Wil je een compleet andere ervaring testen? Dan biedt een split-URL-test uitkomst. Hiermee dirigeer je een deel van je bezoekers naar een heel andere webpagina. Voor Flexx van DAS testten we de productpagina van de 30 Minuten Jurist.

We wilden er meer gevoel aan geven, omdat de 30 Minuten Jurist (letterlijk) een heel persoonlijk product is. Door een tweede webpagina in te richten, testten we deze twee ervaringen met elkaar.

Met een split-url test je twee totaal andere ervaringen met elkaar

Resultaat
De webpagina die we meer op gevoel hadden ingericht, zorgde voor een toename van +110% in bezoekers die het product in de winkelmand stopten. Een mooi resultaat! Tegelijkertijd is zo’n experiment onhandig om op te zetten. Want wat is nu de reden geweest dat ervoor zorgde dat meer bezoekers het product in de winkelmand stopten?

Was dat de productbox? De manier waarop copy werd gepresenteerd? De toevoeging van het iDEAL- en Thuiswinkel Waarborg-logo? Een combinatie? Probeer daarom niet te veel elementen in één keer te testen.

Voorbeeld #5. Weergave van vanaf-prijzen

Reizigers die parkeren op Schiphol kunnen een parkeerplek online reserveren. Maar we merkten dat veel reizigers na hun reservering negatieve feedback gaven. Op de productpagina stond namelijk een vanaf-prijs gecommuniceerd, maar die week vaak (sterk) af van de prijs die reizigers voor hun gekozen periode betaalden.

In dit experiment hebben we de vanaf-prijzen verwijderd van de webpagina. Om te valideren of (negatieve) feedback daardoor afnam, maar ook of dit effect had op het conversieratio.

De weergave van prijzen had voor Schiphol Parking een groot effect

Resultaat
Door geen vanaf-prijzen te tonen op de productpagina nam negatieve feedback af met maar liefst -52%. En het conversieratio op de parkeerproducten? Dat nam zelfs een beetje toe met +0,21%. Oftewel, de conversie bleef hetzelfde en de negatieve feedback nam sterk af.

Illustratie van drie mensen die testresultaten analyseren.

Gebruik een A/B-test, maar niet alleen omdat het kan

Eigenlijk kan iedereen een experiment opzetten. Zorg er alleen voor dat het voor jezelf en collega’s duidelijk is waarom je een experiment opzet. Voorkom dat je experimenteert om het experimenteren. Gewoon omdat het kan.

Met een onderbouwde hypothese en solide roadmap optimaliseer je in no-time je digitale kanalen. Helemaal als je experimenten gebaseerd zijn op data en minder op onderbuikgevoel.