Terug naar blog

A/B Testen: Zo Ontdek je Wat Echt Werkt

Stel je voor: je verandert de kleur van een button en je omzet stijgt met 15%. Dit is wat A/B testen mogelijk maakt.

Steven Hulzinga
7 min
A/B Testen

Wat is A/B testen?

A/B testen (ook wel split testing) is een methode waarbij je twee versies van iets vergelijkt om te bepalen welke beter presteert. De helft van je bezoekers ziet versie A, de andere helft ziet versie B. Na genoeg data weet je welke beter werkt. In onze ervaring is dit de snelste manier om conversie te verhogen zonder je hele website om te gooien.

Hoe werkt het?

1
Je maakt twee versies: A (controle) en B (variant)
2
Je verdeelt bezoekers willekeurig over beide
3
Je meet welke versie beter scoort op je doel
4
Je implementeert de winnende versie

A/B test

Een element testen

Duidelijke hypothese, minder verkeer nodig. Ideaal voor de meeste bedrijven.

Multivariate test

Meerdere elementen tegelijk

Vereist significant meer verkeer. Alleen voor complexe paginas met hoog volume.

Waarom A/B testen?

Data-driven beslissingen. Geen discussies meer over ontwerp. De data beslist. Wat we vaak zien bij klanten is dat de winnende variant soms compleet tegen hun verwachtingen ingaat. Dat is precies waarom testen werkt - je laat je aannames los.

+17%

Booking.com

CTA tekst

+49%

Obama campagne

Email onderwerp

+24%

Hubspot

Formulier lengte

Data-driven

Feiten i.p.v. meningen

Risico verkleinen

Test incrementeel

Conversie verhogen

5% hier, 3% daar stapelt op

Wat kun je A/B testen?

Website elementen

Headlines

Test verschillende beloftes, lengtes, formuleringen

CTA buttons

Tekst, kleur, grootte, positie

Formulieren

Aantal velden, layout, labels

Afbeeldingen

Product vs lifestyle, met/zonder mensen

Prijspresentatie

Maandelijks vs jaarlijks, ankers

Email marketing

Onderwerpregel

Lengte, personalisatie, emojis

Verzendtijd

Dag, tijdstip, vertraging

Content

Lange vs korte emails, CTA plaatsing

Advertenties

Headlines

Value propositions en hooks

Afbeeldingen

Product, lifestyle, illustratie

Targeting

Verschillende doelgroepen

Het A/B test proces

1

Hypothese formuleren

Wat verander je, wat verwacht je, en waarom?

2

Varianten maken

Verander slechts een element per test.

3

Test opzetten

Kies tool, percentage verkeer, primaire metric.

4

Verkeer splitsen

De tool verdeelt bezoekers willekeurig.

5

Data verzamelen

Min. 100 conversies per variant of 2 weken.

6

Resultaten analyseren

Conversieratio, significantie (min. 95%).

7

Implementeren

Winnaar doorvoeren en volgende test starten.

A/B test tools

Gratis opties

Clarity + Experiments

Kleine sites

Gratis

PostHog

Tech-savvy teams

Gratis tier

Growthbook

Developers

Open source

Betaalde tools

Aanbevolen

VWO

Gebruiksvriendelijk

199/mnd

Optimizely

Schaalbaar

Enterprise

AB Tasty

AI personalisatie

500+/mnd

Convert

Privacy-vriendelijk

99/mnd

A/B test voorbeelden

1

Button kleur

Situatie

E-commerce site met groene "In winkelmand" button

Hypothese

Oranje valt meer op tegen de groene huisstijl

Test

Groen (A) vs oranje (B)

Resultaat

Oranje +12% clicks

Contrast is belangrijker dan huisstijl-consistentie

2

Headline

Situatie

SaaS landing page met feature-gerichte headline

Hypothese

Benefit-gerichte headline resoneert beter

Test

"Projectmanagement software" vs "Lever projecten 30% sneller op"

Resultaat

Benefit-gericht +23% signups

Mensen kopen resultaten, niet features

3

Prijspresentatie

Situatie

Abonnementsdienst toont alleen jaarprijs

Hypothese

Maandelijkse breakdown voelt toegankelijker

Test

"249/jaar" vs "20,75/maand (249/jaar)"

Resultaat

Maandelijks +8% conversies

Lagere getallen voelen minder als drempel

4

Formulier lengte

Situatie

Lead formulier met 8 velden

Hypothese

Minder velden = meer leads

Test

8 velden vs 4 velden

Resultaat

4 velden +35% submissions, 15% lagere lead-kwaliteit

Niet alleen aantal telt, ook kwaliteit

Veelgemaakte fouten

Te vroeg stoppen

Dit zien we het vaakst: na 3 dagen al conclusies trekken. Kleine steekproeven geven onbetrouwbare resultaten. Wacht tot statistische significantie.

Te veel tegelijk testen

Als je meerdere elementen verandert, weet je niet wat werkte. Een les die we leerden: een element per test.

Verkeerde metric kiezen

Hogere CTR is mooi, maar als conversies dalen heb je niets. Wij adviseren: kies de metric die direct aan omzet raakt.

Te weinig verkeer

Met 100 bezoekers per maand kun je niet betrouwbaar testen. In onze ervaring heb je minimaal 1.000 per variant nodig.

Niet segmenteren

Wat we vaak tegenkomen: een test wint overall maar verliest op mobiel. Resultaten kunnen per segment sterk verschillen.

Veelgestelde vragen

Minimaal tot je statistische significantie bereikt, met een minimum van 2 weken. Korter leidt tot onbetrouwbare conclusies door dagelijkse en wekelijkse variaties in bezoekersgedrag.

Lastig. Met minder dan 1.000 bezoekers per maand duurt een test maanden. Overweeg dan grotere veranderingen of focus eerst op meer verkeer genereren.

Geen significant verschil is ook een resultaat. Het betekent dat dit element niet de bottleneck is. Test iets anders.

Idealiter wel. Gedrag verschilt sterk per device. Een winnaar op desktop kan verliezen op mobiel.

Technisch meerdere, maar alleen op verschillende paginas. Twee tests op dezelfde pagina verstoren elkaar.

Verder lezen

Hulp nodig met conversie optimalisatie?

We helpen MKB bedrijven met het opzetten van een test-cultuur.

Gratis gesprek plannen