Te weinig bezoekers om te kunnen A/B testen? Geen probleem

Het probleem: Je website krijgt weinig bezoekers. A/B tests duren maanden. Resultaten zijn onbetrouwbaar. Maar je wilt wel je conversieratio verbeteren.
De oplossing: Andere methoden die wél werken met weinig verkeer.
→ Kwalitatief onderzoek
→ Gebruikersfeedback
→ Alternatieve testmethoden
→ Heuristische analyse
Tip: In dit artikel van mij lees je alles over A/B test statistiek voor beginners.
Waarom A/B testing faalt bij weinig verkeer
In het kort: je krijgt onbetrouwbare resultaten en het kost te veel tijd.
De harde cijfers
Voor betrouwbare A/B tests heb je nodig:
- 13.000+ gebruikers per variant voor 10% verbetering [1]
- 50.000+ gebruikers voor 5% verbetering [3]
- 340.000 gebruikers voor 2% verbetering
Websites onder 30.000 maandelijkse bezoekers zitten in de "zeer onbetrouwbare zone" [2].
→ Alleen verbeteringen van 30%+ zijn detecteerbaar
→ Statistische power vaak onder 26% [4]
→ Je mist 3 van 4 echte verbeteringen
Praktijk: Website met 100 bezoekers/dag en 2% conversie heeft 1 jaar nodig voor één betrouwbare test [6].
Kwalitatief onderzoek: de beste methode om je conversie te verbeteren als je weinig bezoekers hebt
Uitbesteden? Ik kan een CRO onderzoek uitvoeren voor jou.
1 - Gebruikersinterviews
Nielsen's onderzoek: 80-85% van problemen vind je met 5-8 deelnemers [12]
Beste vragen:
- "Wat hield je bijna tegen om te kopen?"
- "Welke alternatieven heb je bekeken?"
- "Wat was de doorslag om te kiezen?"
Praktijkvoorbeeld: SaaS bedrijf ontdekte verwarrende pricing. Kleine aanpassing → 42% meer conversies [13]
2 - Session recordings en heatmaps
Hoogste ROI voor low-traffic sites
Tools:
- Microsoft Clarity (gratis)
- Hotjar (€32/maand)
Waar naar kijken:
- Rage clicks (veel klikken op zelfde plek)
- Form abandonment (formulieren niet afgemaakt)
- Scroll behavior (hoe ver scrollen mensen)
Lees hierover inmijn heatmap gids.
Voorbeeld: E-commerce site zag dat mobiele "In winkelwagen" knop onzichtbaar was. Fix → 34% meer mobiele conversies
3 - Guerrilla testing
Methode:
- 3-5 deelnemers in coffeeshop/openbare ruimte
- Specifieke taken laten uitvoeren
- Observeren zonder ingrijpen
- Grote problemen binnen uren gevonden
→ Focus op taakcompletie
→ Niet op voorkeuren [15]
4 - Exit-intent onderzoek
Simpele implementatie:
- Pop-up bij weggaan: "Wat hield je tegen om te bestellen?"
- Korte, duidelijke vraag
- Directe feedback van echte bezoekers
5 - Copy testen zonder bezoekers
Panel-based testing:
- Wynter.io: €100+ voor doelgroep feedback [16]
- Target audience beoordeelt je teksten
- Snelle feedback zonder site traffic
Voorbeeld: B2B bedrijf vereenvoudigde technische taal → 55% meer leads
6 - Quick scan door een CRO specialist
Een tear-down van je website
- Een CRO specialist bekijkt je site
- Vindt de grootste problemen
- Biedt concrete oplossingen
Bijvoorbeeld door Gijs Wierda: CRO quickscan
Wil je toch A/B testen? Dan zijn dit alternatieve statistische methodes die wél werken
Traditionele A/B testing statistiek werkt niet bij weinig verkeer. Maar er zijn alternatieven.
Met weinig bezoekers blijft de beste optie: kwalitatief onderzoek.
Heb je toch aardig wat verkeer, en wil je beginnen met A/B testen? Dan kun je ook gebruik maken van de onderstaande vier methoden die werken met kleinere samples en sneller resultaten geven.
Ik leg het bondig uit, maar zoek zeker meer info op voordat je hiermee start.
1 - Bayesiaanse A/B testing
Verschil met traditioneel testen:
- Traditioneel: "Is er wel/geen verschil?"
- Bayesiaans: "Hoe waarschijnlijk is variant B beter?"
Tip: In dit artikel van mij lees je alles over A/B test statistiek voor beginners en de verschillen in meer detail beschreven.
Voordelen:
- 75% minder bezoekers nodig [7]
- Continu monitoren zonder straffen
- Intuïtieve resultaten: "90% kans dat B beter is"
Tools: mijn Bayesian calculator of die van abtestguide.com
2 - Multi-armed bandit algoritmen
Hoe het werkt:
- Verdeelt verkeer automatisch
- Betere varianten krijgen meer traffic
- Slechtere varianten krijgen minder
Resultaat: 20-30% meer conversies tijdens testperiode [9]
Voorbeeld: P&O Cruises genereerde €1,3 miljoen extra omzet met Evolv AI [10]
3 - Sequential testing (SPRT)
Voordeel: 80% minder observaties nodig [11]
Hoe het werkt:
- Evalueert continu na elke bezoeker
- Stopt zodra voldoende bewijs verzameld
- 500 gebruikers in plaats van 2.000+
4 - Voor/na vergelijking
Simpelste methode:
- Meet 4 weken conversie rate
- Maak verandering
- Meet opnieuw 4 weken
- Vergelijk resultaten
→ Niet wetenschappelijk perfect
→ Wel praktisch bruikbaar
→ Let op seizoenseffecten
Actieplan: begin vandaag
Stop wachten op perfecte A/B tests.
Begin met:
- ☑ Gebruikersonderzoek starten
- ☑ Klanten bellen
- ☑ Session recordings bekijken
- ☑ Grootste problemen binnen dagen vinden
Kernprincipe: Meer omzet is belangrijker dan perfecte wetenschap.
→ Start met wat je hebt
→ Verbeter wat je kunt
→ Meet wat mogelijk is
→ Begrijp je klanten
Je website hoeft niet perfect te zijn. Het hoeft alleen beter te zijn dan gisteren.
Ben je een (marketing) manager en wil je meer weten over CRO?
Dan heb ik meerdere artikelen geschreven die vast verder op weg helpen.
- Conversie-optimalisatie: bureau, freelancer of zelf doen?
- 25 CRO-vragen die iedere marketing manager stelt (en de eerlijke antwoorden)
- Wat kost conversie-optimalisatie?
- Conversie-optimalisatie KPI's voor managers
Wil je professioneel aan de slag met conversie-optimalisatie?
Dan kun je mij als CRO specialist inhuren, een bureau inhuren of zelf een team samenstellen. De beste keuze hiervoor is afhankelijk van je situatie en leg ik uit in dit artikel: conversie-optimalisatie: bureau, freelancer of zelf doen?
Referenties
- Deng, L. (2020). Required Sample Size for A/B Testing. Towards Data Science. ↑
- Convertize. (2024). AB Testing Sample Size: The 4 Levels of Difficulty you Need to Know. ↑
- Nielsen Norman Group. (2023). Measuring 1% Increase in Sales Through A/B Testing. ↑
- Analytics Toolkit. (2017). The Importance of Statistical Power in Online A/B Testing. ↑
- Georgieva, G. (2019). A/B Testing with a Small Sample Size. Analytics Toolkit. ↑
- CXL. (2024). How To Do Conversion Optimization With Very Little Traffic? ↑
- Towards Data Science. (2021). Bayesian A/B Testing and its Benefits. ↑
- Dynamic Yield. (2024). The Power of Bayesian A/B Testing. ↑
- VWO. (2024). What is Multi-Armed Bandit(MAB) Testing? ↑
- Evolv AI. (2024). AI-led Experience Optimization Platform. ↑
- Chou, C. (2020). Sequential Probability Ratio Test: SPRT and Mixture SPRT. Medium. ↑
- Nielsen, J. (2012). How Many Test Users in a Usability Study? Nielsen Norman Group. ↑
- Convert. (2024). Qualitative Research: 5 Ways To Find Out What Your Customers (Truly) Want. ↑
- UXCam. (2024). What are Session Recordings? Guide, Tools and Best Practices. ↑
- Entropik. (2024). Guerrilla Usability Testing: The Ultimate Guide. ↑
- Wynter. (2024). Message Testing Platform for Target Audience Feedback. ↑
- Speero. (2024). Evolve your prioritization from ICE or PIE to PXL Framework. ↑
- CXL. (2023). Optimizing a Low Traffic Site for a 13.5% Uplift [Case Study]. ↑
- CXL. (2023). Bob & Lush Premium Pet Food Case Study. ↑
- Drive Research. (2023). Case Study: User Experience (UX) Research Produces 665% ROI. ↑
- Laja, P. (2024). How to Create a Conversion Rate Optimization (CRO) Process. CXL. ↑
- Conversion Rate Experts. (2024). Why CRO is hard for startups and low‑traffic websites (and how to overcome it). ↑