10 veelgemaakte fouten bij usability tests & hoe je die voorkomt

10 veelgemaakte fouten bij usability tests & hoe je die voorkomt

Al decennialang zijn usability tests een hele effectieve methode om de gebruiksvriendelijkheid van websites en apps te verbeteren. En alhoewel het uitvoeren van een usability test vrij eenvoudig is, zit de duivel in de details. In dit artikel behandel ik 10 veelgemaakte fouten bij het uitvoeren van een usability test. Zodat jij deze fouten niet meer hoeft te maken.

Iedereen kan usability testen 🎉

Het organiseren van een usability test is vrij eenvoudig en hoeft niet al te veel te kosten. Niet voor niets zie je ook steeds vaker dat mensen buiten het domein van UX en Research zelf aan de slag gaan met usability tests. Door regelmatig (delen van) je digitale product te testen, verbeter je de usability en toegankelijkheid ervan. Bovendien kom je zo structureel in contact met je eindgebruikers en daar leer je altijd van.

Usability testen 101

Een korte introductie: usability tests zijn een vorm van kwalitatief onderzoek. Tijdens de test geef je jouw respondenten – mensen die je doelgroep vertegenwoordigen – opdrachten om uit te voeren op jouw site, app of prototype. Vervolgens observeer je hoe de respondent je digitale product gebruikt. Doordat je vijf tot zeven respondenten dezelfde opdrachten geeft, leer je snel welke onderdelen van je website goed werken en waar verbeteringen nodig zijn. Wil je meer weten over het hoe en wat van usability tests? Lees dan dit uitgebreide artikel van Nielsen Norman Group: Usability (User) Testing 101

10 veelgemaakte fouten bij usability tests

  1. Geen testscript schrijven
  2. Respondenten werven uit je klantenpanel
  3. Geen vergoeding aanbieden
  4. Consent voor opnames vergeten
  5. Te snel met opdrachten beginnen
  6. Vragen beantwoorden van je respondent
  7. Bang zijn voor ongemakkelijke stiltes
  8. De taal van je respondent niet spreken
  9. Te regide met je testscript omgaan
  10. Feedback van respondenten 1-op-1 overnemen

1. Geen testscript schrijven

Vanzelfsprekend, moet je goed weten wat je wil testen. Een bullet-lijstje met testopdrachten is echter niet voldoende. Het is belangrijk dat elke respondent dezelfde vragen en opdrachten krijgt. Want alleen op die manier kun je aan het eind van de dag bepalen in hoeverre een bepaalde taak goed ondersteund wordt door je digitale product. Een goed testscript bevat een kort interview vooraf (10 min), de opdrachten (25 min) en evaluatie (5 min). Schrijf de tekst van je script tot in detail uit. Zo zorg je ervoor dat je bij elke respondent de opdrachten en vragen op dezelfde manier voorlegt. Alleen dan kun je aan het eind van de testdag een goede vergelijking maken.

Met potlood getekend bord met een potloodje die erop ligt.

Niet geheel onbelangrijk: doe een dry-run van je testscript met een collega. Hiermee kun je testen of alle opdrachten helder zijn. Zonder dry-run kun je erachter komen dat taken onduidelijk zijn of onuitvoerbaar zijn. Dit leidt niet alleen tot frustratie bij respondenten, maar ook tot verloren testtijd.

2. Respondenten werven uit je klantenpanel

De eerste vraag die je bij het organiseren van de usability test stelt is: hoe komen we aan respondenten? Ik hoor vaak: ”Oh, maar we hebben een klantpanel dat we kunnen inschakelen.” Hoewel het verleidelijk is om zo’n klantenpanel te gebruiken, is dit vaak niet representatief. Deze mensen kennen je organisatie al iets te goed en hebben andere verwachtingen dan een nieuwe gebruiker. Dit kan je resultaten behoorlijk kleuren. Werf liever respondenten buiten je vaste groep, bijvoorbeeld via social media, promotie op je website of schakel een wervingsbureau in. Gezien het lage aantal respondenten – vijf tot zeven per test is de stelregel – zijn de kosten voor externe werving niet al te hoog.

3. Geen vergoeding aanbieden

Je vraagt je respondenten om hun tijd en energie, dus een kleine vergoeding is op zijn plaats. Zonder vergoeding is het werven vaak een stuk lastiger. Bovendien is de kans op no-show een stuk groter. Een cadeaubon is daarin heel gangbaar (en makkelijker te regelen). Reken op €40 – €75,- per respondent – afhankelijk van de lengte van de test en het type respondent.

4. Consent voor opnames vergeten

Voordat je video-opnames of andere data verzamelt, heb je expliciete toestemming van de respondent nodig. Zorg dat ze een toestemmingsformulier (informed consent) ondertekenen waarin duidelijk staat hoe de gegevens worden gebruikt en bewaard. Er zijn online talloze voorbeelden te vinden die je vrij eenvoudig kunt hergebruiken of laten maken door je AI-assistent.

Een met potlood getekende fotocamera

5. Te snel met opdrachten beginnen

Zoals gezegd; een test begint met kort interview. Daar zit ook gelijk de kracht van een usability test. Je ontdekt niet alleen hoe gebruikers jouw site of app ervaren door middel van de opdrachten, je leert ook meer over de achtergrond en leefwereld van je doelgroep. Je wil weten wie er tegenover je zit. Hoe hij of zij naar jouw organisatie kijkt en wat meer te weten komen over de belevingswereld van deze persoon. Dit geeft je veel meer context tijdens het analyseren van de test zelf. Bovendien kun je de antwoorden tijdens het interview slim verwerken in de testopdrachten. Daarover straks meer.

6. Vragen beantwoorden van je respondent

Respondenten hebben vaak de neiging om jou als onderzoeker vragen te stellen. “Moet ik hier kijken of juist hier?” of “Zal ik dan de zoekfunctie gebruiken?”. Het is verleidelijk om dan te helpen. Ook met een semi-neutraal antwoord als: “Ja, dat kan” geef je sturing en verlies je een waardevol moment om te zien waar je digitale product tekortschiet. Zeg liever: “Probeer dat zelf maar uit te zoeken.” Het design van je site of app moet immers intuïtief genoeg zijn om zelf te ontdekken waar ze moeten zijn.

Pas ook op met goed bedoeld enthousiasme van jouw kant. Een grote glimlach, “aha” of “interessant” zijn al cues voor de respondent om die richting in te zoeken. Bovendien zal de respondent zich tijdens de test bezighouden met wat jij ervan vindt. En dat wil je juist niet. Jouw rol in het uitvoeren van de taken moet zo minimaal mogelijk zijn. Knik kort, blijf neutraal en zeg zo min mogelijk.

7. Bang zijn voor ongemakkelijke stiltes

Tijdens de test is het heel normaal dat er stiltes vallen. Je respondent is iets aan het lezen, vult iets in, gaat nog een keer terug naar het vorige scherm, probeert iets opnieuw. Het idee is daarbij om je respondenten te stimuleren om hardop te denken (thinking out loud). Zo krijg je meer inzicht in het gedachteproces van de respondent. Hier sluipt echter wel het gevaar dat je de respondent te snel onderbreekt. Door hem of haar te vragen wat hij ergens bij denkt of wat hem opvalt. Probeer daarin te doseren en geef ruimte voor die ‘ongemakkelijke’ stiltes.

Een met potlood getekende hand op een laptop

8. De taal van je respondent niet spreken

Gebruik de woorden die je respondent zelf gebruikt. Want woorden die je gebruikt in je opdrachtomschrijving, geven sturing aan de respondent. Je respondent gaat vaak letterlijk op zoek naar de woorden die je gebruikt. Als je op de site van een verzekeraar iemand laat zoeken naar een verzekering voor zijn of haar ‘fatbike’ of ‘bromfiets’ maakt dat woord nogal uit hoe iemand de taak start. Het interview aan het begin van de test helpt je om de woorden te achterhalen die de respondent gebruikt. Verwerk die slim in je testopdrachten.

9. Te regide met je testscript omgaan

Een testscript is een leidraad, geen wet. Als een respondent afwijkt van je plan, kan dat waardevolle inzichten opleveren. Stel dat een deelnemer tijdens een test spontaan een interessante feature of sectie probeert die niet in je script staat: laat dat vooral gebeuren. Het kan je helpen onverwachte verbeterpunten te ontdekken.

Een met potlood getekende vrouw die achter een computer zit en een test uitvoerd.

10. Feedback van respondenten 1-op-1 overnemen

Tot slot: neem niet alles wat respondenten zeggen en doen te letterlijk. De ervaring van één respondent betekent niet dat je de boel volledig om moet gooien. Kijk naar patronen in het gedrag en analyseer of de feedback daadwerkelijk een knelpunt in de user experience blootlegt.

De afbeeldingen in dit artikel zijn gemaakt met ChatGPT & Adobe Firefly.

Blog