âQuelle est la taille de lâĂ©chantillon que je dois prendre pour ma recherche utilisateur ?â - câest probablement la question que lâon pose le plus, surtout quand on dĂ©bute.
Elle se pose particuliĂšrement pour les Ă©tudes qualitatives, oĂč on a toujours peur que les retours obtenus ne soient pas suffisamment nombreux pour prendre les bonnes dĂ©cisions. Et câest lĂ quâun chiffre en particulier ne cesse de remonter : le fameux chiffre 5 !
5 utilisateurs suffiraient pour apprendre tout ce dont on a besoin dâapprendre đ€
Pourtant ce nâest pas aussi simple : 5 nâest pas un chiffre magique que lâon peut sortir Ă toutes les sauces et en toutes conditions, tous les experts sâaccordent lĂ dessus. Mais ce mythe a la peau dure, et la communautĂ© a du mal Ă sâen dĂ©faire.
Aujourdâhui, dĂ©mĂȘlons le vrai du faux, pour essayer de trouver une rĂ©ponse satisfaisante Ă notre question ! Il faudra pour cela aller jusque dans les fondements mathĂ©matiques de la thĂ©orie - si vous ĂȘtes allergique aux mathĂ©matiques, pas de panique, sautez directement au segment âPour rĂ©sumerâ ;)
Aux origines du mythes
En 1993, Jakob Nielsen (co-fondateur du célÚbre Nielsen Norman Group) et Thomas Landauer publient A mathematical model of the finding of usability problems.
Ce papier de recherche est rĂ©sumĂ© en 2000 dans lâarticle de blog Why You Only Need to Test with 5 Users qui fera le tour du monde - et est, Ă bien des Ă©gards, considĂ©rĂ© comme Ă©tant Ă lâorigine du mythe !
La conclusion de son article : 5 utilisateurs permettent de dĂ©couvrir 85% des problĂšmes dâune interface.
Comprendre le papier dâorigine
Comme tout texte scientifique, pour bien en comprendre la conclusion il faut avoir en tĂȘte les hypothĂšses et le contexte sur lequel le texte se fonde.
Cadre et définitions
Dans leur papier, Nielsen et Landauer sâintĂ©ressent uniquement aux tests utilisateurs et aux Ă©valuations heuristiques, dont lâobjectif est selon eux de dresser une liste la plus exhaustive possible de problĂšmes dâutilisabilitĂ© survenant sur une interface.
Un nouveau problÚme remonté = un élément ajouté à la liste.
Il nâest jamais question ni de gravitĂ©, ni de frĂ©quence, ni dâimpact sur le besoin utilisateur.
Dâailleurs, ces deux mĂ©thodes sont catĂ©gorisĂ©es comme des mĂ©thodes de debugging.
Objectif
Les auteurs cherchent Ă trouver une façon dâoptimiser les coĂ»ts dâune Ă©tude dâutilisabilitĂ©, en optimisant le ratio nombre de problĂšmes remontĂ©s / nombre de tests faits.
Cet aspect financier est trĂšs important : ils y dĂ©dient 2 pages sur 7 de leur papier. En effet, Nielsen milite depuis 1989 pour la Discount Usability, une approche de la recherche utilisateur itĂ©rative et âquick and dirtyâ, Ă une Ă©poque oĂč les mĂ©thodes de recherches sont trĂšs gĂ©nĂ©ralement soumises Ă des notions de rigueurs statistiques hĂ©ritĂ©es de la recherche acadĂ©mique. Selon lui, la perte en fiabilitĂ© des donnĂ©es rĂ©coltĂ©es est largement compensĂ©e par la flexibilitĂ© quâun format plus court et plus itĂ©ratif apporte - une notion peu acceptĂ©e de ses pairs en 1993.
Constat
Nielsen et Landauer se basent sur la loi des rendements dĂ©croissants. LâidĂ©e est la suivante : si vous testez avec deux personnes, il est probable quâune partie des problĂšmes quâils remontent soient les mĂȘmes. Si vous testez avec une troisiĂšme personne, idem, elle remontra sĂ»rement des problĂšmes dĂ©jĂ en partie Ă©tĂ© dĂ©tectĂ©s soit par le testeur 1, soit par le testeur 2, soit par les deux.
Par conséquent, plus on a de testeurs, plus on tombe souvent sur des problÚmes déjà rencontrés, et moins on découvre des problÚmes nouveaux.
Ils vont donc chercher Ă dĂ©terminer Ă partir de combien de tests est-ce quâil nâest plus rentable de continuer dâen faire, car le nombre de problĂšmes remontĂ©s sera trop faible par rapport Ă lâinvestissement (tant financier quâen temps humain) que demande un test.
ModÚle mathématique
Attention, câest lĂ quâon rentre dans le dur du sujet ! Si vous nâavez pas envie dâentrer Ă ce niveau de dĂ©tails, vous pouvez sauter directement Ă nos conclusions ! Promis, on ne dira rien đ
Cette loi des rendements dĂ©croissants peut ĂȘtre modĂ©lisĂ©e selon cette formule :
P = N(1-(1-L)^n)
avec :
- P le nombre de problÚmes rencontrés
- N le nombre de problĂšmes au total
- n le nombre dâutilisateurs avec qui on teste
- L la proportion moyenne de problĂšmes rencontrĂ©s par un utilisateur (si en moyenne chaque utilisateur remonte 20% des problĂšmes dâune interface, et en rate 80%, alors L=0,2).
L Ă©tant une moyenne, pour augmenter la fiabilitĂ© du modĂšle, il faut que lâĂ©chantillon dâutilisateurs pour des tests soit Ă peu prĂšs homogĂšne, câest-Ă -dire, quâil sâagisse dâutilisateurs reprĂ©sentatifs de la mĂȘme population.
RĂ©sultat
Les auteurs avancent empiriquement que L = 0,31 (31%), ce qui donne le graphique suivant :
Effectivement, dâaprĂšs ces rĂ©sultats, avec n = 5, on trouve 85% des problĂšmes dâune interface. De plus, on voit bien que, au delĂ de 5, chaque nouvel utilisateur avec qui on teste ne rapporte que peu de nouveaux problĂšmes dĂ©tectĂ©s (seulement +5% avec le testeurs 6, +3% avec le testeur 7, etc).
En rĂ©alitĂ©, le papier de 1993 nâinsiste pas tellement sur le chiffre de 5, mais plutĂŽt sur le modĂšle crĂ©Ă©, qui selon les auteurs doit servir de base pour aider les Ă©quipes de dĂ©veloppement Ă prĂ©dire le bon nombre de tests pour faire avancer leur projet tout en optimisant le ROI de la recherche utilisateur.
Câest surtout Nielsen qui pousse le chiffre 5, avec ses diffĂ©rents articles notamment ceux publiĂ©s en 2000, 2009 et 2012, dans lesquels il dit explicitement que tester avec 5 utilisateurs suffit.
Les problĂšmes
Peut-ĂȘtre que vous ĂȘtes en train de vous dire : âMais du coup, je ne vois pas le problĂšme ! Le fondement mathĂ©matique derriĂšre ces dires semble solide !â
Oui et non ! Il existe en fait deux catégories de problÚmes qui font que cette affirmation - devenue axiome du monde de la recherche utilisateur depuis le temps - est en réalité un mythe :
- ceux liés à une sur-simplification ou à une mauvaise interprétation de cette théorie
- ceux liĂ©s aux limites mĂȘmes du modĂšle de Nielsen et Landauer
ProblĂšmes de sur-simplification
Souvenez-vous de vos cours de mathĂ©matiques. Vous avez sĂ»rement dĂ©jĂ Ă©tĂ© repris·e par votre professeur pour avoir essayĂ© dâappliquer un thĂ©orĂšme sans avoir vĂ©rifiĂ© dâabord si les conditions du thĂ©orĂšme sâappliquaient.
Eh bien, câest souvent ce quâil se passe quand on interprĂšte lâaffirmation : tester avec 5 utilisateurs suffit !
Voici des erreurs communes que lâon voit passer :
1. Appliquer la rÚgle des 5 testeurs aux mauvaises méthodes
Cette erreur survient dĂšs quâon oublie que Nielsen parle de trouver 85% des problĂšmes dâune interface lors de tests utilisateurs.
La dĂ©marche qui lâintĂ©resse est Ă la fois Ă©valuative et qualitative, et ses rĂ©sultats ne peuvent ni sâappliquer aux mĂ©thodes quantitatives, ni aux mĂ©thodes exploratoires.
Il faut donc Ă©viter :
- â de faire des interviews avec uniquement 5 personnes : dans le cadre dâinterviews, lâobjectif est de comprendre lâexpĂ©rience, les motivations et besoins dâune population. La nature des donnĂ©es est diffĂ©rente, et couvre des notions bien plus larges que celle de âproblĂšmes dâune interfaceâ. Il paraĂźt donc logique quâon ne puisse pas faire le tour dâun sujet exploratoire en 5 personnes seulement. Lâentreprise de Nielsen le dit elle-mĂȘme, les interviews ne sont pas des tests dâutilisabilitĂ©, et 5 interviews, ce nâest pas suffisant. Mais du coup, quâest-ce qui lâest ? Il nâexiste pas de rĂšgle gĂ©nĂ©rale, si ce nâest : arrĂȘtez-vous quand vous aurez lâimpression de ne plus rien apprendre. Cela peut arriver au bout de 10 interviews, comme cela peut arriver au bout de 50.
- â de faire des tests non-modĂ©rĂ©s avec uniquement 5 personnes : lâobjectif et les mesures ne sont pas les mĂȘmes, et la rĂšgle des 5 ne sâapplique donc pas. LĂ oĂč lâobjectif de Nielsen, en test qualitatif est dâobtenir une liste de problĂšmes, son objectif en quanti est plutĂŽt de savoir combien rencontrent ce problĂšme, Ă quelle Ă©chelle, avec quel impact, Ă travers des mesures de durĂ©e, de frĂ©quence etc. Ces mesures ont dâavantage le besoin dâĂȘtre fiables statistiquement, et ainsi la recommandation de Nielsen lui mĂȘme est de passer plutĂŽt Ă 20 testeurs, ou 40, selon la marge dâerreur que vous ĂȘtes prĂȘt·e Ă accepter.
- â de faire des questionnaires avec uniquement 5 personnes : mĂȘme si cela paraĂźt pour la plupart complĂštement logique, rappelons-le tout de mĂȘme ! Avec un questionnaire, lâobjectif est souvent de pouvoir extrapoler les rĂ©sultats obtenus auprĂšs dâun Ă©chantillon Ă une population plus large. La signification statistique de cet Ă©chantillon devient alors essentielle. Heureusement, de nombreux calculateurs en ligne peuvent vous aider Ă en dĂ©terminer la bonne taille.
đ€ A noter : on parle depuis le dĂ©but de mĂ©thodes de recherche appliquĂ©es Ă de lâinterface. Est-ce que la thĂ©orie de Nielsen sâapplique aussi au test dâobjets physiques ou de services ? Peut-on trouver 85% des problĂšmes dâergonomie dâun siĂšge, ou des frictions rencontrĂ©es par un voyageur Ă lâaĂ©roport, avec 5 participants ? Malheureusement, lors de la rĂ©daction de cet article, nous nâavons pas trouvĂ© dâĂ©lĂ©ments de rĂ©ponse Ă cette question en particulier ! Affaire Ă suivreâŠ
2. Prendre nâimporte quelles 5 personnes
Nielsen le mentionne uniquement de façon passagĂšre dans son papier de recherche et dans son article, sĂ»rement parce que câest un fondement de la recherche utilisateur quâil nâa pas jugĂ© utile de rĂ©pĂ©ter - cependant, il aurait probablement du !
Pour que la recherche utilisateur soit valide (quelle que soit la méthode), il faut que les utilisateurs soient représentatifs de la cible du produit testé.
Ainsi quand on dit âtester avec 5 utilisateurs suffit !â on dit bien utilisateur (ou Ă la rigueur, potentiel utilisateur), et non âpersonneâ.
Si vous testez votre application de recherche dâemploi avec vos parents Ă la retraite depuis 10 ans, vous pouvez ĂȘtre sĂ»r·e que vous nâobtiendrez pas des rĂ©sultats aussi exhaustifs ni aussi pertinents que si vous testiez avec des personnes en recherche dâemploi en ce moment mĂȘme.
đĄ Trouver des utilisateurs reprĂ©sentatifs de votre cible vous paraĂźt plus facile Ă dire quâĂ faire ? Laissez-nous vous aider ! Chez Tandemz, câest notre spĂ©cialitĂ© ! Vous ne nous croyez-pas ? Jetez un oeil aux recrutements passĂ©s que nous avons dĂ©jĂ effectuĂ©s !
3. Tester avec 5 utilisateurs aux profils trop différents
Le modĂšle de Nielsen ne fonctionne rĂ©ellement que si les utilisateurs qui testent sont reprĂ©sentatifs de la mĂȘme cible.
Note : il nâexplique pas exactement pourquoi dans son texte, mais cela doit ĂȘtre du au fait que dans sa formule, un Ă©lĂ©ment important est la variable L, la proportion moyenne de problĂšmes rencontrĂ©s par un utilisateur. Or, pour que cette moyenne fasse rĂ©ellement sens, il faut que les utilisateurs aient des profils et des comportements comparables. Sinon, câest comme dire quâun fruit pĂšse en moyenne 500g, sans distinguer les pommes des pastĂšques !
Ce point est souvent nĂ©gligĂ©, et il nâest du coup pas rare de voir des Ă©tudes faites avec 5 personnes, chaque personne devant reprĂ©senter Ă elle seule toute une cible. En rĂ©alitĂ©, si vous avez plusieurs cibles (par exemple, une cible dâutilisateurs finaux et une cible dâadministrateurs, ou mĂȘme, une cible jeune et une cible plus ĂągĂ©e), il faudrait tester avec 5 personnes de chaque cible pour rĂ©ellement appliquer les recommandations de Nielsen.
4. Faire un test de 5 personnes et sâarrĂȘter lĂ
Comment mentionnĂ© plus haut, lâobjectif premier de Nielsen Ă©tait de maximiser le ROI des tests dâusabilitĂ©. En effet, dans les annĂ©es 90, il cherche Ă pousser les entreprises qui nâont ni les moyens ni le temps de faire de la recherche dâen faire quand mĂȘme - quitte Ă ĂȘtre moins rigoureux sur les mĂ©thodes traditionnelles. Mais Ă une condition : itĂ©rer !
Dans cette mĂȘme veine, Nielsen a toujours recommandĂ© de faire de multiples itĂ©rations de 5 tests. En effet, dans un contexte oĂč les interfaces Ă©voluent trĂšs vite, il devient inutile de dresser en une fois une liste trĂšs exhaustive des problĂšmes dâutilisabilitĂ© dâun produit : il est probable que de toute façon, lâĂ©quipe de dĂ©veloppement ne puisse pas la rĂ©soudre dans son intĂ©gralitĂ©, rendant cette liste rapidement obsolĂšte aux grĂ©s des Ă©volutions de lâinterface. Il faut ainsi privilĂ©gier un suivi continu mais moins exhaustif, pour pouvoir aider les choix des Ă©quipes de dĂ©veloppement sur la durĂ©e.
Ainsi dĂšs le dĂ©part, lâaffirmation â5 utilisateurs permettent de dĂ©couvrir 85% des problĂšmes dâune interfaceâ vient avec son lot dâastĂ©risques, de âsiâ et de âmaisâ, qui ne la rendent pas applicable universellement. Malheureusement, et comme trop bien souvent, la communautĂ© sâest avant tout emparĂ©e dâune forme simpliste et fausse du modĂšle.
Mais mĂȘme si on prend bien en compte toutes ces nuances et paramĂštres, est-ce que le modĂšle de Nielsen est rĂ©ellement 100% fiable ?
Les limites du modĂšle
Est-ce que L = 0.31 est vraiment généralisable ?
Pour rappel, Nielsen avance empiriquement que, en moyenne, un utilisateur va trouver 31% des problĂšmes dâune interface. Câest de cette hypothĂšse appliquĂ©e Ă son modĂšle que dĂ©coule lâaffirmation â5 utilisateurs dĂ©couvrent 85% des problĂšmes dâune interfaceâ.
Si en fait L=0.2 (donc un utilisateur trouve 20% des problĂšmes), le chiffre pour trouver 85% des problĂšmes passe de 5 Ă 9. Câest presque le double ! Et avec 5 personnes, on ne trouve finalement plus que 67% des problĂšmes.
Or, cette variable L dépend en réalité de nombreux facteurs :
- du type dâutilisateurs (sont-ils novices ou plutĂŽt habituĂ©s de cette interface ?)
- de la complexitĂ© de lâinterface testĂ©e, et du scope des tĂąches du test
- du niveau dâitĂ©ration de lâinterface (en effet, si une interface est dĂ©jĂ passĂ©e par des itĂ©rations de tests et dâamĂ©liorations, thĂ©oriquement cela veut dire que les problĂšmes les plus Ă©vidents ont dĂ©jĂ Ă©tĂ© repĂ©rĂ©s et corrigĂ©s - ne restent plus que les problĂšmes plus subtils et donc moins dĂ©tectables)
- du niveau de lâĂ©valuateur
Il nây a donc aucune raison de penser que L=0.31 est vraiment gĂ©nĂ©ralisable.
Cela veut dire que pour utiliser de façon vraiment fiable la formule de Nielsen, il faudrait pouvoir calculer L. Sauf que, pour calculer L, il faut connaĂźtre le nombre total de problĂšmes dans lâinterface ! Un nombre quâon ne connaĂźt a priori pas, puisque tout lâintĂ©rĂȘt de la dĂ©marche de test dâutilisabilitĂ© est de les dĂ©couvrir.
Empiriquement, ça ne marche pas tout à fait
Plusieurs Ă©tudes qui ont suivi les travaux de Nielsen et Landauer ont eu pour dĂ©marche de tester un site avec un certain nombre dâutilisateurs, et de voir quelle proportion de problĂšmes ils auraient rĂ©ellement trouvĂ©s sâils sâĂ©taient arrĂȘtĂ©s Ă 5. Or surprise : on en trouve rarement 85% !
Celle que nous avons trouvé la plus intéressante (car il serait trop long de toutes les résumer) est la suivante :
En 2002, Faulkner publie un papier de recherche, dans lequel elle a rĂ©alisĂ© des tests avec 60 utilisateurs. Puis, Ă lâaide dâun logiciel, elle a crĂ©Ă© 100 sĂ©lections alĂ©atoires, en sets de respectivement 5, 10, 15 et 20 participants, pour ainsi simuler ce quâil se serait passĂ© si elle nâavait testĂ© quâavec ces participants.
Pour les sets de 5, elle remarque ainsi que selon les utilisateurs sur lesquels elle serait tombĂ©e, elle aurait pu espĂ©rer trouver entre 55% et 100% des problĂšmes - ce qui prĂ©sente une variance Ă©norme ! A noter tout de mĂȘme que, en moyenne sur les 100 sets de 5 utilisateurs, elle trouvait bien 85% des problĂšmes de lâinterface.
Pour les sets de 10 utilisateurs, elle Ă©tait plutĂŽt entre 82% et 100%, avec une moyenne de 95%
Et ainsi de suite :
Cette Ă©tude corrobore bien le modĂšle de Nielsen et Landauer, mais uniquement en moyenne ! RamenĂ©e au cas rĂ©el dâune Ă©tude terrain, cette moyenne ne peut pas malheureusement pas sâappliquer.
La réalité est donc plutÎt la suivante : avec 5 utilisateurs, vous trouverez entre 55% et 100% des problÚmes de votre interface ! A vous de voir ensuite si cet intervalle de taux est acceptable ou non.
Quid de la sévérité des problÚmes ?
Le modĂšle de Nielsen et Landauer ne se pose pas du tout la question de la sĂ©vĂ©ritĂ© dâun problĂšme. DĂ©couvrir 85% des problĂšmes, cela ne veut pas dire dĂ©couvrir 85% des problĂšmes les plus graves ni les plus bloquants !
On pourrait croire que plus un problĂšme est bloquant, plus il est Ă©vident, et donc plus il sera vu rapidement. Câest dâailleurs la thĂ©orie de Virzi de 1990 - or Nielsen et Landauer se sont beaucoup appuyĂ©s sur ses travaux pour crĂ©er leur modĂšle.
Pourtant, il a depuis Ă©tĂ© plutĂŽt thĂ©orisĂ© quâil nây a en fait aucune corrĂ©lation entre sĂ©vĂ©ritĂ© et dĂ©couvrabilitĂ© dâun problĂšme.
La question de la sĂ©vĂ©ritĂ© se pose du coup plutĂŽt dans lâautre sens : si 5 utilisateurs dĂ©couvrent 85% des problĂšmes, et quâil y a une probabilitĂ© non nulle que parmi les 15% restants, il y ait des problĂšmes graves, est-ce vraiment acceptable de sâarrĂȘter lĂ ? On pourrait par exemple donner lâexemple des produits avec des applications mĂ©dicales ou de navigation, oĂč le moindre dĂ©faut de conception ou de dĂ©veloppement peut Ă©ventuellement mettre en danger le bien-ĂȘtre voire la vie de leurs usagers.
Pour résumer
Lâaffirmation âTester avec 5 personnes suffitâ nâest pas complĂštement fausse - elle est juste trĂšs imprĂ©cise, et surtout, elle vient avec beaucoup de limites et de conditions quâil est facile dâoublier !
Lâaffirmation complĂšte devrait plutĂŽt ĂȘtre : Tester avec 5 utilisateurs permet de trouver entre 55% et 100% des problĂšmes dâune interface.
Mais attention, pour que cette affirmation soit réellement valable, il faut :
- â
Vous placer dans le cadre de tests dâutilisabilitĂ© dâune interface.
â Nâessayez pas de lâappliquer aux interviews exploratoires ni aux mĂ©thodes quantitatives ! - â
Tester avec 5 utilisateurs dans la cible de votre produit
â Avec des personnes Ă qui votre produit ne sâadresse pas, les taux de problĂšmes dĂ©couverts sont encore plus bas. - â
Tester avec 5 utilisateurs au profil et aux comportements similaires
â En prenant 5 utilisateurs trop diffĂ©rents, la fourchette de problĂšmes rencontrĂ©s devient carrĂ©ment alĂ©atoire. - â Sâassurer que chaque utilisateur trouve environ 30% des problĂšmes dâune interface  â En pratique, ce chiffre est non seulement trĂšs difficile Ă vĂ©rifier, il est aussi trĂšs variable. Or, moins vos utilisateurs trouvent de problĂšmes, plus il vous en faut pour vos tests !
- â Oublier les notions de frĂ©quences ou de criticitĂ© des problĂšmes. AprĂšs 5 tests, vous avez tout de mĂȘme la possibilitĂ© dâĂȘtre passé·e Ă cĂŽtĂ© de problĂšmes bloquants ou graves.
Si ce nâest pas 5, alors combien ?
Malheureusement, la seule vraie réponse est : ça dépend !
Eh oui, les facteurs qui influent sur la qualitĂ©, la pertinence et lâexhaustivitĂ© des retours sont tellement nombreux, quâen rĂ©alitĂ©, le seul moyen de savoir si on en a fait assez, câest⊠dâen avoir fait assez pour sâen rendre compte ! Comme pour les interviews, Ă partir du moment oĂč vous nâobtenez plus de retour nouveau, vous pouvez probablement considĂ©rer que vous avez fait le tour du sujet.
Oui on sait, cette rĂ©ponse apporte trĂšs peu satisfaction⊠Et câest bien lĂ le problĂšme : le manque de rĂ©ponse dĂ©finitive donne vraiment envie dâadhĂ©rer Ă cette thĂ©orie, si simple et si mĂ©morable, du â5 utilisateurs suffisentâ - et câest pour ça que le mythe sâest rĂ©pandu aussi vite !
Mais finalement, est-ce que câest la bonne question Ă se poser ?
Le modĂšle de Nielsen est avant tout un modĂšle dâoptimisation du ROI de la recherche. Il nâa jamais rĂ©ellement Ă©tĂ© question de savoir combien de personnes permettent de trouver combien de problĂšme - mais plutĂŽt, dâaccepter que :
- plus vous testez, plus cela vous coĂ»tera cher, en temps comme en argent - et ce coĂ»t nâest pas linĂ©aire, mais plutĂŽt exponentiel, Ă cause de la redondance que vous allez avoir au cours des tests
- moins vous testez, moins vous comprendrez ce quâil faut amĂ©liorer sur le produit, et plus vous avez de chance de laisser passer des problĂšmes qui peuvent sâavĂ©rer graves.
Le tout est de trouver un bon Ă©quilibre entre efforts de recherche et exhaustivitĂ© des rĂ©sultats - et dâaccepter les consĂ©quences de son choix.
Notre conseil ? DĂ©finissez dâabord votre prioritĂ© ainsi que le niveau de risque acceptable associĂ© ! Posez-vous ainsi les questions suivantes :
- Un problĂšme sur votre produit ou parcours peut-il avoir un impact grave sur vos utilisateurs ? Si oui, alors privilĂ©giez lâexhaustivitĂ©.
- Si non, avez-vous le budget et le temps de tester avec 15 personnes ? 10 personnes ? 5 personnes ? Si non, contentez-vous de ce que vous pouvez rĂ©aliser comme tests, et essayez dâitĂ©rer le plus souvent possible pour compenser.
- Si oui, et que ces personnes remontent beaucoup de problÚmes, aurez-vous la capacité de développement pour les corriger rapidement avant votre prochain cycle de test ? Ajustez alors la nombre de personnes visées en fonction de votre capacité de développement.
đ° Ce sujet des 5 utilisateurs qui suffisent est une des erreurs les plus communes en UX research, mais il en existe bien d'autres ! DĂ©couvrez-les dans le podcast de notre CPO les erreurs les plus communes en UX research pour apprendre Ă les reconnaĂźtre et les Ă©viter !