Merci, c'était très clair.
En ABX audio, il est tout indiqué de faire des tests croisés car :
- Contrairement à la médecine, il suffit qu'une seule personne "réponde au traitement" (c-a-d différencie A de B) pour que l'on soit raisonnablement sûr que A et B sont différents (les personnes aux oreilles bioniques sont rares). En médecine, on veut être sûr que le traitement marche sur l'ensemble de la population (au moins sur l'ensemble de l'échantillon testé), et le corps humain répond de manière individuelle et parfois différente aux traitements.
- Pour dire la même chose autrement : on suppose (à tord ou à raison) que tous les êtres humains ont les mêmes oreilles, et que si une personne différencie A de B, alors ça veut dire quelque chose (alors que cette personne aurait pu réagir au médicament B pour une raison très personnelle).
Evidemment ça n'empêche pas que l'on demande à la personne qui a réussit de recommencer, et ça n'empêche pas cette personne d'enseigner aux autres comment reconnaître la différence (autre différence avec la médecine : on ne peut pas "enseigner" aux autres comment améliorer l'efficacité d'un médicament sur soi-même, car on ne sait pas soi-même comment le médicament a agit)
En fait en médecine on a peur des faux positifs, donc on multiplie le nombre de testés. En audio c'est l'inverse, il ne peut pas y avoir de faux positifs (ou alors c'est qu'on serait en présence d'un auditeur bionique).
Dans ces conditions les tests en parallèles ont plus d'inconvénients que d'avantages. En effet, du point de vue méthodologique pour reprendre la critique de JACBRU, il y a énormément de biais dans la méthode en parallèle : comment faire abstraction dans sa note des enceintes (si on note les amplis ou les sources), de la pièce ? Pire : A quelle référence se rapporter pour noter ? (chaque participant aura sa propre expérience, etc...)
Par contre on peut envisager une expérience de notation en parallèle, mais c'est lourd à mettre en place : lors d'une AG de HCFR, couplée à un salon HIFI, on réunit tous les participants. On les divise en n groupes suivant les n systèmes à comparer de telle sorte quand même que chaque groupe ait plus de 1000 personnes. Imaginons que nous ayons 10 groupes (oui c'était un grand salon et il y a eu beaucoup d'inscrit sur HCFR
). On met en place deux auditorium strictement identiques, on met le même CD pour chaque groupe et le volume est le même pour tous les groupes. Chaque participant note sur une liste (limitée) de critères défini auparavant (on prie pour chaque participant ait la même notion de chaque critère !!). Et au bout d'une heure, à la fin du CD, on ramasse les copies.
On fait la moyenne pour chaque groupe, et si par miracle la composition de chaque groupe était assez semblable (avec 1000 participants tirés au hasard (ou selon la méthode des quotas - mais quels quotas pour l'audio ???) on peut espérer que ce soit le cas), on a une note pour chaque système.
Voilà effectivement une étude en parallèle qui peut marcher, mais c'est effectivement lourd !
Il y a un exemple connu sur des enceintes, avec beaucoup moins de participants, je n'ai plus le lien, mais des forumeurs se feront un plaisir de le retrouver. De manière intéressante,
le classement des participants était totalement différent en aveugle ou bien quand ils savaient quelle enceinte ils écoutaient !Pour revenir aux tests ABX, s'il s'agit de prouver une différence, je ne vois pas à quels biais méthodologiques font ou ont fait allusion Expertdoc, JACBRU et fgirard (je ne sais pas si ce dernier a retourné sa veste depuis
)
Le seul (et important) problème est qu'on ne sait pas comment réduire le nombre de faux négatifs (ni s'ils sont importants en proportion). Par contre on est sûr, et c'est déjà bien, qu'il n'y a pas de faux positifs (sauf erreur de manip).