Corps de l’article

Introduction

C’est un truisme que de dire l’importance de la mesure et de l’évaluation dans la conduite des affaires humaines, que ce soit pour le commerce, la médecine, les travaux scientifiques, l’évaluation scolaire, le testing psychométrique. À chaque circonstance donnée, mesurer et évaluer nous permet de constater, de décider et d’agir « en connaissance de cause », l’action prise étant alors responsable, imputable et vérifiable, comme il se doit.

Dans le processus de mesure-évaluation, la mesure fournit une grandeur, une valeur numérique[1], censée décrire une caractéristique de la personne évaluée : c’est le matériau de base. Pour ce matériau, trois questions doivent être satisfaites : 1) Sur quoi ou sur quelle caractéristique la mesure informe-t-elle ? 2) À quoi doit-elle être comparée ? Sur quel critère baser son jugement ? 3) Quel est le degré de sûreté de ce jugement et sur quelles données probantes cette sûreté repose-t-elle ? La réponse à la première question concerne la validité de la mesure (Cronbach, 1971 ; André, Loye & Laurencelle, 2015). Pour répondre à la deuxième question, le fabricant de l’instrument de mesure fournit habituellement un critère, une procédure d’évaluation comparative et d’interprétation de la donnée obtenue. Quant au degré de sûreté du jugement à faire, lequel dépend à la fois de la qualité de mesure et de la légitimité du critère, la littérature à ce jour ne l’a abordé que de façon qualitative, par des mises en garde ou par des règles de prudence, notamment en ce qui touche l’incertitude échantillonnale du critère (numérique) de jugement. C’est à ce flou artistique que notre théorie du double contrôle d’erreur veut répondre.

Pourquoi un double contrôle d’erreur, ou une double erreur ? C’est que, dans l’interprétation du résultat d’un test ou d’une mesure, l’évaluateur a à sa disposition deux ingrédients : une donnée et un critère, ou une grille de critères ou normes, à quoi confronter la donnée. Or, sauf dans des cas improbables, chaque donnée, chaque mesure contient un degré plus ou moins grand d’imprécision. Cette imprécision est souvent moins grande dans les mesures physiques (la force du bras, la glycémie, le tour de taille), tandis qu’elle est souvent plus grande dans la plupart des mesures psychométriques (échelle d’anxiété situationnelle, d’introversion, de névrose obsessionnelle), d’autres mesures occupant une position intermédiaire (quotient intellectuel, échelles d’aptitude, mesures de rendement scolaire). Cette imprécision, dont la source est diverse, a pour effet, chez le répondant, qu’il obtienne une mesure flottant autour de sa vraie valeur, de manière aléatoire. En outre, le critère auquel cette valeur sera confrontée a lui-même souvent été produit sur une base empirique, en utilisant quelques dizaines ou centaines de mesures de référence, le critère, appelé aussi « norme », présentant lui aussi sa dose d’incertitude.

La connaissance et le traitement de l’incertitude, ou imprécision, qui découle de cette double source d’erreur donnent à l’évaluateur le moyen de nuancer son jugement, en quantifiant en quelque sorte la marge d’approximation sous laquelle la mesure du répondant se trouve placée. L’évaluateur peut aussi, grâce à une norme qui incorpore cette marge, arriver à un classement ou à un jugement plus sûr, plus sûr parce que débordant la marge d’incertitude que l’erreur ou les erreurs présentes ont pu y ajouter.

Dans les parties I (Laurencelle, 2015) et II (Laurencelle, 2016a) de cette série d’articles, nous avons posé les bases mathématiques de la théorie du double contrôle d’erreur pour la décision psychométrique. Notre ouvrage, L’étalonnage et la décision psychométrique : exemples et tables (Laurencelle, 2016b), traite aussi in extenso cette question aux sections F, G et H (p. 117-196). Dans la présente partie III, nous avons tenté de donner au lecteur un mode d’emploi, un guide pratique pour la compréhension et l’application des règles et calculs développés dans nos ouvrages préalables. Nonobstant la nature fortement numérique et mathématique des sujets traités, nous nous sommes efforcé d’en rendre l’exposé le plus sobre et simple possible : le lecteur pourra juger lui-même de notre résultat. Nous aborderons en premier le cas le plus simple, celui d’une situation dans laquelle la norme appliquée, le seuil, est édictée ou stable et la mesure, marquée d’erreur (correspondant à n ∞, σe > 0). Nous examinerons ensuite le cas d’un seuil estimé par échantillonnage et utilisant une mesure pure (n < ∞, σe = 0). Nous nous pencherons enfin sur le cas, typique, d’un seuil échantillonné associé à une mesure fluctuante (n < ∞, σe > 0). Le tout sera récapitulé à la faveur d’exemples supplémentaires.

Cas n → ∞, σe > 0

Soit un examen de certification, au seuil de réussite C prescrit tel que, en principe, l’individu obtenant un score x ≥ C est considéré comme ayant réussi. Cependant, chaque mesure individuelle x comporte une valeur d’incertitude e telle que x = V + e, V étant sa valeur vraie[2]. Le seuil de réussite ou de classement peut être établi en mesurant toute la population (équivalant à un échantillon de taille n ∞) ou, plus généralement, être décrété par une instance décisionnelle, par exemple un organisme normatif : le ministère de l’Éducation, une régie de normes du travail ou un comité d’experts en santé publique. Pour ce cas de figure, afin de mettre en place le vocabulaire de la présentation et parce que ce cas est le plus simple, nous exposerons le raisonnement mathématique de façon explicite. Les cas suivants seront traités de manière plus laconique.

En admettant un modèle normal simple (pour e) : la norme sûre linéaire

La mesure considérée ici est sujette à erreur, c.-à-d. que, pour chaque évaluation de la même personne dans les mêmes conditions, le score obtenu fluctuera : c’est ce que reflète le coefficient de fidélité R (ou rxx) lorsque R < 1. Le composant e responsable de cette fluctuation s’ajoute à l’opération de mesure et varie généralement selon une distribution normale[3] autour de 0. Son écart-type, l’erreur-type de mesure[4] σe, est estimé par un échantillon de taille suffisante, cet estimateur étant dénoté se.

Probabilité de réussite

Considérons un individu donné à valeur (ou mesure) vraie Vo. Son score à composant fluctuant e sera xo = Vo + e, et la probabilité qu’il « réussisse » (atteigne ou excède le critère C) est simplement:

la notation Φ(x) désignant l’intégrale normale standard à x. Rappelons que, pour effectuer ce calcul, il faut connaître Vo, la mesure sans erreur, une condition généralement utopique.

Norme sûre linéaire

Pour un répondant qui serait tout juste non qualifié, soit V < C et V C, la probabilité que son score V + e déborde C tendra vers ½ puisque e fluctue autour de 0, une éventualité ambiguë. De là émane, dans certaines circonstances (sélection, qualifications compétitives, préjudice d’une qualification erronée), le besoin d’un seuil protégé, une « norme sûre » affectée d’un coefficient de sûreté 1 – α, où par exemple α= 0,05 ou 0,01. Le cas contraire est intéressant aussi, soit celui d’un répondant vraiment qualifié (selon V > C), mais dont le score x = V + e risque d’être décalé par en bas, en deçà du critère C. En fait, tout comme dans le premier cas, s’il est tout juste qualifié selon V C, sa probabilité d’être retenu, ou rejeté, tend vers ½ !

Pour accommoder cette situation, il est possible de décaler le critère C en lui ajoutant ou retranchant une quantité Ʌ, l’énoncé de probabilité devenant:

Prenons une situation dans laquelle on veut produire une norme allongée, C′ = C + Ʌ, telle qu’elle protège contre la rétention d’un candidat non qualifié (selon V < C) selon un risque ne débordant pas α, autrement dit, avec un coefficient de sûreté d’au moins 1 – α. Cette norme allongée sera désignée norme exigeante. On cherche alors la valeur de Ʌ telle que la probabilité que V + e déborde C + Ʌ n’excède pas le seuil α, sous condition que V < C, soit :

Le risque maximal de rétention erronée advient lorsque V C ou V ≈ C ; comme il est maximal, c’est ce risque que nous égalons à α, d’où :

en utilisant la forme standard λexig = Ʌ / σe, la solution étant :

ou

et enfin

La norme C′ exigeante à appliquer garantit que, pour un candidat vraiment non qualifié, selon V < C, le risque qu’il soit retenu n’excédera pas α. Quant à la norme dite « permissive », étant donné la symétrie de l’erreur normale e, sa forme standard est simplement :

associée à C′perm = C + λperm·se, et elle garantit qu’un candidat vraiment qualifié n’ait pas plus que 100α % de chances d’être refusé par le test.

En dehors du modèle normal : la norme linéaire non normale et la norme binomiale

Le cas d’une norme absolue décrétée discuté ici admet deux extensions raisonnables et simples, en dehors du modèle de la loi normale : la première concerne une erreur linéaire (continue) de distribution non normale, l’autre un modèle (discontinu ou discret) binomial.

Modèle à distribution linéaire non normale de e

Selon la structure du test et la nature de la capacité évaluée, la fluctuation du score x autour d’une valeur vraie hypothétique V peut prendre diverses formes. Par exemple, si x est lognormale (loi à variable X continue et positive et à asymétrie positive), l’erreur attachée est vraisemblablement elle aussi lognormale ; ou bien, si X est (effectivement) bornée entre une valeur minimale et une maximale, elle obéit peut-être à une loi Bêta, tout comme l’erreur échantillonnale qui lui est attachée ; et caetera. Le même raisonnement et les mêmes mathématiques que ceux appliqués pour le modèle linéaire normal peuvent être transférés ici, cela en les accommodant mathématiquement au modèle de distribution approprié. Une autre voie, souvent plus simple, consiste à transformer numériquement la variable X en une autre X′ qui présente des indices de normalité (p. ex., 𝛾1 et 𝛾2)[5] acceptables, puis à fixer la norme sur X par le biais de la variable normalisée X′. Il reste que, pour une variable continue (ou quasi continue[6]), le modèle normal emporte la préférence et, sauf dans des circonstances requérant une grande rigueur, on peut l’appliquer sans souci.

Modèle binomial

Certaines mesures, par exemple plusieurs formats de tests ou les épreuves psychométriques ou docimologiques, ont une structure de type binomial : le score est basé sur plusieurs composants ou items à scoring dichotomique et il peut se définir par :

yi vaut 0 ou 1 selon la valeur de la réponse à l’item i, et où x, la somme brute des yi, varie de 0 à n. La probabilité de bonne réponse (y = 1), dénotée π, caractérise le niveau d’habileté du répondant[7] ; pour un ensemble binomial homogène, π est unique et constante pour tous les items. Il est aussi possible que π varie d’un item à l’autre : on parle alors d’une mixture de binomiales, ou « binomiale de Poisson ». Comparativement au modèle linéaire x = V + e, dans lequel le composant e représente l’incertitude, celle-ci émane directement de la probabilité π caractérisant le modèle binomial. L’appendice présenté en fin d’article donne des indications supplémentaires pour le calcul de ces modèles.

Exemple 1 : Norme sûre linéaire (critère stable, mesure avec erreur)

Les examens scolaires au Québec sont notés sur 100, le seuil de réussite imposé étant de 60, soit C = 60 : il s’agit ici d’une norme décrétée. Disons que le ministère de l’Éducation a préparé une épreuve d’habileté en mathématiques pour les élèves de 4e secondaire, laquelle comporte 40 questions à réponse courte. Une préexpérimentation a permis de déterminer que la distribution du score à l’examen suit approximativement une loi normale (voir Appendice), l’écart-type estimé étant sX = 10 et le coefficient α de Cronbach[8], qui servira d’estimation de fidélité R, étant égal à 0,84.

Écart-type et fidélité nous permettent d’estimer l’erreur-type de mesure σe par[9] :

Robert obtient x = Vo + e = 57. Si l’on suppose que le niveau réel de Robert approche C, c.-à-d. Vo ≈ C, une mesure sans erreur lui aurait donné x ≈ 60, avec une chance sur deux de réussir. Dans ce cas, le composant e de son score, égal à -3 (= x – V0 = 57 – 60), l’aurait desservi. Supposons plutôt que l’erreur de mesure dans son score est à peu près nulle (e ≈ 0), alors Vo ≈ 57, et la formule (1) donnera 1 – Φ{ (57 – 60)/4,00 } = 1 – Φ{ 0,75 } ≈ 0,227. C’est la probabilité que, tenant compte de l’erreur de mesure supposée (et inconnue), Robert ait le niveau de capacité correspondant au seuil de réussite demandé.

Comme le montre l’exemple ci-dessus, l’appréciation des probabilités de succès ou d’échec à une qualification psychométrique dépend directement de la valeur vraie V du répondant, valeur qu’il est généralement impossible de connaître pour un individu donné[10]. L’agence de sélection ou de qualification peut néanmoins gérer le risque d’une décision incorrecte par le biais de la norme sûre, ou protégée : il s’agit de limiter à la probabilité α le risque que toute personne soit classée dans la catégorie incorrecte, c.-à-d. retenue alors qu’elle ne le mérite pas (selon V < C) ou bien rejetée alors qu’elle le mérite (selon V > C). Dans le cas présent, et adoptant un seuil d’erreur α de 5 % (équivalant à un taux de protection de 0,95), la table d’intégrale normale appliquée à (5b) nous fournit λexig = z = z0,95 = 1,645. Au seuil de 1 %, on aura z0,99 = 2,326.

La norme sûre permissive, C′perm = C – z1–α× se, serait ici C′perm = 60 – 1,645 × 4,00 ≈ 53,4 (α = 5 %), ou 50,7 (α = 1 %) : avec son x = 57, Robert passerait. Quant à la norme exigeante, C′exig = C + z1–α× se, on trouve = 66,6 (5 %) et 69,3 (1 %), et Robert ne passerait pas.

Exemple 2 : Norme sûre binomiale (critère stable, mesure avec erreur)

Un exemple très simple illustrera l’utilité, réelle mais réduite, du modèle binomial pour le contexte étudié. Soit un test de connaissances présenté sous forme de n = 20 items à choix binaire, chaque item offrant deux réponses valant 1 ou 0 point (c.-à-d. bonne vs mauvaise). Le test envisagé a pour but de filtrer les candidats qui ont acquis quelque chose du champ de connaissances sondé, les parfaits « ignorants » devant répondre au hasard, avec probabilité π = ½ de choisir la bonne réponse. Pour ces candidats ignorants, le score moyen attendu est µ = n·π = 20 × 0,5 = 10, la variance, σ2 = n·π(1 – π) = 20 × 0,5 × 0,5 = 5 et l’écart-type, equation: 2052184n.jpg. Ainsi, un candidat informé espère obtenir un résultat plus haut que 10 ! Enfin, la distribution théorique de x est quasi normale (avec 𝛾1 = 0 et 𝛾2 = -0,1 ; voir Appendice).

Supposons qu’on veuille s’assurer que le candidat répond ou ne répond pas vraiment mieux qu’au hasard, et ce, avec une assurance de 0,95, c.-à-d. un risque maximal de se tromper de α = 0,05. Alors, en utilisant la formule A1 (voir Appendice), on cherche le score minimal x* tel que Pr{ xx* | π = ½, n = 20 } ≤ α, d’où Pr{ zx ≤ (x* – µ – ½)/σ} ≥ 1 – α et, finalement, x* ≥ µ + ½ + σ·z1–α. Avec α = 0,05 et z1–0,05 ≈ 1,645, on obtient x* ≥ 10 + ½ + 2,236 × 1,645 ≥ 14,18 = 15, la réponse. Pour x* = 15, le calcul binomial exact donne Pr{ x ≥ 15 } = 0,0207, alors que cette probabilité serait de 0,0577 pour x* = 14. Soit dit en aparté, on peut formuler l’hypothèse que la règle de passage du 60 % appliquée dans les organisations scolaires ait émané, intuitivement ou expressément, d’un seuil implicite et naïf de 50 % (« l’élève connaît-il la réponse, oui ou non ? »), le décret du 60 % visant à déborder prudemment par le haut la possible contribution du hasard.

Un calcul pareil à celui illustré plus haut peut évidemment être fait pour des questionnaires à choix comportant k > 2 options (et π = 1/k), tout comme pour d’autres dans lesquels la probabilité de bonne réponse (πi) varie d’un item i à l’autre. Dans chaque cas, évidemment, la structure du questionnaire et la préparation des items doivent respecter les postulats du modèle binomial envisagé.

Cas n < ∞, σe = 0

Ici, le critère de sélection ou de qualification est empirique, est basé sur la mesure d’un échantillon de n personnes (l’échantillon normatif) et réfère explicitement à un taux de sélection[11]f, complément du seuil quantile P = 1 – f, auquel on veut faire correspondre un score liminal ou norme, que nous désignons CP. La règle de sélection est encore x ≥ CP. Le seuil quantile, par exemple P = 0,80, délimite la fraction supérieure (= 1 – P) de population qu’on prévoit retenir, par exemple 0,20 ou 20 %. Dans le contexte présent, l’erreur de mesure e est réputée nulle, avec σe = 0, de sorte que le score x du répondant reflète exactement sa compétence (ou x = V), tandis que, pour la norme CP, elle doit être estimée à partir de données empiriques et, par conséquent, elle est imprécise.

La référence populationnelle à laquelle la norme doit correspondre n’est pas connue. Si elle l’était, son quantile P fournirait la valeur précise XP qui servirait de norme, et l’obtention d’un score x > XP garantirait la compétence du répondant, l’erreur de mesure étant nulle. Or, pour fixer la norme, l’utilisateur dispose seulement d’un échantillon ou groupe normatif[12], à partir duquel il doit conjecturer, c.-à-d. estimer CP, la valeur produite héritant de l’incertitude de l’échantillon dont elle provient.

L’estimation du seuil se fait à partir de la série normative de n données et procède généralement de l’une de deux façons, soit en utilisant un composé linéaire à référence normale equation: 2052185n.jpg soit par le quantile ordinal CP = X [P·(n+1)],[13] lequel flotte autour du vrai quantile inconnu XP selon son erreur échantillonnale.

Le score X lui-même étant pur, la probabilité que le score x de Robert déborde CP dépend uniquement et directement de la distribution de CP autour de XP, selon l’une des deux formes d’estimation utilisées.

Exemple 3 : Norme sûre linéaire (critère échantillonnal, mesure sans erreur)

En stipulant le modèle normal linéaire

Supposons que notre base normative repose sur un échantillon de n = 150 éléments[14], leur mesure ayant pour moyenne equation: 2052186n.jpg et pour écart-type sX = 5,12. La fraction de population retenue (f) est 0,05 (ou 5 %), donnant un seuil naïf CP de equation: 2052187n.jpg, z1–f = z0,95 ≈ 1,645 étant le quantile normal au rang quantile P = 1 – f = 0,95. Abstraction faite du léger biais négatif de l’écart-type s,[15] l’application de cette norme ferait en sorte qu’un candidat produisant exactement un score x = 36,78 aurait une chance sur deux d’être retenu ou rejeté, cela en raison de l’imprécision de CP, laquelle découle de l’imprécision de equation: 2052188n.jpg et de sX. Dans le but de réduire à un niveau de probabilité α l’erreur attachée à une décision désavantageuse, on peut, en se basant sur cette incertitude, imposer une norme exigeante (réduire le risque d’un faux positif, consistant à retenir un répondant qui serait non qualifié) ou une norme permissive (réduire le risque d’un faux négatif, consistant à rejeter un répondant qualifié), cela en décalant la norme.

Norme sûre exacte

Selon les conditions décrites ci-dessus, la mesure, ou score x, ne comporte aucune part d’erreur. Dans le langage de la théorie de la double erreur, cela se traduit par le fait que la fidélité de mesure est parfaite, soit R = 1. Consultant les tables appropriées de Laurencelle (2016b), soit les tables F4b et F9b, pour f = 0,05 au taux d’incertitude α = 0,05, R = 1, n = 150, nous trouvons respectivement λ = 1,870 pour le seuil exigeant et λ = 1,454 pour le seuil permissif. En appliquant alors la formule générale :

nous établissons les seuils CPexig = 28,36 + 5,12 × 1,870 ≈ 37,93 et CPperm ≈ 28,36 + 5,12 ×1,454 ≈ 35,80 pour les critères exigeant et permissif respectivement. On peut aussi approximer les seuils λ par une formule[16]. En appliquant la règle : « Retenir Robert si son score x atteint ou déborde 37,93 », on est sûr à 95 % (= 1 – α) ou mieux que Robert fait bien partie de la portion des 5 % (= f) supérieurs de la population.

Norme approchée

Il est possible d’approximer ces valeurs, d’abord en estimant l’erreur-type de l’estimateur utilisé, puis en appliquant au seuil naïf 36,78 une marge d’erreur relative au taux d’erreur α consenti. La variance du seuil (9) (voir Laurencelle, 2016b, formule A-15) étant :

c.-à-d. 5,122 / 150 × (1 + 1,6452/2) ≈ 0,4112, nous obtenons l’erreur-type equation: 2052191n.jpg associée à l’estimateur naïf CP. Si l’on applique la marge de protection z1– α = z0,95 = 1,645, la norme permissive serait alors CPperm(α) = CPz1–α σe(CP) ≈ 36,78 – 1,645 × 0,641 ≈ 35,73, alors que la norme exigeante serait CPexig(α) ≈ 36,78 + 1,645 × 0,641 ≈ 37,83, deux valeurs assez proches des valeurs exactes tirées des tables F.

Selon le modèle normal appliqué aux statistiques d’ordre

Le modèle normal peut être invoqué aussi pour les statistiques d’ordre, notamment dans les cas, fréquemment rencontrés en psychométrie, où les scores bruts des tests ont été transférés vers la forme normale, ce en projetant chaque quantile (ou chaque statistique d’ordre) de la distribution d’origine vers un quantile correspondant du modèle normal[17]. En outre, en fonction d’une perspective pragmatique souvent vraisemblable, le modèle normal peut convenir à décrire directement une seule aile de la distribution plutôt que toute la distribution, aile dans laquelle la sélection doit se faire. Nos normes « ordinales normales » (Laurencelle, 2016b) conviennent à ces deux situations.

La norme est basée sur une statistique d’ordre, notée X[r], plus complètement X[r:n] : c’est, une fois la série statistique placée en ordre de valeurs croissantes, soit X[1] ≤ X[2] ≤ … ≤ X[n], la valeur qui occupe le rang r. Les statistiques d’ordre (SO) d’une série statistique émanant d’une loi de probabilité ont leur distribution façonnée par cette loi. Par exemple, les SO issues d’une loi normale ont une variance qui augmente à mesure que le rang r s’écarte du rang médian ½n, alors que le contraire se produit pour une loi uniforme. De plus, l’asymétrie (mesurée par l’indice 𝛾1) augmente quand r s’écarte de ½n, mais elle le fait en sens contraire pour les deux lois, par exemple s’écartant positivement de 0 pour la normale et négativement pour l’uniforme à mesure que r approche n. [Pour les calculs, voir Laurencelle, 2016b, ou David & Johnson, 1954]. La statistique d’ordre qui approche le Pe quantile de la population est donnée par P = r / (n + 1), soit X[r], où r = P·(+ 1).

Exemple 4 : Norme sûre ordinale (critère échantillonnal, mesure sans erreur)

Reprenant le contexte de l’exemple 3, nous cherchons, dans notre série de n = 150 données, la SO située approximativement au 95e rang centile de la population, soit r / (n + 1) ≈ 0,95 ou r = 0,95 × (150 + 1) = 143,45, la valeur cherchée étant située dans le voisinage des données X[143] et X[144]. Cette valeur supposerait que la série normative observée est stable, alors qu’on sait qu’elle est sujette aux fluctuations échantillonnales, comme l’étaient plus tôt la moyenne et l’écart-type de cette série. En fait, la variance d’erreur du quantile échantillonnal Z[P:n] dans une série standardisée de n = 150 données peut être estimée[18] par :

equation: 2052193n.jpg est la densité normale standard à la valeur z. Ici, avec P = 0,95, zP ≈1,645, φ (1,645) ≈ 0,1031 et n = 150, l’estimation fournit var(Z[0,95]) ≈ 0,0298. Un calcul approximatif plus précis (voir Laurencelle, 2015, p. 99 ou, plus extensivement, 2016b, p. 22, éq. 14) donne 0,0306 ; c’est ce calcul que nous recommandons.

Norme sûre exacte

Notre norme sûre ordinale basée sur le modèle normal (Laurencelle, 2016b) tient compte de cette fluctuation échantillonnale du quantile, les tableaux F11 à F20 présentant des valeurs de référence. Pour un taux de sélection f = 0,05, une erreur échantillonnale selon α= 0,05 et une erreur de mesure nulle (avec R = 1), la table F14b pour une norme exigeante indique rb = 99 pour nb = 100 et rh = 244 pour nh = 250. (Les indices b et h dénotent les valeurs basse et haute trouvées dans la table.) L’interpolation pour n = 150, par la formule :

donne equation: 2052195n.jpg. Un calcul direct montre que 147 < r ≤ 148. La norme interpolée fait donc l’affaire, soit:

CPexig ≈ X[147,33] = X[147] + (X[148] – X[147]) × 0,33 ;

le facteur 0,33, à droite, est simplement la partie décimale de equation: 2052196n.jpg. Notons que, grâce à l’interpolation, la valeur obtenue est (légèrement) moins sévère, ou exigeante, que celle correspondant au 148 indiqué.

Quant à la norme permissive correspondante, on la trouve à la table F19b, soit rb = 91 pour nb = 100 et rh = 232 pour nh = 250, d’où equation: 2052197n.jpg, le calcul direct donnant 138. Nous suggérons alors :

CPperm = X[138].

Norme approchée

Le rang approximatif r = P × (n + 1) = 143,45 nous fournissant une base, il est légitime d’y adjoindre une marge d’erreur échantillonnale basée sur la variance d’erreur du quantile, ici var(Z[0,95:150]) = var(CP) ≈ 0,0306, telle qu’indiquée plus haut, d’où l’erreur-type σ(CP) = 0,175. Ignorant ici le léger degré d’asymétrie positive (estimé à 0,181) de la distribution de X[143,45:150] et appliquant le modèle normal à la variation du quantile, nous proposons donc :

Ici, CP ≈ X[143,45] ± 1,645 × 0,175 × 5,12 = X[143] + (X[144] – X[143]) × 0,45 ± 1,47, l’addition ou la soustraction du dernier terme fournissant la norme exigeante ou permissive.

Sans stipuler le modèle normal[19]

Que ce soit par une démonstration convaincante de son inadéquation ou bien par prudence, l’utilisateur peut renoncer tout à fait au modèle normal et se replier plutôt sur les seules données enregistrées, hors modèle, soit les statistiques d’ordre obtenues à partir de la série normative, dont les conditions d’adéquation sont plus libérales, et ce, aux dépens d’une variance un peu plus grande dans les valeurs produites. L’incertitude dépend ici seulement du rang de X[r], quels que soient la valeur X correspondante ou son intervalle numérique par rapport aux autres données de l’échantillon[20].

Exemple 5 : Norme-paramétrique (critère échantillonnal, mesure sans erreur)

Norme sûre exacte

Reprenant le même exemple qu’en 3 et 4 et à partir de notre série normative de taille n = 150, nous devons, sans référence à un modèle de distribution, trouver le rang s d’une norme permettant de discriminer les meilleurs 5 % (= f) de la population, en gardant sous un taux α d’au plus 5 % l’incertitude attachée à cette norme. Les tables G1 et G2 (Laurencelle, 2016b) fournissent l’information nécessaire : pour chaque couple f:α donné est inscrite la taille n requise telle que le ratio s:n respecte les contraintes f et α prescrites.

La table G1 (op. cit., p. 169), pour la norme non-paramétrique exigeante, présente la taille minimale requise pour que la statistique d’ordre X[s] indiquée[21] discrimine la fraction f voulue selon le taux d’erreur α maximal prescrit. Soit f = 0,05 et α = 0,05, et la taille n = 150. À la colonne 𝛾 = 0,95 = 1 – f, on lit 124 (une taille admissible) pour la norme s = n – 2 ou X[n – 2], et 153 (une taille que n’atteint pas notre n = 150) pour X[– 3]. Ici, donc, la valeur correspondant à la statistique d’ordre X[150–2] = X[148] satisferait nos conditions, avec la règle « Retenir le candidat si son score x ≥ X[148] ».

Le lecteur minutieux devinera que, puisque notre n = 150 est campée entre les bornes s = n – 2 pour n = 124 et s = n – 3 pour 153, voire qu’elle est plus près de celle appropriée à 153 qu’à 124, une norme s plus précise pour n = 150 se situerait entre les rangs n – 2 et n – 3. En effet, et un calcul binomial direct le confirme, on peut raffiner la norme non-paramétrique soit en procédant par calcul direct et interpolation complexe sur α, soit par interpolation simple à partir des bornes offertes à la table G1. Soit nb et sb, la taille (inférieure à n) et le rang s correspondant, et nh et sh, la taille supérieure et son rang, le rang intermédiaire equation: 2052198n.jpg estimé s’obtient par :

Selon nos données ci-dessus (nb = 124, sb = 122, nh = 153, sh = 150, n = 150), nous obtenons equation: 2052200n.jpg, le calcul probabiliste indiquant aussi 147,10. La norme résultante, plus précise, serait alors interpolée entre les statistiques d’ordre X[147] et X[148], simplement par : equation: 2052201n.jpg

Quant à la norme permissive, la table G2 (op. cit., p. 170) fournit la taille nmaximale assurant que le candidat appartenant à la fraction supérieure f et confronté à la norme de rang s n’a qu’un risque de grandeur α d’être refoulé. Pour notre même exemple, avec un échantillon normatif de taille 150, avec un taux de sélection de 5 % et avec un risque d’erreur de 5 %, la table donne nh = 155 et sh = n – 12, pour une norme égale à la valeur de X[138]. Si l’on passe à l’interpolation afin d’obtenir une valeur plus précise et en exploitant dans la table nb = 140 et sb = n – 11, on aboutit à equation: 2052202n.jpg, le calcul probabiliste indiquant la même valeur.

Norme approchée

L’incertitude de la statistique d’ordre non-paramétrique, X[r] ou X[s], ne fait référence à aucun modèle, sinon le modèle uniforme (aussi appelé rectangulaire), pour lequel on peut déterminer des moments. Soit une population de variable U, dont les mesures sont uniformément réparties entre les bornes a et b. Les moments de U sont alors µ = ½(a + b), σ2 = (ab)2/12, 𝛾1 = 0 et 𝛾2 = -1,2. Modèle de rencontre plutôt rare en psychométrie, voire en biométrie, son invocation justifiée permet d’approcher la norme calculée ci-dessus, en en exploitant les propriétés (Johnson et al., 1994 ; Laurencelle, 1993).

Utilisant la variance de la statistique d’ordre uniforme U[r], soit σ2(U[r]) = r·(n + 1 – r) / [(+ 1)2·(n + 2)] et projetant sa valeur sur le domaine du rang r (de 1 à n), le calcul

fournit une estimation possible du rang de la norme sûre non-paramétrique, en mode exigeant (+) ou permissif (–). Tout de suite avec r = 143,45 et α = 0,05, nous obtenons σ2(U[r]) ≈ 0,0003125 et σ = 0,0177, d’où equation: 2052204n.jpg = 143,45 ± 1,645 ×150 × 0,0177 ≈ 147,81 pour le critère exigeant (+) ou = 139,08 pour le critère permissif. Nous aurions donc, en approximation, CPexig = X[147,81] et CPperm = X[139,08].

Les calculs approchés ci-dessus semblent tenir la route, voire ils concordent assez bien avec ceux effectués en invoquant le modèle normal (voir Exemple 4), ce malgré l’insertion cavalière de l’intervalle normal (z1–α) dans l’axe des rangs qui relève en fait du modèle uniforme[22].

Cas n < ∞, σe > 0

Le contexte de mesure sans doute le plus courant est celui dans lequel l’information normative provient de données mesurées sur un échantillon, plutôt qu’elle ne soit imposée par décret d’une autorité administrative ou d’un comité d’experts, et où la mesure utilisée, notée ici X, est sujette à fluctuation. C’est ce que symbolisent les indications n < ∞ et σe > 0, cette seconde notation correspondant à une fidélité imparfaite (R < 1).

Si la norme CP attendue, quelle que soit sa forme, doit être fixée par calcul sur la base d’un échantillon normatif de taille n, elle retiendra une part de l’incertitude dégagée par l’échantillon. Puisque, de plus, le score x d’un candidat évalué doit être comparé à cette norme CP, l’erreur e contenue dans le score, selon le modèle x = V + e, influencera aussi cette comparaison et elle déteindra éventuellement sur le classement du candidat, sur la décision de le retenir ou non. C’est à l’analyse de ce contexte et à la protection de la décision normative qui s’ensuit que s’attache la théorie de la double erreur, ou du double contrôle d’erreur, théorie exposée sommairement dans Laurencelle (2016a, 2016b).

Il s’agit donc de repérer et de sélectionner un candidat si sa mesure le classe parmi la fraction supérieure f de la population. Or, ce titre d’appartenance à une classe de la population se base et doit se baser sur les valeurs vraies des éléments qui la composent, et non sur leurs mesures fluctuantes. Si l’on retient la notation P = 1 – f et occulte l’erreur e, il s’agit donc de repérer les candidats pour qui V ≥ VP, ceux dont le mérite réel les place dans la « vraie » fraction f visée.

Empruntant la même démarche que plus haut (4) et prenant le cas d’une norme exigeante, il s’agit de déterminer la valeur seuil CP telle que la probabilité qu’un candidat non qualifié selon V < VP soit retenu ait pour maximum α, :

d’où, puisque ce maximum se produit lorsque VVP :

La solution de (17) diffère selon qu’il s’agit d’une norme linéaire, equation: 2052205n.jpg, ou ordinale, CP = X[r]. Les exemples suivants en illustrent l’usage.

En admettant un modèle normal complet (pour e et X) : la norme sûre linéaire

Le contexte statistique traité ici concerne, rappelons-le, une mesure à fidélité imparfaite (R < 1), confrontée éventuellement à une norme basée sur un échantillon normatif de taille limitée n. Ce contexte suppose naturellement que le composant d’erreur e suive une loi normale[23], et c’est aussi une condition pour X (et V, bien entendu), dont les propriétés normales sont exploitées pour la norme linéaire (distribution échantillonnale de equation: 2052206n.jpg et sX) et pour la norme ordinale (distribution de X[r]). Il s’agit donc d’assurer, avec un coefficient de confiance de 1 – α, que la personne non qualifiée pour la fraction f supérieure de la population n’est pas retenue par le critère CP ou, inversement, que la personne qualifiée n’est pas rejetée.

Exemple 6 : Norme sûre linéaire (critère échantillonnal, mesure avec erreur)

Nous reprenons notre exemple 3, la base normative comptant n = 150 mesures X, avec equation: 2052207n.jpg = 28,36, sX = 5,12 et l’assurance d’une distribution (quasi) normale pour X.[24] La fraction de sélection est f = 0,05 (pour P = 0,95) et le niveau d’incertitude toléré est α = 0,05. Dans le cas présent, la mesure offrirait une fidélité de R = 0,80, ce qui correspond à une erreur-type de mesure de equation: 2052208n.jpg. Quelle norme proposer ?

Norme sûre exacte

La section F dans Laurencelle (2016b) présente les normes λexig et λperm dans un assortiment de tables, selon f (ou P), n, R et α, de même que des procédures d’estimation par interpolation pour les conditions f, n, R et α non cataloguées. Pour le critère exigeant, la table F4b (op. cit., p. 139) donne λexig = 2,253, d’où, en appliquant (9), nous calculons CP = 28,36 + 2,253 × 5,12 ≈ 39,90. Dans les conditions données, on est sûr à 95 % qu’un candidat obtenant x ≥ 39,90 relève de la fraction des 5 % supérieurs de la population. Quant au critère permissif, qui assure à 95 % que la norme n’échappe pas un candidat possiblement méritant, la table F9b (op. cit., p. 144) donne λperm = 0,722 pour CP ≈ 32,06.

Norme approchée

Une méthode un peu grossière pour approcher la norme correcte ci-dessus consiste à prolonger la norme naïve, equation: 2052209n.jpg + z1–f ·sX, par l’intervalle d’erreur approprié, celui-ci étant une combinaison simple des erreurs-types de chacun des composants[25]. Nous avons déjà calculé se = 2,290 et obtenu plus haut (10), où sCp ≈ 0,641. L’erreur-type conjointe est donc :

soit equation: 2052211n.jpg, d’où CPequation: 2052212n.jpg + z1–·sX + z1–α·sconjointe ≈ 28,36 + 1,645 × 5,12 + 1,645 × 2,378 ≈ 40,69 (vs la norme exacte, 39,90). Si l’on soustrait plutôt qu’additionne la part des erreurs, la norme permissive approchée devient 32,87 (vs 32,06).

Exemple 7 : Norme sûre ordinale (critère échantillonnal, mesure avec erreur)

Norme sûre exacte

Toujours le même exemple, où l’on a une banque normative de n = 150 mesures normalement distribuées et de statistiques equation: 2052213n.jpg = 28,36 et sX = 5,12, d’où on veut tirer une statistique d’ordre X[r] qui serve de norme de sélection, le taux de sélection étant f = 0,05 (avec P = 1 – f = 0,95), la fidélité étant estimée à 0,80 et l’erreur-type de mesure étant estimée à se = 2,290.

Les tables F (Laurencelle, 2016b) fournissent aussi des indications permettant de déterminer r, le rang de la statistique d’ordre requise. Pour le critère exigeant, à la table F14b, nous trouvons = 100 pour n = 100 et = 248 pour n = 250. Par interpolation suivant (12), nous obtenons equation: 2052214n.jpg ≈ 149,33 pour n = 150, le calcul direct montrant 149 < r ≤ 150. La norme correspondrait ici à CPexig = X[149,33], avec interpolation. Quant à la norme permissive, la table F19b propose r = 76 pour n = 100 et r = 191 pour n = 250, d’où le rang interpolé devient 114,33 et CPperm = X[114,33].

Norme sûre approchée

Le rang de la norme naïve, estimé par P·(n + 1), serait equation: 2052215n.jpg = 143,45, tel que déjà vu. La protection contre les deux erreurs (l’erreur de mesure e et l’erreur échantillonnale de la statistique X[P]) doit être ajoutée. L’erreur-type de mesure, déjà obtenue, est de σe = 2,290. Quant à l’erreur-type de X[0,95], l’exemple 4 nous a permis de trouver equation: 2052216n.jpg. L’erreur combinée devient alors equation: 2052217n.jpg. Comme en (18), la norme exigeante proposée serait alors X[143,45] + z1–α·sconjointe ≈ X[143,45] + 1,645 × 2,297 ≈ X[143,45] + 3,78.

La norme non-paramétrique avec erreur de mesure n’est pas calculable, l’obstacle consistant dans l’impossibilité d’abouter une marge (linéaire) d’incertitude normale sur la mesure à une statistique d’ordre (SO) définie uniquement par son rang. Pour obvier à ce problème, il convient par exemple de transférer les SO originales vers le modèle normal (par le biais d’une règle de correspondance) et d’y appliquer ensuite la méthode de la norme sûre ordinale.

Un résumé des erreurs-types et d’autres exemples de leur usage

Dans les sections précédentes, différents contextes ont été présentés dans lesquels l’erreur de mesure, l’erreur du seuil comparatif ou les deux erreurs à la fois ont été prises en compte dans la perspective d’un jugement comparatif. Ces deux types d’erreur ont aussi une incidence dans la simple interprétation d’un score psychométrique ou d’une mesure quelconque. Le fait de connaître la marge d’erreur applicable à une situation donnée permettra à l’évaluateur de mieux visualiser la place probable du répondant dans la population et de prononcer éventuellement une interprétation mieux fondée et nuancée. Nous récapitulons ici, très sommairement, les grandes lignes de la théorie du double contrôle de l’erreur psychométrique, à la faveur de quelques nouveaux exemples, lesquels pourront aussi servir d’exercices au lecteur intéressé.

Cas n → ∞, σe > 0 (R < 1)

Robert a passé une évaluation de son QI et a obtenu un score x = 118. L’échelle conventionnelle est de forme normale, par construction, avec comme paramètres µ = 100 et σ = 15. La fidélité test-retest pour le test appliqué est de rXX = R = 0,90. L’erreur-type (8) est donc ici σe = 15 × equation: 2052218n.jpg.

Les données présentées suggèrent que la valeur vraie de Robert occupe l’intervalle[26] { V ± σe } = { 118 ± 4,74 } ≈ { 113 ; 123 }. Un guide d’interprétation considère que les personnes occupant l’intervalle { 85 ; 115 } se situent dans la moyenne, alors que, au-dessus de 115, elles seraient dans la haute moyenne. Avec son x = 118, peut-on affirmer que Robert se range dans la haute moyenne ? Le lecteur pourra vérifier que la probabilité qu’il s’y situe est d’environ 0,737 (en se rappelant qu’elle serait de 0,500 si son score avait été de 115 !) et qu’il aurait fallu qu’il soit de 126 ou plus pour qu’il soit classé haute moyenne selon un risque d’erreur d’au plus 5 %.

Exemple de test à format binomial[27]

Un chargé de cours de l’École polytechnique de Montréal veut repérer les étudiants qui ne connaissent rien aux logarithmes. Pour ce faire, il conçoit un questionnaire composé de 12 items à choix multiples simples, à raison de 4 items pour k = 2, 3 et 4 choix respectivement. Chaque bonne réponse vaut 1 point[28], de sorte que les scores possibles vont de 0 à 12. Pour s’assurer à 99 % que l’étudiant n’a pas répondu complètement au hasard, quel score-seuil le chargé de cours doit-il fixer ?

La probabilité binomiale ici est mixte (soit les trois valeurs π également réparties, 1/k = ½, ⅓ et ¼), avec une moyenne equation: 2052219n.jpg ≈ 0,3611 et une variance σ2π ≈ 0,0108. La formule A2 (voir Appendice) permet d’obtenir µ(X) = 4,333 et σ(X) ≈ 1,624. Pour réduire à 1 % le risque de non-repérage, il faut que le score-seuil x* satisfasse l’inéquation : (x* – µ(X) – ½) / σ(X) ≥ z1–0,01 = 2,326, d’où x* ≥ µ(X) + ½ + z0,99 × σ(X). Le lecteur vérifiera que le score-seuil devra être x* = 9 (ou x* = 8 pour un risque à 5 %). Pour cet examen, la probabilité précise d’obtenir au hasard un score x ≥ 9 est de 0,006 (et de 0,027 pour x ≥ 8).[29]

Cas n < ∞, σe = 0 (R = 1)

Le poids d’un enfant amérindien mâle de 12 mois est de 14,5 kg : est-il en surpoids ? Pour en juger, le pédiatre se réfère à des normes de croissance, normes qui, idéalement, sont appropriées pour le sexe et l’ethnie concernés. Le manuel de normes indique, pour un garçon de cet âge, un poids moyen de 9,3 kg et un écart-type de 3,1 (données fictives), la norme étant basée sur un petit échantillon de n = 100 enfants.

Le poids, dans une population statistiquement homogène, se distribue normalement, de sorte qu’il est possible de vérifier l’exceptionnalité d’une valeur donnée par un test simple, soit z = (x – µ) / σ, test qu’il faut réaliser ici par un test t en raison de la substitution obligée de l’écart-type échantillonnal (s = 3,1) pour l’écart-type populationnel σ inconnu. Le test t = (xequation: 2052220n.jpg) / s ≈ 1,677, avec n – 1 = 99 degrés de liberté, présente une probabilité extrême de 0,048, ce qui indique que l’enfant dans notre exemple s’écarte significativement de la moyenne de sa population, selon un risque d’erreur de 5 %. Mais est-ce là du surpoids ?

Supposons que, par surpoids, on entende avoir un poids logé parmi les 5 % plus élevés de la population. Ce niveau de 5 % constitue une sorte de taux de sélection, d’où f = 0,05, et alors les tables F (Laurencelle, 2016b ; voir aussi exemple 3) indiquent λexig = 1,927 pour un taux d’erreur α = 0,05 et n = 100, avec R = 1. Le seuil de surpoids serait alors Cp = 9,3 + 1,927 × 3,1 ≈ 15,3, d’où, selon les critères appliqués, l’enfant ne serait pas jugé en surpoids. En norme approchée, le seuil naïf serait equation: 2052221n.jpg + z1–f · sX = 9,3 + 1,645 × 3,1 ≈ 14,000, à quoi il faut, pour le critère exigeant, ajouter la part de l’erreur échantillonnale. Selon (10), var(CP) ≈ 3,12/100 × (1 + 1,6452/2) ≈ 0,226 et σ(CP) ≈ 0,475, la marge de protection étant z1–α·σ(CP) = 1,645 × 0,476 ≈ 0,781, fournissant la norme sûre approchée CP = 14,000 + 0,781 ≈ 14,78. La solution par la normale ordinale (inutile ici) serait CP ≈ X[95,95] + 1,645 × 0,413 × 3,1 selon la formule (13), l’erreur-type σ(X[P:n]) ≈ 0,413 étant donnée par (11).

Cas n < ∞, σe > 0 (R < 1)

Une commission scolaire du Québec, préoccupée par les difficultés des élèves du secondaire en mathématiques, veut leur offrir un programme d’enseignement modifié, plus convivial et ludique. Dans ce but, on a mis sur pied un comité formé d’enseignants, de deux psychologues scolaires et d’un psychométricien afin qu’il élabore un test d’anxiété et de sentiment d’inaptitude vis-à-vis des mathématiques. Le test a été soumis à tous les élèves admissibles de 1re secondaire (n = 450). La distribution des scores, à peu près normale, va de X = 12 à X = 87 et a pour moyenne equation: 2052222n.jpg = 53,86 et pour écart-type sX = 19,75. La fidélité de mesure a été estimée à R = 0,80. Considérant qu’environ 20 % des élèves sont à risque, le taux d’identification (c.-à-d. de sélection) des élèves à risque est fixé à f = 0,20. Quelle norme devrait-on appliquer pour identifier les élèves à risque et pour leur proposer le programme modifié ?

Afin de ne pas laisser échapper des élèves potentiellement à risque, le comité opte pour un critère permissif, au seuil d’erreur de 10 % (ou α = 0,10). Les tables F (Laurencelle, 2016b) proposent des seuils λ pour f = 0,50, 0,25, 0,10, 0,05 et 0,01, de même que pour quelques valeurs pivots des paramètres α, R et n. La valeur λperm pour f = 0,20 doit donc être interpolée. L’interpolation proposée sur f est (op. cit., équation F19) :

uf = equation: 2052224n.jpg. La table F7a (op. cit., p. 142), pour n = 500, R = 0,80 et α = 0,10 et f1 = 0,25, fournit λperm = 0,027 ; la valeur correspondante de la table F8a pour f2 = 0,10 est 0,570. Calculant u1 (pour f1) ≈ 1,116, u2 ≈ 1,500 et u (pour ) ≈ 1,225, l’interpolation ci-dessus donne equation: 2052225n.jpg≈ 0,181. La norme permissive à appliquer serait donc CP ≈ 53,86 + 0,181 × 19,75 ≈ 57,43 = 57 ou 58, le risque d’« échapper » un cas problème étant d’environ 10 %. En approximation, la formule (13) s’applique encore, cette fois avec l’erreur-type conjointe (18), qui peut s’écrire aussi sconjointe = sX· equation: 2052226n.jpg, et qui vaut ici 8,898. Appliquant alors (13), nous obtenons CP ≈ 53,86 + 0,842 × 19,75 – 1,282 × 8,898 ≈ 59,08 ≈ 59, une valeur permissive (notons le signe – dans la formule) légèrement trop haute[30].

Épilogue

Deux nuances importantes doivent conclure les procédures et illustrations élaborées dans cet article et dans les deux précédents. D’abord, comme c’est souvent le cas dans les applications statistiques, on devrait parler ici de vraisemblance plutôt que de probabilité, le degré de vraisemblance référant à un procédé inférentiel inductif (de l’observation au modèle), tandis que la probabilité est déductive (du modèle à l’observation) et suppose que le modèle ait été démontré vrai. Ainsi, les calculs de « probabilité » que nous faisons sous-tendent d’abord un modèle à partir duquel certains calculs permettent d’apprécier des conséquences sans que le modèle ait été préalablement avéré. La seconde nuance se rapporte aussi au modèle ou, plus précisément, au modèle de mesure. Dans plusieurs cas, comme ici, nous supposons que les mesures prises sont continues, alors que les valeurs rapportées ont, la plupart du temps, une définition numérique finie (p. ex., QI = 127, score d’anxiété = 32, poids = 65,4 kg) et que, dans la « population », elles répondent à un modèle de distribution déterminé, ici le modèle normal ou quasi normal. Cette inversion, de déduction à induction, et ce caractère au mieux approximatif du modèle de mesure et de distribution n’ont pas empêché une production scientifique et pratique abondante, concluante et utile, et il est d’usage de s’en contenter. Il reste tout de même prudent de garder ces nuances à l’esprit.

La « théorie des seuils psychométriques » présentée ici n’est évidemment qu’un essai de systématisation et de structuration mathématique des enjeux qui entourent la décision basée sur le testing, quel qu’il soit. Au Canada, l’affaire Meiorin (Colombie-Britannique c. BCGSEU, 1999 ; voir aussi Bosset, 2007) a constitué, par son importance et par ses retentissements déontologiques et légaux, un point de non-retour : toute décision à base de jugement, décision qui affecte la carrière ou la vie d’une personne, doit reposer sur des fondements explicites, explicitement validés et rigoureusement démontrés, le seuil de décision psychométrique en faisant intégralement partie. Notre effort en ce sens reste modeste et, bien sûr, très incomplet. Espérons que, par la créativité ou par la controverse qu’il pourra susciter, il aura contribué à actualiser le problème et incité d’autres chercheurs à en faire avancer la solution.