Corps de l’article

Introduction

Depuis les années 1960, le Québec a instauré un enseignement de masse à tous les niveaux, y compris celui des études supérieures (Donald, 1997). Les collèges de l’enseignement général et professionnel (connus sous le nom de cégeps, dits aussi « collèges »), qui concernent les élèves diplômés du secondaire et offrent des formations préuniversitaires de deux ans et techniques de trois ans, voient leurs effectifs étudiants augmenter de 14 077 en 1967-1968, année de leur ouverture, à 137 583 en 1985-1986 (Savard et Bouthaïm, 2006). En 2011-2012, soit 26 ans plus tard, ces effectifs étaient de 164 273 (Ministère de l’Enseignement supérieur, de la Recherche et de la Science [MESRS], 2015), soit presque 12 fois plus élevés qu’à leur création. L’université connaît un accroissement similaire : le taux d’accès aux programmes conduisant à un diplôme de baccalauréat[1] s’est également accru de façon considérable de génération en génération : 30,1 % en 1984-1985, 35,7 % en 2000-2001, puis 44,4 % en 2011-2012 (Kamanzi, Uzenat et St-Onge, 2018). Certes, on assiste à une démocratisation indéniable sur le plan quantitatif, mais celle-ci demeure ségrégative sur le plan qualitatif si on se réfère à la perspective de la typologie de Merle (2000) : les études récentes témoignent de la persistance des inégalités selon l’origine sociale par le biais de la stratification scolaire au secondaire, puis à l’université (Kamanzi, Maroy et Magnan, 2020).

Si cette persistance des inégalités sociales dans l’enseignement supérieur est le reflet des rapports de pouvoir entre groupes ethniques et classes sociales, elle relève aussi des politiques publiques et institutionnelles agissant à travers les dispositifs d’admission et de sélection qui se succèdent de l’école secondaire au cégep, puis à l’université (Laplante et al., 2018). Ces dispositifs balisent tout un « travail » de différenciation, de ségrégation et de distinction qui mobilise des structures (déterminant donc la manière dont le système scolaire est organisé) et des modes d’intervention et de gestion comme les outils de sélection (lesquels déterminent la manière dont les établissements recrutent les étudiants·es). Selon les systèmes ou établissements considérés, les étudiant·es peuvent être sélectionné·es sur la base de leurs résultats scolaires lors d’examens nationaux, de leurs résultats à des tests sur mesure d’entrée à l’université, d’une sélection antérieure dans différentes filières scolaires, ou encore de jugements portés sur des dossiers scolaires ou d’entrevues en face à face. Aux États-Unis, les résultats des tests influent fortement sur les décisions d’admission des institutions d’enseignement supérieur, le rang dans la classe ayant de ce fait perdu de son importance comme critère de sélection (Alon et Tienda, 2007). Dans un tel contexte de reconfiguration des mécanismes de la méritocratie (shifting meritocracy), les parents se sont adaptés en s’impliquant tant dans les activités scolaires de leur progéniture que dans le suivi du placement aux différentes étapes du cheminement scolaire (Alon, 2009). Dans le même temps, certains administrateurs ont tenté de promouvoir localement une vision plus holistique du mérite pour contrer les inégalités induites par ces transformations (Liu, 2011). Une telle vision se retrouve également au Royaume-Uni à travers la mobilisation d’approches contextualisées pour les admissions (Boliver et al., 2021). In fine, les systèmes et établissements incorporent différents principes de sélection et de justice dans les outils de sélection.

Le présent article s’intéresse à un système particulier de gouvernance de la sélection scolaire, celui du Québec, et à l’outil principal de sélection utilisé par les universités, la cote de rendement au collégial (CRC), créée en 1995 et qui a connu plusieurs modifications, dont la dernière date de 2017[2]. Le système d’éducation québécois comporte trois niveaux d’enseignement préalables aux études universitaires : le préscolaire et le primaire, d’une durée de 7 ans ; le secondaire, d’une durée de cinq ans ; et le collégial (cégep), qui dure en principe 3 ans pour les programmes techniques ou 2 ans pour les programmes préuniversitaires. Les 48 cégeps publics et 21 collèges privés subventionnés du Québec offrent 141 programmes d’études techniques qui donnent accès au marché du travail dans 20 secteurs professionnels, et 9 programmes préuniversitaires donnant accès à tous les programmes universitaires de premier cycle. Ces 150 programmes collégiaux conduisent au diplôme d’études collégiales (DEC). À l’automne 2021, 169 018[3] étudiant·es étaient inscrit·es à l’un de ces programmes. Toute personne qui complète un DEC technique ou préuniversitaire est admissible aux programmes universitaires pour lesquels elle a réussi les cours préalables. En plus de ces préalables, l’admission dans certains programmes dits « contingentés », tels que médecine, médecine dentaire, droit, génie, architecture, pharmacie ou psychologie, est sélective. Selon le Bureau de coopération interuniversitaire (BCI), « un programme contingenté est un programme dont la capacité d’accueil est limitée, soit à cause de contraintes diverses (manque d’espace, d’équipement ou de personnel), soit à cause d’un volume considérable de la demande, soit à cause de critères gouvernementaux fixés en rapport avec le marché du travail[4] ». Pour la rentrée 2021, il y a eu 78 436 demandes d’admission dans les programmes de 1er cycle des universités membres du BCI par des personnes détenant un DEC, dont 37 966 (48 %) dans un programme « contingenté ». Au même moment, 23 603 personnes détenant un DEC étaient inscrites à la première session dans un programme de 1er cycle à l’université, et seulement 8 090 (34 %) dans un programme « contingenté »[5].

Cet article propose une analyse des propriétés et des effets du principal critère de sélection de ces programmes, la CRC. En s’inscrivant dans la perspective de la sociopolitique de l’instrumentation de l’action publique (Lascoumes et Le Galès, 2004), il vise à saisir le contexte qui a conduit à l’élaboration de cet instrument de sélection, les discours qui le justifient et les conceptions de l’équité qui en sous-tendent l’usage. Permettant de rompre avec l’approche fonctionnaliste qui tend à considérer les outils de l’action publique comme neutres, l’approche de l’instrumentation de l’action publique insiste sur la dimension politique du choix des instruments, qui sont dès lors porteurs de conceptions politiques implicites (Lascoumes et Le Galès, 2004). Les notions d’« équité », d’« accessibilité », de « démocratisation », d’« égalité des chances » ou de « méritocratie », mobilisées pour justifier ou dénoncer des modes de gouvernance de la sélection scolaire, sont malléables et relativement ambiguës. Puisque le sens des catégories d’analyse s’avère souvent imprécis, il s’agit donc surtout de déterminer quelles sont les conceptions sous-jacentes des différents acteurs en confrontant leurs discours aux instruments de classement qu’ils proposent et à la place qu’y jouent les antécédents scolaires, le rang dans la classe, la définition du groupe à l’évaluation[6] et sa force à l’évaluation[7]. Plus précisément, nous abordons la CRC comme une « statistisation » (Prévost, 2015), dans la mesure où l’enjeu de la sélection à l’entrée à l’université et, plus largement, les préoccupations d’équité sociale sont établis et définis à travers la CRC d’une manière métrologique et fonctionnaliste qui « permet de substituer à l’affrontement direct des acteurs sur le fond » un instrument quantifié abstrait facilitant la prise de décision (Prévost, 2015 : 221). Cette réduction de questions politiques (ici celle de l’équité) à de simples choix techniques (le calcul d’une CRC) est légitimée par des experts qui travaillent au sein ou pour des institutions garantissant leur légitimité et leur statut en tant qu’experts (Hacking, 2007). Or comme le rappelle Prévost, « dès que l’on cherche à traduire en termes opérationnels les concepts sur lesquels on a pu s’entendre, des ambiguïtés apparaissent et l’on voit bien vite que les interprétations différentes de ces ambiguïtés ne sont pas indépendantes de perspectives politiques divergentes » (Prévost, 2015 : 220). Cet article cherche donc à rendre compte de ces ambiguïtés et à dégager les conceptions politiques sous-jacentes à la CRC, afin de caractériser sa contribution à la reproduction des inégalités sociales.

Sur le plan méthodologique, notre étude s’appuie sur une analyse des documents d’action publique produits depuis la création des cégeps en 1967 ainsi que sur une analyse des propriétés mathématiques de la CRC. Nous retraçons, depuis le rapport Parent (1963-1966), l’histoire de la gouvernance de la sélection[8] et nous analysons les discours de justification soutenant les outils d’évaluation qui ont été proposés. En conclusion, nous revenons sur les impacts de ces transformations en replaçant cet enjeu de la sélection dans les débats sur la stratification scolaire au Québec.

La conception démocratique initiale du Conseil supérieur de l’éducation

Au début des années 1960, la Commission royale d’enquête sur l’enseignement dans la province de Québec, plus communément appelée commission Parent, bouleverse le système d’éducation en recommandant la création d’un ordre supplémentaire de l’enseignement supérieur afin de démocratiser l’accès à l’enseignement supérieur dans un contexte où s’étaient « développés parallèlement un secteur public et un secteur privé [de l’enseignement secondaire], ce dernier étant le seul à conduire jusqu’au baccalauréat et à l’université » (Rapport Parent, 1963 : 98). Cette recommandation aboutit à la création des cégeps en 1967. Malgré la volonté de la commission Parent de rendre accessibles les études supérieures, les universités ont continué d’utiliser des outils de sélection divers qu’elles administraient elles-mêmes. En 1972, une tentative d’uniformisation de ces tests prend forme : le ministère de l’Éducation prend à sa charge l’organisation et l’administration des tests d’aptitudes aux études universitaires (TAEU) développés par le Service des tests d’aptitudes de l’Université de Montréal. Mais dès 1974, cette tentative d’uniformisation échoue sous la pression étudiante (Bélanger, 1984)[9] : le Ministère se retire du programme de tests, tout en laissant aux universités le soin de poursuivre l’administration de tels tests à leurs frais si elles le jugent utile (Boucher, 2018).

Dans les années 1970, le Conseil supérieur de l’éducation (CSE), créé en 1964 afin de veiller au développement de l’éducation au Québec et de conseiller le ministre, se réfère au rapport Parent pour définir la démocratisation – « assurer au plus grand nombre possible d’étudiant·es qui en ont les aptitudes la possibilité de poursuivre des études plus longues et de meilleure qualité » –, tout en précisant qu’il s’agit d’atteindre non seulement une démocratisation « quantitative », mais aussi « qualitative » (Merle, 2000) :

Si l’augmentation de la fréquentation peut être un indice de l’accessibilité, il ne faut pas toutefois confondre les deux notions. Plus de personnes peuvent poursuivre des études postsecondaires, mais il arrive que les défavorisés restent défavorisés, que le marché du travail oblige au contingentement, que l’on frustre les intérêts d’un certain nombre et que des facteurs touchent différemment les diverses catégories de population. Sur plusieurs points, des changements devront être effectués pour que tous aient une égalité des chances et que l’on parvienne à une véritable accessibilité.

Conseil supérieur de l’éducation [CSE], 1975 : 130

En 1975, la démocratisation qualitative demeure entravée par trois facteurs, selon le CSE : les « prérequis » (dits aussi « préalables »), les exigences locales et le contingentement (CSE, 1975 : 131-132). Cependant, le débat se focalise uniquement sur l’accessibilité aux cégeps. Treize ans plus tard, en 1988, c’est l’enjeu de la sélection dans les programmes universitaires qui est très explicitement soulevé comme obstacle à la démocratisation : « il importe de rendre de plus en plus fiables » les diplômes délivrés au Québec « pour éviter qu’on définisse des normes et qu’on mette en place des mécanismes de sélection et d’élimination qui iraient à l’encontre des objectifs toujours nécessaires de démocratisation et d’accessibilité, voire contre l’équité même » (CSE, 1988 : 23). Le CSE est ainsi d’avis que la sélection qui est opérée « ne s’accorde pas toujours harmonieusement avec les objectifs déclarés d’accessibilité, non plus qu’avec la continuité des apprentissages » (CSE, 1988 : 24). Le contingentement y est présenté comme un « mal nécessaire que les établissements scolaires doivent s’imposer avec réticence » et qui « doit demeurer l’exception qui confirme la règle de l’accessibilité » (CSE, 1988 : 24). En particulier, l’instrument de sélection utilisé par les administrateurs des programmes contingentés, appelé « cote Z », est sévèrement critiqué par le CSE, comme on le verra dans la prochaine section.

En somme, la conception de la justice en matière de sélection scolaire que défend le CSE dans les années 1970 et 1980 peut être qualifiée de démocratique. Sur le plan du discours, le CSE met l’accent sur l’accessibilité, à entendre comme l’exigence d’une démocratisation plus qualitative. Du point de vue des instruments, le CSE est en faveur d’une sélection par le diplôme, mais également, si nécessaire, par des tests d’entrée dans les programmes universitaires administrés localement :

Sans écarter a priori qu’on puisse instaurer graduellement – et avec toute l’expérimentation requise – des examens externes facultatifs pouvant servir d’indication supplémentaire du degré de préparation aux études ultérieures, et sans exclure automatiquement le recours à des tests d’admission, à des entrevues, à des tests spécifiques à un programme, à l’analyse du curriculum vitae ou à des épreuves préparées par une association professionnelle ou une faculté universitaire, il n’en demeure pas moins que c’est le diplôme obtenu qui devrait d’abord et avant tout attester du niveau de compétences atteint.

CSE, 1988 : 23

Bien que la nature de ces tests reste relativement floue, cette conception démocratique s’oppose à une conception techniciste qui valoriserait un instrument plus général de mise en équivalence des étudiant·es du collégial. Cette conception techniciste va pourtant progressivement s’imposer par la suite, d’abord à travers l’implantation de la cote Z, puis des différentes formules de la CRC.

La cote Z : l’impossible compromis

Faute d’épreuves uniformes et de balises précises sur les contenus à évaluer, les universités ont utilisé au départ la moyenne scolaire collégiale pour classer les candidat·es selon leur mérite scolaire. Cependant, l’utilisation de la moyenne collégiale pouvait défavoriser des candidat·es ayant subi des évaluations plus sévères ou, au contraire, favoriser indûment des candidat·es qui auraient subi des évaluations trop indulgentes. Vers la fin des années 1970, les universités se sont donc tournées vers une construction statistique alors utilisée dans de nombreux domaines et apparemment plus équitable pour classer des données, la cote Z. Celle-ci permet de positionner une donnée dans un échantillon à partir de son écart à la moyenne, cet écart étant calculé en nombre d’écarts-types. Dans le contexte des admissions universitaires, la cote Z permet donc d’exprimer la position d’un·e étudiant·e dans une distribution de notes par rapport à deux éléments fondamentaux de cette distribution, à savoir la moyenne des notes et l’écart-type. En ramenant à une échelle commune des notes d’étudiant·es évalué·es à différents moments dans différents groupes-classes, son utilisation « permet de rendre comparables des notes de toutes provenances » et de « classer les étudiants en fonction de leur rendement » (Conférence des recteurs et des principaux des universités du Québec [CREPUQ], 2009 : 5).

C’est le directeur des admissions du Bureau du registraire de l’Université de Sherbrooke, Jean-Robert Langlois, qui présente ce nouvel outil en 1977 aux membres du Comité de liaison de l’enseignement supérieur et de l’enseignement collégial (CLESEC). Après la création d’un comité d’implantation, la cote Z est officiellement adoptée par le réseau de l’enseignement supérieur en 1980, et le Comité de gestion des bulletins cumulatifs uniformes (CGBCU) est mis en place. À partir de ce moment, la cote Z devient le principal outil de classement des candidatures à l’université. Cependant, à peine est-elle implantée qu’elle subit des critiques provenant tant du CSE que des directeurs des collèges les plus sélectifs.

La cote Z a pour effet « de défavoriser un étudiant fort parmi les forts et d’avantager un étudiant moyen parmi les faibles » (CSE, 1988 : 24). En effet, dans un contexte où les groupes-classes sont de forces différentes, les étudiant·es provenant des collèges rassemblant les étudiant·es les plus fort·es sont relativement désavantagé·es par l’usage de la cote Z. Par ailleurs, le CSE soutient qu’en permettant « de pondérer la signification relative du diplôme d’études collégiales », la cote Z contribue en même temps « à renforcer la tendance à hiérarchiser d’une manière plus ou moins occulte les établissements collégiaux » (CSE, 1988 : 24). Ce dernier argument semble pourtant contradictoire avec le précédent dans la mesure où, à l’inverse, se sachant désavantagés, les étudiant·es des groupes les plus forts pourraient développer des stratégies afin d’éviter les collèges réputés les plus forts et ainsi contribuer à lisser les asymétries potentielles entre les différents établissements. Ici, l’argument de la hiérarchisation des établissements semble donc peu pertinent, l’outil tendant même à produire l’effet inverse.

De leur côté, les divers gestionnaires des cégeps les plus réputés ont vite manifesté une inquiétude à l’égard des effets de la cote Z sur l’admission de leurs diplômés à l’université, notamment Maurice Hébert, du collège privé Jean-de-Brébeuf, concernant les diplômés de son baccalauréat international[10], et Marc Cardinal, du cégep public Bois-de-Boulogne, concernant ses diplômés de sciences (Boucher, 2018). À l’Université de Montréal, on a même décidé d’implanter l’« indice de pronostic du rendement à l’université » (IPRU), qui pondérait les cotes Z en fonction du programme et du collège de provenance. C’est finalement peu après la création en 1993 du programme d’études collégiales en sciences, lettres et arts (SLA), réservé aux finissant·es les plus performant·es du secondaire, et la démonstration qu’aucun finissant de ce programme ne serait admis en médecine sur la base de sa cote Z (Boucher, 2018) que le Comité de gestion des bulletins d’études collégiales (CGBEC) fut mandaté pour travailler à la construction d’un nouvel indicateur.

En définitive, la conception de la sélection scolaire sous-jacente à l’utilisation de la cote Z n’a été défendue durablement par aucun acteur. Son implantation répondait à un compromis entre la promotion de l’égalité entre établissements et l’exigence de la reconnaissance méritocratique du rang dans la classe. Cependant, sa légitimité a été contestée en raison d’une trop grande variabilité de la force des groupes, qui compromettait son équité. Si les groupes-classes sont de forces différentes, alors le dossier du candidat n’est pas évalué équitablement par sa position relative dans le groupe-classe. C’est ce défaut que la création de la CRC cherchera à corriger. Ainsi que le résume la CREPUQ :

Lorsque les groupes d’étudiants présentent des caractéristiques différentes, les comparaisons effectuées à l’aide de la cote Z deviennent moins valides et moins équitables. La sélection qu’exercent les collèges dans leur processus d’admission à leurs différents programmes, les différentes formes de regroupement des étudiants (groupes homogènes et hétérogènes), la nature des programmes de formation offerts (DEC en sciences, lettres et arts, versions enrichies de certains DEC, baccalauréat international, etc.) constituent autant de facteurs pouvant affecter le classement des étudiants venant de collèges différents et influer sur les chances d’admission de certains d’entre eux.

CREPUQ, 2009 : 5-6

La première version de la CRC

C’est dans ce contexte d’exacerbation des critiques adressées à la cote Z que la cote de rendement collégial (CRC) a été proposée par la CREPUQ, puis implantée en 1995. L’objectif affiché de la CRC était de « s’assurer que le dossier scolaire des candidats soit évalué le plus équitablement possible, quel que soit le collège d’origine » (CREPUQ, 2005 : 14). Pour contrer la stratégie consistant à choisir un cégep où les groupes étaient faibles de manière à obtenir un grand écart par rapport à la moyenne et donc accroître la valeur de sa cote Z, la CREPUQ a introduit dans la formule de calcul de la cote un paramètre supplémentaire qui estimait la force du groupe.

Techniquement, on ajoutait à la cote Z un quotient. Le numérateur représentait la « force du groupe », considérée non pas en fonction des notes dans le contexte collégial, mais suivant le niveau des élèves du groupe dans leur ancien établissement (école secondaire) ; il correspondait en fait à la moitié de l’écart entre la moyenne des notes au secondaire des étudiant·es de ce groupe (Mgs) et la moyenne de la population étudiante du secondaire, établie à 75 à cette époque. Le dénominateur représentait l’« indicateur d’homogénéité uniforme » (Hg) du groupe, fixé à 10, à 14 ou à 18 selon que le groupe était fort (Mgs > 88), moyen (88 ≥ Mgs ≥ 75) ou faible (75 > Mgs). Ainsi, plus le groupe était fort, plus la correction était généreuse. Cette formule entendait « corriger les différences observées dans les systèmes de notation utilisés dans les collèges, tout en prenant en compte la force relative de chaque groupe d’étudiants » (CREPUQ, 2005 : 14).

Un certain nombre de corrections additionnelles ont été apportées après l’observation d’effets pervers ou d’iniquités découlant de la méthode de calcul de la CRC. L’une des premières modifications concernait le dénominateur (Hg) du paramètre supplémentaire :

Le CGBEC ayant constaté une augmentation subite et rapide du nombre de groupes-forts (Mgs > 88), le CLESEC – renommé le Comité de liaison de l’enseignement supérieur (CLES) pour mieux affirmer l’appartenance de l’enseignement collégial à l’enseignement supérieur – a accepté la recommandation du comité à l’effet de ne retenir qu’un seul dénominateur, qui fut établi à 14. Et pour compenser l’effet négatif de cette décision pour les groupes les plus forts dans les programmes reconnus [sciences, lettres et arts (SLA) et baccalauréat international (BI)], il fut décidé d’accorder une bonification de 0,5 à la CRC de tous les étudiant·es inscrit·es dans ces programmes.

Boucher, 2018 : 7-8

Après la publication d’un rapport du CSE en 2002 sur la situation des étudiant·es qui échouent à certains cours[11] (Carpentier, 2002), une autre modification importante est apportée, laquelle consiste à pondérer les échecs : à partir de 2005, les cours échoués ont reçu une pondération de 0,25 au premier trimestre d’inscription au collégial et de 0,5 pour les trimestres subséquents (BCI, 2013) ; et à partir de 2007, les cours échoués ou réussis dans les programmes antérieurs ne sont plus pris en compte. Par ailleurs, les étudiant·es des régions éloignées ont obtenu en 2003 une augmentation de leur CRC de 0,5 de la part des départements de médecine (CREPUQ, 2013 : 15). Enfin en 2007, il est décidé de calculer l’indice de force du groupe à partir de la moyenne des notes finales des matières obligatoires seulement, et non plus, comme jusque-là, de la moyenne de tous les cours de la formation générale en 4e et en 5e secondaire.

Tout compte fait, la conception de la justice sous-jacente à la première version de la CRC se situe dans la continuité de la conception méritocratique et fonctionnaliste qui caractérisait la cote Z. L’objectif demeure de corriger les défauts de l’outil précédent. Sur le plan du discours, la CREPUQ met l’accent sur la nécessité de corriger les différences observées quant aux différents systèmes de notation utilisés dans les collèges en prenant en compte la force relative de chaque groupe à l’évaluation. Dans la formulation de 2007, l’indicateur de force du groupe apparaît comme d’autant mieux standardisé qu’il est calculé sur la base des notes obtenues aux examens ministériels uniformes de 4e et de 5e secondaire.

La dernière modification de la CRC en 2017

La CREPUQ a été remplacée en 2014 par le Bureau de coopération interuniversitaire (BCI)[12]. Dès sa création, le BCI mandate Richard Guay, un ancien directeur des études au collège privé Jean-de-Brébeuf, pour concevoir un nouvel instrument. En implantant la nouvelle formule en 2017, le BCI prétend non plus seulement « corriger » les systèmes de notation, mais « donner aux meilleurs étudiant·es de tous les collèges des chances égales d’accès aux programmes universitaires les plus contingentés » (BCI, 2020b : 20). En même temps, le BCI avance que la nouvelle formule supprime tous les effets pervers potentiels pouvant découler de l’implantation d’un instrument général de mise en équivalence, car avec elle, il devient « inutile de choisir un collège pour la seule raison qu’on croit y gagner un avantage lors de l’accès à l’université » (BCI, 2020a : 12). Selon ses promoteurs, la nouvelle formule « élimine l’ensemble des biais associés aux modalités d’évaluation différentes entre les professeurs et aux caractéristiques distinctes des groupes à l’entrée » (Périard et Riopel, 2019 : 5). S’impose ainsi une logique techniciste de gouvernance qui défend l’idée selon laquelle on peut résoudre tous les enjeux normatifs de l’équité de la sélection scolaire en mettant en place un instrument quantifié.

L’analyse des discours de ses promoteurs permet d’éclairer, derrière la prétention métrologique de construction d’un instrument sans biais, la conception spécifique de l’équité sous-jacente à cette nouvelle formule. L’objectif affiché, ainsi qu’on peut le lire dès 2014, est surtout d’éliminer un certain type de biais, soit celui qui tendait à « pénaliser les étudiants moins forts des groupes homogènes forts et les étudiants plus forts des groupes hétérogènes faibles » (Comité de gestion des bulletins d’études collégiales [CGBEC], 2014 : 9). Le principal postulat normatif derrière cette nouvelle formule concerne les étudiant·es des groupes homogènes : dans leur cas, la force du groupe devient le paramètre principal dans l’évaluation de leur rendement au collégial. De fait, l’homogénéité agit dans la formule comme un facteur qui atténue l’effet de leurs moins bons résultats relatifs obtenus au sein de leurs groupes : « [I]l est presque normal d’être sous la moyenne quand toutes les notes sont rapprochées les unes des autres et que la moyenne du groupe est élevée. » (Périard et Riopel, 2019 : 6) Ainsi, les bonnes notes obtenues au secondaire par l’ensemble du groupe dont ils font partie au collégial sont garantes de leur avenir individuel s’ils sont dans un groupe homogène fort ; a contrario, dans les groupes homogènes faibles, les bonnes performances obtenues au collégial sont délégitimées en raison des mauvaises notes obtenues au secondaire par l’ensemble du groupe à l’évaluation.

Cette conception implicite de l’équité voulant que le passé des étudiant·es des groupes homogènes soit garant de leur avenir en matière de réussite scolaire se retrouve dans l’analyse de la formule mathématique elle-même. Elle s’écrit comme suit :

Bien que la CRC repose sur la cote Z obtenue par l’étudiant·e au cégep, la contribution de cette cote Z à la valeur de sa cote de rendement au collégial varie en fonction de l’homogénéité du groupe à l’évaluation auquel il ou elle appartient : plus le groupe est hétérogène, plus cette contribution est élevée ; plus le groupe est homogène, moins elle est élevée. Dans le cas limite où le groupe serait parfaitement homogène, celui où l’indicateur de dispersion du groupe vaudrait 0, la cote Z de l’étudiant·e ne contribuerait pas du tout à sa cote de rendement au collégial. La valeur de la CRC de l’étudiant·e qui appartient à un groupe à l’évaluation parfaitement homogène dépend donc entièrement des autres éléments qui contribuent au calcul de la cote de rendement au collégial, à savoir la force moyenne de son groupe collégial (soit l’« indicateur de la force du groupe »).

En somme, la conception de la justice en matière de sélection scolaire sous-jacente à la nouvelle formule de calcul de la CRC est double. D’abord, en faisant dépendre la CRC des étudiant·es de la force du groupe à l’évaluation, elle repose sur l’idée que le passé scolaire des groupes homogènes est garant de la réussite future de chacun des étudiant·es qui en font partie. Ensuite, en faisant varier l’importance du rendement collégial en fonction du degré d’homogénéité des groupes à l’évaluation, elle introduit un double standard d’évaluation en réduisant l’importance du rang dans les classes homogènes tout en l’accroissant dans les classes hétérogènes.

Pour mieux comprendre les impacts du changement de la formule en 2017, nous avons procédé à des simulations, ce qui a donné lieu à un rapport déposé auprès du BCI (Fédération des cégeps, 2021). En l’absence de données réelles disponibles, nous avons fait le choix de construire des groupes fictifs en comparant les CRC de deux étudiant·es (l’un fort et l’autre faible) placé·es dans quatre groupes à l’évaluation distincts : très fort et homogène (groupe 1), très faible et homogène (groupe 2), moyen plutôt homogène (groupe 3) et moyen plutôt hétérogène (groupe 4). Le résultat principal émergeant de cette simulation est qu’avec la nouvelle formule, l’étudiant·e au profil scolaire faible du groupe le plus fort obtient une meilleure CRC que l’étudiant·e au profil scolaire fort du groupe le plus faible. Ce·tte dernier·ère, ayant pourtant des notes quasi parfaites tant au secondaire qu’au cégep, n’a plus aucune chance d’être admis·e dans les programmes les plus fortement contingentés[13].

Finalement, après l’introduction de la nouvelle formule de la CRC, ce sont donc surtout les étudiant·es des groupes les plus forts qui sont admis dans les programmes contingentés. Tout en poursuivant l’objectif d’éliminer les biais ou iniquités de classement des outils précédents, la formule de la CRC révisée renforce en réalité le rôle des choix d’établissement et des modalités de constitution des groupes dans le processus de sélection. Le poids attribué aux antécédents scolaires des étudiant·es qui constituent le groupe est plus important et, parfois, empêche certaines personnes d’accéder à des programmes contingentés, quels que soient leurs résultats. Ces effets sont particulièrement perceptibles dans les cours de la formation générale, où, dans les cégeps publics, les étudiant·es proviennent de différents programmes de formation, tant préuniversitaires que techniques. Dans plusieurs cégeps, la force du groupe est donc généralement plus faible dans ces matières, ce qui peut pénaliser les personnes les plus fortes.

En outre, la manière dont les cégeps constituent les groupes à l’évaluation entraîne d’autres problèmes sur le plan de l’équité. Certains établissements n’admettent dans leurs programmes de sciences et autres programmes contingentés que des étudiant·es fort·es ou très fort·es, s’assurant ainsi de constituer uniquement des groupes à l’évaluation homogènes forts qui avantagent systématiquement leur population étudiante dans le calcul de la CRC. D’autres cégeps constituent sciemment des groupes-classes homogènes forts de sorte de bonifier la CRC de leurs étudiant·es. Ainsi, les collèges Marianopolis et Jean-de-Brébeuf utilisent explicitement le nouveau mode de calcul de la CRC comme argument de recrutement en mentionnant que celle-ci est bonifiée chez eux par la constitution de groupes-classes homogènes forts[14]. À l’opposé, d’autres programmes ou collèges – principalement en région – n’ont tout simplement pas une population étudiante assez grande pour former des groupes à l’évaluation d’une taille significative. Or, plus la taille du groupe est faible, moins la valeur de la CRC est fiable ; les données « extrêmes » ont potentiellement trop de poids dans un petit groupe. De plus, s’il n’est pas possible de constituer un groupe à l’évaluation comportant plus de cinq personnes détenant un diplôme d’études secondaires du Québec et pour lesquelles il existe une moyenne aux examens obligatoires du secondaire, la CRC n’est tout simplement pas calculée pour le cours.

Conclusion

Somme toute, la mise en perspective historique de la gouvernance de la sélection au Québec nous a amenés à confronter les discours de justification des différents acteurs aux conceptions de l’équité sous-jacentes aux instruments de sélection promus. Cela nous a permis de mettre en lumière une double transformation. D’une part, nous avons décrit le passage d’une conception démocratique, défendue par le CSE, opposée à la mise en place d’un instrument de mise en équivalence générale des étudiant·es, à une conception techniciste qui réduit l’enjeu normatif de l’équité à un simple choix technique. Cette conception culmine, avec la dernière modification de 2017, dans une croyance métrologique en un instrument parfaitement équitable et sans biais. D’autre part, nous avons éclairé le glissement d’une gouvernance mettant l’accent sur le diplôme et des tests administrés localement par les programmes universitaires eux-mêmes à une instrumentation qui a donné de plus en plus de poids à la force du groupe à l’évaluation. Là encore, avec la nouvelle formule de 2017, cette transformation culmine aujourd’hui en une conception de l’équité fondée sur l’idée que le passé des étudiant·es des groupes homogènes est garant de leur avenir en matière de réussite scolaire. Le poids donné aux antécédents scolaires des individus qui constituent le groupe est si important qu’il empêche certaines personnes d’accéder à des programmes contingentés, peu importe leurs résultats. Cette double transformation a été légitimée par le BCI, qui a garanti la valeur de l’instrument et le statut d’expert du consultant mandaté pour le réviser.

Cet article montre que, contrairement à son objectif affirmé d’équité, la nouvelle formule de la CRC ne fait que légitimer, voire accentuer les inégalités sociales d’accès aux programmes contingentés de l’enseignement universitaire. Dès lors que la nouvelle formule de la CRC tend à avantager tous les étudiant·es admis·es dans les collèges les plus sélectifs, elle ne peut pas être réduite à un instrument neutre : en faisant dépendre la sélection de chacun de la force du groupe, elle réduit l’importance des résultats individuels obtenus au cégep par les étudiant·es dans les classes homogènes. C’est donc doublement que l’on peut parler d’un système à deux vitesses au Québec : en raison de la stratification des établissements secondaires (sélectifs/non sélectifs) et du double standard que le système de la CRC induit au collégial (classes homogènes/classes hétérogènes).

Par ailleurs, de nombreux acteurs du réseau de l’enseignement supérieur dénoncent la place prépondérante de la force du groupe à l’évaluation dans la méthode de calcul, dont le Conseil supérieur de l’éducation (CSE, 2018 ; 2019), la Fédération nationale des enseignantes et enseignants du Québec (FNEEQ, 2019) et, plus récemment, la Fédération des cégeps (2021) et la Fédération étudiante collégiale du Québec (FECQ, 2021). Le CSE déplore même que la CRC puisse devenir une entrave à la réalisation des aspirations professionnelles des jeunes collégien·nes (CSE, 2019). En réaction à ces critiques grandissantes, les promoteurs de la nouvelle formule continuent certes de défendre leur instrument. Cependant, on peut noter un infléchissement du ton adopté puisqu’ils affirment maintenant non plus que la CRC élimine tous les biais, mais qu’elle demeure « la mesure connue la plus équitable du rendement scolaire des étudiant·es du collégial », ajoutant qu’ils sont « évidemment conscients que toute mesure d’évaluation est perfectible, ce que confirme amplement l’historique des modifications apportées à la mesure du rendement scolaire des cégépiens afin de la rendre de plus en plus équitable[15] ». La montée des critiques conjuguée à cet infléchissement permet de faire l’hypothèse d’une reconfiguration prochaine du débat sur l’équité de la gouvernance de la sélection universitaire au Québec. Cette reconfiguration permettrait d’abord de rendre mieux visible l’affrontement politique direct des acteurs derrière le débat technique sur les instruments. Elle permettrait également de promouvoir d’autres principes de gouvernance, en particulier celui de l’« équité démocratique » (Boliver et al., 2021), selon lequel les qualifications des futurs étudiant·es doivent être jugées de manière holistique (Liu, 2011), en considérant certes la performance dans le parcours scolaire passé ou dans des tests, mais aussi les compétences spécifiques aux programmes, les talents particuliers des candidat·es, ainsi que leurs antécédents familiaux et les circonstances socioéconomiques dans lesquelles les performances scolaires passées ont été obtenues.