Corps de l’article

1. Introduction et problématique

Au Québec, les réformes scolaires instaurées entre 1986 et 2004 aux différents ordres d’enseignement prônent principalement le développement de compétences plutôt que l’atteinte d’objectifs d’apprentissage. Ce changement dans la finalité de l’apprentissage a transformé les pratiques d’enseignement. À ce titre, Leroux (2010a) mentionne qu’il s’agit d’un passage d’un apprentissage axé sur l’acquisition de connaissances non contextualisées à un apprentissage axé sur la mobilisation des savoirs acquis en contexte authentique.

Par ailleurs, au moment du courant encyclopédique, Carroll (1963) et Harnischfeger et Wiley (1976) précisent que les pratiques d’évaluation des apprentissages en classe font partie intégrante des pratiques d’enseignement. Une décennie plus tard, alors que les programmes de formation visent l’atteinte d’objectifs d’apprentissage, Stiggins (1988) évalue subjectivement le temps alloué à l’évaluation des apprentissages en classe à 40 %, tout autre ordre d’enseignement confondu, de la tâche d’un enseignant. Dans la même veine, selon les résultats empiriques obtenus par Forgette-Giroux, Simon et Bercier-Larivière (1996), il y aurait près du tiers du temps consacré à l’enseignement au secondaire qui serait dédié à l’évaluation des apprentissages en classe. Par ailleurs, dans le cadre de l’approche par compétences aucune donnée ne semble disponible quant au temps consacré à l’évaluation des apprentissages. Toutefois, il est de mise de penser que les pratiques d’évaluation des apprentissages en classe nécessitent encore plus de temps dans les pratiques d’enseignement de programmes de formation axés sur le développement de compétences. En effet, le virage vers l’approche par compétences a métamorphosé tant les pratiques d’évaluation des apprentissages en classe que les pratiques d’enseignement (Martin, 2012). D’ailleurs, cela a été souligné par quelques auteurs (Bélair et Dionne, 2009 ; Fontaine, Savoie-Zajc et Cadieux, 2013 ; Goulet, 1997 : cité dans Leroux, 2010a ; Martin, 2012). L’un des changements les plus importants est l’évaluation des apprentissages en classe intégrée à l’enseignement et à l’apprentissage qui est mise de l’avant (Bélair et Dionne, 2009 ; Martin, 2012 ; Scallon, 2004). Pour Fontaine et coll. (2013, p. 9), l’un des changements est que l’évaluation doit démontrer la progression du développement de la compétence selon le rythme des situations d’apprentissage. Selon Fontaine et coll. (2013), ce changement concerne aussi ce qui est évalué soit les savoirs, les stratégies, les habiletés et la mobilisation des connaissances. Le processus et le résultat de la tâche font aussi l’objet d’évaluation selon Morrissette et Legendre (2011). Leroux (2010a) ajoute que la transférabilité, tant des connaissances acquises que des compétences développées, doit aussi être évaluée.

Néanmoins, l’étude des pratiques d’évaluation des apprentissages en classe ne semble que très peu étoffée. En ce sens, Forgette-Giroux et coll. (1996) attirent l’attention sur la nécessité d’étudier les pratiques d’évaluation en classe en plus du besoin ressenti par les enseignants d’identifier le niveau d’équité de leurs pratiques. De plus, le point faible des recherches effectuées sur les pratiques d’évaluation en classe réside dans le nombre limité de caractéristiques à l’étude selon Deaudelin, Desjardins, Dexutter, Thomas, Morin, Lebrun, Hasni et Lenoir (2007). D’ailleurs, Bélair et Dionne (2009) soulignent que les recherches sur l’évaluation des apprentissages en classe se concentrent presque exclusivement sur l’évaluation formative. Aussi, l’insuffisance de cadre théorique (Deaudelin et coll., 2007), l’analyse en profondeur des pratiques d’évaluation en classe dans une approche par compétences (Leroux, 2010a, 2010b), ainsi que la rareté d’études effectuées sur les nouveaux outils utilisés (Hall et Hewitt-Gervais, 2000) sont autant d’éléments justifiant la mise en oeuvre d’une recherche sur le sujet. En ce sens, la présente recherche vise à répondre à la question : quelles sont les caractéristiques des pratiques d’évaluation des apprentissages en classe dans une approche par compétences ?

2. Contexte théorique

L’évaluation des apprentissages en classe s’effectue selon un processus reconnu dont les étapes sont la planification, la collecte de l’information, l’interprétation des informations recueillies, le jugement porté sur l’ensemble de l’information et la décision sur les apprentissages des étudiants (Durand et Chouinard, 2006). Ce processus est suivi dans le cadre d’une évaluation à fonction diagnostique, formative, sommative ou encore certificative. À chacune des étapes du processus d’évaluation, les tâches d’évaluation demandées aux étudiants doivent posséder certaines caractéristiques. Bien que les cadres de référence de Scallon (2004), de Tardif (2006), de Baartman, Bastiaens, Kirschner et Van der Vleuten (2006) soient d’intérêt, celui de Raîche (2006) complété par Raîche et coll. (2011a) et Raîche et coll. (2011b) est privilégié dans le cadre de cette recherche. D’ailleurs, ce cadre de référence présente une synthèse de ceux de Scallon (2004), de Tardif (2006) et de Baartman et coll. (2006). De plus, les caractéristiques du cadre de référence de Raîche et coll. (2011a) ; Raîche et coll. (2011b) sont relatives aux pratiques d’évaluation quel que soit le niveau d’enseignement.

2.1 Cadre de référence PIEA

Le cadre de référence PIEA, présenté au tableau 1, énonce les caractéristiques suivantes des pratiques d’évaluation des apprentissages en classe dans une approche par compétences : la planification (P), l’intégration (I), l’équité (E) et l’authenticité (A) (Raîche et coll., 2011a ; Raîche et coll., 2011b). L’apprentissage de l’étudiant est en toile de fond de ce cadre de référence et de fait constitue le point commun entre les quatre caractéristiques le constituant. La planification, l’intégration, l’équité ainsi que l’authenticité ont été identifiées comme étant des caractéristiques visant l’amélioration de l’apprentissage de l’étudiant.

Tableau 1

Caractéristiques d’évaluation des apprentissages dans un contexte de développement de compétences – Cadre de référence PIEA (tiré de Talbot, 2015)

Caractéristiques d’évaluation des apprentissages dans un contexte de développement de compétences – Cadre de référence PIEA (tiré de Talbot, 2015)

-> Voir la liste des tableaux

2.1.1 Planification de l’évaluation

La planification est la première étape du processus d’évaluation des apprentissages en classe. En 2002, St-Laurent et Moss, inspirés des travaux de Haith (1997 : voir St-Laurent et Moss, 2002) et de Scholnick et Friedman (1987 : voir St-Laurent et Moss, 2002), précisent la nécessité d’encadrer la mise en action de la planification afin de permettre d’atteindre les buts visés. En ce sens, il est nécessaire de planifier des stratégies en accord avec les buts visés à partir d’une vision réaliste des objectifs à atteindre.

Selon Deshaies, Fradette, Gagnon, Guy, Michaud, Poirier et Rouzier (1996), l’adéquation entre ce qui est enseigné et ce qui est évalué est possible seulement si l’évaluation en classe est planifiée. D’ailleurs, l’importance de déterminer le but de l’évaluation (Chappuis, Stiggins, Chappuis et Arter, 2012 ; Gronlund, 1993 ; Wiersma et Jurs, 1990), les conditions dans lesquelles aura lieu l’évaluation (Brookhart et Nitko, 2008 ; Gronlund, 1993) et des directives dépourvues d’ambigüité (Gronlund, 1993) sont au nombre des éléments à planifier. Par ailleurs, l’identification de l’utilisateur des résultats obtenus (Chappuis et coll., 2012 ; Gronlund, 1993) et de qui effectuera l’évaluation (Deshaies et coll., 1996) n’est pas à négliger. En ce qui concerne la fixation des objectifs d’apprentissage évalués, l’enseignant doit les traduire en termes de performance attendue de la part de l’étudiant (Gronlund, 1993). Finalement, les instruments de mesure utilisés (Chappuis et coll., 2012 ; Deshaies et coll., 1996) ainsi que les critères d’évaluation de ceux-ci (Deshaies et coll., 1996 ; Gronlund, 1993) doivent être déterminés au moment de la planification.

Malgré toute son importance, force est de constater que la planification est très peu étudiée depuis les années 2000. De plus, bien que la planification de l’évaluation des apprentissages soit associée à la planification d’un cours (Deshaies et coll., 1996 ; Durand et Chouinard, 2006) et que toute évaluation doit être planifiée (Chappuis et coll., 2012), il semble que les enseignants ne lui prêtent que peu d’attention. En 2003, Earl précise que peu de temps est alloué à la planification de l’évaluation des apprentissages en classe.

2.1.2 Intégration de l’évaluation

2.1.2.1 Intégration à l’enseignement

L’intégration de l’évaluation des apprentissages à l’enseignement correspond à l’évaluation pour l’apprentissage (assessment for learning). Or, l’évaluation pour l’apprentissage est souvent présentée à tort comme étant un synonyme de l’évaluation formative alors qu’elle est plutôt une forme élargie de celle-ci (Stiggins, 2005). À ce titre, l’évaluation stimule l’apprentissage (Earl, 2003  Martinez et Lipson, 1989) afin de permettre l’atteinte d’un meilleur apprentissage chez l’étudiant (Stiggins, 2002). Pour intégrer l’évaluation pour l’apprentissage dans sa classe, l’enseignant doit énoncer clairement les attentes en lien avec les apprentissages à réaliser (Stiggins, 2005). De plus, il utilise différentes tâches d’évaluation (Earl, 2003 ; Stiggins, 2005) et celles-ci sont authentiques (Martinez et Lipson, 1989).

Une rétroaction immédiate serait à privilégier (Martinez et Lipson, 1989) permettant ainsi à l’enseignant d’identifier les besoins de l’étudiant au cours de son apprentissage et permettre alors à celui-ci d’améliorer ses stratégies (Earl, 2003). Afin d’atteindre une telle évaluation pour l’apprentissage, il est de mise que l’enseignant planifie au préalable l’évaluation des apprentissages en classe (Martinez et Lipson, 1989). Dans le cadre d’une évaluation pour l’apprentissage, l’enseignant et l’étudiant travaillent ensemble pour favoriser une plus grande implication de l’étudiant dans son apprentissage et, par extension, dans sa réussite (Stiggins, 2005).

2.1.2.2 Intégration des modalités les unes aux autres

L’intégration des modalités les unes aux autres correspond au transfert hiérarchique des apprentissages présenté par Torrey et Shavlik (2009). Pour ces auteurs, il est nécessaire que la tâche finale soit précédée de plusieurs tâches hiérarchisées par niveau de difficulté afin de favoriser le transfert des apprentissages. Les tâches préalables peuvent proposer des solutions pouvant être mises ensemble pour proposer une solution à la tâche finale (Torrey et Shavlik, 2009). Bref, chacune des tâches préalables est une constituante de la tâche finale. Ainsi, l’intégration des modalités les unes aux autres permet de favoriser le transfert des apprentissages.

2.1.2.3 Intégration au programme

Lors de l’évaluation des apprentissages, l’enseignant doit tenir compte du programme de formation (Earl, 2003 ; Stiggins, 2005). Dans ce contexte, l’enseignant doit s’assurer que l’enseignement, l’apprentissage, l’évaluation des apprentissages ainsi que le programme de formation sont en synergie. Bref, l’intégration au programme serait désirée dans le contexte d’une approche programme.

2.1.3 Équité en évaluation

Avec l’adoption de l’approche par compétences, l’équité fait souvent partie du discours des différents intervenants scolaires. À cet effet, il est important de préciser que bien que l’équité soit souvent discutée dans le contexte de l’intégration des élèves avec difficulté d’apprentissage dans les classes dites régulières, elle concerne ici l’ensemble des élèves avec et sans problème d’apprentissage. Un élément important de l’équité réside dans la possibilité pour tout étudiant d’apprendre préalablement le contenu qui sera évalué et d’avoir fait des tâches similaires à celle faisant l’objet de l’évaluation (Camili, 2006 ; McMillan, 2000), incluant les procédures et la durée de la tâche (Stobart, 2005). Aussi, l’étudiant doit pouvoir démontrer ce qu’il a maitrisé (Camili, 2006 ; McMillan, 2000 ; Suskie, 2000 ; Vos, 2000) en lui présentant des tâches dont le contenu évalué est en cohérence avec le contenu enseigné (Bercier-Larivière et Forgette-Giroux, 1999 ; McMillan, 2000 ; Suskie, 2000), avec le contenu à maitriser et avec les objectifs d’apprentissage (Stobart, 2005 ; Vos, 2000). Ainsi, l’évaluation des apprentissages en classe permet à l’étudiant de cerner les objectifs d’apprentissage et les compétences à développer pour atteindre un seuil de réussite (Suskie, 2000). En ce qui concerne les tâches d’évaluation, elles doivent, notamment, être multiples (Camili, 2006 ; Suskie, 2000 ; Vos, 2000) et être différentes (Camili, 2006 ; McMillan, 2000 ; Suskie, 2000). De plus, les tâches d’évaluation ne doivent présenter aucun biais lié aux stéréotypes, à la langue ou à la culture (Camili, 2006 ; McMillan, 2000). Il est aussi nécessaire que les tâches d’évaluation soient transparentes en mentionnant aux étudiants ce qui sera évalué (Bercier-Larivière et Forgette-Giroux, 1999 ; Camili, 2006 ; McMillan, 2000 ; Suskie, 2000) en précisant à l’avance les critères d’évaluation (Bercier-Larivière et Forgette-Giroux, 1999  ; Camili, 2006  ; Vos, 2000). En bref, pour certains auteurs, la planification de l’évaluation en classe est essentielle afin d’assurer l’équité, laquelle comprend la planification des objectifs visés (Bercier-Larivière et Forgette-Giroux, 1999) et du contenu évalué par la tâche d’évaluation (Camili, 2006). Finalement, une évaluation des apprentissages en classe pourra être considérée comme étant équitable seulement si l’ensemble des étapes du processus d’évaluation l’est (Bercier-Larivière et Forgette-Giroux, 1999).

2.1.4 Authenticité en évaluation

Bien que souvent l’authenticité soit synonyme de la réalité quotidienne ou professionnelle (Berge, Ramaekers et Pilot, 2004 ; Burton, 2011 ; Frey et Allen, 2012 ; Gulikers, Bastiaens et Kirschner, 2004  ; Janesick, 2006  ; Laurier, Tousignant et Morissette, 2005 ; Whitelock et Cross, 2012  ; Wiggins, 1990  ; Yaseen, 2013), la tâche d’évaluation doit aussi être représentative de la discipline scolaire et être reliée aux autres cours du programme (Berge et coll., 2004 ; Burton, 2011  ; Whitelock et Cross, 2012  ; Wiggins, 1989). De par sa complexité, la tâche d’évaluation comprend des informations pertinentes et non pertinentes (Gulikers et coll., 2004) qui permettent de mobiliser plusieurs connaissances, habiletés, attitudes ou compétences de haut niveau (Berge et coll., 2004 ; Burton, 2011 ; Frey et Allen, 2012, Gulikers et coll., 2004 ; Herrington et Herrington, 1998, 2006 ; Janesick, 2006  ; Laurier et coll., 2005 ; Whitelock et Cross, 2012 ; Wiggins, 1989, 1990 ; Yaseen, 2013). Ainsi, la tâche d’évaluation est moins structurée et plus ambigüe qu’une tâche non complexe (Berge et coll., 2004 ; Burton, 2011 ; Wiggins, 1989) et nécessite l’utilisation du jugement de l’étudiant pour délimiter les sous-tâches à effectuer (Burton, 2011). Certains auteurs (Frey et Allen, 2012 ; Gulikers et coll., 2004 ; Herrington et Herrington, 1998, 2006  ; Whitelock et Cross, 2012  ; Wiggins, 1989, 1990) privilégient plusieurs tâches d’évaluation pour évaluer une même compétence. Pour Gulikers et coll., (2004), Janesick (2006) et Wiggins (1989), elles doivent être équitables et impartiales. Aussi, afin d’atteindre l’authenticité en évaluation, les critères d’évaluation et leur notation sont connus d’avance par l’étudiant (Frey et Allen, 2012 ; Gulikers et coll., 2004 ; Wiggins, 1989). Finalement, l’authenticité en évaluation implique une intégration des tâches d’évaluation les unes aux autres (Janesick, 2006 ainsi qu’une intégration à l’enseignement (Auton, Beck et West, 2010  ; Bohemia et Davison, 2012 ; Burton, 2011  ; Gulikers et coll., 2004 ; Herrington et Herrington, 1998, 2006 ; Herrington, Olivier et Reeves, 2003 ; Yaseen, 2013).

Une première tentative de validation du modèle PIEA a été effectuée par Talbot (2015). Toutefois, celle-ci ne visait qu’à vérifier s’il était possible d’obtenir une échelle unique pour mesurer l’adéquation des pratiques d’évaluation des apprentissages dans un contexte d’approche par compétences. La pertinence des quatre caractéristiques du cadre de référence PIEA proposé par Raîche (2006) n’a toutefois jamais été analysée formellement. Ce cadre de référence a été principalement inspiré des préoccupations et des orientations ayant donné lieu à la réforme des programmes par compétences dans le réseau collégial principalement du règlement modifié du régime d’études collégiales (Gouvernement du Québec, 1993), des travaux de la Commission d’évaluation de l’enseignement collégial (1994a, 1994b, 1996), des travaux du Conseil des collèges (1992, 1993) ainsi que des travaux de Laliberté et Dorais (1998), Lasnier (2000) et de Raîche (1996). Aux fins de cette recherche, l’objectif spécifique est de déterminer si les caractéristiques du cadre de référence PIEA se retrouvent dans les caractéristiques perçues des pratiques d’évaluation des apprentissages en classe par des étudiants du collégial.

3. Méthodologie

3.1 Sujets

L’échantillon est réparti dans 19 établissements d’enseignement collégial représentant 7 des 17 régions administratives au Québec. Il est constitué de 1 975 étudiants inscrits dans un programme d’études collégiales, de ceux-ci 1 782 étudiants sont du réseau scolaire public et 193 étudiants sont du réseau scolaire privé. L’âge moyen des 943 filles est de 20,37 ans tandis que celui des 458 garçons est de 20,01 ans. Par ailleurs, 574 étudiants n’ont mentionné ni leur sexe ni leur âge.

3.2 Instrumentation

Nous avons utilisé le questionnaire sur les caractéristiques perçues des pratiques d’évaluation en classe dans le cadre d’une approche par compétences par des étudiants élaboré selon le cadre de référence PIEA (Raîche et coll., 2011a ; Raîche et coll., 2011b). Constitué de 24 items, ce questionnaire présente six items concernant la planification, six items l’intégration, six items l’équité et six items l’authenticité. L’échelle d’appréciation présente quatre choix de réponses : jamais, rarement, souvent et toujours. Le temps de réponse nécessaire est d’environ 10 minutes. Par ailleurs, les seules informations concernant la validation de ce questionnaire sont associées à l’élaboration d’une échelle unique d’adéquation des pratiques d’évaluation des apprentissages dans le contexte d’une approche par compétences (Talbot, 2015). Elles consistent à des analyses de précision de l’échelle (erreurs types de mesure) et des paramètres associés à chacun des items du questionnaire selon la théorie de la réponse à l’item. Ces analyses ne sont donc pas pertinentes aux fins de la présente recherche, puisqu’elles ne visaient pas formellement à valider la structure à quatre facteurs.

3.3 Déroulement

La collecte des données s’est effectuée à l’aide d’appareils numériques iPod touch à la 12e, 13e et 14e semaine du trimestre d’automne 2010. Ces trois dernières semaines du trimestre étaient les plus appropriées, puisque presque toutes les tâches d’évaluation des apprentissages étaient déjà réalisées. Par ailleurs, 739 étudiants inscrits dans un établissement d’enseignement collégial à l’extérieur de la région métropolitaine de Montréal ont répondu à une version papier du questionnaire. Que la collecte de données ait eu lieu à l’aide d’appareils numériques iPod touch ou en version papier, le déroulement était le même à l’exception de l’impossibilité de revenir à une question précédente avec la version numérique.

3.4 Méthodes d’analyse des données

L’ensemble de l’analyse des données a été effectué à l’aide du logiciel R. L’analyse descriptive de l’échantillon, ainsi que des variables à l’étude, a été effectuée à l’aide des librairies de base. Quant aux coefficients de corrélation polychorique, coefficients mieux adaptés à des variables notées sur une échelle de Likert, ils ont été calculés à partir de la librairie psych. Le calcul des coefficients a été fait par paires disponibles (pairwise). La pertinence de poursuivre avec une analyse factorielle est basée sur les résultats au test de sphéricité Bartlett, au KMO de Kaiser, Myer et Olkin ainsi qu’au rapport du nombre de sujets sur le nombre de paramètres estimés N/p. La détermination du nombre de facteurs à retenir a été réalisée à l’aide du graphique de l’éboulis de Cattell accompagné d’une analyse parallèle basée sur la médiane des valeurs propres. Les solutions associées aux valeurs propres des composantes principales et aux facteurs ont été analysées. La librairie psych a été utilisée à cette fin. Finalement, l’analyse factorielle exploratoire selon la méthode de l’information complète a été effectuée à l’aide de la librairie mirt. La détermination finale du nombre de facteurs à retenir s’est toutefois faite sur la base de l’intelligibilité des solutions factorielles. À cette étape de notre programme de recherche, il a été jugé plus approprié d’appliquer une analyse factorielle exploratoire plutôt qu’une analyse factorielle confirmatoire.

3.5 Considérations éthiques

Au moment de la collecte de données, des explications du projet de recherche ainsi que de la façon de répondre aux questionnaires ont été données. Par la suite et avant de répondre au questionnaire, les sujets étaient invités à signer un formulaire de consentement libre et éclairé. Aucune rémunération n’a été donnée en retour de la participation de chacun des sujets. Afin de respecter la confidentialité, un code était attribué à chaque sujet de façon aléatoire. La transmission des résultats aux établissements participants aura été effectuée principalement en les informant de la disponibilité des publications écrites.

4. Résultats

4.1 Analyse descriptive des variables à l’étude

L’analyse descriptive des variables à l’étude est présentée au tableau 2. Ce tableau permet de constater que le nombre de répondants est de 1 967 à 1 975 pour chacun des items. La moyenne de chaque variable se situe environ au choix 3) souvent, puisqu’elle varie de 2,76 à 3,50 avec un écart-type de 0,70 à 0,95. Les choix de réponse les plus choisis sont 3) souvent et 4) toujours alors que le moins fréquent est 1) jamais. Ainsi, selon le coefficient γ1, une légère asymétrie négative caractérise la distribution des variables à l’étude en plus d’être unimodale pour chacune des variables. Cette asymétrie ainsi que cette distribution unimodale ne causent toutefois aucun problème pour l’analyse factorielle exploratoire par information complète, puisque celle-ci ne requiert pas une distribution normale des données.

Tableau 2

Statistiques descriptives pour chacune des variables à l’étude (tiré de Talbot, 2015)

Statistiques descriptives pour chacune des variables à l’étude (tiré de Talbot, 2015)

Étudiants ayant répondu à tous les items : 1 938

-> Voir la liste des tableaux

4.2 Coefficients de corrélation polychorique et détermination de leur adéquation pour une analyse factorielle

Les coefficients de corrélation polychorique, présentés au tableau 3, sont tous positifs. La relation entre les différentes variables à l’étude se situe à une valeur modérée (r = 0,32) à une valeur élevée (r = 0,75). Ces coefficients de corrélation polychorique démontrent aussi que les items associés à une même caractéristique théorique sont fortement corrélés entre eux, bien que fortement corrélés aussi avec les items des autres caractéristiques théoriques.

Les résultats obtenus au test de sphéricité de Bartlett (χ2 = 35 659, = 1 975, p < 0,001) ainsi qu’au test de Kaiser-Myer-Olkin (KMO = 0,97) démontrent que les 24 variables manifestes pourraient être regroupées en un nombre inférieur de variables latentes. De plus, le rapport Nsujets/pparamètres atteint le minimum requis de 20/1 (Kline, 2011, p. 12) pour effectuer une analyse factorielle exploratoire à une dimension (1 967/24 = 81,96) et à quatre dimensions (1 967/(4*24) = 20,45).

Tableau 3

Matrice de coefficients de corrélation polychorique (r * 100) (tiré de Talbot, 2015)

Matrice de coefficients de corrélation polychorique (r * 100) (tiré de Talbot, 2015)

Note : Les coefficients de corrélation polychorique ont été calculés par paires de variables disponibles (pairwise). Le nombre minimum de paires disponibles est de 1 967 et le nombre maximum de paires disponibles est de 1 975.

-> Voir la liste des tableaux

4.4 Détermination du nombre de facteurs à retenir

Le graphique des valeurs propres obtenues selon une analyse en composantes principales et selon une analyse factorielle exploratoire fait l’objet de la figure 4.1. Que ce soit selon l’une ou l’autre de ces deux analyses, il y aurait deux facteurs à retenir selon le test de l’éboulis de Cattell. Par contre, l’analyse parallèle propose un nombre différent de facteurs à retenir. En effet, alors que selon l’analyse en composantes principales, un seul facteur est suggéré, huit facteurs sont suggérés selon l’analyse factorielle exploratoire. Il est tout même à souligner que le premier facteur se démarque des autres par son importance : il explique à lui seul 56 % de la variance. La solution qui sera à privilégier devrait se situer entre un et huit facteurs. Toutefois, ce seul facteur ne permet pas l’arrêt d’extraction de facteurs, même si Carmines et Zeller (1979) proposent un minimum de 40 % de la variance expliquée par les facteurs. Quant à Jolliffe (2002), le minimum requis serait plutôt de 70 % à 90 % et, pour Gorsuch (1983), ce serait 75 à 85 % de la variance expliquée par le nombre de facteurs retenus. Il est aussi à considérer que l’interprétabilité de la solution factorielle retenue est capitale. D’ailleurs, Velicer, Eaton et Fava (2000) mentionnent que les différentes méthodes utilisées pour déterminer le nombre de facteurs à retenir « devraient servir de guide, mais ne déterminent pas la solution finale. L’interprétabilité de la solution finale est décisive  » (p. 27). En ce sens, Bourque, Poulin et Cleaver (2006) en référence à Conway et Huffcutt (2003) : voir Bourque, Poulin et Cleaver (2006) précisent que

dans un souci de rigueur méthodologique, il est recommandé d’utiliser plusieurs méthodes de détermination de la dimensionnalité de la solution factorielle et d’en comparer les résultats afin de retenir une solution appuyée sur des critères solides et hautement cohérente avec les fondements conceptuels du trait étudié

p. 332

Pour Bryant et Yarnold (1995), pour que les variables latentes identifiées soient valables, il est nécessaire que la solution factorielle retenue puisse être interprétée au niveau conceptuel. En bref, le nombre de facteurs retenus dépendra de la valeur interprétative de la solution factorielle et de son rattachement à la théorie. Ainsi, une tentative d’interprétation d’une solution à deux facteurs, à trois facteurs et à quatre facteurs a été effectuée, pour en arriver au constat que seule la solution à quatre facteurs peut être interprétée et rattachée à la théorie. Les solutions à plus de quatre facteurs n’ont pas été considérées, puisque le nombre de variables par facteurs n’était pas suffisant.

Figure 1

Valeurs propres de la matrice des corrélations polychoriques et analyse parallèle selon une analyse en composantes principales et selon une analyse factorielle exploratoire (adapté de Talbot, 2015)

-> Voir la liste des figures

4.5 Analyse factorielle exploratoire

Considérant le nombre différent de facteurs proposés par le cadre de référence PIEA, le test de l’éboulis de Cattell et de l’analyse parallèle ainsi que de la forte corrélation entre les variables à l’étude, l’analyse factorielle exploratoire selon la méthode de l’information complète a été effectuée avec différents nombres de facteurs. De plus, la forte corrélation entre les variables a mené à privilégier une rotation oblique de type promax. Pour ne pas alourdir la présentation des résultats, seulement la solution retenue est présentée ici. Il s’agit effectivement de celle à quatre facteurs, puisque l’intelligibilité de l’interprétation est le critère décisif dans le choix de la solution factorielle (Velicer et coll., 2000). Selon l’analyse des valeurs propres de la matrice de corrélation, ces quatre facteurs expliquent 68 % de la variance, soit un ajout de 12 % par rapport à la solution à un seul facteur. Il ne s’agit pas d’une augmentation très importante, mais elle permet tout de même d’obtenir une solution dont l’interprétation soutient partiellement le modèle étudié. Cette solution est présentée aux tableaux 4 et 5. Toutefois, la nature des facteurs extraits ne correspond pas à ceux proposés par le cadre de référence PIEA. Plus précisément, le premier facteur regroupe les six items initialement associés à l’authenticité ainsi que deux items reliés à l’intégration. Le deuxième facteur réunit quatre items identifiés à la planification, deux items à l’intégration et deux items à l’équité. Le troisième facteur rassemble deux items de planification et deux items d’équité. Le quatrième facteur combine deux items d’intégration et deux items d’équité. Ainsi, les quatre facteurs identifiés sont constitués d’un nombre inégal d’items contrairement à un nombre homogène d’items par caractéristiques dans le cadre de référence théorique PIEA.

Tout d’abord, le tableau 4 présente les coefficients de corrélation de Pearson entre les facteurs et chacune des variables manifestes, soit la matrice dite de structure. L’ensemble des coefficients de corrélation permet d’identifier une relation positive de modérée à forte (0,46 < r < 0,88) entre chaque variable manifeste et chaque facteur. Chacun des coefficients de corrélation étant élevé, il est de mise de conserver l’ensemble des variables manifestes pour l’interprétation subséquente des résultats de l’analyse factorielle exploratoire.

Pour sa part, le tableau 5 présente la matrice dite de profil composée des coefficients de saturation ainsi que de la communauté pour chacune des variables manifestes et chacun des quatre facteurs. Selon la valeur des communautés, les quatre facteurs permettent d’expliquer 43 % à 84 % de la variance de chacune des variables manifestes. Pour certaines variables, cela représente une augmentation de variance expliquée égale à 32 % par rapport à la solution à un seul facteur préalablement étudiée par Talbot (2015). De plus, chacune des variables manifestes peut être associée à un seul facteur, à l’exception de la variable I1. Cette variable affiche un coefficient de saturation identique pour les facteurs 1 et 4 ; cela indique alors que les caractéristiques théoriques se chevauchent pour cette variable. La variable manifeste E4, pour sa part, affiche un coefficient de saturation plutôt faible (0,37), mais une communauté élevée. Il s’agit d’un effet de la rotation oblique où la somme du carré des coefficients de saturation n’est pas égale à la communauté. Au tableau 5, les valeurs des coefficients de saturation en caractères gras permettent de mettre en exergue les facteurs auxquels chacun des items est associé.

Tableau 4

Matrice de structure après rotation oblique des axes de type promax (solution factorielle à 4 facteurs)

Matrice de structure après rotation oblique des axes de type promax (solution factorielle à 4 facteurs)

-> Voir la liste des tableaux

Tableau 5

Matrice de profil après rotation oblique des axes de type promax (solution à 4 facteurs)

Matrice de profil après rotation oblique des axes de type promax (solution à 4 facteurs)

-> Voir la liste des tableaux

Enfin, comme l’indique le tableau 6, tous les facteurs sont fortement corrélés entre eux. Effectivement, tous les coefficients de corrélation de Pearson sont positifs et se situent entre 0,68 et 0,74. Ces fortes corrélations ne sont guère surprenantes. En effet, la description théorique du modèle PIEA ainsi que l’analyse de la matrice des corrélations polychoriques et des valeurs propres laissaient présager une telle relation.

Tableau 6

Corrélations entre les quatre facteurs suite à une rotation oblique

Corrélations entre les quatre facteurs suite à une rotation oblique

-> Voir la liste des tableaux

4.6 Interprétation des résultats

Les items les plus représentatifs du premier facteur sont, par exemple, 19) Mon enseignant utilise des tâches d’évaluation qui sont en lien avec des activités pratiquées dans ma vie quotidienne, 18) Mon enseignant nous explique à quoi nous serviront les apprentissages évalués ainsi que 23) Mon enseignant me fait part de l’utilité des apprentissages ciblés par la tâche d’évaluation. Ces items présentent des moyens permettant d’assurer la signification de la tâche d’évaluation pour l’étudiant. Toutefois, il serait possiblement hasardeux de parler d’authenticité, puisque l’authenticité des tâches d’évaluation va au-delà de ce que ces items peuvent aller chercher comme information : c’est pourquoi nous limiterons l’appellation de ce facteur, principalement expliqué par huit items, à la signification des tâches d’évaluation.

Le deuxième facteur est expliqué essentiellement par huit items. Chacun de ces items permet d’identifier la transparence du processus d’évaluation des apprentissages en classe. Les items regroupés dans ce facteur font référence, notamment, à la transmission à l’avance d’information à l’étudiant au sujet de la tâche d’évaluation. Par exemple, les items 7) Mon enseignant nous explique à l’avance les tâches d’évaluation et 2) Mon enseignant m’informe à l’avance des tâches d’évaluation où je dois collaborer avec d’autres étudiants permettent de déterminer si l’étudiant est bien informé quant au processus d’évaluation de ses apprentissages, soit la transparence.

Le troisième facteur regroupe quatre items qui mesurent la présence de la différenciation dans les pratiques d’évaluation des apprentissages en classe. Plus particulièrement, l’item 4) Au début de la session, mon enseignant vérifie ce que je sais déjà, vise à déterminer si les apprentissages réalisés antérieurement sont pris en compte pour déterminer les tâches d’évaluation des apprentissages en classe. Aussi, l’item 8) Mon enseignant utilise des tâches d’évaluation qui tiennent compte des particularités de certains étudiants cible l’importance accordée aux spécificités des étudiants dans la détermination des tâches d’évaluation des apprentissages en classe, soit la différenciation.

Le quatrième facteur est principalement mesuré par cinq items. Chacun des items fait référence à la rétroaction à l’étudiant à la suite de la réalisation d’une tâche d’évaluation des apprentissages en classe. Entre autres, l’item 12) Mon enseignant nous fournit la copie de la correction des tâches d’évaluation identifie la présence d’un suivi après la correction de la tâche d’évaluation.

5. Discussion des résultats

L’objectif de la recherche était de déterminer si les caractéristiques du modèle PIEA se retrouvent dans les caractéristiques perçues des pratiques d’évaluation des apprentissages en classe par des étudiants du collégial. Ainsi, il est de mise de confronter les caractéristiques identifiées selon la perception des étudiants à celles présentées dans le cadre de référence PIEA.

5.1 Similitudes entre les résultats obtenus et le cadre de référence PIEA

Alors que le cadre de référence PIEA présente les caractéristiques de planification, d’intégration, d’équité et d’authenticité, les caractéristiques déterminées selon la perception des étudiants sont plutôt la signification de la tâche, la transparence du processus d’évaluation, la différenciation ainsi que la rétroaction.

5.1.1 Signification de la tâche

La signification de la tâche rejoint en partie l’authenticité et l’équité du cadre de référence PIEA. Étant donné qu’une tâche d’évaluation équitable doit aussi être authentique (Smith, 1997), il n’est pas surprenant que les items regroupés dans la signification de la tâche rejoignent théoriquement ces deux caractéristiques. Bien que la signification de la tâche soit une caractéristique de l’évaluation des apprentissages en classe largement prônée par les différents intervenants, elle est aussi souvent perçue comme étant synonyme de l’authenticité. Pourtant, elle n’en constitue qu’une partie. Dans le cas présent, les items se regroupant sous la signification de la tâche ne sont pas nécessairement représentatifs de l’authenticité. Selon Berge et coll. (2004), Burton (2011), Frey et Allen (2012), Gulikers et coll. (2004), Janesick (2006), Laurier et coll. (2005), Whitelock et Cross (2012) ainsi que Wiggins (1990) et Yaseen (2013), la tâche d’évaluation authentique doit être représentative de la réalité quotidienne de l’étudiant. Ainsi, la tâche d’évaluation authentique est représentative du domaine d’application des compétences évaluées (Smith, 1997). La tâche d’évaluation authentique présente alors à l’étudiant des défis et des particularités du domaine professionnel (Baartman et coll., 2006 ; Gulikers et coll., 2004 ; Herrington et Herrington, 1998, 2006 ; Whitelock et Cross, 2012 ; Wiggins, 1989, 1990). De plus, la tâche d’évaluation authentique doit être valable autant pour l’enseignant que pour un employeur, puisqu’elle traduit les attitudes et les façons de faire de la profession (Baartman et coll., 2006).

5.1.2 Transparence du processus d’évaluation

Le cadre de référence PIEA inclut des éléments de la transparence du processus d’évaluation au sein d’autres caractéristiques, plus particulièrement celles de l’intégration, de l’équité et de l’authenticité. Afin que le processus d’évaluation des apprentissages en classe soit transparent, l’enseignant mentionne clairement à l’étudiant le but de la tâche d’évaluation (Baartman et coll., 2006 ; Bercier-Larivière et Forgette-Giroux, 1999). L’enseignant transmet également à l’étudiant les critères d’évaluation (Bercier-Larivière et Forgette-Giroux, 1999 ; Camili, 2006  ; Vos, 2000). De plus, Frey et Allen (2012), Gulikers et coll. (2004) ainsi que Wiggins (1989) soulignent l’importance de spécifier à l’étudiant la notation respective des critères d’évaluation ainsi que la pondération de chacune des tâches d’évaluation. Quant aux apprentissages à réaliser, l’enseignant en précise également les objectifs et les standards ainsi que ce qui est attendu de l’étudiant (Stiggins, 2005 ; Suskie, 2000 ; Vos, 2000). Afin que l’étudiant sache sur quoi porte la tâche d’évaluation, l’enseignant informe alors l’étudiant, notamment des compétences qui font l’objet de l’évaluation (Bercier-Larivière et Forgette-Giroux, 1999 ; Camili, 2006 ; McMillan, 2000 ; Suskie, 2000). De plus, l’enseignant indique comment sera évaluée chacune des compétences visées. De cette manière, tous les étudiants ont l’opportunité d’apprendre au préalable ce qui fait l’objet de l’évaluation (Camili, 2006 ; McMillan, 2000). Cette préoccupation rejoint les propos de Bercier-Larivière et Forgette-Giroux (1999), Camili (2006), Suskie (2000) ainsi que de McMillan (2000) qui soulignent l’importance de la cohérence entre les tâches d’évaluation et les activités d’apprentissage. En résumé, la transparence du processus d’évaluation des apprentissages en classe est assurée à condition que tout ce qui concerne la tâche d’évaluation soit clair, connu et compréhensible par l’étudiant. Ainsi, malgré que certains éléments de la transparence du processus d’évaluation s’apparentent à première vue à la planification, cette dernière n’en est que l’étape préalable.

5.1.3 Différenciation des tâches d’évaluation

Malgré l’importance reconnue de la différenciation des tâches d’évaluation dans le processus de l’évaluation des apprentissages en classe, cette caractéristique n’est pas clairement identifiée dans le cadre de référence PIEA. D’ailleurs, les items permettant de mesurer la présence de la différenciation des tâches d’évaluation sont aussi associés à l’équité et, dans une moindre mesure, à l’intégration du cadre de référence PIEA. Stobart (2005) souligne l’importance, notamment, de prendre en compte les caractéristiques du groupe d’étudiants et le contexte d’apprentissage propre à chacun d’eux. Ainsi, la prise en compte de l’unicité de l’étudiant, tant pour l’élaboration de la tâche d’évaluation que pour l’établissement des critères d’évaluation, vise à élaborer des tâches d’évaluation différenciées. Toutefois, la différenciation des tâches d’évaluation ne peut être mise en oeuvre qu’une fois identifiées les caractéristiques de l’étudiant. L’élaboration d’une tâche d’évaluation en fonction des apprentissages réalisés ne peut aussi s’effectuer qu’après avoir déterminé les apprentissages déjà effectués par l’étudiant. Ainsi, la caractéristique de différenciation des tâches d’évaluation est principalement associée à des items permettant d’identifier si les particularités de l’étudiant sont prises en compte au moment de l’élaboration des tâches d’évaluation.

5.1.4 Rétroaction

Souvent, la rétroaction sur les résultats de l’évaluation est considérée à tort comme un strict synonyme de l’évaluation formative. Pourtant, elle n’en représente qu’une partie et n’est qu’un moyen de soutenir l’évaluation formative. Toutefois, bien que la rétroaction sur les résultats de l’évaluation soit discutée dans le cadre de référence PIEA, elle n’est pas identifiée distinctement. Dans ce cadre de référence, la rétroaction est plutôt assimilée à l’intégration à l’enseignement, à la planification et à l’authenticité. L’interaction entre l’enseignant et l’étudiant implique, notamment, que l’enseignant indique à l’étudiant ce qui lui reste à apprendre ou à maitriser pour atteindre les apprentissages visés et définit leur rôle respectif pour y arriver (Stiggins, 2005). Ainsi, dans la mesure où la rétroaction est associée à l’évaluation formative, il est réaliste de penser que plus il y a de rétroaction, plus il y a de soutien à l’apprentissage. Martinez et Lipson (1989) privilégient une rétroaction immédiate. Stiggins (2005) mentionne que la rétroaction peut être fournie par l’enseignant, par les pairs (en situation de coévaluation) ou par l’étudiant lui-même (en autoévaluation). Finalement, la rétroaction revêt une grande importance en situation d’évaluation authentique, puisque pour qu’une tâche d’évaluation soit considérée comme authentique, l’évaluateur doit fournir une rétroaction à la suite de sa réalisation (Janesick, 2006 ; Wiggins, 1989). La caractéristique de rétroaction est ainsi associée principalement à des items permettant d’identifier si l’enseignant transmet de la rétroaction à l’étudiant.

Finalement, les résultats obtenus suggèrent, comme le cadre de référence PIEA, quatre caractéristiques de l’évaluation des apprentissages en classe. Par contre, selon notre interprétation, les caractéristiques identifiées empiriquement selon la perception des étudiants ne correspondent pas exactement à celles identifiées dans le cadre de référence PIEA. Spécifiquement, une seule caractéristique ne ressort pas du tout : il s’agit de la planification. Or, le cadre de référence a la particularité de proposer des caractéristiques qui, à la fois, se différencient et se rapprochent. Les résultats obtenus vont en ce sens, puisque les quatre caractéristiques issues des résultats recoupent autant l’intégration, l’équité que l’authenticité.

5.1.5 Interprétation de la corrélation entre les quatre facteurs

Bien que quatre facteurs puissent être interprétés et aient été retenus, certains d’entre eux se chevauchent au plan théorique. Ainsi, la signification de la tâche, la transparence et la rétroaction puisent leur sens tant dans l’intégration de l’évaluation à l’enseignement que dans l’authenticité. Aussi, la signification de la tâche, la transparence et la différenciation trouvent un point commun dans l’équité. Il est alors possible de constater que chacune des caractéristiques ne va pas sans l’autre.

5.2 Forces et faiblesses du questionnaire utilisé

Considérant que les résultats obtenus ne reflètent qu’en partie les caractéristiques du cadre de référence PIEA, une critique du questionnaire utilisé s’avère essentielle.

5.2.1 Forces du questionnaire utilisé

La capacité du questionnaire à identifier quatre caractéristiques de l’évaluation des apprentissages en classe dans un contexte de développement de compétences est à souligner. En effet, comme le suggère le cadre de référence PIEA, il permet de repérer quatre caractéristiques. On constate que la signification de la tâche, la transparence du processus d’évaluation, la différenciation ainsi que la rétroaction sont effectivement des préoccupations déjà incluses dans les caractéristiques du cadre de référence PIEA. Cependant, la mesure de ces caractéristiques représente un apport important, certes, mais ne concorde pas exactement avec le cadre de référence PIEA.

5.2.2 Faiblesses du questionnaire utilisé

Premièrement, même si certains items devaient mesurer la planification, les résultats obtenus relient plutôt ces items à la transparence du processus d’évaluation et à la différenciation. À titre d’exemple, l’item 2) Mon enseignant m’informe à l’avance des tâches d’évaluation où je dois collaborer avec d’autres étudiants est fortement associé à la transparence du processus d’évaluation. Pour sa part, l’item 6) Mon enseignant ajuste les tâches d’évaluation en fonction des apprentissages des étudiants est plutôt représentatif de la différenciation. Ces deux items font référence, certes, à la planification, mais leur sens va bien au-delà de celle-ci. Ainsi, à la lumière de ces deux items, la raison pour laquelle la caractéristique planification n’a pu être identifiée selon la perception des étudiants relève du libellé des items du questionnaire associés à cette caractéristique. Par contre, pour que l’étudiant puisse se prononcer sur des éléments en lien avec la planification, il est primordial qu’il en ait pris connaissance au préalable. Or, à ce moment-là, il n’est plus question de planification, mais plutôt de transparence, tel que mentionné plus haut.

Deuxièmement, les items qui devaient mesurer l’intégration se retrouvent plutôt associés à la signification de la tâche, à la transparence du processus d’évaluation ainsi qu’à la rétroaction. Ce constat n’est guère surprenant, puisque ces trois caractéristiques sont des éléments constitutifs de l’intégration. Rappelons que l’intégration réfère entre autres à l’évaluation des apprentissages au service de l’apprentissage. Ainsi, certains moyens sont privilégiés pour y arriver. Les items 18) Mon enseignant nous explique à quoi nous serviront les apprentissages évalués et 15) Mon enseignant utilise des tâches d’évaluation qui correspondent aux apprentissages à réaliser démontrent bien certains de ces moyens. Ici, le fait que la caractéristique d’intégration ne soit pas ressortie dans les résultats dépend probablement de l’accent mis par les items sur les moyens à privilégier plutôt que sur la nature de l’intégration. D’ailleurs, aucun item ne permet d’identifier l’intégration des modalités d’évaluation les unes aux autres ni leur intégration au programme.

Troisièmement, les items associés initialement à l’équité permettent de mesurer soit la transparence du processus d’évaluation, soit la différenciation, soit la rétroaction. Ce constat peut éventuellement être expliqué par le fait que la transparence du processus d’évaluation serait fortement associée à l’équité et que la différenciation et la rétroaction sont deux moyens d’atteindre l’équité en évaluation des apprentissages en classe dans un contexte de développement de compétences. Plus précisément, les items 7) Mon enseignant nous explique à l’avance les tâches d’évaluation et 8) Mon enseignant utilise des tâches d’évaluation qui tiennent compte des particularités de certains étudiants démontrent bien ces éléments de l’équité. Toutefois, par exemple, l’importance de la neutralité culturelle, de l’accès aux ressources requises à l’accomplissement de la tâche d’évaluation, ainsi que la transmission des critères d’évaluation aux étudiants ne se reflètent pas suffisamment clairement dans les items.

Quatrièmement, les items associés au départ à l’authenticité font exception dans le questionnaire. En effet, tous les items élaborés en fonction de l’authenticité se retrouvent rassemblés dans la même caractéristique selon la perception des étudiants. Toutefois, ces items ne permettraient pas de mesurer l’authenticité, mais seulement une partie de celle-ci, soit la signification de la tâche. En effet, une tâche authentique doit être à la fois signifiante pour l’étudiant et représentative du milieu professionnel ou quotidien de l’étudiant. Ainsi, les items les plus représentatifs 19) Mon enseignant utilise des tâches d’évaluation qui sont en lien avec des activités pratiquées dans ma vie quotidienne et 23) Mon enseignant me fait part de l’utilité des apprentissages ciblés par la tâche d’évaluation représentent bien la signification de la tâche. En effet, ces deux items ne mesurent pas la représentativité des tâches d’évaluation, puisqu’ils ne font pas référence à la similitude des tâches d’évaluation avec le milieu professionnel ou le quotidien de l’étudiant. Ces deux items permettent plutôt de cibler l’utilité de la tâche et le lien entre la tâche d’évaluation et les intérêts de l’étudiant.

5.3 Forces et limites de la recherche

5.3.1 Forces de la recherche

Une des forces de cette recherche réside dans sa nature empirique. En effet, comme les écrits traitant des caractéristiques de l’évaluation des apprentissages en classe ne sont très souvent que théoriques, un apport empirique s’avère précieux. De plus, quoique l’échantillon n’ait pas la prétention d’assurer une parfaite représentativité de la population collégiale au Québec, il est tout de même très diversifié. Aussi, bien qu’imparfait, le questionnaire actuel pourrait être un outil utile pour l’enseignant qui souhaiterait vérifier la perception des étudiants sur ses pratiques d’évaluation des apprentissages en classe dans un contexte de développement de compétences.

5.3.2 Limites de la recherche

Quoique l’échantillon soit diversifié, les résultats ne peuvent être généralisés aux pratiques d’évaluation des apprentissages en classe dans un contexte de développement de compétences à l’extérieur du système scolaire québécois. Aussi, tel que mentionné dans la discussion des résultats, l’absence d’items associés à certains aspects de la planification, de l’intégration, de l’équité et de l’authenticité diminue la capacité du questionnaire à identifier ces caractéristiques clairement. Que ce soit pour les caractéristiques théoriques proposées par le cadre de référence PIEA ou pour les caractéristiques identifiées empiriquement, des items devraient être ajoutés afin de bien mesurer les caractéristiques ciblées. Finalement, la concordance partielle entre les résultats et les caractéristiques du cadre de référence PIEA ne permet pas, pour l’instant, d’affirmer la viabilité de ce cadre de référence au regard de la perception des étudiants.

5.4 Avenues de recherche

Premièrement, l’ajout d’items supplémentaires au questionnaire pourrait être examiné, ainsi que la calibration de ceux-ci au regard des facteurs identifiés à l’intérieur de la présente recherche. Cet ajout permettrait alors de mieux identifier les facteurs retenus. Deuxièmement, une étude similaire à la présente recherche pourrait être menée auprès d’étudiants de niveaux scolaires primaire, secondaire et universitaire. Une telle étude permettrait d’établir la similarité entre les résultats obtenus pour chacune des études. Par ailleurs, la même étude menée auprès d’enseignants pourrait aussi aider à établir la viabilité du cadre de référence PIEA du point de vue de ces derniers : il est possible que le cadre PIEA théorique soit plus conforme à la perception des enseignants qu’à celle des étudiants, ceci puisque celui-ci a été développé par des enseignants universitaires plutôt que par des étudiants.

6. Conclusion

La présente étude visait à déterminer si les caractéristiques du modèle PIEA se retrouvent dans les caractéristiques perçues des pratiques d’évaluation des apprentissages en classe par des étudiants du collégial. À cet effet, le cadre de référence PIEA a été privilégié, puisqu’il serait applicable à tous les niveaux d’enseignement. De plus, il constitue une synthèse d’autres cadres de référence, préalablement proposés, tout en étant plus concis. Dans celui-ci, quatre caractéristiques des pratiques de l’évaluation sont identifiées : la planification, l’intégration, l’équité et l’authenticité. Pour mener la recherche, un échantillon de 1 975 étudiants inscrits dans des programmes d’études collégiales québécois techniques et préuniversitaires ont répondu à un questionnaire constitué de 24 items. Une analyse factorielle exploratoire selon la méthode de l’information complète suivie d’une rotation oblique a permis de retenir une structure à quatre facteurs fortement corrélés entre eux. Cependant, les quatre facteurs retenus diffèrent de ceux proposés par le cadre de référence initial. Il s’agirait plutôt de la signification de la tâche, de la transparence du processus d’évaluation, de la différenciation et de la rétroaction. Malgré cette divergence, bien que différents des facteurs issus du cadre de référence PIEA, ces quatre facteurs reprennent l’essence du même propos.

Notre programme de recherche compte se poursuivre, entre autres, au regard de deux axes. Le premier de ces axes consistera à poursuivre l’actuel processus de validation de la structure factorielle du questionnaire chez des étudiants d’autres ordres d’enseignement. Corolairement, une version adaptée du questionnaire au personnel enseignant sera soumise à la même validation. Enfin, si ces deux premières étapes mènent à une structure factorielle suffisamment similaire, indépendamment de l’ordre d’enseignement, des échelles de mesure pour chacun des facteurs retenus selon une modélisation multidimensionnelle issue de la théorie de la réponse à l’item seront élaborées. Cette modélisation permettra d’identifier, entre autres, les valeurs limites des paramètres de difficulté et de discrimination de chacun des items.