Corps de l’article

Introduction

Depuis l’avènement des logiciels de statistiques conviviaux, l’analyse factorielle est régulièrement utilisée en sciences sociales et sert généralement à l’évaluation de la validité de construit d’instruments psychométriques. Or des recherches récentes sur l’utilisation de ces procédures en recherche organisationnelle (Conway et Huffcutt, 2003), en psychologie (Fabrigar, Wegener, MacCallum et Strahan, 1999 ; Russell, 2002), en éducation (Henson, Capraro et Capraro, 2001 ; Pohlmann, 2004) et en communication (Park, Dailey et Lemus, 2002) démontrent que, dans la majorité des cas, les chercheurs de divers pays font un usage inadéquat de l’analyse factorielle ou n’en rapportent pas les résultats de façon convenable.

À la suite de ces résultats, nous voulions vérifier si la situation était la même dans les recherches publiées au Canada. Nous avons donc entrepris d’évaluer l’utilisation de l’analyse factorielle exploratoire et de l’analyse en composantes principales, ainsi que les pratiques de communication des résultats de ces analyses dans six périodiques scientifiques canadiens en éducation. Nous croyons que cet article contribuera à éclairer l’utilisation de ces analyses, notamment parce qu’il traite un créneau peu abordé dans les écrits francophones et ce, dans un langage accessible aux non-spécialistes.

Analyse factorielle exploratoire et analyse en composantes principales

Usage de l’analyse factorielle

L’objectif premier de l’analyse factorielle exploratoire est d’arriver à une conceptualisation parcimonieuse de traits latents, en déterminant le nombre et la nature d’un ensemble restreint de facteurs expliquant les réseaux de corrélations parmi un ensemble de variables (Fabrigar et al., 1999). Cette opération se base sur ce que Pohlmann (2004) considère comme le théorème fondamental de l’analyse factorielle selon lequel la corrélation entre deux variables dépend de la similarité de leur relation avec les facteurs latents. Ce type d’analyse se distingue notamment de l’analyse en composantes principales, cette dernière visant simplement la réduction du nombre de variables (data reduction). En d’autres termes, l’analyse en composantes principales sert à réduire le nombre de variables requises pour calculer un score total pour le trait mesuré, tout en conservant le plus d’informations possibles de l’ensemble original (Bryant et Yarnold, 1995 ; Fabrigar et al., 1999). Dans ce dernier cas, la structure des corrélations entre les variables n’est pas nécessairement conservée.

Fabrigar et ses collaborateurs (1999) identifient cinq décisions à prendre avant d’entreprendre une collecte de données devant mener à une analyse factorielle : 1) tenir compte de la nature et du nombre des variables, ainsi que de la taille de l’échantillon ; 2) juger de la cohérence du type d’analyse choisi avec l’objectif de recherche ; 3) sélectionner la méthode d’extraction ; 4) déterminer la dimensionnalité de la solution factorielle ; et 5) choisir une méthode adéquate de rotation des axes.

Variables et taille de l’échantillon

Comme pour toute procédure statistique, l’efficacité de l’analyse factorielle repose sur le respect de postulats concernant les données analysées. L’un de ces postulats stipule que les variables doivent être continues (Bryant et Yarnold, 1995). Malgré cela, Pohlmann (2004) a documenté la nature majoritairement ordinale (échelles de Likert) des variables utilisées pour ce type d’analyse dans les articles publiés dans le Journal of Educational Research entre 1992 et 2002. Pour des variables ordinales, il serait possible de compenser partiellement cette dérogation en effectuant les analyses factorielles à partir d’une matrice de corrélations polychoriques ou, pour des variables dichotomiques, d’une matrice de corrélations tétrachoriques. Ces deux types de corrélations estiment la valeur que prendraient des corrélations effectuées sur des variables ordinales ou dichotomiques si elles avaient été calculées sur des variables continues. Or si les logiciels statistiques SAS et LISREL offrent une commande pour le calcul de telles corrélations, ce n’est pas le cas de SPSS. Néanmoins, l’analyse de la matrice des corrélations polychoriques n’a pas été rapportée par les auteurs ayant évalué l’utilisation de l’analyse factorielle dans divers domaines des sciences sociales et ce, malgré la nature majoritairement catégorielle des variables (Conway et Huffcutt, 2003 ; Fabrigar et al., 1999 ; Henson et al., 2001 ; Park et al., 2002 ; Pohlmann, 2004 ; Russell, 2002).

De plus, des règles informelles ont été formulées quant à la taille minimale de l’échantillon requise pour effectuer des analyses factorielles. L’efficacité de ces règles dépend cependant d’un éventail d’autres paramètres propres à chaque étude tels que le nombre de variables par facteurs ou la valeur des communautés (commonalities)[1] (Reise, Waller et Comrey, 2000). McCallum, Widaman, Zhang et Hong (1999) ont d’ailleurs démontré que la non prise en compte de ces paramètres rendait ces règles caduques. Ainsi, dans le cas où les communautés sont élevées (supérieures à 0,60), un échantillon de moins de 100 répondants peut suffire, même si les facteurs sont peu surdéterminés (ratio variables/facteurs autour de 20 : 7). Si les communautés diminuent à environ 0,50, un échantillon de 100 à 200 répondants peut convenir à condition que les facteurs soient suffisamment surdéterminés (ratio variables/facteurs supérieur à 10 : 3). Par contre, dans le pire des cas (communautés faibles et facteurs faiblement surdéterminés), un échantillon de plus de 500 répondants peut être requis. Le facteur le plus important à considérer est la valeur des communautés qui ne peut malheureusement être connue qu’après la collecte de données. Le chercheur prudent veillera néanmoins à prévoir un minimum de quatre à six variables par facteur et à maximiser la taille de son échantillon. Il est aussi à noter que, comme ils sont souvent plus homogènes que les échantillons probabilistes, les échantillons de convenance tendent à réduire l’univers de variation des données, ayant pour conséquence d’influencer les corrélations entre variables et d’affecter les résultats des analyses factorielles (Fabrigar et al., 1999 ; Reise et al., 2000).

Objectif de recherche

Selon Conway et Huffcutt (2003), la principale motivation poussant les chercheurs à utiliser l’analyse factorielle est la validation ou la construction d’instruments psychométriques. Il s’agit alors d’évaluer la validité de construit (ou validité de structure) d’un instrument, nouveau ou ancien. La validité de construit implique qu’un instrument de mesure possède une structure et un contenu cohérents avec ce qui est connu du trait latent mesuré, que sa structure factorielle soit généralisable parmi un ensemble de populations pertinentes et qu’il permette la hiérarchisation univoque et raisonnablement précise d’individus sur le continuum défini par le trait mesuré (Reise et al., 2000).

Or, pour ce faire, l’analyse factorielle confirmative se veut la plus appropriée (Reise et al., 2000). Toutefois, comme les procédures pour effectuer de telles analyses ne sont pas fournies avec les versions de base des principaux logiciels d’analyse statistique (elles peuvent être effectuées avec le module AMOS de SPSS ou avec la procédure CALIS de SAS), et que les logiciels destinés spécifiquement à ce type d’analyse (LISREL et EQS par exemple) sont moins conviviaux et moins polyvalents que les logiciels les plus populaires, les chercheurs s’en remettent souvent par défaut à un usage confirmatif de l’analyse factorielle exploratoire ou de l’analyse en composantes principales. Selon Burnett et Dart (1997), l’analyse factorielle exploratoire produirait généralement des résultats équivalents à ceux obtenus par l’analyse factorielle confirmative, du moins lorsque ces analyses se basent sur des matrices de corrélations. Toutefois, l’analyse factorielle confirmative donnant accès à davantage d’informations quant à l’ajustement des données au modèle testé, elle devrait être préférée à l’analyse factorielle exploratoire pour l’évaluation de la validité de construit d’instruments psychométriques ou pour la vérification de la correspondance d’une structure factorielle empirique avec un modèle théorique.

Extraction des facteurs

L’extraction des facteurs demande d’abord de choisir la matrice qui sera analysée. Dans le cas d’une analyse factorielle exploratoire, Pett, Lackey et Sullivan (2003) recommandent d’utiliser la matrice des corrélations plutôt que la matrice des covariances puisqu’elle facilite notamment l’interprétation de la matrice de structure, dans les cas de rotations obliques, et minimise les risques d’obtenir des solutions incohérentes. Il faut aussi s’assurer que les corrélations entre items ne soient ni trop fortes (r > 0,80), auquel cas il y aurait danger de colinéarité, ni trop faibles (r < 0,30), ce qui indiquerait de faibles probabilités que la variance des items puisse être expliquée par des traits latents communs.

Avant de procéder à une analyse factorielle, ce dernier cas peut être testé à l’aide du test de sphéricité de Bartlett. Prenant la forme d’un khi-carré, celui-ci teste l’hypothèse nulle selon laquelle la matrice des corrélations serait une matrice identité et qu’il n’existerait donc aucune relation entre les items. Si le résultat est significatif, l’hypothèse nulle est rejetée, signalant ainsi qu’il existe des corrélations inter-items. Ce test s’avère toutefois hautement influencé par la taille de l’échantillon et, pour un échantillon important, les corrélations les plus infimes suffiront à faire rejeter l’hypothèse nulle. Si ce test n’indique aucune différence significative entre la matrice identité et la matrice analysée, le chercheur devrait s’abstenir d’effectuer une analyse factorielle, à moins de pouvoir identifier et éliminer des items qui, en raison d’une variance insuffisante ou de communautés trop faibles, causeraient ce résultat (Pett et al., 2003).

Un deuxième test, celui de Kaiser-Meyer-Olkin (KMO), permet de vérifier qu’une fois l’effet linéaire des autres items contrôlé, les corrélations partielles de chaque paire d’items sont faibles, ce qui confirmerait la présence de facteurs latents liant les items entre eux. Sa valeur varie de 0 à 1,1, indiquant un effet nul des corrélations partielles, ce qui équivaut à dire que les facteurs latents expliquent l’ensemble des corrélations entre items. Une valeur du KMO de 0,90 ou plus dénote un excellent ajustement des items aux facteurs latents ; de 0,80 à 0,90, un bon ajustement ; de 0,70 à 0,80, un ajustement moyen ; de 0,60 à 0,70, un ajustement faible et, pour les valeurs inférieures à 0,60, l’ajustement est insuffisant et l’analyse factorielle ne devrait pas être entreprise à moins de pouvoir identifier et retirer des items qui seraient à l’origine de ce résultat (Pett et al., 2003).

Les méthodes d’extraction peuvent être divisées en modèles de composantes et en modèles de facteurs communs. Ces deux approches diffèrent par leur but : les modèles de composantes visent la réduction du nombre d’items pour obtenir une mesure parcimonieuse expliquant un maximum de variance de la mesure originale, alors que les modèles de facteurs communs visent l’attribution de la variance à des facteurs latents (Conway et Huffcutt, 2003).

Au niveau du calcul, cette différence se traduit par la distinction, dans les modèles de facteurs communs, entre la variance due aux facteurs communs (qui influencent plus d’une mesure), la variance due à un facteur unique (qui n’influence qu’une seule mesure) et la variance de l’erreur. Le caractère particulier de ces trois sources de variance n’est pas pris en compte dans l’analyse en composantes principales puisqu’elle ne vise pas l’attribution de la variance à des facteurs latents (Conway et Huffcutt, 2003 ; Pett et al., 2003). Concrètement, ce que postule l’analyse en composantes principales, en plaçant des 1 comme estimateurs des communautés dans la matrice initiale des corrélations, c’est que toute la variance des items peut être expliquée par des facteurs communs. En utilisant d’autres estimateurs tels les carrés des corrélations multiples (R2), les modèles de facteurs communs reconnaissent que les traits latents ne devraient pas expliquer la variance de l’erreur ou celle particulière à l’item (Pett et al., 2003).

C’est pour cette raison que Conway et Huffcutt (2003) suggèrent d’utiliser des méthodes d’extraction par facteurs communs plutôt que l’analyse en composantes principales lorsque le but du chercheur est d’identifier des facteurs latents ou de leur attribuer des items. En somme, les modèles de facteurs communs sont préférables aux modèles de composantes dans la majorité des cas tandis que les méthodes seraient à peu près équivalentes dans les cas restants (notamment lorsque la valeur des communautés approche 1). Il en ressort donc qu’il y a peu d’avantages à utiliser l’analyse en composantes principales pour l’étude de facteurs latents. En dépit de ces arguments, probablement en partie parce que c’est la méthode d’extraction par défaut de SPSS et SAS, l’analyse en composantes principales demeure la plus recensée dans les publications de domaines aussi variés que la recherche organisationnelle (Conway et Huffcutt, 2003), la psychologie (Fabrigar et al., 1999 ; Russell, 2002), l’éducation (Henson et al., 2001 ; Pohlmann, 2004) et la communication (Park et al., 2002) et ce, même pour des tâches qui incomberaient théoriquement à l’analyse factorielle confirmative ou à l’analyse factorielle exploratoire.

Il existe plusieurs méthodes d’extraction par facteurs communs. Lorsque la distribution multivariée des items est normale, la méthode du maximum de vraisemblance (maximum likelihood), un cas particulier de modélisation par équations structurelles (structural equation modeling), peut être appliquée. Cette méthode d’extraction permet le calcul de plusieurs indices d’ajustement, de tests de significativité des coefficients de saturation factorielle (factor loadings) et de corrélations entre les facteurs, ainsi que le calcul d’intervalles de confiance pour ces paramètres (Fabrigar et al., 1999). Par contre, cette méthode génère parfois des cas de communautés supérieures à 1 (Heywood cases), signifiant qu’un facteur expliquerait plus que la totalité de la variance d’un item (Pett et al., 2003).

Si le postulat de normalité de la distribution multivariée des items n’est pas respecté, le chercheur peut se tourner vers la factorisation en axe principal (principal axis factoring). Cette méthode fournit un meilleur ajustement que l’analyse en composantes principales et produit moins de cas de communautés supérieures à 1 ou d’échecs de convergence que la méthode du maximum de vraisemblance. Cependant, elle ne donne pas accès aux tests de significativité et d’ajustement que permet cette dernière (Fabrigar et al., 1999 ; Pett et al., 2003).

Les autres méthodes disponibles incluent la méthode des moindres carrés non pondérés (unweighted least squares), utile pour les distributions non paramétriques, mais qui exige la spécification a priori du nombre de facteurs extraits. La méthode de factorisation de l’image (image factoring), qui utilise les mêmes estimateurs que la méthode de factorisation en axe principal, fournirait, selon les simulations de Buley (1995), les facteurs les plus cohérents en termes de fidélité (tel qu’entendu en théorie classique des tests). Enfin, la méthode des moindres carrés généralisée (generalized least squares) et la méthode de factorisation des Alpha (Alpha factoring), boudée parce qu’elle génère habituellement trop peu de facteurs, demeurent peu utilisées (Pett et al., 2003). Costello et Osborne (2005) font valoir que, contrairement aux deux premières méthodes présentées (maximum de vraisemblance et axe principal), peu de données existent sur les mérites relatifs aux méthodes moins usitées. Cependant, ces auteurs avancent que, dans la majorité des cas, les deux méthodes principales suffiraient à fournir une solution adaptée aux distributions multivariées normales (maximum de vraisemblance) ou quelconques (axe principal).

Détermination du nombre de facteurs

Une autre décision que doit prendre le chercheur consiste en la détermination du nombre de facteurs à extraire des données. Cette décision peut s’appuyer sur plusieurs règles. La plus populaire est le critère de Kaiser-Guttman (Conway et Huffcutt, 2003 ; Fabrigar et al., 1999 ; Henson et al., 2001 ; Park et al., 2002 ; Pohlmann, 2004 ; Russell, 2002). Ce critère suggère de conserver les facteurs qui présentent une valeur propre (eigenvalue) supérieure à 1. Le secret de sa popularité réside probablement dans le fait que ce critère soit celui fixé par défaut dans les principaux logiciels, puisque son utilisation s’avère généralement problématique. Tout d’abord, ce critère ne devrait être utilisé qu’avec l’analyse en composantes principales puisqu’il postule que les estimateurs de départ des communautés égalent 1 (Pett et al., 2003 ; Russell, 2002). Il n’en demeure pas moins bien présent dans la documentation scientifique aux côtés de plusieurs types d’analyses factorielles exploratoires. Par ailleurs, son caractère arbitraire amène Fabrigar et ses collaborateurs (1999) à en questionner la pertinence : comment justifier qu’un facteur dont la valeur propre est 0,99 devrait être éliminé d’office alors qu’un autre, dont la valeur propre serait de 1,01, devrait être conservé ? Enfin, ce critère tend à surestimer le nombre de facteurs (Conway et Huffcutt, 2003 ; Henson et al., 2001).

Le deuxième critère le plus fréquemment rencontré est celui de Cattell, basé sur l’interprétation du graphique de la progression des valeurs propres (scree plot). Cette règle consiste à conserver le nombre de facteurs situés avant le point d’inflexion du graphique. Or ce point d’inflexion n’est pas toujours clair et rend parfois l’application de ce critère hasardeuse (Fabrigar et al., 1999).

L’analyse parallèle constitue un troisième critère qui exige de comparer la progression des valeurs propres de l’échantillon empirique avec celle d’un échantillon aléatoire simulé, comptant le même nombre de répondants et le même nombre d’items. Le nombre de facteurs conservés correspond alors au nombre de valeurs propres empiriques supérieures aux valeurs propres simulées lorsqu’elles sont comparées une à une, de la plus élevée à la plus faible (Fabrigar et al., 1999). Le principal problème pourrait être la difficulté d’en obtenir la syntaxe, puisque la commande n’est comprise ni avec SPSS ni avec SAS (Fabrigar et al., 1999). Cependant, O’Connor (2000) a publié les commandes SPSS et SAS permettant de générer les valeurs propres d’échantillons aléatoires en fixant le nombre de répondants et d’items et les rend disponibles sur son site Internet de l’Université Lakehead. Selon Henson et ses collaborateurs (2001), il s’agit d’une méthode parmi les plus efficaces pour déterminer la dimensionnalité d’une solution factorielle puisque l’interprétation en est univoque.

Une quatrième méthode consiste à fixer a priori un pourcentage de variance à expliquer. Toutefois, cette méthode se veut largement arbitraire et les auteurs ne parviennent pas à s’entendre sur un seuil minimal. Pour l’analyse en composantes principales, Pett et ses collaborateurs (2003) mentionnent un seuil de 75 % ou 80 %, mais précisent que ce critère risque d’être trop exigeant pour les méthodes de facteurs communs. Henson et son équipe (2001) fixent quant à eux ce seuil à 70 %.

Pour sa part, la méthode d’extraction du maximum de vraisemblance comporte un test de la qualité de l’ajustement de type Khi-carré où l’obtention d’un résultat non significatif signifie que l’ajustement est adéquat. Quoique l’hypothèse nulle (l’ajustement parfait) soit irréaliste, il s’agit d’une méthode efficace de détermination du nombre de facteurs (Fabrigar et al., 1999), aussi disponible pour la méthode des moindres carrés généralisée (Pett et al., 2003). D’autres indices d’ajustement sont aussi disponibles pour la méthode du maximum de vraisemblance. L’indice RMSEA (Root Mean Standard Error of Approximation), par exemple, mesure l’écart entre la solution proposée et les données par degré de liberté et indique un bon ajustement lorsqu’il est inférieur à 0,05, un ajustement acceptable de 0,05 à 0,08, un ajustement marginal de 0,08 à 0,10 et un ajustement faible s’il est supérieur à 0,10. Un autre indice d’ajustement, l’indice ECVI (Expected Cross-Validation Index), évalue le degré avec lequel la solution obtenue pourrait être généralisée à d’autres échantillons. Plus la valeur de cet indice est petite, plus l’ajustement est adéquat. Ces indices fiables, quoique sensibles à la taille de l’échantillon, devraient être utilisés plus couramment (Fabrigar et al., 1999 ; Park et al., 2002).

Une dernière méthode souvent appliquée consiste simplement à fixer a priori le nombre de facteurs selon des critères théoriques, puis à vérifier si la solution, notamment la répartition des items en facteurs, correspond à une solution attendue et interprétable. En fait, peu importe la méthode choisie, il demeure crucial que les solutions retenues soient interprétables au niveau conceptuel, sans quoi leur valeur explicative des variables latentes serait compromise (Bryant et Yarnold, 1995 ; Conway et Huffcutt, 2003 ; Pett et al., 2003). Enfin, dans un souci de rigueur méthodologique, il est recommandé d’utiliser plusieurs méthodes de détermination de la dimensionnalité de la solution factorielle et d’en comparer les résultats afin de retenir une solution appuyée sur des critères solides et hautement cohérente avec les fondements conceptuels du trait étudié (Conway et Huffcutt, 2003).

Rotation des axes

Comme les facteurs sont d’abord extraits selon leur importance, l’analyse factorielle tend à produire un premier facteur général difficile à interpréter puisqu’il regroupe un grand nombre d’items (Pett et al., 2003). Par conséquent, le chercheur a généralement recours à une rotation des axes afin de faciliter l’interprétation de la solution factorielle (Kieffer, 1998). Il s’agit alors de faire pivoter les axes autour de l’origine afin d’obtenir un ajustement optimal à la distribution empirique des données.

Les rotations peuvent être divisées selon qu’elles conservent ou non la perpendicularité des axes. Ainsi, les rotations orthogonales conservent cette relation géométrique entre les axes et produisent, par conséquent, des facteurs indépendants (non corrélés). Par contre, en ne contraignant pas l’angle entre les axes, les rotations obliques permettent les corrélations entre facteurs (Conway et Huffcutt, 2003).

Le premier critère de rotation orthogonale à apparaître fut le Quartimax qui tente de faire en sorte qu’un item donné ne puisse être attribué qu’à un seul facteur. Or ce critère tend à produire un facteur général et ne s’avère adéquat que lorsque le chercheur soupçonne une solution unidimensionnelle (Kieffer, 1998 ; Pett et al., 2003).

C’est pour résoudre ce problème que Kaiser propose le critère de rotation Varimax. Celui-ci vise à minimiser le nombre d’items attribués à un facteur donné en maximisant la variance intra-facteurs, c’est-à-dire l’écart entre les coefficients de saturation factorielle élevés et faibles. Même si la rotation Varimax s’avère plus appropriée pour les structures multidimensionnelles que la rotation Quartimax, elle tend toutefois à diviser les structures unidimensionnelles et à gonfler l’importance de facteurs marginaux (Browne, 2001 ; Pett et al., 2003). Cette rotation demeure néanmoins la plus utilisée (Conway et Huffcutt, 2003 ; Fabrigar et al., 1999 ; Henson et al., 2001 ; Park et al., 2002 ; Pohlmann, 2004) et, selon Browne (2001) ainsi que Fabrigar et ses collaborateurs (1999), généralement la plus adéquate parmi les rotations orthogonales.

Quant au critère Equimax, il cherche à simplifier à la fois les rangs et les colonnes de la matrice factorielle. Toutefois, son comportement s’avère souvent erratique et amène Pett et son équipe (2003) à n’en conseiller l’usage que si le nombre de facteurs est clairement identifié. En général, il semble clair que les rotations orthogonales sont plus faciles à interpréter que les rotations obliques et qu’elles produisent des résultats plus susceptibles d’être reproduits. Néanmoins, pour en arriver à cette séduisante simplicité, elles contraignent la réalité sociale en postulant que les traits latents ne sont pas corrélés (Kieffer, 1998).

En ne fixant pas de contrainte quant à l’angle entre les axes, les rotations obliques permettent l’obtention de facteurs indépendants, mais aussi, et c’est là leur principale force, de facteurs corrélés convenant généralement mieux à la réalité des sciences sociales (Pett et al., 2003).

Les premiers critères de rotation oblique furent la rotation orthoblique ainsi que le critère Promax qui font suivre une rotation orthogonale d’une rotation oblique (Browne, 2001). La rotation orthoblique requiert d’élever la matrice factorielle orthogonale à la puissance p, dont la valeur recommandée est 0,5. Cependant, la solution sera orthogonale si la valeur de p est fixée à 1. Or le choix de la valeur de p s’avère difficile et arbitraire (Pett et al., 2003) et rend cette approche un peu hasardeuse. Quant à la rotation Promax, elle vise à accentuer les écarts entre les coefficients de saturation factorielle élevés et faibles en les élevant à la puissance κ, généralement 2, 4 ou 6. Ainsi, alors que la valeur absolue des coefficients diminue, l’écart entre eux s’accroît (Kieffer, 1998). Le choix de la valeur de κ pose toutefois un problème similaire à celui de p puisqu’il semble plutôt arbitraire. La valeur de ce paramètre a un effet sur les corrélations entre les facteurs, les puissances élevées tendant à en accroître l’ampleur (Pett et al., 2003).

La particularité de ces deux premiers critères consiste en la nécessité de faire précéder la rotation oblique d’une rotation orthogonale. Cependant, le critère Oblimin direct effectue directement une rotation oblique (Browne, 2001). L’utilisation de ce type de rotation exige tout d’abord de fixer la valeur du paramètre δ afin de déterminer l’ampleur des corrélations admises entre les facteurs (Russell, 2002). Une valeur négative de δ diminuera l’ampleur des corrélations alors qu’une valeur positive l’augmentera. Lorsque δ est égal à 0, la rotation est connue sous le nom de Quartimin directe (Kieffer, 1998). Comme les deux rotations vues précédemment, la difficulté d’utilisation du critère Oblimin direct provient de l’obligation de fixer la valeur de δ. Cette difficulté est exacerbée par le fait qu’il n’existe pas de correspondance évidente entre la valeur de δ et la valeur de r (coefficient de corrélation), outre le fait que les valeurs négatives de δ tendront à faire diminuer r et que les valeurs positives tendront à le faire augmenter (Pett et al., 2003). Dans la mesure où le chercheur ne dispose pas d’information quant à l’ampleur de la corrélation attendue entre les facteurs, la valeur de δ sera généralement fixée à 0. Selon Browne (2001), les critères Quartimin direct et Promax n’en demeurent pas moins les rotations obliques les plus efficaces.

D’autres critères de rotation s’appliquent également aux rotations orthogonales et obliques (Browne, 2001). Il en est ainsi des rotations procrustéennes qui forcent les facteurs à pivoter vers une structure cible fixée par le chercheur. Le nom de ce critère fait référence à Procruste, un hôtelier et bandit de la mythologie grecque, qui détroussait les voyageurs sur la route d’Athènes. À son hôtel, Procruste affirmait disposer de lits magiques dont la taille convenait à n’importe quel invité. En fait, lorsque l’invité était trop grand, Procruste lui coupait les membres. Lorsqu’il était trop petit, il l’étirait sur un chevalet. Cette conception du one size fits all illustre le fait que l’ajustement de la solution obtenue par le biais de ce critère de rotation a été contraint et, même s’il paraît adéquat, ne correspond pas nécessairement à la solution hypothétique (Pett et al., 2003).

La difficulté d’interprétation des solutions factorielles obtenues à partir de rotations obliques provient de deux sources principales. D’une part, les facteurs peuvent être corrélés, ce qui les rend plus difficiles à distinguer. D’autre part, les rotations obliques produisent deux matrices que le chercheur doit interpréter. Dans le cas de rotations orthogonales, ces deux matrices sont identiques et le chercheur n’a donc pas deux interprétations à effectuer. Or, pour les rotations obliques, la solution factorielle est exprimée sous la forme d’une matrice de configuration (pattern matrix) et d’une matrice de structure (structure matrix).

Dans la matrice de configuration, les coefficients indiquent la contribution unique de chaque variable à chaque facteur. Ces coefficients jouent donc un rôle analogue aux coefficients β dans une régression linéaire (Henson et al., 2001 ; Pett et al., 2003). Par ailleurs, les coefficients de la matrice de structure représentent les corrélations bivariées entre chaque variable et chaque facteur latent et seraient, selon Henson et ses collaborateurs (2001), analogues aux coefficients de saturation factorielle que l’on obtient à la suite d’une analyse en composantes principales. Comme cette dernière matrice n’est pas affectée par les corrélations entre les facteurs, Pett et ses collaborateurs (2003) avancent que c’est elle qui devrait être interprétée pour définir les facteurs. La matrice de configuration devrait, quant à elle, servir à assigner le poids relatif de chaque item dans le calcul des scores pour chaque facteur. Cependant, Russell (2002) souligne que la simple addition ou le calcul de la moyenne des résultats aux items pour obtenir un score aux facteurs ne semble pas poser problème puisqu’il s’avère peu probable que les poids relatifs puissent être généralisés.

Bien que les rotations orthogonales produisent des solutions plus faciles à interpréter, les auteurs s’entendent sur le fait qu’elles transmettent une vision biaisée de la réalité. Les situations où des composantes d’un même trait général ne seraient pas corrélées sont rares en sciences sociales. De plus, si les facteurs réels s’avéraient être indépendants, ils seraient exprimés comme tels par une solution issue d’une rotation oblique puisque ce type de rotation peut produire une solution orthogonale. Par contre, une rotation orthogonale ne pourra rendre compte correctement d’une solution où les facteurs seraient corrélés (Browne, 2001 ; Conway et Huffcutt, 2003 ; Fabrigar et al., 1999 ; Pett et al., 2003).

Méthode

Cette recherche descriptive, basée sur des données documentaires, vise à étudier l’utilisation de l’analyse factorielle et de l’analyse en composantes principales dans des revues scientifiques canadiennes en éducation.

Pour ce faire, nous avons choisi six revues : la Revue canadienne de l’éducation (RCE), la Revue des sciences de l’éducation (RSE), la Revue canadienne d’enseignement supérieur (RCES), Mesure et évaluation en éducation (MEE), l’ Alberta Journal of Educational Research (AJER) et la Revue des sciences de l’éducation de McGill (RSEM). Cette sélection a été effectuée selon deux critères : le rayonnement pancanadien ou international de ces revues et la rigueur de leur processus d’évaluation des manuscrits.

Les articles étudiés ont été identifiés par un recensement de tous les articles, publiés dans ces revues de 1995 à 2005, rapportant l’utilisation d’une forme ou l’autre de l’analyse factorielle. Sur les 1089 articles recensés, nous avons identifié 37 articles (18 en français et 19 en anglais) mentionnant l’utilisation d’une analyse factorielle (RCE : 7 ; RSE : 6 ; RCES : 5 ; MEE : 10 ; AJER : 7 ; RSEM : 2) pour un total de 73 utilisations (certains articles en comprennent plus d’une).

L’analyse des articles s’est appuyée sur une grille[2] construite à partir de recherches similaires (Conway et Huffcutt, 2003 ; Fabrigar et al., 1999 ; Henson et al., 2001 ; Russell, 2002 ; Park et al., 2002 ; Pohlmann, 2004). La grille visait l’obtention d’informations sur : 1) le but de l’utilisation de l’analyse factorielle ; 2) le type d’analyse factorielle utilisé ; 3) la taille de l’échantillon ; 4) le nombre d’items soumis à l’analyse factorielle ; 5) le format de réponse des items ; 6) le nombre de facteurs extraits ; 7) la méthode d’extraction des facteurs ; 8) l’utilisation du test de sphéricité de Bartlett et du KMO ; 9) le critère de dimensionnalité ; 10) le critère de rotation des axes ; 11) la matrice analysée ; et 12) les résultats présentés.

Afin d’assurer la stabilité du codage entre les trois chercheurs qui se sont consacrés à l’analyse, la grille a été validée par l’intercodage (De Ketele et Roegiers, 1996) d’un sous-échantillon d’articles. Le calcul de l’accord intercodeurs, c’est-à-dire le rapport entre le nombre d’éléments de la grille codés de façon identique par les trois codeurs et le nombre total d’éléments codés, a produit un taux final satisfaisant de 93 % (41/44). Le 7 % de désaccord s’explique surtout par les cas où les informations présentées dans un article n’étaient pas claires ou faisaient un usage erroné du lexique statistique (par exemple : « extraction Varimax »). Les résultats présentés ci-dessous consistent en un dénombrement des divers éléments de la grille.

Résultats

Les 37 articles analysés rapportent un total de 73 cas d’utilisation d’analyses factorielles, certains de ces articles comportant plus d’une utilisation. Les résultats qui suivent traitent des pratiques en ce qui a trait à la taille des échantillons, au nombre et à la nature des variables, au but de l’utilisation et au type d’analyse factorielle utilisé, à la méthode d’extraction des facteurs préconisée, au critère de dimensionnalité, au critère de rotation des axes et aux résultats présentés.

Taille des échantillons

La taille des échantillons recensés varie de 65 à 24 599 répondants, pour une taille médiane de 313 répondants. Cinq des analyses rapportées sont effectuées sur des échantillons de 100 répondants ou moins. Par la suite, nous avons dénombré 19 analyses factorielles comptant de 101 à 200 répondants par échantillon, sept sur des échantillons oscillant de 201 à 300 répondants, six sur un nombre de répondants se situant de 301 à 400 alors que 26 des échantillons comprenaient au moins 401 répondants. Enfin, la taille de l’échantillon n’est pas précisée pour dix des analyses factorielles.

Par ailleurs, le rapport entre le nombre de répondants et le nombre de variables s’étale de 1 : 1 à 911 : 1, pour un rapport médian de 15 : 1. Ce rapport s’établit à 5 : 1 ou moins pour neuf des analyses étudiées alors qu’il se situe de 6 : 1 à 10 : 1 pour onze autres études. Treize analyses impliquent un rapport de 11 : 1 à 15 : 1, six autres situent ce rapport de 16 : 1 à 20 : 1, alors que 21 analyses présentent un rapport répondants/variable supérieur à 20 : 1. Ce rapport n’a pu être calculé pour 13 des analyses factorielles étudiées parce qu’une des informations nécessaires était manquante.

Nombre et nature des variables

Tel qu’observé par Pohlmann (2004), la majorité des cas recensés utilisent des formats de réponse de type Likert (40 sur 73). Dans les autres cas, six analyses portent sur un format catégoriel qui n’est pas spécifié davantage, quatre sur des variables continues (des scores dérivés d’instruments psychométriques, par exemple), deux sur des variables dichotomiques et, dans 21 cas sur 73, le format de réponse n’est pas précisé.

Le nombre de variables, quant à lui, oscille entre sept et 80, pour un nombre de variables médian de 22. Par ailleurs, le rapport entre le nombre de variables et le nombre de facteurs s’étend de 2 : 1 à 54 : 1, pour une médiane de 7 : 1. Ce rapport, qui devrait préférablement être de quatre à six variables pour un facteur (Fabrigar et al., 1999 ; McCallum et al., 1999), est de 3 : 1 ou moins pour huit des utilisations d’analyse factorielle relevées. Les autres rapports observés s’élèvent à 4 : 1 dans sept cas, à 5 : 1 dans cinq cas, à 6 : 1 dans dix cas et il est supérieur à 6 : 1 pour 30 cas. Ce rapport n’a pu être calculé dans 13 cas puisqu’une des informations nécessaires était manquante.

But de l’utilisation et type d’analyse factorielle

Conformément aux résultats obtenus par Conway et Huffcutt (2003), l’analyse factorielle est surtout utilisée dans le but d’évaluer la validité de construit d’instruments psychométriques (54 cas sur 73). Le désir de dégager une structure latente d’un ensemble de variables (13 cas), de réduire le nombre de variables étudiées (4 cas) ou de tester des hypothèses (2 cas) constituent les autres motifs invoqués pour l’utilisation de l’analyse factorielle.

Au total, trente-six des analyses effectuées sont des analyses en composantes principales (ACP), douze sont des analyses factorielles confirmatives et dix sont des analyses factorielles exploratoires (AFE). Notons que six des cas utilisent deux types d’analyse factorielle (ACP et AFE) et que le type d’analyse n’est pas spécifié dans vingt et un des cas recensés. Pour les prochaines sections, vu l’objectif de notre étude et la nature particulière de l’analyse factorielle confirmative, les seuls résultats présentés correspondront aux 61 cas d’analyse en composantes principales et d’analyse factorielle exploratoire.

L’analyse factorielle exploratoire sert à identifier des structures latentes parmi un ensemble de variables dans sept cas et, dans une moindre mesure (3 cas), à évaluer la validité de construit d’instruments psychométriques. Par contre, contrairement à l’usage qui en est prescrit, l’analyse en composantes principales s’avère appliquée à diverses tâches : validation d’instruments (21 cas), identification de structures latentes (11 cas), et réduction du nombre de variables (3 cas) qui constitue pourtant le seul usage pour lequel cette analyse est vraiment indiquée (Conway et Huffcutt, 2003).

Méthode d’extraction des facteurs

Avant de procéder à l’extraction des facteurs, le chercheur doit décider quelle matrice sera soumise à l’analyse et déterminer si la structure des données est propice à l’analyse factorielle. Peu d’articles spécifient la matrice analysée. En fait, cette information est manquante dans 49 des 61 cas analysés. Pour ce qui est des douze cas restants, onze se basent sur la matrice des corrélations de Pearson et une seule sur la matrice des corrélations polychoriques. D’autre part, l’utilisation des tests de Bartlett et de Kaiser-Meyer-Olkin s’avère encore plus rare, puisqu’un seul cas rapporte l’utilisation des deux tests et qu’un autre fait uniquement appel au KMO.

En ce qui a trait à la méthode d’extraction des facteurs, nos résultats s’accordent avec ceux de Conway et Huffcutt (2003), Fabrigar et ses collaborateurs (1999) ainsi que Park et son équipe (2002) : la méthode d’extraction en composantes principales demeure la plus utilisée (36 cas), alors que les autres méthodes sont utilisées de façon marginale. Ainsi, nous retrouvons six cas de factorisation de l’image (dans un seul article) et un cas où la méthode utilisée est celle du maximum de vraisemblance. Dans six cas, on rapporte l’utilisation de deux méthodes d’extraction et cette dernière n’est pas précisée dans 22 cas.

Critère de dimensionnalité

Comme l’avaient remarqué Fabrigar et ses collaborateurs (1999), le critère de dimensionnalité le plus populaire demeure celui de Kaiser-Guttman (25 cas). Il est suivi du graphique des valeurs propres de Cattell (18 cas), alors que les autres critères sont utilisés plus rarement : la détermination du nombre de facteurs à partir de la possibilité de les interpréter selon des bases conceptuelles sert sept fois de critère, le pourcentage de variance expliqué à cinq occasions, un a priori théorique à deux occasions et on fait deux fois appel à la comparaison des valeurs propres. Notons que dans 22 cas, les chercheurs mettent plusieurs critères à contribution (souvent celui de Kaiser-Guttman et celui de Cattell), démontrant ainsi un souci de rigueur. À l’opposé, la façon de déterminer le nombre de facteurs n’est pas précisée dans 26 cas sur 61.

Critère de rotation des axes

Ici encore, nos résultats confirment les tendances observées par Conway et Huffcutt (2003), Fabrigar et ses collaborateurs (1999) ainsi que Park et son équipe (2002) : le critère de rotation Varimax domine les pratiques d’utilisation avec 21 occurrences alors que des rotations orthogonales dont on ne précise pas la nature sont utilisées dans six autres cas. Quant aux rotations obliques, sept cas font référence au critère Oblimin, un au critère Promax et huit autres cas mentionnent l’usage d’une rotation oblique sans en préciser le critère exact. Notons qu’en aucun cas l’auteur ne précise la valeur du paramètre δ ou κ. Enfin, si quatre cas ont recours à plus d’un critère de rotation, dans 19 cas on omet de préciser s’il y a eu ou non rotation des axes. Finalement, trois cas ne comportent aucune rotation parce que la solution factorielle postulée est unidimensionnelle.

Résultats présentés

Notons d’emblée que les auteurs fournissent généralement plus d’un type de résultats à partir de leurs analyses. Parmi les résultats présentés dans les articles recensés, le pourcentage de variance expliqué est le plus fréquemment rencontré (35 cas). Les coefficients de saturation provenant de l’une ou l’autre des matrices factorielles sont fournis dans 33 cas, alors que les valeurs propres sont indiquées 15 fois. Plus rarement, nous retrouvons la matrice des corrélations inter-items analysée (7 cas) ou les communautés des items (1 cas). Dans 14 cas, aucun résultat n’est mentionné.

Discussion

Notre objectif, à travers la réalisation de cet article, était d’étudier l’utilisation de l’analyse factorielle exploratoire et de l’analyse en composantes principales dans les recherches publiées dans des revues canadiennes en éducation.

Nos constats correspondent étroitement aux résultats de recherches provenant d’autres domaines ou d’autres pays en ce qu’une part notable des pratiques d’utilisation ou de présentation des résultats comporte un certain nombre de lacunes.

De façon générale, les échantillons sont suffisamment importants pour justifier l’utilisation d’analyses factorielles. Ainsi, plus du tiers des analyses rapportées comptent plus de 400 répondants. Toutefois, le mutisme fréquent des chercheurs quant aux valeurs des communautés ne permet pas vraiment de statuer sur l’adéquation des échantillons.

Cependant, la nature des variables analysées pourrait poser problème. Si elles sont généralement en nombre suffisant pour surdéterminer adéquatement les facteurs, leur échelle de mesure est presque toujours ordinale avec un nombre limité de modalités, ce qui ne satisfait pas l’une des conditions d’utilisation de l’analyse factorielle, à savoir qu’elle doit s’appliquer à des variables continues. De plus, les précautions qui contribueraient à atténuer l’impact de cette violation, telles l’analyse de la matrice des corrélations polychoriques plutôt que celle des corrélations de Pearson, sont rarement prises. Ce choix risque de biaiser les structures factorielles obtenues puisque la valeur du coefficient de corrélation de Pearson (r) tend à être réduite par les restrictions de l’univers de variation imposées par des variables catégorielles. Par ailleurs, notons que l’analyse préalable des données à l’aide du test de Bartlett et du KMO n’est pratiquement jamais effectuée, ce qui augmente le risque de ne pas pouvoir détecter les cas qui ne se prêteraient pas à une analyse factorielle sans l’élimination de certains items problématiques.

Deux fois sur trois, le chercheur fait appel à l’analyse factorielle pour évaluer la validité de construit d’instruments de mesure. L’analyse factorielle exploratoire s’avère surtout utilisée, conformément à ses visées théoriques, pour identifier des structures latentes. Dans une moindre mesure, elle sert aussi à évaluer la validité de construit, un usage acceptable pour ce type d’analyse. Cependant, l’usage généralisé de l’analyse en composantes principales pour des tâches théoriquement dévolues à l’analyse factorielle confirmative (validation d’instruments) ou à l’analyse factorielle exploratoire (recherche de structures latentes) mérite d’être questionné. S’agit-il d’une simple conséquence du fait que l’analyse en composantes principales demeure la méthode d’extraction par défaut des logiciels les plus utilisés ? S’agit-il plutôt de pratiques inculquées lors de la formation des chercheurs ? Il y a là un phénomène à explorer davantage.

Lorsque vient le moment de déterminer le nombre de facteurs significatifs extraits, les auteurs recensés se tournent le plus souvent vers le critère de Kaiser-Guttman, parfois utilisé en conjonction avec celui de Cattell. Bien que ces critères ne soient pas les plus efficaces, leur utilisation concomitante permet, s’ils convergent, de mieux appuyer la dimensionnalité de la solution retenue. Or étant donné que dans les articles étudiés le graphique de la progression des valeurs propres et souvent les valeurs propres elles-mêmes n’étaient pas fournis, il nous était difficile de juger de la convergence des critères. Par ailleurs, l’usage du pourcentage de variance expliquée comme critère de dimensionnalité nous a semblé problématique. Les chercheurs qui ont utilisé cette méthode ne fixaient pas de seuil a priori et semblaient faire un choix arbitraire dont les bases étaient rarement précisées.

Quant à la rotation des axes, les résultats correspondent à ceux provenant d’autres recherches : l’utilisation de rotations orthogonales dans les deux tiers des cas où une rotation est précisée vient soulever le débat sur le réalisme, en éducation, de solutions où des facteurs sont totalement indépendants alors que conceptuellement, c’est rarement le cas. La popularité de ces rotations, et plus particulièrement du critère Varimax, pourrait être partiellement expliquée par deux facteurs : l’attrait de solutions orthogonales faciles à interpréter et le fait que ces rotations soient si répandues dans la documentation scientifique en sciences sociales qu’elles se perpétuent par modelage. Ici encore, il y a lieu de se questionner sur le rôle de la formation dispensée aux chercheurs dans ces pratiques de recherche.

Mais qu’en est-il des résultats présentés à la suite de l’utilisation d’analyses factorielles ? Dans la moitié des cas, le pourcentage de variance expliquée est communiqué, de même que les coefficients de saturation (loadings). Toutefois, dans le cas des rotations obliques, il est rarement précisé de quelle matrice (de configuration ou de structure) ces coefficients sont tirés. Le fait que ces résultats soient perçus par les chercheurs comme méritant davantage d’être publiés que, par exemple, les valeurs propres ou les communautés, pique notre curiosité. Il est possible qu’on leur attribue davantage une valeur de « résultat » témoignant de la qualité de la structure finale qu’aux autres informations disponibles. Or, ces indicateurs s’avèrent insuffisants pour juger de l’adéquation de la structure factorielle publiée ou pour orienter une éventuelle réplication des résultats.

Enfin, nous observons que, bien que les auteurs annoncent souvent l’usage d’analyses factorielles exploratoires, il s’agit plus fréquemment d’une utilisation de l’analyse en composantes principales à des fins exploratoires, même si ces deux types d’analyses ciblent des résultats différents. De plus, nous demeurons surpris par la quantité d’informations importantes n’apparaissant pas dans les textes. Plus du quart des analyses étudiées omettent de préciser au moins un des aspects suivants : le format de réponse des items (21/73), la matrice analysée (49/61), la méthode d’extraction utilisée (22/61), le critère de dimensionnalité (26/61) ou le critère de rotation des axes (19/61). Plus étonnant encore, 14 cas sur 61 s’en tiennent à mentionner qu’ils ont validé leurs instruments à l’aide d’analyses factorielles, mais n’en présentent aucun résultat. Il est vrai que l’espace alloué par les différents périodiques est souvent restreint, mais il importe néanmoins de divulguer un minimum de renseignements sur les procédures utilisées, ne serait-ce que pour faciliter la réplication des résultats et s’assurer que les lecteurs disposent de toutes les informations requises pour porter un regard critique sur les résultats présentés. Il en va de la scientificité et de la rigueur de la recherche en éducation.

Conclusion

En guise de conclusion, nous formulerons quelques recommandations sur la base des lectures ayant mené à la rédaction de cet article :

  • prévoir un échantillon comportant au moins dix fois plus de répondants qu’il y a de variables à inclure dans l’analyse factorielle et se référer à l’article de McCallum et ses collaborateurs (1999) pour des critères plus rigoureux ;

  • surdéterminer les facteurs en comptant un minimum de quatre items pour chacun d’entre eux ;

  • avant de passer à l’analyse factorielle, vérifier si les données se prêtent à ce type d’analyse à l’aide des tests de Bartlett et de Kaiser-Meyer-Olkin. Si la valeur de ces indices est insatisfaisante, identifier et supprimer les items qui causent cette situation ;

  • si l’analyse factorielle a pour but la validation d’instruments, opter pour l’analyse confirmative ou, faute de mieux, pour une analyse factorielle exploratoire ;

  • l’extraction par facteurs communs devrait être préférée à l’analyse en composantes principales pour l’identification de traits latents ;

  • la détermination du nombre de facteurs devrait mettre à contribution au moins deux critères dont, si possible, l’analyse parallèle ;

  • à moins d’être certain que les facteurs latents ne peuvent pas être corrélés, choisir une rotation oblique plutôt qu’orthogonale ;

  • inclure tous les résultats des analyses dans les publications, de même que les difficultés rencontrées lors de l’application de ces analyses.