Content uploaded by Jean-Louis Berger
Author content
All content in this area was uploaded by Jean-Louis Berger on Jan 13, 2022
Content may be subject to copyright.
HAL Id: hal-03436771
https://hal.archives-ouvertes.fr/hal-03436771v2
Preprint submitted on 23 Dec 2021
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of sci-
entic research documents, whether they are pub-
lished or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diusion de documents
scientiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
Analyse factorielle exploratoire et analyse en
composantes principales : guide pratique
Jean-Louis Berger
To cite this version:
Jean-Louis Berger. Analyse factorielle exploratoire et analyse en composantes principales : guide
pratique. 2021. �hal-03436771v2�
2
Au sujet de l’auteur
Jean-Louis Berger (1978) est professeur au département des Sciences de l’éducation et de la
formation de l’Université de Fribourg en Suisse. Ses enseignements et travaux de recherche
portent sur le domaine de la psychologie de l’éducation.
Lien vers sa page professionnelle
Contact : jean-louis.berger@unifr.ch
3
Table des matières
1. Introduction ___________________________________________________________________ 4
2. L’analyse factorielle exploratoire ou en composantes principales est-elle le type d’analyse le
plus approprié ? __________________________________________________________________ 6
3. Quels types de variables et quel échantillon sont-ils adéquats ? ________________________ 10
3.1. Quelles variables peut-on inclure dans l’analyse ? _______________________________________ 10
3.2. Quelle taille et quelle nature de l’échantillon choisir ? ____________________________________ 11
3.3. Comment traiter les données manquantes ? ____________________________________________ 14
3.4. La matrice de corrélations est-elle adéquate ? __________________________________________ 14
4. Quelle procédure d’extraction choisir pour faire correspondre le modèle aux données ? ___ 15
5. Comment déterminer le nombre de facteurs à retenir dans le modèle ? _________________ 18
5.1. La pratique dite « Little Jiffy » (à éviter) ______________________________________________ 18
5.2. Le critère dit de Kaiser (K>1) _______________________________________________________ 19
5.3. Le test χ2 de Bartlett ______________________________________________________________ 20
5.4. Le Scree test (graphique des éboulis) _________________________________________________ 20
5.5. Décompte du nombre d’items saillants ________________________________________________ 21
5.6. Séparation de l’échantillon en deux parties ____________________________________________ 21
5.7. L’utilisation de la méthode d’extraction ML ___________________________________________ 21
5.8. Le Mininimum Average Partial (MAP) _______________________________________________ 22
5.9. L’analyse parallèle _______________________________________________________________ 22
5.10. Autres critères pour déterminer le nombre de facteurs ___________________________________ 23
5.11. Discussion sur le nombre de facteurs ou composantes à retenir ____________________________ 24
6. Quelle méthode de rotation choisir ? ______________________________________________ 24
6.1. A quoi sert la rotation et que sont les valeurs propres ? ___________________________________ 24
6.2. Les deux types de rotations_________________________________________________________ 25
6.3. Discussion et conseils au sujet des rotations____________________________________________ 26
7. L’utilisation de l’analyse factorielle exploratoire pour la construction et la révision d’échelles
29
7.1. Utilisation de l’EFA pour choisir les items les plus appropriés pour une échelle________________ 29
7.2. Création de scores factoriels, de score de composantes/échelles ____________________________ 31
7.3. La consistance interne du score d’une échelle __________________________________________ 32
7.4. Les biais dus aux items négatifs/renversés (reverse-coding) ou à la difficulté __________________ 33
7.5. Comment nommer les facteurs ou composantes ? _______________________________________ 34
8. Confirmer la structure factorielle : allier EFA et CFA. ______________________________ 34
8.1. La méthode « EFA dans un cadre CFA » ______________________________________________ 35
9. Comment rapporter une EFA ou PCA ? ___________________________________________ 35
10. Glossaire ____________________________________________________________________ 37
11. Références __________________________________________________________________ 39
12. Annexes ____________________________________________________________________ 42
12.1. Analyse factorielle exploratoire ou en composantes principales avec FACTOR 7 _____________ 42
12.2. Analyse factorielle exploratoire avec Mplus __________________________________________ 43
12.3. Analyse factorielle exploratoire ou en composantes principales avec SPSS __________________ 44
12.4. Recommandations pour le choix d’un logiciel _________________________________________ 45
4
1. Introduction
L’analyse factorielle exploratoire (exploratory factor analysis ; EFA1) et l’analyse en
composantes (component analysis et plus spécifiquement principal component analysis2 ;
PCA) sont deux méthodes dites de réduction des données largement utilisées afin de réduire
un nombre p de variables observées en m nouvelles variables, nommées respectivement
facteurs ou composantes. Cette procédure poursuit plusieurs objectifs : 1) l’interprétation de la
matrice de pattern qui décrit la relation entre les variables originales et les facteurs ; 2) la
création de nouveaux scores qui peuvent servir d’input dans d’autres analyses (Velicer &
Fava, 1998), par exemples des analyses des relations causales entre variables latentes ou
manifestes (Loehlin, 2004). Etant donné que ces deux objectifs sont fondés sur un échantillon,
la réplication des résultats sera affectée par des considérations relatives à l’échantillonnage
(sujet et variable). Selon Floyd et Widaman (1995), « The goal is to discover optimal
weightings of the measured variables so that large set of related variables can be reduced to a
smaller set of general summary scores that have maximal variability and reliability » (p. 287).
Gorsuch (1974) décrit trois emplois de l’analyse factorielle exploratoire :
1) Minimiser le nombre de variables pour les recherches futures tout en maximisant la
quantité d’information dans l’analyse. La série de variables originales est réduite en une
plus petite série qui explique la plupart de la variance dans la série originale. Le construit
peut ensuite être représenté par ce nombre réduit de variables ;
2) Chercher d’éventuelles distinctions qualitatives et/ou quantitatives dans les données, ce
qui est particulièrement utile lorsque la quantité de données excède la capacité de
compréhension. De ce travail exploratoire peuvent surgir de nouveaux construits et
hypothèses ;
3) Tester des hypothèses quant aux différences qualitatives et/ou quantitatives. Si les
hypothèses sont confirmées, les différents facteurs représenteront des distinctions dérivées
théoriquement. Ce type d’utilisation est aujourd’hui réalisé de préférence dans le cadre
d’analyses confirmatoires.
1 Dans la suite du texte, nous utiliserons les termes « analyses en facteurs commun » ou « EFA » pour désigner
cette famille de méthodes.
2 Tout comme dans la famille des méthodes en facteurs communs, il existe différentes méthodes dans la famille
des analyses en composantes. Nous traitons toutefois ici uniquement de la PCA, méthode la plus courante et
représentative de cette famille. Dans la suite du texte, nous utiliserons les termes « analyses en composantes
principales » ou « PCA » pour désigner cette famille de méthodes.
5
Quant à la PCA, elle est décrite de la façon suivante par Jolliffe (2002) :
The central idea of principal component analysis (PCA) is to reduce the
dimensionality of a data set consisting of a large number of interrelated variables,
while retaining as much as possible of the variation present in the data set. This is
achieved by transforming to a new set of variables, the Principal components, which
are uncorrelated (…) (p. 1).
Relevons que si cette définition est proche de celle donnée par Floyd et Widaman
(1995), elle s’en différencie toutefois par deux idées : expliquer la plus grande part de
variance possible et fournir des composantes non corrélées.
La réalisation d’une EFA ou PCA se déroule en plusieurs étapes, allant du choix de
l’analyse au rapport des résultats. Ce document est construit autour de ces étapes qui sont les
suivantes :
1) Déterminer si l’EFA ou PCA est le type d’analyse le plus approprié étant donné les buts
du projet de recherche ;
2) Décider quelles variables inclure dans l’étude, la taille et la nature de l’échantillon ainsi
que le traitement des données manquantes ;
3) Sélectionner une procédure spécifique pour faire correspondre le modèle aux données ;
4) Déterminer le nombre de facteurs/composantes à retenir dans le modèle ;
5) Sélectionner une méthode de rotation de la solution initiale vers une solution finale qui
puisse être plus facilement interprétée ;
6) Interpréter la solution (notamment nommer les facteurs/composantes), créer des échelles
ou des scores, choisir les items les plus appropriés et évaluer la consistance interne ;
7) Rapporter l’analyse.
Chacune de ces décisions a des conséquences quant aux résultats obtenus. Nous allons
aborder successivement sept étapes.
6
2. L’analyse factorielle exploratoire ou en composantes principales est-elle
le type d’analyse le plus approprié ?
Distinctions entre analyse en composantes principales, analyse en facteurs communs et
analyse factorielle confirmatoire (années 1980-1990)
Tant l’analyse factorielle exploratoire que l’analyse en composantes représentent des familles
de méthodes. Si pour certains chercheurs, la PCA est un cas particulier des analyses en
facteurs communs (par ex. Gorsuch, 1990), il s’agit de deux méthodes statistiques clairement
distinctes pour d’autres (par ex. Velicer & Jackson, 1990a). Floyd et Widaman (1995)
distinguent la PCA de l’EFA (c’est-à-dire en facteurs communs3) par le fait que dans cette
dernière, les facteurs sont estimés afin d’expliquer les covariances entre variables observées et
les facteurs sont vus comme les causes des variables observées. Par contre, dans la PCA, les
composantes sont estimées afin de représenter les variances des variables observées de façon
aussi économique que possible et aucune variable latente n’est invoquée. Les composantes
principales sont les sommes des variables observées pondérées de façon optimale, c’est-à-dire
que les variables observées sont en quelque sorte les causes des composantes.
Gorsuch (1997) contraste la common factor analysis avec la principal component
analysis (PCA)4 de la façon suivante : la première inclut un terme d’erreur dans les équations,
alors que la seconde postule que les variables sont conceptualisées et reproduites parfaitement
par les facteurs. Ceci signifie que les variables sont quasi parfaitement fidèles et corrèlent
fortement avec au moins une autre variable. Etant donné que cette situation est improbable, il
est approprié d’inclure un terme d’erreur et par conséquent la common factor analysis est
préférable pour l’analyse des items. La PCA produirait des jugements parfois erronés alors
que ces erreurs ne seraient que rares avec la common factor analysis (pour des explications
plus précises, voir Gorsuch, 1997).
Selon Fabrigar et al. (1999), une EFA n’équivaut pas à une PCA. L’objectif de cette
dernière est de déterminer les combinaisons linéaires des variables mesurées qui retiennent
autant d’informations des variables mesurées originales que possible. La variance unique*
n’est pas considérée alors que c’est le cas dans l’EFA. La PCA est une méthode de réduction
3 Egalement appelée « analyse factorielle classique » ou « analyse factorielle des psychologues ».
4 Field (2005) affirme que les méthodes principal axis factoring, image factoring et la PCA permettent
uniquement de tirer des conclusions pour l’échantillon en question et pas de généraliser les résultats à la
population. Pour des explications supplémentaires sur cette distinction, voir Byrne (2005) ou Costello et Osborne
(2005).
7
des données alors que l’EFA est une méthode d’identification de construits latents5
(autrement dit la compréhension de la structure des corrélations entre les variables mesurées).
Preacher et MacCallum (2003) ajoutent à ce propos que les composantes fournies par une
PCA ne représentent pas des variables latentes qui expliquent les covariances entre variables
observées ; elles représentent des variables composites qui expliquent les variances observées,
ne faisant pas de distinction entre variance commune et variance unique. Etant donné que les
mesures utilisées en psychologie contiennent une part d’erreur aléatoire et que l’EFA reflète
la reconnaissance de ce fait, le modèle en facteur commun serait selon Preacher et MacCallum
plus représentatif de la structure des corrélations que ne l’est la PCA. Toutefois, selon
Guadagnoli et Velicer (1988), bien que les procédures d’EFA soient communément
recommandées, elles ne produisent des solutions que faiblement différentes des PCA. En
outre, Velicer et Fava (1998) ont comparées, avec des données simulées, la qualité des
résultats fournit par une méthode de la famille EFA (Maximum Likelihood ; ML) aux
résultats fournis par la PCA. La qualité de la solution est définie comme la mesure dans
laquelle les solutions fournies sont proches de la solution dans la population). Dans la plupart
des situations (variations systématiques de la taille d’échantillon, p, des saturations et de la
méthode), la méthode ML et la PCA ont produit des résultats similaires. Toutefois, dans les
cas d’échantillon de taille très grande ou très petite, la PCA s’est montré de qualité clairement
supérieure ; elle a produit des solutions plus proches de la solution dans la population. Au
contraire, Floyd et Widaman (1995) relèvent que si les items ont de faibles communautés et
que le nombre d’indicateurs par facteur est faible, alors une PCA produira des résultats
positivement biaisés (par exemple des saturations trop élevées) alors qu’une EFA fournira des
estimations exactes des saturations. Ces conclusions ont été fréquemment relevées et
confirmées par plusieurs études (McArdle, 1990). De ce fait, Floyd et Widaman conseillent
d’utiliser l’EFA au dépend de la PCA.
Le tableau 1 résume les différences entre EFA et PCA.
5 Une variable latente est un construit hypothétique qui ne peut pas être mesuré directement (MacCallum &
Austin, 2000).
8
Selon Gorsuch (1990), l’utilisation fréquente de la PCA serait due d’une part à l’héritage de
décisions prises lorsque les technologies informatiques limitaient le calcul des analyses en
facteurs communs et d’autre part au fait qu’elle reste l’option par défaut dans les packages
statistiques.
Finalement, au contraire de l’analyse factorielle confirmatoire6 (Confirmatory Factor
Analysis ; CFA), l’EFA et la PCA sont utilisées lorsque le chercheur ne possède pas de
connaissances empiriques ou d’attentes théoriques fortes sur la composition des sous-échelles.
6 La CFA est une méthode d’évaluation de la validité de construit d’une mesure et non une méthode de réduction
des données (Floyd & Widaman, 1995). La CFA a été développée depuis une trentaine d’années ; auparavant,
l’EFA était utilisée également pour confirmer des hypothèses dans la structure des instruments.
9
Bollen (2002) fait ainsi une distinction entre deux types de variables latentes : les variables
latentes définies à priori et les variables latentes définies à posteriori.
In exploratory factor analysis the factors are a posteriori latent variables, that is,
the factors are derived from the data rather than being defined before the
analysis. Confirmatory factor analysis comes closer to the a priori latent
variables because the factors and their pattern of loadings are determined prior
to the data analysis. The a posteriori latent variables from exploratory factor
analysis are closely associated to the tendency to see latent variables as
hypothetical rather than real latent variables (p. 624).
Ainsi l’EFA permet de découvrir les variables latentes qui sont sous-jacente à un ensemble
d’items et la PCA les composantes d’un groupe d’items, sans référence à un construit latent.
Cette analyse peut constituer la première étape dans le développement d’un instrument. Elle
sera suivie, si un second échantillon complète les mêmes items, d’analyses confirmatoires qui
spécifient les liens entre variables manifestes et facteurs et testent l’adéquation de ce modèle
en comparaison aux données observées. Selon Mulaik (1972), le principal désavantage de
l’EFA est la difficulté impliquée dans l’interprétation des facteurs. Cette difficulté provient du
manque de connaissances préalables du chercheur sur le processus qui produit des
covariations entre les variables. Ainsi le chercheur n’a pas de base sur laquelle réaliser des
interprétations et ses interprétations ne sont rien de plus qu’une transformation tautologique
des noms des variables originales. D’autres difficultés surviennent lorsque les facteurs
obtenus représentent des effets confondus et que le chercheur est incapable de décider lequel
de ces effets est unique au facteur.
Finalement, relevons qu’il existe d’autres méthodes proches de l’EFA et de la PCA,
notamment l’analyse factorielle des correspondances (tradition française ; voir par ex. Cibois,
1983/2000) et l’échelonnement multidimensionnel (multidimensional scaling ; voir par ex.
Tournois et Dickes, 1993). Nous n’aborderons pas ces méthodes ici et le lecteur intéressé
trouvera les distinctions entre ces méthodes exposées notamment dans l’ouvrage de Doise,
Clemence et Lorenzi-Cioldi (1992).
10
3. Quels types de variables et quel échantillon sont-ils adéquats ?
3.1. Quelles variables peut-on inclure dans l’analyse ?
Les distributions des variables
Les variables doivent être de type quantitatif au niveau d’intervalle ou de ratio. Les données
catégorielles, qu’elles soient nominales ou ordinales, ne conviennent pas pour une analyse
factorielle classique7. Ainsi, les données pour lesquelles les coefficients de corrélation de
Pearson peuvent être calculés devraient être adaptées à l’analyse factorielle. Deux postulats de
l’analyse factorielle sont d’une part que les observations sont indépendantes et d’autre part
que les distributions des données respectent une normalité multivariée8. Cette dernière
condition est toutefois difficilement atteinte en pratique. De plus, la normalité multivariée est
difficile à tester9. De ce fait, cette condition n’est pas systématiquement respectée. Elle est
considérée par contre comme fondamentale pour la méthode d’extraction ML. Les méthodes
d’extraction principal axes ou least squares ne requièrent pas ce postulat, cependant les
résultats pour toutes les méthodes sont meilleurs et plus facilement réplicables si les données
se conforment à ce postulat (Floyd & Widaman, 1995). En pratique il est souvent considéré
que si les distributions ne sont pas trop éloignées de la distribution normale et comptent au
moins quatre catégories, alors on peut tout de même utiliser l’EFA ou la PCA. Par contre, si
les données sont de type catégoriel, il faut alors utiliser une matrice de corrélations
polychorique, disponible dans les logiciels Mplus et FACTOR.
Etant donné que les EFA et PCA sont fondées sur les corrélations de type Pearson, il
est intéressant de connaître les facteurs qui affectent la taille de ces corrélations. Celle-ci est
influencée par les six facteurs suivants (Goodwin & Leech, 2006) :
1. La quantité de variance présente dans les données ;
2. Les différences dans les formes des distributions ;
3. La linéarité des relations ;
4. La présence d’outliers (sujets extrêmes) ;
5. Les caractéristiques de l’échantillon ;
6. L’erreur de mesure.
7 Excepté si on utilise une matrice de covariance polychorique pour les données catégorielles. On peut
éventuellement former des parcelles (c’est-à-dire regrouper plusieurs items en une unique variable) afin
d’obtenir des variables que l’on pourrait considérer comme continues.
8 En pratique on teste généralement la normalité des distributions de manière univariée.
9 Le coefficient de Mardia permet ce test ; il est disponible dans le logiciel FACTOR7. La macro SPSS de
DeCarlo (1997) permet d’obtenir des informations sur cette normalité (http://www.columbia.edu/~ld208/).
11
Le chercheur peut ainsi rechercher des explications parmi les facteurs susmentionnés afin de
mieux comprendre les données qu’il introduit dans des EFA/PCA.
Par ailleurs, selon Floyd et Widaman (1995), si un item ne corrèle pas au moins
modérément (r≥|.20|) avec les autres items représentant le construit, alors cet item ne sera pas
saturé par le même facteur dans l’EFA. Il n’est donc pas pertinent de l’inclure dans l’analyse.
Dans le même ordre d’idée, une variable dont la communauté h2<.20 devrait être éliminée de
l’analyse car elle n’est pas suffisamment « représentée » dans la solution factorielle.
3.2. Quelle taille et quelle nature de l’échantillon choisir ?
Gorsuch (1997) recommande que l’échantillon soit constitué d’autant de sujets avec scores
faibles que de sujets avec scores élevés. Ceci améliore l’analyse puisque la variété des sujets
est grande et de ce fait la variance l’est également. Lorsque les items n’ont jamais été testés, il
est d’usage de recommander, dans la mesure du possible, un échantillon de 300 sujets selon
Gorsuch (1997). Toutefois, les conseils de ce type sont souvent fondés sur l’expérience de
l’auteur et rarement sur des études empiriques de type Monte Carlo.
Selon MacCallum et al. (1999), il n’existe pas de guide pour indiquer la taille de
l’échantillon afin d’obtenir des petites erreurs standards des saturations. En effet, ces erreurs
standards dépendent d’une façon complexe de nombreux facteurs autres que la taille de
l’échantillon (p.ex., la méthode de rotation, le nombre de facteurs ou le degré de corrélation
entre les facteurs). Les solutions obtenues sur des échantillons plus larges ont tendance à
montrer une meilleure stabilité (si on compare les saturations sur plusieurs échantillons) et à
représenter plus précisément les saturations de la population (c’est également le cas si le ratio
entre nombre de variables et nombre de facteurs augmente). Les auteurs pensent que les
recommandations existantes sur la question de la taille de l’échantillon dans les analyses
factorielles ont été fondées sur une mauvaise conception : la taille de l’échantillon pour
obtenir une stabilité adéquate et reproduire les facteurs de la population est invariante entre
les études. Ceci est incorrect et la taille d’échantillon minimale dépend de plusieurs aspects
d’une étude.
Un des éléments affectant la qualité de l’analyse factorielle est le degré dit de
surdétermination des facteurs communs. L’une des composantes de cette surdétermination est
le nombre de variables par facteurs, bien que ce ratio ne soit pas seul à définir la
surdétermination. Les facteurs hautement surdéterminés sont ceux qui montrent de fortes
saturations sur un nombre substantiel de variables ainsi qu’une structure bonne et simple.
Pour réaliser ceci, il est désirable que le nombre de variables soit plusieurs fois supérieur au
12
nombre de facteurs. Plusieurs aspects des résultats de l’analyse factorielle sont améliorés
lorsque le ratio p:r10 augmente. Avoir des facteurs surdéterminés est important lorsque les
communautés* sont faibles car c’est dans ces circonstances que la taille de l’échantillon a le
plus d’importance. A l’inverse, l’effet du ratio p:r sur la qualité des résultats des analyses
factorielles est réduit si les communautés augmentent.
McCallum et al. (1999) ont testées trois hypothèses dans une étude Monte-Carlo :
1. Lorsque la taille de l’échantillon augmente, l’erreur due au fait que l’on se base sur
échantillon de la population devrait être réduite ; les résultats des analyses factorielles
devraient être plus stables et correspondre plus précisément à la structure dans la
population.
2. La qualité des EFA augmente lorsque les communautés augmentent. Ceci a pour
conséquence que l’influence de la taille de l’échantillon sur la qualité des résultats
déclinerait.
3. La qualité des résultats des EFA s’améliore si la surdétermination des facteurs est
améliorée. Cet effet serait réduit lorsque les communautés augmentent et pourrait aussi
interagir avec la taille de l’échantillon.
Les résultats ont permis d’arriver aux conclusions suivantes. Premièrement, l’impact
du niveau de communauté sur la reproduction de la structure dans la population augmente
lorsque les facteurs sont moins bien déterminés (ratio p:r plus faible). Deuxièmement, la taille
de l’échantillon et la surdétermination ont peu d’effet sur la reproduction de la structure dans
la population lorsque les communautés sont élevées. Ce n’est donc que lorsque les
communautés deviennent faibles que la taille de l’échantillon et la surdétermination
deviennent des déterminants importants de la reproduction. Finalement, les conditions
optimales pour obtenir une solution qui reproduit celle de la population sont d’avoir de hautes
communautés et une forte surdétermination. Ceci fait que la taille de l’échantillon n’a pas
d’effet majeur.
A partir de leurs résultats, Fabrigar et al. (1999) recommandent de prévoir au moins
quatre variables mesurées (items) pour chaque facteur commun et même six variables s’il
existe une incertitude sur la nature des facteurs communs et leurs relations avec les variables
mesurées. Les auteurs recommandent de réduire le nombre de variables et de facteurs ainsi
que d’assurer des niveaux de communautés modérés à élevés. En outre, l’augmentation du
nombre d’indicateurs par facteur n’est bénéfique que dans la mesure où les nouveaux
10 p représente le nombre de variables et r le nombre de facteurs
13
indicateurs sont de bonnes mesures des facteurs. Velicer et Fava (1998) ont confirmé dans
leurs études Monte Carlo que trois variables par composantes ou facteur sont un minimum
nécessaire. Les composantes ou facteurs qui ne sont pas expliqués par trois variables ne
devraient donc pas être interprétés. Selon ces mêmes chercheurs, l’échantillonnage des
variables et des sujets ainsi que les saturations interagissent pour déterminer la qualité d’une
solution factorielle. Ceci implique qu’une faiblesse dans l’un de ces éléments peut être
compensée par une force dans un autre.
Guadagnoli et Velicer (1988) affirment que les recommandations d’une taille de
l’échantillon de 100 ou 200 sujets sont fondées sur l’argument qu’un coefficient de corrélation
observé dans l’échantillon devient un estimateur adéquat du coefficient de corrélation existant
dans la population lorsque l’échantillon atteint cette taille. Leur étude Monte Carlo démontre
que, parmi quatre facteurs d’influences (n, nombre de variables, poids de la saturation et
nombre de facteurs) sur les solutions obtenues avec des PCA, la plus importante est le poids
de la saturation. Si la taille de l’échantillon est un facteur important lorsque les saturations
sont peu élevées (≤|.40|), ce facteur (comme les deux autres) n’a plus beaucoup d’influence
lorsque les saturations sont élevées (à partir de |.60|) et qu’une taille de l’échantillon minimale
est atteinte. Conseiller une taille de l’échantillon comme universelle surestimerait le nombre
d’observations nécessaire pour obtenir une solution stable sous certaines conditions et sous-
estimerait ce nombre d’observations sous d’autres conditions. Le poids des saturations est
problématique s’il est inférieur ou égal à |.40|, car il faut alors plus de variables observées par
composante et une plus grande taille de l’échantillon, afin que la solution obtenue grâce à
l’échantillon corresponde à la solution dans la population. Avec des saturations de |.60|, des
solutions satisfaisantes sont obtenues déjà avec une taille de l’échantillon de 150 sujets. Avec
des saturations de |.40|, 300 à 400 sujets sont cependant nécessaires. Pour la PCA, Guadagnoli
et Velicer (1988) formulent les quatre recommandations suivantes :
1. Avant de débuter les analyses, le chercheur doit sélectionner les variables qui
représenteront bien une composante (c’est-à-dire qui seront fortement saturées par la
composante). Si une estimation à priori du niveau de saturation est difficile, une dizaine de
variables doivent être sélectionnées afin de représenter chacune des composantes. Si ces
conditions peuvent être respectées par le chercheur à priori, alors une la taille de
l’échantillon de 150 devrait être suffisante pour obtenir une solution exacte.
2. Si une composante dispose d’au moins quatre variables avec des saturations ≥|.60|, le
pattern peut être interprété indépendamment de la taille de l’échantillon.
14
3. Une matrice de pattern composée de dix à douze variables avec des saturations faibles
(|.40|) devrait être une solution adéquate si la taille de l’échantillon >150.
4. Si chacune des composantes d’une solution saturent peu de variables et que les saturations
sont faibles, la matrice de pattern ne doit pas être interprétée à moins que la taille de
l’échantillon soit ≥ 300. Une réplication est alors fortement recommandée.
Bien que ces conclusions soient fondées sur des PCA, Guadagnoli et Velicer (1988) affirment
qu’elles seraient similaires pour des EFA, ce qui est confirmé par l’étude de Velicer et Fava
(1998), avec les méthodes ML et image component analysis.
3.3. Comment traiter les données manquantes ?
Si le nombre de données manquantes par variable est faible (<5%), il est communément
admis que l’on peut simplement remplacer ces données par la moyenne générale de l’item ou
éliminer certains sujets s’il s’avère qu’ils n’ont pas répondu à un grand nombre d’items. Par
contre, si le nombre de données manquantes réduit considérablement la taille de l’échantillon
avec la méthode listwise deletion, il est alors plus profitable d’utiliser un logiciel permettant
d’estimer les paramètres en tenant compte de ces valeurs manquantes (Mplus par exemple) ou
une méthode dite d’imputation. Ce dernier type de méthode doit être utilisé avec la plus
grande prudence car il peut déformer les résultats ; il consiste à simuler les données qui sont
manquantes afin de les remplacer par les valeurs les plus probables. Le lecteur peut se référer
à Cohen, Cohen, West et Aiken (2003) pour une présentation et une discussion des méthodes
pour traiter les données manquantes ainsi qu’à Rousseau et Bertrand (2005) pour une
comparaison de l’efficacité des méthodes d’imputation.
3.4. La matrice de corrélations est-elle adéquate ?
Afin de vérifier qu’il existe bien des corrélations suffisantes entre les variables, il faut utiliser
le test de sphéricité de Bartlett. Ce test évalue l’hypothèse nulle selon laquelle les corrélations
seraient toutes égales à zéro. Il devrait être significatif au seuil de p<.001 (c’est-à-dire que H0
devrait être rejetée) pour continuer l’analyse. Le défaut de ce test est qu’il est sensible à la
taille de l’échantillon et par conséquent quasiment toujours significatif si la taille de
l’échantillon est grande. Le test de sphéricité de Bartlett est accompagné du test de Kaiser-
Meyer-Olkin (KMO) d’adéquation de la solution factorielle. Un indice KMO > .80 signifie
que la « factoriabilité » est bonne, c’est-à-dire que la structure factorielle est intelligible et
stable ; un indice KMO entre .60 et .80 correspond à une « factoriabilité » dite moyenne ; si
l’indice KMO < .60, la « factoriabilité » est dite mauvaise et la structure factorielle est
15
difficile à interpréter et instable. Le KMO évalue la cohérence de l’ensemble des variables
(rapport entre les corrélations entre les variables et les corrélations partielles qui expriment
l’unicité de l’apport de chacune des variables) et donc s’il existe une solution factorielle
acceptable pour représenter les relations entre variables. Un troisième test est mentionné par
Stafford et Bodson (2006) : le déterminant de la matrice, qui devrait être considéré avant
d’interpréter la matrice factorielle. Si le résultat de ce test est égal à 0, alors une ou plusieurs
variables ont une corrélation parfaite avec une ou plusieurs autres variables. Ce qui signifie
que cette ou ces variables n’ajoute/nt pas d’information spécifique au-delà de celles données
par les autres variables. On attend un coefficient le plus faible possible pour le déterminant,
mais pas nul11.
4. Quelle procédure d’extraction choisir pour faire correspondre le modèle
aux données ?
Comme nous l’avons mentionné plus haut, il existe un grand nombre de procédures parmi
lesquelles nous distinguons premièrement les procédures liées à l’analyse en facteurs
communs et celles liées à l’analyse en composantes (voir tableau 1). Nous aborderons ici la
procédure d’analyse en composantes principale (PCA) ainsi que plusieurs procédures
d’extraction de la famille des analyses en facteurs communs (EFA).
Le modèle d’analyse factorielle exploratoire spécifie que les variables sont
déterminées par des facteurs communs (facteurs estimés par le modèle) et des facteurs
uniques (qui ne se recoupent pas entre variables observées) ; le calcul des estimations est
fondé sur le postulat que les facteurs uniques ne sont pas inter-corrélés et qu’ils ne sont pas
non plus corrélés avec les facteurs communs. Si le chercheur estime que l’EFA est plus
adéquate au traitement de ses données que ne l’est la PCA, il doit alors choisir parmi un grand
nombre de méthode celle qui convient le mieux à ses objectifs.
Fabrigar et al. (1999) décrivent deux types de méthodes pour l’extraction des facteurs
dans une EFA :
1. Maximum Likelihood (ML) : cette procédure teste la vraisemblance de la solution
factorielle par rapport à la matrice de corrélations observée. Ses principaux avantages sont
qu’elle permet de calculer des indices d’adéquation, des tests de significativité des
saturations et des corrélations entre facteurs ainsi que le calcul d’intervalles de confiance
pour ces paramètres. Sa principale limitation est que cette méthode se base sur le postulat
11 FACTOR effectue par défaut ces trois tests alors que dans SPSS, il faut les demander. Par contre ils ne sont
pas disponibles dans Mplus.
16
de normalité multivariée et les résultats peuvent être passablement biaisés si ce postulat
n’est pas respecté.
2. Principal factors methods : il s’agit des autres méthodes d’extractions. Elles ne demandent
pas strictement de postulats relatifs à leur distribution et présentent moins de probabilité de
produire des solutions inappropriées avec un Heywood case ou des solutions qui ne
convergent pas vers une série finale d’estimations de paramètres. Ces méthodes sont
divisées en deux types : les méthodes qui procèdent à une estimation à priori des
communautés et les méthodes itératives. Leurs principales limitations sont d’une part
qu’elles fournissent peu ou pas d’indices d’adéquation de la solution factorielle et d’autre
part qu’elles ne permettent généralement pas de calcul d’intervalles ni de tests de
significativité.
Tant Fabrigar et al. (1999) que Costello et Osborne (2005) conseillent d’utiliser la méthode
ML si les variables sont distribuées normalement ou la méthode Principal Axis Factor
(nommée ainsi dans SPSS) si les variables ne sont pas distribuées normalement. En outre,
Velicer et Fava (1998) ont démontré dans leurs simulations que la méthode image component
analysis fournissait des solutions moins bonnes (c’est-à-dire plus éloignées des paramètres de
la population) que ML ou PCA. La méthode unweighted least square est également conseillée
comme l’une des plus appropriées lorsque les distributions des variables ne sont pas normales.
Sept méthodes d’extraction parmi les plus courantes, leurs buts et leur description sont décrits
ci-après, à partir de Tabachnick et Fidell (2007) et de l’aide SPSS.
Principal component (PCA)
But de l’analyse : Maximiser la variance extraite par des composantes orthogonales.
Commentaires : Déterminée mathématiquement, solution empirique mélangeant la variance
commune, unique et d’erreur dans les composantes.
Description de l’aide SPSS : Méthode d’extraction utilisée pour former des combinaisons
linéaires non corrélées des variables observées. La première composante a une variance
maximale. Les composantes suivantes expliquent progressivement de plus petites parts de la
variance et sont toutes non corrélées avec les autres. La PCA est utilisée pour obtenir la
solution factorielle initiale. Elle peut être utilisée lorsque la matrice de corrélations est
singulière.
Principal (axis) factors
But de l’analyse : Maximiser la variance extraite par des facteurs orthogonaux.
Commentaires : Estime les communautés pour tenter d’éliminer la variance unique et d’erreur
des variables.
17
Description de l’aide SPSS : Extrait les facteurs de la matrice de corrélation originale avec les
coefficients de corrélation multiple au carré placés dans la diagonale comme estimations
initiales des communautés. Ces saturations sont utilisées pour estimer les nouvelles
communautés qui remplacent les anciennes estimations dans la diagonale. Les itérations
continuent jusqu’à ce que les changements dans les communautés d’une itération à la suivante
satisfassent le critère de convergence pour l’extraction.
Image factoring
But de l’analyse : Fournit une analyse factorielle empirique.
Commentaires : Utilise les variances fondées sur la régression multiple d’une variable avec
toutes les autres variables comme communautés pour générer une solution mathématiquement
déterminée avec la variance unique et d’erreur éliminée.
Description de l’aide SPSS : Méthode développée par Guttman et fondée sur l’image theory.
La part commune de la variable, nommée l’image partielle, est définie comme sa régression
linéaire sur les variables restantes, plutôt que comme une fonction de facteurs hypothétiques.
Maximum likelihood factoring (ML)
But de l’analyse : Estime les saturations pour la population de façon à maximiser la
probabilité d’échantillonner la matrice de corrélation observée.
Commentaires : Donne des tests de significativité pour les facteurs ; particulièrement utile
pour les CFA.
Description de l’aide SPSS : Produit les estimations des paramètres qui ont le plus
probablement produit la matrice de corrélation observée si l’échantillon provient d’une
distribution normale multivariée. Les corrélations sont pondérées par l’inverse de
l’uniqueness des variables et un algorithme itératif est employé.
Alpha factoring
But de l’analyse : Maximise la fidélité des facteurs orthogonaux.
Description de l’aide SPSS : Considère les variables de l’analyse comme un échantillon de
l’univers de variables potentielles. Maximise la fidélité alpha des facteurs.
Unweighted least squares (ULS)
But de l’analyse : Minimise les corrélations résiduelles au carré.
Description de l’aide SPSS : Minimise les différences de sommes des carrés entre les matrices
de corrélations observées et reproduites en ignorant les diagonales.
Generalized least squares (GLS)
But de l’analyse : Pondère les variables par leur variance partagée avant de minimiser les
corrélations résiduelles au carré.
18
Description de l’aide SPSS : Minimise les différences de sommes des carrés entre les matrices
de corrélations observées et reproduites. Les corrélations sont pondérées par l’inverse de leur
uniqueness, de façon à ce que les variables avec une haute uniqueness aient moins de poids
que celle avec un faible uniqueness.
5. Comment déterminer le nombre de facteurs à retenir dans le modèle ?
Cette étape est reconnue comme cruciale en analyse factorielle. Steger (2006) affirme à ce
sujet que le moyen utilisé pour déterminer le nombre de facteurs ou de composantes a
probablement plus d’impact sur la solution que n’en a la méthode d’extraction choisie. Les
méthodes sont nombreuses et plus ou moins appropriées. Nous décrivons ici les plus
courantes.
Kim et Mueller (1978a) expliquent que si on connaît les saturations, on peut en
dériver les corrélations entre variables, alors que l’inverse n’est pas possible. En outre, la
connaissance des corrélations entre les variables observées ne permet pas de connaître la
structure causale sous-jacente car la même structure de covariance peut être produite par
différentes structures causales. Trois problèmes de base font que la relation entre la structure
causale et la structure des covariances est incertaine. Une certaine structure de covariance
peut être produite par : 1) le même nombre de facteurs communs mais avec une configuration
différente des saturations (souvent appelé le problème de rotation) ; 2) des modèles factoriels
avec un nombre différent de facteurs communs (ceci peut être réglé par le principe de
parcimonie) ; 3) un modèle causal de type factoriel ou par un modèle causal non factoriel12.
Ainsi il est hasardeux de déterminer la configuration factorielle en examinant les corrélations
entre variables observées.
En outre, selon Gorsuch (1997), il est incorrect d’inférer d’un coefficient alpha de
Cronbach élevé la conclusion qu’il n’y a qu’un seul facteur présent dans une certaine échelle.
En effet, un certain nombre d’items modérément intercorrélés peuvent produire un alpha de
Cronbach élevé alors même que plusieurs facteurs ou composantes sont distinguables parmi
ces items.
5.1. La pratique dite « Little Jiffy » (à éviter)
La méthode « Litte Jiffy » consiste à retenir tous les facteurs dont la valeur propre est
supérieure à 1 (voir 5.1) puis d’effectuer une rotation Varimax. Il s’agirait de la méthode la
plus utilisée par les chercheurs, bien qu’elle ne soit pas la meilleure. Ceci est notamment dû
12 Le choix d’un modèle factoriel ou non factoriel sur la base d’une certaine matrice de covariance est guidé par
la théorie et les recherches précédentes.
19
au fait qu’elle est proposée par défaut dans les packages statistiques tels que SPSS. Cette
méthode est critiquée par Gorsuch (1997), car elle produit un trop grand nombre de facteurs.
En outre, son utilisation réfute presque toujours l’hypothèse d’un facteur unique. Il est
recommandé de ne l’utiliser que lorsque les variables sont très fidèles, que leurs distributions
sont identiques, que les corrélations entre items sont élevées et que les items proviennent de
domaines non corrélés, c’est-à-dire quasiment jamais.
5.2. Le critère dit de Kaiser (K>1)
Selon ce critère, seuls les facteurs dont la valeur propre est supérieure à 1 devraient être
retenus. L’idée de retenir les composantes ou facteurs dont la valeur propre est supérieure à 1
se base notamment sur le postulat qu’une composante ne présente que peu d’intérêt si elle
explique une part de variance moindre que ce qu’explique une seule variable (Kaiser, 1960).
Selon Fabrigar et al. (1999), cette façon permet de déterminer le nombre de facteurs de
manière simple et objective. Cependant cette procédure est totalement arbitraire : une valeur
propre de 1.01 indiquerait l’existence d’un facteur, alors qu’une valeur propre de 0.99
n’indiquerait pas l’existence d’un facteur. De plus, il existe un risque d’over/underfactoring13
(Fava & Velicer, 1992 ; Steger, 2006 ; Zwick & Velicer, 1986), c’est-à-dire d’extraire trop ou
trop peu de facteurs en comparaison au nombre réel de facteur(s) présent(s) dans les données.
Cliff (1988) a démontré que l’un des présupposés de Kaiser (1960) sur lequel se base le
critère K>1 était faux. En effet, selon Kaiser, le score d’une composante (on fait ici référence
à la PCA) aura une fidélité négative si sa valeur propre est inférieure à l’unité. En utilisant le
coefficient KR-20, Cliff (1988) démontre que la fidélité d’une composante dépend de la
fidélité des mesures individuelles (c’est-à-dire des items) et que Kaiser a confondu le nombre
de composantes fidèles avec le nombre de composantes communes. En conclusion, cette règle
n’est pas fiable, étant donné que des composantes ou facteurs dont la valeur propre est
inférieure à 1 peuvent tout de même être fidèles. De plus, l’étude Monte-Carlo de Zwick et
Velicer (1986) a montré que plus le nombre de variables observées augmentait, plus le
nombre de valeurs propres supérieures à 1 augmentait. De ce fait, ils déconseillent l’utilisation
du critère K>1 pour la PCA.
13 La simulation de Fava et Velicer (1992) a montré que l’overfactoring n’avait pas d’effets négatifs si elle était
limitée à un ou deux facteurs de trop. Toutefois, si les saturations ou la taille de l’échantillon sont faibles, ceci
produit des solutions incorrectes.
20
5.3. Le test χ2 de Bartlett
Bartlett (1950, 1951 ; cité par Zwick & Velicer, 1986) a développé un test statistique de
l’hypothèse nulle postulant que les valeurs propres des variables observées sont égales aux
valeurs propres des facteurs ou composantes restantes. Chaque valeur propre est exclue de
manière séquentielle jusqu’à ce que le test d’approximation χ2 de l’hypothèse nulle d’égalité
ne puisse plus être rejeté. Les premières composantes exclues sont ensuite retenues. Cette
méthode n’est pas disponible dans les packages statistiques les plus courants. Ses principaux
défauts sont la sensibilité à la taille de l’échantillon et des saturations (plus de puissance
impliquant la rétention d’un plus grand nombre de facteurs) ainsi qu’un manque de précision
lorsque l’échantillon est restreint (Zwick & Velicer, 1986).
5.4. Le Scree test (graphique des éboulis)
Cette méthode a été proposée par Cattell (1966) et se base sur l’étude d’un graphique. Les
valeurs propres sont calculées puis représentées sur un graphique en ordre de valeurs
décroissantes (voir figure 1).
Figure 1. Exemple d’un scree plot fourni par SPSS
On identifie ensuite un écart substantiel dans la magnitude des valeurs propres. Un modèle
avec le même nombre de facteurs commun que le nombre de valeurs propres avant le dernier
écart substantiel (coude) est alors ajusté aux données. Les limites de cette méthode sont sa
subjectivité, car le pattern de valeurs propres peut être ambigu et il n’est ainsi pas toujours
clair quand l’écart substantiel est présent (Fabrigar et al., 1999). Si l’écart est substantiel, alors
on peut alors utiliser cette méthode. Par contre, dans le cas où le graphique montre une
6
5
4
3
2
1
2.00
1.75
1.50
1.25
1.00
0.75
0.50
Component Number
Eigenvalue
21
diminution quasi linéaire des valeurs propres ou plus d’un écart substantiel sur le graphique,
le scree test est alors inutilisable. Bertrand et Blais (2004) conseillent d’utiliser ce test
conjointement au critère K1. Zwick et Velicer (1986) ont montré que ce test était plus précis
et moins variable que ne le sont le critère K1 ou le test de Bartlett. Toutefois, ils conseillent de
coupler cette méthode avec d’autres telles que Minimum Average Partial (voir 5.8.).
5.5. Décompte du nombre d’items saillants
Une méthode proposée par Gorsuch (1997) afin de déterminer le nombre de facteurs présents
dans les données consiste à compter le nombre de facteurs qui ont un minimum de trois items
saillants (c’est-à-dire des saturations plus grandes que |.40| et qui soit la plus forte saturation
pour la variable). Cette méthode présente deux avantages : premièrement de corriger la
tendance du critère de Kaiser d’indiquer trop de facteurs et deuxièmement d’éliminer les
facteurs triviaux (c’est-à-dire qui manquent de variables saillantes, tant par le fait que peu
d’items sont saturés par le facteur que par le fait que la plupart des items sont plus fortement
saturés par d’autres facteurs). En outre, elle est sans doute également applicable en PCA.
5.6. Séparation de l’échantillon en deux parties
Gorsuch (1997) propose cette méthode qui consiste à diviser l’échantillon en deux moitiés
pour évaluer le nombre de facteurs qui sont répliqués. Ceci nécessite un nombre de sujets
large. Une autre alternative, peut être plus intéressante, est de réaliser une EFA sur une moitié
de l’échantillon puis une CFA sur l’autre moitié afin de confirmer les résultats de l’EFA (voir
page 29, point 8. Confirmer la structure factorielle : allier EFA et CFA).
5.7. L’utilisation de la méthode d’extraction ML
Le grand avantage de cette méthode est qu’elle donne des indices de l’adéquation de la
solution factorielle par rapport aux données observées. Comme dans les modèles d’équations
structurales, cette méthode consiste à estimer plusieurs modèles en augmentant à chaque fois
le nombre de facteurs désirés puis à évaluer chaque modèle sur la base des indices
d’adéquation. Est sélectionné le modèle qui d’une part constitue une amélioration
substantielle par rapport à un modèle comptant un facteur de moins et d’autre part qui ne
serait pas amélioré grandement si on y ajoutait encore un facteur. Les limites de cette méthode
sont que la taille de l’échantillon exerce une grande influence et que les données sont
22
soumises au postulat de normalité multivariée14 (pour remédier à cette anormalité multivariée,
voir les conseils de West, Finch et Curran (1995))15. Cette méthode est celle que Fabrigar et
al. (1999) jugent la plus puissante. Thompson et Daniel (1996) conseillent de favoriser des
indices d’adéquation qui tiennent compte de la taille de l’échantillon (RMSEA par exemple)
et de ne pas seulement se baser sur le χ2 et ses degrés de liberté. Finalement, Floyd et
Widaman (1995) proposent d’utiliser le coefficient de fidélité proposé par Tucker et Lewis
(1973) pour évaluer si une solution factorielle est acceptable. Ce coefficient est moins
dépendant de la taille d’échantillon que ne l’est le χ2 et il devrait être égal ou supérieur à .95
pour que la solution soit jugée acceptable.
5.8. Le Mininimum Average Partial (MAP)
Cette méthode, proposée par Velicer (1976, cité par Zwick & Velicer, 1986), se base sur la
matrice des corrélations partielles. La moyenne des corrélations partielles est calculée après
que chacune des m composantes aient été retirée. Lorsque la matrice des corrélations
partielles ressemble à une matrice d’identité, plus aucune composante n’est extraite.
L’utilisation de cette règle implique qu’au minimum deux variables auront une saturation
élevée sur chacune des composantes extraites. Ceci lie logiquement la méthode au concept de
facteurs. Cette méthode n’est souvent pas disponible dans les packages statistiques16. Zwick
et Velicer (1986) conseillent d’utiliser cette méthode comme méthode principale si l’on
souhaite ignorer les composantes ou facteurs relativement petits. Cette méthode a tout d’abord
été proposée pour la PCA, mais elle peut fonctionner également pour l’EFA (elle est par
exemple intégrée au logiciel FACTOR tant pour une extraction PCA que EFA).
5.9. L’analyse parallèle
Selon Fabrigar et al. (1999), cette approche se base sur la comparaison des valeurs propres
obtenues grâce à un échantillon de données (celui du chercheur) avec les valeurs propres que
l’on attendrait de données complètement aléatoires (la moyenne prédite des valeurs propres
14 Dans PRELIS, la mesure dite de Mardia, particulièrement importante pour les modèles d’équations
structurales, peut être calculée pour vérifier la voussure multivariée.
15 West et al. (1995) distinguent deux approches en cas d’anormalité multivariée : utiliser des techniques
d’estimation alternative (par ex. Asymptotically Distribution Free Estimator) ou réexprimer les variables. Parmi
ce deuxième type de solutions, ils mentionnent
1) la construction de parcelles d’items en additionnant ou en prenant la moyenne de plusieurs items qui mesurent
le même construit. Cette solution a également l’avantage de produire un ratio paramètres / sujet plus favorable ;
2) les transformations par logarithme, racine carrée ou 1/x dans le cas de distribution asymétriques et positives.
Ils conseillent de toujours comparer les indices avant et après transformations ou composition de parcelles
d’items afin d’en vérifier les effets (voir aussi Field, 2005, pp. 80-87 et Tabachnick & Fidell, 2007).
16 Le MAP est disponible dans le logiciel FACTOR7.
23
produite par des séries répétées de données aléatoires). Toutefois, cette procédure est
arbitraire (idem que pour le critère de Kaiser) et pas toujours disponible dans les logiciels17.
Thompson et Daniel (1996) expliquent que l’analyse parallèle nécessite de générer
aléatoirement une matrice de données brutes de même rang que les données brutes à analyser.
La matrice de données brutes est alors facteur-analysée ou du moins les valeurs propres de la
matrice d’association sont calculées. Ces valeurs sont comparées aux valeurs propres
obtenues pour les données d’intérêt. On compare ensuite les paires de valeurs propres et le
critère pour déterminer si un facteur doit être extrait est que sa valeur propre pour les données
d’intérêt soit supérieure que pour les données aléatoires (par exemple si la 5ème valeur propre
est de 1.6 pour les données aléatoires et que la 5ème valeur propre est de 1.5 pour les données
d’intérêt, alors le 5ème facteur n’est pas extrait). Zwick et Velicer (1986) ont démontré dans
leur étude Monte-Carlo que cette méthode était la plus précise en comparaison avec K1, le
scree test, MAP et le test de Bartlett. Elle est en effet moins sensible aux variations des
saturations, de la taille de l’échantillon ou encore du nombre de variables observées.
5.10. Autres critères pour déterminer le nombre de facteurs
En outre, selon Gorsuch (1997), il serait préférable de garder un ou deux facteurs additionnels
plutôt que d’extraire trop peu de facteurs étant donné que cette dernière solution peu changer
radicalement un ou plusieurs facteurs alors que la première ne modifie pas les autres facteurs.
Par ailleurs, les facteurs dits techniques peuvent se confondre aux facteurs substantifs (que
l’on cherche à identifier) (Gorsuch, 1997). Pour s’assurer qu’il ne s’agit pas d’un facteur
technique, les hypothèses suivantes doivent être rejetées :
1) le facteur ne peut pas être répliqué (implique la comparaison avec une autre EFA ou
PCA) ;
2) le facteur est trop petit pour être considéré (3 variables saillantes, une fidélité suffisante de
du score à l’échelle formée sur la base du facteur et une corrélation avec un autre facteur
n’approchant pas la fidélité de l’un ou l’autre) ;
3) le facteur est causé par des items ayant des distributions différentes (la distribution de
chaque item doit être examinée et si elle est similaire entre items d’un même facteur mais
différente des items non saturés par le facteur alors il est probable qu’il s’agisse d’un
facteur dû à la distribution particulière) ;
4) le facteur est dû au style de réponse (p.ex. ils requièrent tous un jugement radical) ;
17 L’analyse parallèle est disponible dans le logiciel FACTOR7.
24
5) les items ne sont pas des combinaisons linéaires des facteurs (mais par exemple des
combinaisons curvilinéaires, voir Gorsuch, 1997, p. 553).
Doise et al. (1992) mentionnent que l’on considère habituellement que l’ensemble des
facteurs ou composantes retenues devrait expliquer au minimum 40% de la variance. Si ce
n’est pas le cas, la solution ne représente pas suffisamment la variance et on devrait ajouter
un(e) ou plusieurs facteurs ou composantes. Il ne s’agit toutefois que d’une règle de pouce.
Finalement, Brown (2006) relève que si un trop grand nombre de facteur est extrait, ceci peut
se manifester par des corrélations inter-facteurs approchant |1|. Il s’agit alors d’un manque de
validité discriminante. A titre d’ordre d’idée, une corrélation entre deux facteurs ≥ .85 est
jugée problématique pour la validité discriminante. Ainsi ces deux facteurs pourraient être
combinés pour obtenir une solution plus parcimonieuse.
5.11. Discussion sur le nombre de facteurs ou composantes à retenir
Gorsuch (1997) recommande d’utiliser plusieurs méthodes pour déterminer le nombre de
facteurs et d’extraire les facteurs par une méthode permettant des estimations de
communautés (p.ex. principal factor analysis). En pratique, il propose que plusieurs analyses
factorielles soient calculées. La première se base sur le critère de Kaiser, puis dans la solution
avec rotation, le nombre de facteurs triviaux est noté. Ensuite, l’analyse est relancée en y
enlevant les facteurs triviaux. Les deux solutions sont alors comparées et si un facteur dans la
seconde analyse a largement changé, alors l’analyse est refaite avec un ou deux facteurs
additionnels. Zwick et Velicer (1986) concluent de leur étude Monte-Carlo qu’il n’y a pas de
raison d’utiliser le K1 ou le test χ2 de Bartlett comme méthode unique. Ces méthodes ne
devraient même pas être utilisées. Le scree test devrait être utilisé comme une estimation
initiale et conjointement à la PA ou MAP, ces deux dernières étant les plus précises. Selon
Fabrigar et al. (1999), une bonne stratégie serait d’utiliser plusieurs méthodes pour prendre les
décisions et d’examiner les solutions après rotation pour confirmer que le modèle est
interprétable et théoriquement plausible. Finalement, il ne faut jamais oublier de guider les
interprétations du nombre de facteurs par les connaissances théoriques.
6. Quelle méthode de rotation choisir ?
6.1. A quoi sert la rotation et que sont les valeurs propres ?
Comme nous l’avons plus haut, la première étape d’analyse vise à déterminer le nombre de
facteur(s) ou de composante(s) qui peuvent adéquatement expliquer les corrélations
observées. Ce processus permet de déterminer les communautés de chaque variable. La
25
seconde étape de l’analyse implique de trouver des facteurs plus simples et plus facilement
interprétables en effectuant des rotations des facteurs, ceci en gardant fixes leur nombre et les
communautés de chaque variable. Le principe de base de la rotation des facteurs est d’une
part la recherche de la minimisation du nombre de variables qui sont saturés par un facteur et
d’autre part la minimisation du nombre de facteurs qui saturent une même variable. Ainsi la
variable idéale n’est saturée que par un seul facteur.
Chaque facteur possède une valeur propre (eigenvalue*). Celle-ci représente la
variance de la matrice d’association expliquée par le facteur avant la rotation (Thompson &
Daniel, 1996). Bien que la part de variance expliquée au total ne change pas après rotation, la
distribution de cette variance entre les facteurs en est modifiée. Kim et Mueller (1978a)
soulignent qu’aucune méthode de rotation n’améliore le degré d’adéquation entre les données
et la structure factorielle. Toutes les solutions avec rotation expliquent exactement autant de
covariations dans les données que la solution initiale. Ce qui est réalisé par la rotation est une
simplification pour l’interprétation.
6.2. Les deux types de rotations
Deux types de rotations sont distingués en analyse factorielle :
a) Les rotations orthogonales, qui forcent les facteurs à rester non-corrélés pendant la
rotation et donc à demeurer complètement indépendants,
b) Les rotations obliques qui permettent aux facteurs d’être intercorrélés.
La plupart des chercheurs utilisent la rotation orthogonale Varimax et cette pratique est
actuellement largement critiquée. En effet, une solution orthogonale est plus difficilement
confirmable étant donné qu’en psychologie et en particulier dans l’étude de la personnalité,
les facettes ne sont pas indépendantes. Un modèle nécessitant qu’un item ne soit saturé que
par un facteur et fixant des saturations nulles avec les autres facteurs aura peu de chance de
s’ajuster et la solution Varimax ne sera par conséquent pas répliquée en CFA (Floyd &
Widman, 1995). Relevons en outre que la PCA est généralement accompagnée d’une rotation
orthogonale (voir par exemple la définition de Jolliffe citée plus haut).18
Selon Doise et al. (1992), la rotation Varimax produirait les effets suivants : chaque
variable montre des corrélations proches de zéro sur tous les facteurs sauf un et chaque facteur
sera saturé par un nombre restreint de variables qui auront des saturations à tendance élevée.
La rotation Varimax fonctionnerait même trop bien selon Gorsuch (1997). Au point qu’elle
produirait quasiment toujours une solution dans laquelle les facteurs saturent chacun
18 Voir la description de Varimax, Equamax et Quartimax (Stafford et Bodson, 2006).
26
fortement une série d’items qui ne sont pas saturés par les autres facteurs. Ceci même dans le
cas d’une solution où tous les items sont saturés par le même facteur. Varimax serait ainsi la
pire méthode pour l’analyse factorielle des items car il n’y a aucun moyen de compenser pour
le biais provoqué par la recherche d’une structure simple, biais qui est présent lorsque les
items proviennent du même domaine.
Les rotations obliques (Oblimin ou Promax) produisent également des facteurs non
corrélés lorsqu’il s’agit d’une solution adéquate, c’est-à-dire que les facteurs sont réellement
indépendants. Selon Costello et Osborne (2005), il n’y aurait pas de méthode largement
préférable parmi les rotations obliques et les méthodes produiraient des résultats souvent
similaires.
6.3. Discussion et conseils au sujet des rotations
Selon Gorsuch (1997), si les items proviennent tous d’un même domaine conceptuel ou de
plusieurs domaines liés, une rotation orthogonale empêche la découverte d’un facteur général
ou de construits plus larges que le test pourrait mesurer. Ceci permet aussi aux facteurs
techniques (c’est-à-dire qui apparaissent pour des raisons purement méthodologiques)
d’obscurcir des facteurs substantifs. L’utilisation d’une rotation non restreinte et l’extraction
de facteurs d’ordre supérieur le cas échéant permettent aux facteurs généraux d’apparaître et
de construire des échelles qui minimisent les facteurs techniques. Fabrigar et al. (1999)
relèvent, comme Gorsuch, de nombreuses limites à l’utilisation des rotations orthogonales. En
particulier, de nombreux construits étant corrélés en psychologie, les solutions obtenues suite
à des rotations orthogonales sont moins bonnes en comparaison des solutions obtenues suite à
une rotation obliques. De plus, ces premières fournissent moins d’informations, notamment
sur l’existence de facteurs d’ordre supérieur telles que peuvent le suggérer des corrélations
substantielles entre facteurs. Les rotations obliques (p. ex. Direct Quartimin, Promax, Harris-
Kaiser orthoblique) permettent, mais n’obligent pas, des corrélations entre facteurs. De plus,
si une structure optimale est fournie par des facteurs orthogonaux, une rotation oblique
ressemblera alors de toute façon à une orthogonale. Doise et al. (1992) relèvent toutefois que
l’interprétation de la solution suite à une rotation oblique est plus difficile en comparaison
avec une rotation orthogonale, ce qui aurait particulièrement favorisé l’utilisation de cette
dernière.
En résumé, il est recommandé de commencer par une rotation oblique (Oblimin ou
Promax) puis, si les facteurs s’avèrent indépendants, de relancer l’analyse avec une rotation
orthogonale (Varimax) puisque cette dernière s’avère alors plus adaptée aux données. Dix
27
techniques de rotation parmi les plus courantes sont décrites ci-après, à partir de Tabachnick
et Fidell (2007) et de l’aide SPSS.
Varimax
Type : Orthogonale
But de la méthode : Minimiser la complexité des facteurs (simplifier les colonnes de la
matrice des saturations) en maximisant la variance des saturations sur chaque facteur.
Commentaire : Rotation la plus courante, option par défaut dans certains logiciels.
Description de l’aide SPSS : Minimise le nombre de variables qui ont des saturations fortes
sur chaque facteur. Simplifie l’interprétation des facteurs.
Quartimax
Type : Orthogonale
But de la méthode : Minimiser la complexité des variables (simplifier les lignes de la matrice
des saturations) en maximisant la variance des saturations sur chaque variable.
Commentaire : Le premier facteur tend à être général avec d’autres sous-clusters de variables.
Description de l’aide SPSS : Minimise le nombre de facteurs nécessaires pour expliquer
chaque variable. Simplifie l’interprétation des variables observées.
Equamax
Type : Orthogonale
But de la méthode : Simplifier les variables et les facteurs ; compromis entre quartimax et
varimax.
Commentaire : Peut produire des résultats erronés.
Description de l’aide SPSS : Combinaison de la méthode Varimax qui simplifie les facteurs et
de la méthode Quartimax qui simplifie les variables. Le nombre de variables qui saturent
fortement sur un facteur et le nombre de facteurs nécessaires pour expliquer une variable sont
minimisés.
Orthogonal with gamma (Orthomax)
Type : Orthogonale
But de la méthode : Simplifier soit les facteurs soit les variables, en fonction de la valeur de
gamma.
Description de l’aide SPSS : indisponible dans SPSS.
Parsimax
Type : Orthogonale
But de la méthode : Simplifier les facteurs et les variables.
Description de l’aide SPSS : indisponible dans SPSS.
28
Direct Oblimin
Type : Oblique
But de la méthode : Simplifier les facteurs en minimisant les produits croisés des saturations.
Commentaire : Permet un large étendu de corrélations entre facteurs.
Description de l’aide SPSS : Lorsque delta est égal à 0 (par défaut), les solutions sont le plus
obliques. Si delta devient négatif, les facteurs deviennent moins obliques.
(Direct) Quartimin
Type : Oblique
But de la méthode : Simplifier les facteurs en minimisant la somme des produits croisés des
saturations au carré dans la matrice de pattern.
Commentaire : Permet des corrélations élevées entre facteurs.
Description de l’aide SPSS : indisponible dans SPSS
Orthoblique
Type : Orthogonale et oblique.
But de la méthode : Rééchelonner les saturations pour produire une solution orthogonale ; les
saturations non rééchelonnées peuvent être corrélées.
Description de l’aide SPSS : indisponible dans SPSS
Promax
Type : Oblique.
But de la méthode : Facteurs orthogonaux avec rotation en position oblique.
Commentaire : Rapide.
Description de l’aide SPSS : Peut être calculé plus rapidement que la rotation Direct Oblimin
rotation et donc s’avérer utile pour de très grands jeux de données.
Procrustes
Type : Oblique
But de la méthode : Rotation vers la matrice cible.
Commentaire : Utile en analyses factorielles confirmatoires.
Description de l’aide SPSS : indisponible dans SPSS.
29
7. L’utilisation de l’analyse factorielle exploratoire pour la construction et
la révision d’échelles
7.1. Utilisation de l’EFA pour choisir les items les plus appropriés pour une échelle
Utiliser les résultats d’une EFA permet d’analyser les items de plusieurs façons.
Premièrement, cela fournit des informations sur les construits, par exemple s’il n’y en n’a
qu’un seul (unidimensionnalité) et dans ce cas un seul facteur sera produit. S’il y a plusieurs
construits, il y aura un facteur pour chacun. Les corrélations de chaque item avec chaque
facteur (structure matrix ou factor structure) permettront la sélection des meilleurs items
(Gorsuch, 1997). Deuxièmement, l’EFA permet également au chercheur d’éliminer les items
qui ne saturent pas suffisamment sur l’un des facteurs ou qui ont des saturations croisées
(Floyd & Widaman, 1995). Ce dernier type d’items surestime en effet la corrélation entre les
facteurs concernés.
Selon Gorsuch (1997), il existe plusieurs mesures de la relation entre les items et les
facteurs, représenté sous forme de matrices :
1) la structure du facteur (factor structure) : il s’agit de la matrice contenant les corrélations
entre chaque facteur et chaque item. Les coefficients de cette matrice peuvent être calculé
par la formule : factor pattern x factor intercorrelation= factor structure (Loehlin, 2004).
2) le pattern du facteur (factor pattern) : il s’agit des pondérations (weights) standardisées
utilisées pour reproduire les scores des items à partir des scores des facteurs. Ces
pondérations représentent les relations entre les facteurs et les variables après une rotation
oblique. Dans le cas d’une rotation orthogonale, la matrice de pattern est équivalente à la
matrice de structure.
3) la matrice des pondérations des facteurs (factor weight matrix) : il s’agit des pondérations
standardisées (β) utilisées pour estimer les scores des facteurs à partir des items.
Pour sélectionner les meilleurs items d’un instrument, Gorsuch (1997) recommande
d’utiliser la matrice de structure du facteur :
The correlation reflects directly how the item will function as part of a scale, and
the correlations of that item with other factors indicate how it will contribute to
the relations of its scale to other scales based on these factors (the pattern only
indirectly reflects the first and can be misleading about the second. (p. 556)
30
Les deux autres types de relations susmentionnées (matrice de pattern du facteur et matrice
des pondérations des facteurs) ne sont pas recommandées (voir Gorsuch, 1997). Pour choisir
les items en fonction de leurs corrélations avec le facteur concerné, il faut que cette
corrélation soit suffisamment forte, en comparaison des items déjà sélectionnés, pour
améliorer la fidélité ou validité de l’échelle. Dans le cas contraire ils ne sont pas utiles.
L’analyse est relancée à chaque fois qu’un item est éliminé afin d’observer les effets produits
par les changements.
En ce qui concerne l’interprétation des saturations des items par le facteur ou la
composante, Comrey et Lee (1992) proposent les critères suivants (tableau 2) :
Tableau 2.
Interprétation de la qualité des saturations selon Comrey et Lee (1992).
Valeur de la saturation
Variance expliquée
dans les réponses à l’item Qualité de l’item
>.71
50%
Excellente
>.63
40%
Très bonne
>.55
30%
Bonne
>.45
20%
Acceptable
.32
10%
Faible
<.32
<10%
Mauvaise
Selon Costello et Osborne (2005), si un item a une communauté <|.40|, ceci suggère soit que
cet item n’est pas lié aux autres items, soit qu’un facteur additionnel doit être exploré.
En outre, Tabachnick et Fidell (2007) proposent |.32| comme la saturation minimale
d’un item par son facteur, ce qui équivaut à environ 10% de variance partagée avec les
autres items du même facteur. La saturation minimale pour déterminer si une variable
est saturée par un facteur varie fortement suivant les recommandations : de |.20| à |.70|.
Ceci est due au fait qu’il n’y a pas d’erreurs standards en EFA et par conséquent pas
d’indice de significativité des saturations. Muthén et Muthén (2005) recommandent
d’utiliser la méthode « EFA dans un cadre CFA » (voir 8.1) pour obtenir les erreurs
standards et ainsi évaluer la significativité statistique des saturations. Si le chercheur
ne souhaite pas s’engager dans une méthode plus complexe, il peut se référer aux
lignes directrices formulées par Steven (1992) dans le cadre de la PCA, rapportées
dans le tableau 3.
31
Tableau 3.
Valeur critiques pour une saturation significative à p=.01 en fonction de la taille
d’échantillon
n Valeur critique n Valeur critique n Valeur critique
50 .722 180 .384 400 .258
80
.572
200
.364
600
.210
100
.512
250
.326
800
.182
140
.434
300
.298
1000
.162
Note : n = taille de l’échantillon
Stevens (1992) propose ces valeurs critiques car il n’est selon lui pas suffisant, pour
interpréter des saturations, d’utiliser des règles se basant uniquement sur leur valeur. La taille
d’échantillon est un paramètre dont les chercheurs doivent tenir compte. Il prévient toutefois
que déterminer si une saturation est statistiquement significative n’est pas suffisant. En effet,
la significativité pratique doit ensuite être déterminée par le chercheur. En outre, le chercheur
doit décider s’il souhaite utiliser des facteurs qui mesurent un construit unique ou si certains
items peuvent également être saturés par un ou plusieurs autres facteurs. Un item avec des
saturations croisées (crossloading) est un item avec une saturation ≥|.32| sur au moins deux
facteurs. Le chercheur doit décider si un item qui a des saturations croisées doit être éliminé
de l’analyse, ce qui est un bon choix s’il y a plusieurs saturations jugées adéquates à élevées
(≥|.50|) sur chaque facteur. Inclure un nombre suffisant d’items est nécessaire car cela permet
ensuite de choisir les plus adéquats en conservant tout de même un nombre suffisant pour
assurer une bonne consistance interne de l’échelle.
7.2. Création de scores factoriels, de score de composantes/échelles
Kim et Mueller (1978a) soulignent que les échelles créées sur la base des facteurs ne sont pas
identiques aux facteurs sous-jacents. Non seulement la corrélation entre le facteur
hypothétique et l’échelle correspondante est probablement largement inférieure à 1, mais la
relation entre les échelles n’est probablement pas la même que les relations entre les facteurs
sous-jacents. Il ne faut pas oublier que les échelles fondées sur les facteurs sont des
indicateurs des facteurs sous-jacents qui contiennent une part d’erreur.
Si les scores factoriels sont plus précis et fidèles pour l’échantillon sur lequel se base
l’analyse factorielle lorsque des pondérations sont introduites, Floyd et Widaman (1995)
recommandent d’additionner les items constituant une échelle sans utiliser de pondération
32
(donc pas de score factoriel calculé en fonction du poids de chaque item). En effet, une
pondération de 1 pour chaque item dont la saturation la plus forte est sur le facteur concerné
produit des scores factoriels virtuellement aussi exacts dans l’échantillon original et cette
pondération fonctionne mieux que les scores factoriels avec pondération dans de nouveaux
échantillons (Gorsuch, 1983). De ce fait, Kim et Mueller (1978b), ainsi que Floyd et
Widaman (1995) proposent de ne pas utiliser de scores factoriels pondérés mais d’additionner
les scores des items avec une saturation significative et première en excluant les items qui ont
des saturations croisées. Pour cela, tous les items doivent être sur une même échelle (nombre
de niveaux des items) ou ils doivent avoir été standardisés auparavant si ce n’est pas le cas.
Selon Velicer et Jackson (1990b), la différence entre les scores estimés sur la base de
facteurs (en EFA) et les scores issus des composantes (en PCA) serait peu claire. En effet, ces
scores sont très proches les uns des autres et les scores factoriels sont eux-mêmes déterminés
(c’est-à-dire issus calculé sur la base d’une équation). Par conséquent, l’ajout d’un élément
aléatoire (la part d’erreur reconnue en EFA) ne semble pas augmenter la généralisabilité et cet
ajout n’est d’ailleurs généralement pas recommandé.
7.3. La consistance interne du score d’une échelle
Une fois que le chercheur a extrait un certain nombre de facteurs ou de composantes et qu’il
les considère comme des échelles, il doit évaluer la fidélité des scores que fournissent ces
échelles. Ceci est réalisé par le calcul de la consistance interne dont l’indice les plus utilisé est
l’α de Cronbach (1951). Plus ce coefficient est élevé, plus le score est dit consistant, c’est-à-
dire moins il contient d’erreur. Le coefficient de consistance interne α de Cronbach est
dépendant du nombre d’items figurant dans l’échelle ainsi que des intercorrélations
moyennes. De ce fait, une augmentation du nombre d’items intercorrélés améliore le
coefficient. Un coefficient α élevé pour une longue échelle reflète le fait que le score total
obtenu par la sommation des items contient une faible part d’erreur. Selon Clark et Watson
(1995), le paramètre le plus utile par rapport à la consistance interne est la corrélation
moyenne entre les items et non pas le coefficient α. Ainsi il faudrait plutôt essayer d’atteindre
un certain niveau de corrélation moyenne (entre |.15| et |.50| en fonction de la généralité du
construit concerné). En ce qui concerne les échelles de réponse, mentionnons que les échelles
avec des points multiples (par ex. échelles de Likert à sept points) permettent aux moyennes
des items de varier avec une plus grande probabilité d’une distribution moins asymétrique. De
plus, les échelles de réponse à deux ou trois modalités doivent être remplacées par sept ou
plus de catégories de réponses afin que les moyennes soient systématiquement différentes
33
(Gorsuch, 1997). La signification psychologique de l’échelle et des points de réponses doit
toutefois également être considérée.
Par ailleurs, soulignons qu’une consistance interne élevée ne prouve pas
l’unidimensionnalité de l’échelle, qui doit absolument être réalisée avant de calculer la
consistance interne. En outre, des corrélations trop élevées entre items ne sont pas désirables
en vertu du paradoxe dit de l’atténuation, expliqué ci-dessous.
Le paradoxe de l’atténuation exprime un équilibre entre l’accroissement de la
consistance interne et la validité de construit. Augmenter la consistance interne d’une échelle
au-delà d’un certain point ne va pas améliorer la validité de construit et pourrait même la
détériorer. Ceci est dû au fait que des items fortement intercorrélés sont aussi fortement
redondants : lorsque l’un des items est inclus dans l’échelle, les autres n’apporteront pas
d’information supplémentaire (Clark & Watson, 1995). Maximiser la consistance interne
produit ainsi une échelle mesurant un construit « étroit ». Un coefficient α de Cronbach ≥.80
est conseillé avec quatre ou cinq items pour un construit très « étroit ». Pour des construits
plus larges, un α de Cronbach autour de .70 peut s’avérer acceptable. En outre, il faut relever
que le fait d’additionner les items sous-évalue la fidélité car la pondération de chaque item
n’est pas considérée.
7.4. Les biais dus aux items négatifs/renversés (reverse-coding) ou à la difficulté
Afin d’éviter des biais de réponses tells que l’acquiescence due au fait que tous les items
expriment une même idée, il est souvent conseillé d’introduire des items qui expriment cette
même idée mais de façon négative, de sorte que l’individu s’arrête pour réfléchir et se pose
des questions. Ainsi, pour mesurer un construit tel que le contrôle de l’action, on introduira
donc des items exprimant une bonne capacité de contrôle de l’action tout comme des items
exprimant un faible ou un manque de contrôle de l’action (que ce soit avec des termes
différents ou en ajoutant une négation). Toutefois, l’introduction de tels items n’est pas sans
risque pour les analyses factorielles. En effet, il est courant que ces deux types d’items, bien
que prévu pour mesurer un même construit, forment deux facteurs distincts19. Ceci représente
un effet dit de méthode et il est conseillé d’analyser la validité de construit de chacun des
facteurs afin de déterminer s’il s’agit effectivement d’un effet de méthode ou s’il existe
réellement deux dimensions dans les données. En outre, il est probable que ce phénomène
apparaisse chez des sujets pré-adolescents ou des sujets dont le niveau de lecture est faible et
19 C’est exactement ce qui s’est produit lorsque les deux types d’items liés au contrôle de l’action ont été
introduits dans une EFA. Tous les items exprimant un bon contrôle de l’action ont été saturés par un facteur et
touts les items exprimant un faible contrôle de l’action ont été saturés par un autre facteur. Ces deux facteurs
étaient largement et négativement corrélés.
34
par conséquent il serait préférable de ne pas inclure ce type d’items pour des jeunes élèves
(Marsh, 1986).
Un autre biais peut être provoqué par l’asymétrie des distributions des items. La
difficulté peut jouer le rôle de critère pour la formation de facteurs. Cela signifie par exemple
que les items qui sont très difficiles (les sujets refusent en très grande majorité les items)
pourraient se grouper sur un facteur dit technique. Ainsi ces items sont fortement liés non pas
parce qu’ils mesurent le même trait latent mais parce qu’ils partagent tous un certain niveau
de difficulté.
7.5. Comment nommer les facteurs ou composantes ?
Thompson et Daniel (1996) soulignent que les noms donnés aux facteurs obtenus ne doivent
pas être similaires aux noms des variables observées parce que les facteurs ne sont pas des
variables observées. Il faut donc trouver un nom suffisamment général pour représenter l’idée
commune aux items concernés. Henson et Roberts (2006) recommandent de ne pas nommer
un facteur en utilisant le libellé d’une variable observée car ceci porte à confusion et ne
respecte pas le fait que le facteur est une variable latente (tautologie). Le chercheur doit donc
déterminer la cause probable des covariations entre items afin de choisir un nom adéquat à
chaque facteur ou composante. Cliff (1983) prévient toutefois que « If we name something,
this does not mean we understand it » (p. 120). Nommer les facteurs n’est pas une décision
anodine ; cela doit être réfléchi et théoriquement cohérent.
8. Confirmer la structure factorielle : allier EFA et CFA.
La réplication des structures des scores d’échelles est importante pour établir la validité de
construit d’un instrument (Steger, 2006). Avant l’utilisation courante des analyses CFA, la
généralisabilité des structures factorielles était testée par l’accomplissement de plusieurs EFA
réalisées sur plusieurs échantillons d’une même population (réplication) ou sur des
populations différentes (invariance) (Gorsuch, 1974). Actuellement, une fois la structure
factorielle d’un instrument identifiée par une EFA, les études suivantes utilisent des modèles
CFA pour démontrer que cette structure se réplique dans un échantillon différent. De
nombreux chercheurs soulignent l’intérêt d’utiliser des EFA dans les premières étapes de
développement d’un instrument. La force des EFA réside dans le fait qu’elles ne nécessitent
pas un modèle théorique précis alors c’est le cas pour les CFA. Ainsi, elles sont fortement
informatives quant au fonctionnement de l’instrument. Muthén et Muthén (2005) proposent
d’utiliser la stratégie dite EFA dans un cadre CFA qui permet d’étudier la significativité des
35
saturations croisées ainsi que les corrélations entre résidus et suggère un modèle CFA réaliste
pour de prochaines analyses de l’instrument.
8.1. La méthode « EFA dans un cadre CFA »
Muthén et Muthén (2005) proposent d’allier EFA et CFA afin d’obtenir les erreurs standards
permettant de déterminer si les saturations sont statistiquement significatives et de produire
des indices de modifications afin de décider si des covariances résiduelles sont nécessaires
pour représenter des facteurs mineurs. Pour cela, il faut tout d’abord effectuer une EFA puis
soumettre la solution finale à une CFA avec les contraintes suivantes : la variance de chaque
facteur est fixée à 1 et sur chaque facteur, l’item dont la saturation est la plus élevée (item dit
ancre) se voit fixé ses saturations sur les autres facteurs à 0. Les autres saturations sont
laissées libres pour estimation. Nous n’exposons pas ici un exemple de cette méthode car un
exemple complet est présenté par Muthén et Muthén (2005).
Pour confirmer en CFA une structure fondée sur une EFA, Van Prooiken et Van der
Kloot (2001) ont étudiées trois stratégies : 1) reproduire exactement les paramètres trouvés en
EFA dans une CFA ; 2) l’approche usuelle qui consiste à libérer les paramètres dont la
saturation est élevée et à fixer les autres paramètres à zéro ; 3) l’approche n°2 mais en
permettant des covariances résiduelles lorsque les saturations dans l’EFA étaient comprises
entre |.20| et |.30|. Leurs résultats montrent que le caractère plus restrictif de la CFA fait que
les structures factorielles ne sont pas forcément répliquées lorsqu’on passe de l’EFA à la CFA
et qu’une bonne stratégie est de considérer l’utilisation de la troisième approche. Ceci
implique de libérer certains paramètres dont la saturation était trop faible (inférieure à |.30|
mais supérieure à |.20|) en EFA mais qui jouent tout de même un rôle dans la solution
factorielle et permettent un meilleur ajustement du modèle CFA. Ceci est justifiable car la
possibilité d’interpréter le modèle n’est pas détériorée étant donné que ces ajustements sont
issus du modèle exploratoire original (Van Prooiken & Van der Kloot, 2001).
9. Comment rapporter une EFA ou PCA ?
Floyd et Widaman (1995) proposent de rapporter les éléments suivants pour une EFA/PCA :
• Mentionner s’il s’agit d’une analyse en facteurs communs (EFA) ou en composantes
principales (PCA) ;
• Le type de matrice d’association analysée (covariances ou corrélations) ;
• Les estimations initiales des communautés ;
• La méthode d’extraction ;
36
• Les critères utilisés pour retenir le nombre de facteurs ;
• Les valeurs propres et les pourcentages de variance expliquée par chaque facteur avant
rotation ;
• La méthode de rotation avec justification de son choix ;
• Toutes les saturations dans la matrice de pattern pour que le lecteur puisse se faire sa
propre opinion de la qualité de la solution ;
• Les corrélations entre facteur dans le cas d’une rotation oblique ;
• La répartition de la variance expliquée par chaque facteur après rotation.
Preacher et MacCallum (2003) conseillent de rapporter toutes les saturations pour toutes les
variables sur chaque facteur, ainsi que les erreurs standard liées à ces saturations (si elles sont
disponibles) afin que le lecteur puisse évaluer la précision des saturations estimées. Le modèle
de tableau (tableau 4) ci-dessous peut être utilisé pour regrouper une partie des informations
nécessaires au lecteur.
Tableau 4.
Matrice de pattern de la solution factorielle (adapté de Henson & Roberts, 2006)
Variable Facteur 1 : A Facteur 2 : B Facteur 3 : C h2
X1
2 décimales
X2
X3
X4
X5
X6
X7
X8
X9
X10
Valeur propre
% de variance
Note : les coefficients plus grands que |.40| sont en italique/gras et ils sont retenus pour le
facteur concerné. Le pourcentage de variance indiqué est post-rotation. La valeur propre du
quatrième facteur (non retenu) était de 1.012. h2 = coefficient de communauté. Dans le cas
d’une rotation oblique, indiquer les corrélations entre les facteurs.
37
10. Glossaire
Analyse factorielle confirmatoire (CFA)
Analyse factorielle dans laquelle des attentes spécifiques concernant le nombre de facteurs et
leurs saturations (fixées comme nulles, à une certaine valeur ou libres) sont testées sur des
données. Il s’agit d’une analyse entièrement guidée par la théorie.
Communauté (h2)
La communauté d’une variable est la portion de variance de la variable qui est expliquée par
l’ensemble des facteurs communs. Elle dépend des saturations. Selon Kinnear et Gray (2005),
« la communauté d’une variable est la corrélation multiple au carré (R2) pour la variable
utilisant les facteurs comme prédicteurs et est, par conséquent, la proportion de la variance du
test qui est expliquée par les facteurs communs extraits dans l’analyse factorielle (variance
factorielle commune) » (pp. 398-399).
Composante d’erreur
La part de variance d’une variable observée qui est due aux erreurs de mesure aléatoire ; elle
constitue une partie de la composante unique (Kim & Mueller, 1978a).
Composante unique
La part de la variance observée inexpliquée par les facteurs communs. C’est la part de
variance qui est unique à chaque variable. Elle est souvent décomposée en composante
spécifique et composante d’erreur (Kim & Mueller, 1978a).
Déterminant
Une propriété mathématique d’une matrice carrée. Discutée comme un moyen de déterminer
le rang (ou le nombre de dimensions indépendantes) d’une matrice de corrélation ajustée
(Kim & Mueller, 1978a).
Facteur commun
Variable latente, non mesurée ou hypothétique qui est à la source de la variation au minimum
de deux variables observées en considération (Kim & Mueller, 1978a).
Heywood cases
Situations dans lesquelles la communauté pour une variable observée est estimée à 1 ou plus
(situation problématique). Ces cas indiquent souvent qu’un modèle mal spécifié a été ajusté
aux données ou que les données violent les postulats du modèle de facteurs communs. Ils ont
donc une valeur diagnostique et apparaissent en EFA (McCallum et al., 1999).
38
Maximum Likelihood method (ML ; méthode du maximum de vraisemblance)
Méthode d’estimation mathématique qui cherche à identifier les paramètres de la population
avec une probabilité maximale de générer la distribution de l’échantillon observé. Cette
méthode est utilisée notamment dans l’extraction des facteurs (Kim & Mueller, 1978a).
Monte Carlo (étude)
Etude systématique se basant sur des données simulées. Des études Monte Carlo ont
notamment été réalisées afin d’évaluer le nombre d’items nécessaire pour définir un facteur et
obtenir une solution factorielle stable.
Overfactoring et Underfactoring
Spécifier trop ou trop peu de facteurs dans la solution.
Score factoriel
L’estimation pour un sujet de son score sur un facteur formé par une combinaison linéaire des
variables observées.
Sousdétermination et Surdétermination
Degré auquel chaque facteur est clairement représenté par un nombre suffisant de variables.
Un facteur sous-déterminé n’est pas représenté par suffisamment de variables ; au contraire,
un facteur surdéterminé est représenté par plus de variables que le minimum nécessaire.
Valeur propre (eigenvalue)
Propriété mathématique d’une matrice utilisée en relation à la décomposition d’une matrice de
covariance, tant comme un critère pour déterminer le nombre de facteurs à extraire que
comme une mesure de variance expliquée par une certaine dimension (Kim & Mueller,
1978a). Selon Bertrand et Blais (2004), la valeur propre « précise l’importance du facteur :
c’est en quelque sorte la part de variance expliquée par le facteur » (p. 249).
Variances uniques (squared unique factor loadings)
Elles représentent la variance de chaque variable qui n’est pas expliquée par les facteurs
communs, c’est-à-dire la variance résiduelle.
39
11. Références
Bartlett, M. S. (1950). Tests of significance in factor analysis. British Journal of Psychology,
3, 77-85.
Bartlett, M. S. (1951). A further note on tests of significance in factor analysis. British
Journal of Psychology, 4, 1-2.
Bertrand, R., & Blais, J.-G. (2004). Modèles de mesure. L'apport de la théorie des réponses
aux items. Sainte-Foy, Canada: Presses Universitaires du Québec.
Bollen, K. A. (2002). Latent variables in psychology and the social sciences. Annual Review
of Psychology, 53, 605-634.
Brown, T. A. (2006). Confirmatory factor analysis for applied researcher. New York:
Guilford.
Byrne, B. M. (2005). Factor analytic models: Viewing the structure of an assessment
instrument from three perspectives. Journal of Personality Assessment, 85(1), 17-32.
Cattell, R. B. (1966). The scree test for the number of factors. Multivariate Behavioral
Research, 1, 245-276.
Cibois, P. (1983/2000). L’analyse factorielle (5ème éd.). Paris : PUF (Collection Que sais-je ?)
Clark, L. A., & Watson, D. (1995). Constructing validity: Basic issues in objective scale
development. Psychological Assessment, 7(3), 309-319.
Cliff, N. (1983). Some cautions concerning the application of causal modeling methods.
Multivariate Behavioral Research, 18(115-126).
Cliff, N. (1988). The eigenvalues-greater-than-one rule and the reliability of components.
Psychological Bulletin, 103(2), 276-279.
Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika,
16(3), 297-334.
Comrey, A. L., & Lee, H. B. (1992). A first course in factor analysis (2nd ed.). Hillsdale, NJ :
Erlbaum.
Costello, A. B., & Osborne, J. (2005). Best practice in exploratory factor analysis: Four
recommendations for getting the most from your analysis. Practical Assessment
Research & Evaluation, 10(7).
DeCarlo, L. T. (1997). On the meaning and use of kurtosis. Psychological Methods, 2, 292-
307.
Doise, W., Clemence, A., & Lorenzi-Cioldi, F. (1992). Représentations sociales et analyses
des données. Grenoble : Presses Universitaires de Grenoble.
Fabrigar, L. R., MacCallum, R. C., Wegener, D. T., & Strahan, E. J. (1999). Evaluating the
use of exploratory factor analysis in psychological research. Psychological Methods,
4(3), 272-299.
Fava, J. L., & Velicer, W. F. (1992). The effects of overextraction on factor and component
analysis. Multivariate Behavioral Research, 27(3), 387-415.
Field, A. (2005). Discovering statistics using SPSS (2nd ed.). London : Sage Publications.
Floyd, F. J., & Widaman, K. F. (1995). Factor analysis in the development and refinement of
clinical assessment instruments. Psychological Assessment, 7(3), 286-299.
Goodwin, L. D., & Leech, N. L. (2006). Understanding correlation: Factors that affect the size
of r. The Journal of Experimental Education, 74(3), 251-266.
Gorsuch, R. L. (1974). Factor analysis. Philadelphia, PA : Saunders.
Gorsuch, R. L. (1983). Factor analysis (2nd ed.). Hillsdale, NJ : Erlbaum.
Gorsuch, R. L. (1990). Common factor analysis versus component analysis: Some well and
little known facts. Multivariate Behavioral Research, 25(1), 33-39.
Gorsuch, R. L. (1997). Exploratory factor analysis: Its role in item analysis. Journal of
Personality Assessment, 68(3), 532-560.
40
Guadagnoli, E., & Velicer, W. F. (1988). Relation of sample size to the stability of component
patterns. Psychological Bulletin, 103(2), 265-275.
Henson, R. K., & Roberts, J. K. (2006). Use of exploratory factor analysis in published
research: Common errors and some comment on improved practice. Educational and
Psychological Measurement, 66(3), 393-416.
Humphreys, L. G., & Montanelli Jr, R. G. (1975). An investigation of the parallel analysis
criterion for determining the number of common factors. Multivariate Behavioral
Research, 10, 193-205.
Jolliffe, I T. (2002). Principal component analysis (2nd ed.). New York : Springer-Verlag.
Kaiser, H. F. (1960). The application of electronic computers to factor analysis. Educational
and Psychological Measurement, 20, 141-151.
Kim, J.-O, & Mueller, C. W. (1978a). Introduction to factor analysis : What it is and how to
do it. Newbury Park, CA : Sage Publications (Series : Quantitative applications in the
social sciences).
Kim, J.-O., & Mueller, C. W. (1978b). Factor analysis: Statistical methods and practical
issues. Newbury Park, CA : Sage Publications (Series : Quantitative applications in the
social sciences).
Kinnear, P., & Gray, C. (2005). SPSS facile appliqué à la psychologie et aux sciences
sociales. Maîtriser le traitement des données (N. Huet, Trans.). Bruxelles: DeBoeck.
Loehlin, J. C. (2004). Latent variable models: An introduction to factor, path, and structural
equation analysis (4th ed.). Mahwah, NJ: Erlbaum.
Lorenzo-Seva, U. (2003). A factor simplicity index. Psychometrika, 68(1), 49-60.
Lorenzo-Seva, U., & Ferrando, P. J. (2006). FACTOR: A computer program to fit the
exploratory factor analysis model. Behavior Research Methods, 38(1), 88-91.
MacCallum, R. C., & Austin, J. T. (2000). Applications of structural equation modeling in
psychological research. Annual Review of Psychology, 51, 201-226.
MacCallum, R. C., Widaman, K. F., Zhang, S., & Hong, S. (1999). Sample size in factor
analysis. Psychological Methods, 4(1), 84-99.
Marsh, H. W. (1986). Negative item bias in ratings scales for pre-adolescents children : A
cognitive-developmental phenomenon. Developmental Psychology, 22(1), 37-49.
McArdle, J. J. (1990). Principles versus principals of structural factor analyses. Multivariate
Behavioral Research, 25(1), 81-87.
Mulaik, S. A. (1972). The foudations of factor analysis. New York : McGraw-Hill.
Mulaik, S. A. (1990). Blurring the distinction between component analysis and common
factor analysis. Multivariate Behavioral Research, 25(1), 53-59.
Mulaik, S. A., & McDonald, R. P. (1978). The effect of additional variables on factor
indeterminacy in models with a single common factor. Psychometrika, 43, 177-192.
Muthén, L. K., & Muthén, B. O. (2005). Traditional latent variable modeling using Mplus,
Mplus short courses Day 1. Los Angeles, CA: Muthén & Muthén.
Preacher, K. J., & MacCallum, R. C. (2003). Repairing Tom Swift's electric factor analysis
machine. Understanding Statistics, 2(1), 13-43.
Rousseau, M., & Bertrand, R. (2005). Evaluation de l'efficacité des méthodes de traitement
des valeurs manquantes dans le contexte de mesure de type Likert. Mesure et Evaluation
en Education, 28(3), 27-49.
Schermelleh-Engel, K., Moosbrugger, H., & Müller, H. (2003). Evaluating the fit of structural
equation models: Test of significance and descriptive goodness-of-fit measures.
Methods of Psychological Research Online, 8(2), 23-74.
Stafford, J., & Bodson, P. (2006). L'analyse multivariée avec SPSS. Sainte-Foy, Canada:
Presses Universitaires du Québec.
41
Steger, M. F. (2006). An illustration of issues in factor extraction and identification of
dimensionality in psychological assessment data. Journal of Personality Assessment,
86(3), 263-272.
Stevens, J. (1992). Applied multivariate statistics for the social sciences (2nd ed.). Hillsdale,
NJ : Erlbaum.
Tabachnick, B. G., & Fidell, L. S. (2007). Using multivariate statistics (5th ed.). Boston, MA:
Allyn & Bacon.
Thompson, B., & Daniel, L. G. (1996). Factor analytic evidence for the construct validity of
scores: A historical overview and some guidelines. Educational and Psychological
Measurement, 56(2), 197-208.
Tournois, J., & Dickes, P. (1993). Pratique de l'échelonnement multidimensionnel. De
l'observation à l'interprétation. Bruxelles: De Boeck.
Tucker, L. R., & Lewis, C. (1973). A reliability coefficient for maximum likelihood factor
analysis. Psychometrika, 38, 1-10.
Van Prooijen, J.-W., & Van der Kloot, W. A. (2001). Confirmatory analysis of exploratively
obtained factors structures. Educational and Psychological Measurement, 61(5), 777-
792.
Velicer, W. F. (1976). The relation between factor score estimates, image scores and principal
component scores. Educational and Psychological Measurement, 36, 149-159.
Velicer, W. F., & Fava, J. L. (1998). Effects of variable and subject sampling on factor pattern
recovery. Psychological Methods, 3(2), 231-251.
Velicer, W. F., & Jackson, D. N. (1990a). Component analysis versus common factor
analysis: Some further observations. Multivariate Behavioral Research, 25(1), 97-114.
Velicer, W. F., & Jackson, D. N. (1990b). Component analysis versus common factor
analysis: Some issues in selecting an appropriate procedureq. Multivariate Behavioral
Research, 25(1), 1-28.
West, S. G., Finch, J. F., & Curran, P. J. (1995). Structural equation models with nonnormal
variables. In R. H. Hoyle (Ed.), Structural equation modeling: Concepts, issues, and
applications (pp. 56-75). Newbury Park, CA: Sage Publications.
Widaman, K. F. (1990). Bias in pattern loadings represented by common factor analysis and
component analysis. Multivariate Behavioral Research, 25(1), 89-95.
Zwick, W. R., & Velicer, W. F. (1986). Comparison of five rules for determining the number
of components to retain. Psychological Bulletin, 99(3), 432-442.
42
12. Annexes
Nous présentons ci-dessous, de manière non-exhaustive, les spécificités et options de trois
logiciels permettant de réaliser des analyses factorielles exploratoires et/ou analyses en
composantes principales.
12.1. Analyse factorielle exploratoire ou en composantes principales avec FACTOR 7
Ce logiciel (Lorenzo-Seva & Ferrando, 2006) réalise exclusivement des EFA ou PCA et
incorpore plusieurs procédures et indices qui sont très utiles. Ce logiciel est disponible
gratuitement à l’adresse suivante : http://psico.fcep.urv.es/utilitats/factor/
Description des options offertes par le logiciel
Les matrices d’association que traite le logiciel sont de trois types : corrélation de type
Pearson, covariance ou polychorique. Cette dernière est adaptée aux données binaires ou
ordinales. Afin de déterminer le nombre de facteurs ou de composantes, trois procédures sont
proposées : le Minimum Average Partial Test de Velicer (MAP ; voir 5.7.), l’analyse parallèle
(PA ; voir 5.8.) et l’analyse parallèle avec bootstrap (PA-MBS). Demander les trois indices
successivement permet de s’assurer du nombre de dimensions à extraire et c’est une solution
qui a le mérite d’être objective. Ces indices doivent être demandé pour une matrice de
corrélations de type Pearson (même si ce n’est pas véritablement le cas) car le logiciel ne peut
pas appliquer ces procédures sur des matrices de corrélations de type polychoriques. Les
méthodes d’extractions suivantes peuvent être utilisées : PCA, Unweighted Least Square
(ULS) et exploratory ML (EML), ainsi que maximum rank factor analysis (MRFA). En outre,
les méthodes de rotations sont très nombreuses et ne seront pas détaillées ici (voir la section 4
pour une description de certaines de ces méthodes).
Description de l’output
L’output fourni par le logiciel est très riche. Il contient successivement : les statistique
descriptives des items, les statistiques descriptives multivariées (coefficient de Mardia pour
l’asymétrie et la voussure multivariées qui permet de tester le postulat de normalité
multivariée pour utiliser la méthode ML), les trois tests d’adéquation de la matrice de
corrélation servant d’input (voir 3.4), plusieurs indices d’adéquation (si les méthodes ULS ou
EML sont utilisées) : le χ2, le NNFI, CFI, GFI, AGFI, RMSEA et le estimated noncentrality
parameter20, la fidélité des facteurs, la distribution des résidus et le RMSR, les indices de
20 Pour une description des valeurs considérées adéquates pour ces indices, voir Schermelleh-Engel et al. (2003)
43
simplicité de Bentler et le Loading Simplicity index21 et finalement les corrélations inter-
facteurs. Les données doivent être au format Fixed ASCII (.dat) et chaque colonne séparée par
un espace unique.
Les avantages et inconvénients
Les avantages sont sa simplicité d’utilisation, l’étendue des options et coefficients qu’il
fournit et la richesse de son output. Par contre, ses principaux inconvénients sont
premièrement qu’il n’est pas possible d’introduire le nom des variables et par conséquent il
faut travailler avec des variables nommées V1, V2, … Vi. Cette limite sera toutefois corrigée
dans la prochaine version. Deuxièmement, le logiciel n’accepte pas de jeu de données dans
lequel une partie des données sont manquantes.
12.2. Analyse factorielle exploratoire avec Mplus
Ce logiciel permet toutes sortes d’analyses statistiques avec des variables latentes. Les
analyses factorielles exploratoires ne sont donc qu’une des nombreuses possibilités offertes.
Description des options offertes par le logiciel
Seuls des EFA sont possibles car la PCA n’est pas une procédure liée aux variables latentes.
Les méthodes d’extraction disponibles sont nombreuses. Parmi elles : ML, différentes
variantes de la méthode ML, WLSV (tout particulièrement adaptée pour les variables
catégorielles ou ordinales) et ULS. Un scree plot peut être demandé. En outre, il est entre
autres possible de réaliser des analyses avec des données manquantes ainsi que d’explorer si
plusieurs sous-groupes existent dans les données (analyses en classes latentes).
Description de l’output
Mplus fournit dans l’output les solutions suites à chacune des rotations Varimax et Promax
entre autres. Les corrélations entre facteurs sont données pour la solution Promax. Mplus
fournit uniquement la matrice de pattern. L’Output fournit également les variances résiduelles
pour chaque variable, qui permettent facilement de calculer les communautés (h2=1-variance
résiduelle).
21 Cet indice, développé par Lorenzo-Seva (2003), permet de qualifier la simplicité de la matrice contenant les
saturations obtenues après rotation. Plus sa valeur s’approche de 1, plus la solution peut être qualifiée de simple.
Au contraire, plus sa valeur s’approche de 0, plus la solution sera jugée complexe. L’indice ne se compare pas à
un seuil, mais il permet de comparer : a) différentes solutions factorielles pour une même matrice de corrélation
ayant subie une même rotation ou b) une même solution factorielle ayant subie différentes rotations.
44
Avantages et inconvénients
L’avantage majeur est la méthode Weighed Least Square Means and Variance adjusted
(WLSMV) que propose le logiciel pour les variables catégorielles. Parmi les inconvénients,
relevons en particulier que les pourcentages expliqués par les valeurs propres ne sont pas
mentionnés22. En outre, il faut se familiariser avec les commandes de la syntaxe.
12.3. Analyse factorielle exploratoire ou en composantes principales avec SPSS
Description des options offertes par le logiciel
Afin de demander une EFA ou PCA, il faut passer par le menu Analyze/Data
reduction/factor… Les options offertes sont alors, de façon non exhaustive, les suivantes (les
termes soulignés représentent les titres des « boîtes » dans le logiciel) :
Descriptives : notamment les trois tests de la matrice de corrélation (cf 3.4)
Extraction : - PCA, ULS, Generalized Least Square, ML, Principal axis factoring, Alpha
factoring et Image factoring ;
- possibilité de demander un Scree plot
- l’option par défaut est l’extraction d’un nombre de facteurs correspondant
au nombre de valeurs propres >1.
Rotation : les rotations suivantes sont disponibles Varimax, Direct Oblimin, Quartimax,
Equamax, Promax ;
Factor scores : Trois méthodes permettent de créer un score factoriel pour chaque sujet.
- Anderson-Rubin : produit des scores non inter-corrélés même si les facteurs
sont eux-mêmes corrélés. Donne des scores avec une moyenne de 0 et un
écart-type de 1.
- Bartlett : proche de l’approche régression
- Régression : produit des scores le plus fortement corrélés avec les facteurs.
Même dans le cas de facteurs orthogonaux, les scores factoriels sont souvent
inter-corrélés.
Options : notamment remplacer les données manquantes par la moyenne.
Description de l’output
Sont tout d’abord affichés le déterminant de la matrice, le KMO et le test de sphéricité de
Bartlett. Ensuite, figurent les tableaux des communautés puis des valeurs propres avec la part
de variances qu’explique chacune et leur cumul. Les matrices avant rotation (factor matrix ou
22 Ceci est justifié par le fait que l’objectif de l’analyse factorielle n’est pas d’expliquer la variance mais
d’expliquer les corrélations. Ceci n’était pas clair dans les premières conceptions de l’analyse factorielle qui
s’appuyaient sur la PCA.
45
component matrix respectivement dans les cas d’une EFA ou PCA), de pattern (si une rotation
oblique est effectuée), de structure et finalement des corrélations entre facteurs (si une
rotation oblique est effectuée) sont données.
Avantages et inconvénients
Les principaux avantages de l’utilisation de SPSS pour réaliser des EFA/PCA sont la
simplicité d’utilisation du logiciel et son caractère user-friendly, la rapidité des calculs et le
fait qu’il ne soit pas nécessaire de changer de logiciel pour passer à d’autres types d’analyses.
En outre, SPSS offre la possibilité de substituer les données manquantes par la moyenne pour
réaliser l’analyse. Toutefois, étant donné que SPSS réalise des analyses factorielles
uniquement avec des données continues, il est conseillé que les items aient au minimum sept
niveaux (catégories de réponses) afin de considérer que les données sont de type continu.
Dans le cas contraire, FACTOR ou Mplus seraient plus appropriés car ils gèrent les données
catégorielles (ordinales ou binaires), que ce soit avec l’utilisation d’une matrice de corrélation
polychorique ou avec l’estimateur WLSMV. Toutefois, des EFA/PCA avec des variables
ordinales à quatre catégories ou plus sont souvent effectuées avec SPSS en utilisant une
méthode d’extraction telles que Unweighted least square ou Principal axis factoring.
Finalement, signalons que des PCA avec données catégorielles peuvent être réalisées par les
procédures d’échelonnement multidimensionnel.
12.4. Recommandations pour le choix d’un logiciel
Au-delà de la question de la disponibilité des logiciels, le choix d’un logiciel parmi les trois
décrits ci-dessus peut se baser sur les objectifs du chercheur. Si l’objectif est de réaliser une
série d’analyses statistiques dont l’EFA/PCA ne représente qu’une étape et que le chercheur
ne travaille pas avec des modèles d’équations structurales, il est conseillé d’utiliser SPSS. En
effet, le chercheur n’aura ainsi pas à changer de logiciel. Pour le chercheur qui souhaite
réaliser des analyses avancées sur les qualités psychométriques d’un instrument en étudiant la
structure factorielle, il est conseillé d’utiliser Mplus. Ainsi le chercheur peut notamment
utiliser la méthode « CFA dans un cadre EFA » (cf. 8.1) et réaliser des EFA pour plusieurs
sous-groupes. Pour le chercheur qui souhaite simplement étudier la structure factorielle d’un
instrument ainsi que la fidélité des facteurs ou composantes, FACTOR sera le logiciel le plus
adapté.