L’analyse d’items
l’analyse d’items désigne l’ensemble des méthodes statistiques utilisées pour évaluer la qualité de chaque question d’un test et sélectionner les meilleurs items (à inclure, retirer ou maintenir). Ces analyses visent à déterminer dans quelle mesure chaque item contribue efficacement à la mesure du construit latent, à la cohérence interne de l’échelle et à la comparabilité des résultats entre les répondants
Statistiques les plus fréquemment utilisées
Statistiques les plus fréquemment utilisées
Les moyennes et écarts-types (Item Statistics)
pour évaluer la tendance centrale et la dispersion des réponses à chaque item ;
-> C’est important de connaître les moyennes (si elles sont extrêmes, il faut modifier le test et qu’elles sont les items avec des moyennes élevées)
Statistiques les plus fréquemment utilisées
corrélations inter-items (Correlation Matrix)
pour examiner les relations entre les différents items et détecter les redondances ou incohérences ;
-> Permet de savoir la corrélation entre 2 items et s’ils mesurent la même chose (donc favoriser un contenu, ce qui est pas correct)
-> Corrélation inter-items forte = plus de variance (en théorie) mais c’est une augmentation artificielle
Statistiques les plus fréquemment utilisées
modèle de fidélité interne (Alpha de Cronbach ordinal ou équivalents)
pour estimer la cohérence de l’ensemble des items mesurant un même construit
o Joue un rôle central dans l’analyse des items d’un questionnaire.
o Cronbach (1956) :
- Les items doivent être cohérents entre eux.
- Si ce n’est pas le cas → problème dans la structure du test.
- Avait proposé un seuil minimal de 0,8 pour l’alpha.
o Révision ultérieure → seuil abaissé à 0,7.
o Aujourd’hui : on considère 0,7 comme la valeur minimale acceptable de cohérence interne.
o Repose sur l’hypothèse de tau-équivalence (limite)
- Suppose que tous les items ont la même importance pour le construit.
- En réalité, cette condition est rarement respectée.
o Oméga de McDonald (ω) :
- Tient compte de l’importance réelle de chaque item.
- Estime plus précisément la fidélité interne.
o Tendance actuelle :
- Remplacer l’alpha de Cronbach par l’oméga de McDonald.
- L’oméga est considéré comme la mesure de fidélité interne la plus fiable.
Statistiques les plus fréquemment utilisées
Les indices de discrimination (D)
indique dans quelle mesure l’item distingue les personnes. Un bon item est celui que les meilleurs répondants ont tendance à réussir et que les moins bons ont tendance à échouer
Statistiques les plus fréquemment utilisées
corrélations item-total corrigées (Item-Total Statistics)
o Les corrélations item-total corrigées (Item-Total Statistics) : pour identifier les items qui contribuent faiblement ou négativement à la fidélité du test ;
Mesurent le lien entre un seul item et le score total de tous les autres items d’une échelle. Elles permettent d’évaluer la pertinence d’un item en montrant s’il mesure le même construit que les autres, et une valeur élevée indique une forte corrélation positive, tandis qu’une valeur faible peut suggérer que l’item devrait être supprimé
- Les indices de difficulté (p) : indique combien de personnes ont réussi l’item. Valeur élevée = item facile ; valeur faible = item difficile ;
Statistiques les plus fréquemment utilisées
Les statistiques de suppression d’item (Omega if item deleted)
pour estimer l’effet de la suppression d’un item sur la fidélité globale du test.
On supprime un item à la fois et on recalcule le coefficient (alpha ou oméga).
Si la suppression augmente la valeur du coefficient, l’item en question diminue la cohérence du test → il peut être problématique.
Si la suppression diminue le coefficient, l’item contribue positivement à la cohérence interne → il doit être conservé.
Analyse d’items
Quel est le rôle de l’analyse d’items
Concepts fondamentaux
Les corrélations en analyse d’items :
Concepts fondamentaux
Théorie classique des tests
Les chercheurs appliquent ensuite diverses procédures statistiques basées sur les corrélations afin d’éliminer les items les moins performants ou redondants.
Concepts fondamentaux
Selon la théorie classique des tests (TCT), un item peut être retiré si les réponses :
Concepts fondamentaux
situer l’analyse d’items dans le processus global de développement d’un instrument psychométrique
Concepts fondamentaux
Contextualisation dans le processus de construction d’un test
situer l’analyse d’items dans le processus global de développement d’un instrument psychométrique
o L’analyse d’items intervient après la rédaction initiale des items (analyse de contenu) et avant la validation factorielle (analyse dimensionnelle).
Concepts fondamentaux
Objectif fondamental
situer l’analyse d’items dans le processus global de développement d’un instrument psychométrique
o Identifier les questions qui mesurent de façon précise, cohérente et discriminante le construit visé, tout en éliminant celles qui ajoutent du bruit ou de la redondance statistique
Concepts fondamentaux
Distinction entre analyses qualitatives et quantitatives
situer l’analyse d’items dans le processus global de développement d’un instrument psychométrique
o L’analyse d’items combine une phase qualitative (évaluation du contenu, de la clarté et de la pertinence des items) et une phase quantitative (analyses statistiques fondées sur les réponses empiriques).
Concepts fondamentaux
Nature empirique et logique itérative
situer l’analyse d’items dans le processus global de développement d’un instrument psychométrique
o L’analyse d’items est un processus itératif : les résultats statistiques guident les révisions, suivies de nouvelles collectes de données jusqu’à l’obtention d’un ensemble d’items stables et performants.
Concepts fondamentaux
Transition vers la validité et la fidélité
situer l’analyse d’items dans le processus global de développement d’un instrument psychométrique
o Cette étape constitue la première vérification empirique du test, puisqu’elle permet de vérifier la cohérence interne, la précision et la structure préliminaire de la mesure.
Mesures et interprétations
Calcul d’un coefficient de corrélation
x=différence entre le X et la moyenne M (same pour y)
x au carré = multiplier le x par lui-même (pour annuler les signes négatifs)
xy= x multiplier par y
ET = racine carré de (x2 divisé par n)
on parle ici d’une corrélation de Pearson
Si on change la moyenne par une médiane c’est une corrélation colichorique/ polychorique
Tétrachorique si on change la moyenne par le mode
Corrélation polychorique = on utilise la médiane
Mesures et interprétations
La variabilité est-elle adéquate ou pas ?
a. Si l’écart-type est plus petit que la moitié de la valeur de la moyenne c’est la première indication que oui nous avons probablement une variabilité adéquate (check le Mean par rapport à Variance)
i. Variance = ET au carré
b. La valeur de la variance doit etre plus grande que la moyenne : variabilité est adéquate
c. 5.7 doit être plus petit que 15.10
d. 33 plus grand que 15
2. Omega au dessus de 7 : haut niveau de précision
Mesures et interprétations
Analyse parallèle
Analyse d’item qui démontre que l’ensemble de 8 items donne un niveau de précision de 0.6 (si je retire un item les résultats de précisions augmentent
* Est-ce que les items ici mesurent vraiment une dimension (ou plusieurs) ?
o Les analyses parallèles permettent de répondre à cette question
Les analyses parallèles :
* Le pourcentage de variance des données donne pour item 1 59.88%
o Si le 59 est plus grand que 20 et 23 (ligne d’à côté) alors il teste une seule dimension
o Ca veut dire un seul construit psychosocial est mesuré ici
Rôle des moyennes et des écarts-types dans l’analyse d’items:
Rôle des corrélations inter-items dans l’analyse d’items:
Rôle des modèles de fidélité interne (Oméga) dans l’analyse d’items: