Analyse de la variance (ANOVA): qu'est-ce que c'est et comment est-il utilisé dans les statistiques
En statistique, lorsque les moyennes de deux échantillons ou plus sont comparées par rapport à une variable d'intérêt (par exemple, l'anxiété après traitement psychologique), des tests permettent de déterminer s'il existe ou non des différences significatives entre les moyennes.
L'un d'eux est l'Analyse de Variance (ANOVA). Dans cet article, nous saurons en quoi consiste ce test paramétrique et quelles hypothèses doivent être remplies pour l'utiliser.
- Article associé: "Psychologie et statistiques: l'importance des probabilités en sciences du comportement"
Analyse de Variance (ANOVA): qu'est-ce que c'est ?
En statistique, on retrouve le concept d'Analyse de Variance (ANOVA), qui consiste à un regroupement de modèles statistiques et de leurs procédures associées, où la variance est partitionnée en certaines composantes, en raison de diverses variables explicatives. Si nous décomposons son acronyme en anglais, ANOVA signifie: ANalysis Of Variance.
L'Analyse de Variance (ANOVA) est un type de test paramétrique
. Cela signifie qu'une série d'hypothèses doivent être remplies pour l'appliquer, et que le niveau de la variable d'intérêt doit être, au moins quantitatif (c'est-à-dire au moins intervalle, par exemple QI, où il y a un 0 relatif).Analyse des techniques de variance
Les premières techniques d'analyse de la variance ont été développées dans les années 1920 et 1930 par R.A. Fisher, statisticien et généticien. C'est pourquoi l'analyse de variance (ANOVA) également connu sous le nom de « Fisher's Anova » ou « analyse de la variance de Fisher »; cela est également dû à l'utilisation de la distribution F de Fisher (une distribution de probabilité) dans le cadre du test d'hypothèse.
Analyse de variance (ANOVA) découle des concepts de régression linéaire. La régression linéaire, en statistique, est un modèle mathématique utilisé pour approximer la relation de dépendance entre un variable dépendante Y (par exemple anxiété), les variables indépendantes Xi (par exemple différents traitements) et un terme Aléatoire.
- Cela peut vous intéresser: "Distribution normale: qu'est-ce que c'est, caractéristiques et exemples en statistiques"
Fonction de ce test paramétrique
Ainsi, une analyse de variance (ANOVA) sert à déterminer si différents traitements (par exemple, des traitements psychologiques) présentent des différences significatives, ou si, au contraire, on peut établir que leurs populations moyennes ne diffèrent pas (elles sont pratiquement les mêmes, ou leur différence n'est pas significative).
En d'autres termes, l'ANOVA est utilisée pour tester des hypothèses sur les différences moyennes (toujours plus de deux). L'ANOVA implique une analyse ou une décomposition de la variabilité totale; ceci, à son tour, peut être attribué principalement à deux sources de variation :
- Variabilité intergroupe
- Variabilité ou erreur intragroupe
Types d'ANOVA
Il existe deux types d'analyse de variance (ANOVA):
1. Anova I
Lorsqu'il n'y a qu'un seul critère de classement (variable indépendante; par exemple, type de technique thérapeutique). À son tour, il peut être intergroupe (il existe plusieurs groupes expérimentaux) et intragroupe (il n'y a qu'un seul groupe expérimental).
2. Anova II
Dans ce cas, il y a plus d'un critère de classification (variable indépendante). Comme dans le cas précédent, cela peut être intergroupe et intragroupe.
Caractéristiques et hypothèses
Lorsque l'analyse de variance (ANOVA) est appliquée dans des études expérimentales, chaque groupe se compose d'un certain nombre de sujets, et les groupes peuvent différer dans ce nombre. Lorsque le nombre de sujets coïncide, on parle de modèle équilibré ou équilibré.
En statistique, pour appliquer l'analyse de variance (ANOVA), une série d'hypothèses doivent être remplies :
1. Normal
Cela signifie que les scores sur la variable dépendante (par exemple, l'anxiété) doivent suivre une distribution normale. Cette hypothèse il est vérifié au moyen de ce que l'on appelle des tests d'adéquation.
2. Indépendance
Cela implique qu'il n'y a pas d'autocorrélation entre les scores, c'est-à-dire qu'il existe une indépendance des scores les uns par rapport aux autres. Pour assurer le respect de cette hypothèse, nous devrons effectuer un MAS (échantillonnage aléatoire simple) sélectionner l'échantillon que nous allons étudier ou sur lequel nous allons travailler.
3. Homocédasticité
Ce terme signifie « égalité des variances des sous-populations ». La variance est une statistique de variabilité et de dispersion, et augmente d'autant plus la variabilité ou la dispersion des scores.
L'hypothèse d'homoscédasticité est vérifiée à l'aide du test de Levene ou de Bartlett. En cas de non-respect, une autre alternative consiste à effectuer une transformation logarithmique des scores.
Autres hypothèses
Les hypothèses ci-dessus doivent être satisfaites lorsque l'analyse de la variance intergroupe (ANOVA) est utilisée. Cependant, lors de l'utilisation d'une ANOVA intragroupe, les hypothèses ci-dessus et deux autres doivent être respectées :
1. Sphéricité
Si elle n'est pas remplie, cela indiquerait que les différentes sources d'erreur sont en corrélation les unes avec les autres. Une solution possible si cela se produit est d'effectuer une MANOVA (Analyse multivariée de la variance).
2. Additivité
Il ne suppose aucune interaction sujet x traitement; si elle n'est pas respectée, la variance d'erreur augmenterait.
Références bibliographiques:
- Bottle, J., Sueró, M., Ximénez, C. (2012). Analyse de données en psychologie I. Madrid: Pyramide.
- Fontes de Gracia, S. Garcia, C. Quintanilla, L. et al. (2010). Fondements de la recherche en psychologie. Madrid.
- Martínez, M.A. Hernández, M.J. Hernández, M.V. (2014). Psychométrie. Madrid: Alliance.