Un test statistique permet soit d'effectuer des comparaisons de résultats statistiques (moyennes, médianes, rangs, fréquences...) à des valeurs théoriques soit de les comparer entre-eux pour une ou plusieurs variables. En fonction du type des variables, les conditions d'application des tests sont plus ou moins faciles à vérifier...
On compare en général des séries de valeurs (bien que parfois on ne dispose plus des valeurs mais seulement des résumés statistiques) que ce soit des séries de valeurs correspondant à des sous-populations d'une même population donnée pour une même variable (comme l'age des hommes et l'age des femmes dans le cadre d'une enquête de satisfaction) ou des séries de valeurs pour une même variable sur deux populations distinctes (comme le taux de guérison pour des malades dans deux départements différents). C'est pourquoi on dit souvent qu'on ne compare pas directement les variables mais plutôt qu'on les compare à travers les [sous-]populations, bien qu'on puisse parler
- de relation entre variables quantitatives
- d'indépendance entre variables qualitatives
- liaison entre variables quantitatives et variables qualitatives
On distingue les séries appariées dites aussi dépendantes (comme des mesures avant et après pour les individus d'une même population) des séries indépendantes (comme les rats jeunes et les rats agés). On pourra consulter l'article TVTCR (Thoracoscopie versus thoracotomie en chirurgie rachidienne) comme un exemple d'article qui décrit et utilise l'analyse de séries appariées.
Lorsque les variables sont quantitatives, lorsqu'on a "suffisamment" de valeurs (c'est à dire au moins 50), lorsque l'hypothèse de normalité sous-jacente s'applique, etc. on utilise des tests paramétriques de comparaison de moyennes comme le test t, le test Z, l'anova à un ou plusieurs facteurs, la manova, l'anova sur valeurs répétées, la comparaison de variances, l'analyse de la corrélation au sens de Pearson, la régression -- linéaire ou non, simple ou multiple...
Si par contre on dispose de peu de valeurs, si les conditions d'application du test comme la normalité, l'hétéroscédasticité, l'homoscédasticité, la variégalité... ne sont pas respectées, on fait appel aux tests non paramétriques (ou plus exactement distribution free, comme ils disent... c'est à dire sans hypothèse sous-jacente de distribution explicite de la variable) comme le test de Wilcoxon, de Mann-Whitney, de Kruskal-Wallis, de Friedman, l'analyse de corrélation au sens de Spearman, le test de Fisher, de Mac Nemar, de Cochrane...
Il n'est pas toujours simple de savoir dans quelle situation on est avant de choisir le test à utiliser. C'est pourquoi de nombreux sites proposent des tableaux de synthèse. Par exemple nous conseillons de lire la page de graphpad ou cellle de l'ucla qui présente dans sa page whatstat l'utilisation de SPSS pour effectuer la plupart des tests traditionnels.
Plutot que de détailler les tests dans le cadre d'études médicales, nous préférons fournir le lien http://www.spieao.uhp-nancy.fr/~kohler/PlanStatPCEM1.htm et plutot que d'insister sur SPSS, nous fournissons le lien http://www.stat.tamu.edu/spss.php ; par contre nous allons présenter quelques études de cas :
QL / QL comparaison d'effectifs test du chi-deux QT avant la comparaison de moyennes tests de normalité QT / QL comparaison de plus de 2 moyennes anova à un facteur On trouvera dans le répertoire demoSpss tous les fichiers et scripts pour refaire ces analyses en Spss. En particulier on lira attentivement howto_spss.txt pour les manipulations et demochu.txt pour les scripts.
Pour les calculs de validation diagnostique, on pourra utiliser notre page nommée VD et pour une liste longue mais non exhaustive, utliser la page testcompar.
Retour à la page principale de (gH)