Aller au contenu

Test statistique

Un article de Wikipédia, l'encyclopédie libre.

Enstatistiques,untest,outest d'hypothèse,est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appeléehypothèse nulle,en fonction d'unéchantillonde données.

Il s'agit destatistique inférentielle:à partir de calculs réalisés sur des données observées, on émet des conclusions sur lapopulation,en leur rattachant des risques d'être erronées.

Hypothèses du test[modifier|modifier le code]

Définitions[modifier|modifier le code]

L'hypothèse nulle notéeH0est celle que l'on considère vraie a priori. L’hypothèseest donc privilégiée et il faut des observations très éloignées de cette hypothèse pour la rejeter. Le but du test est de décider si cette hypothèseest a priori crédible. L'hypothèse alternative notéeH1est l'hypothèse complémentaire à l'hypothèse nulle.

Ces deux hypothèses ne sont toutefois pas symétriques.H1est choisie uniquement par défaut siH0n'est pas considérée comme crédible,étant l'hypothèse dont le rejet à tort est le plus préjudiciable. Le choix deH0et deH1est en général imposé par le test que l'on utilise et ne relève donc pas de l'utilisateur.

Écriture des hypothèses: exemple[modifier|modifier le code]

Soitμ1etμ2les moyennes de tension artérielle de deuxpopulations,l'une correspondant à la prise demédicamentset l'autre de placebo. Une manière de démontrer qu'un médicament modifie la tension artérielle est de montrer queμ1est différent deμ2.Les hypothèses du test deviennent alors

H0:les moyennes des deux populations sont égales
H1:les moyennes des deux populations sont différentes.

On l'écrit succinctement sous la forme:

Toutefois les signes=,,etdans l'écriture succincte des hypothèses ne correspond pas à l'égalité ou aux inégalités au sens mathématique du terme. Il s'agit d'une façon d'écrire:

H0:Il est crédible de penser queμ1=μ2
H1:μ1est significativement différente deμ2

Cependant, il convient également de faire attention auxfluctuations d'échantillonnage.En effet, lors de la réalisation d'un test on utilise le plus souvent des échantillons pour effectuer les calculs. On utilisera donc les moyennesetcalculées à partir des échantillons et qui ne sont donc que des estimations deμ1etμ2(voirtaille d'effet).

Statistique du test[modifier|modifier le code]

Lastatistique de testSest une fonction qui résume l'information sur l'échantillon que l'on souhaite tester. On la choisit de façon à connaître sa loi sousH0.

Sest unevariable aléatoire,définie indépendamment des données observées. La valeur que prend cette variable aléatoire pour les données observées est appeléestatistique observéeet est notéeSobsdans la suite de l'article.

Suivant le type de statistique choisi, le test sera paramétrique ou non paramétrique.[Quoi?]

Construction d'un test[modifier|modifier le code]

La construction mathématique d'un test se fait grâce aulemme de Neyman-Pearsonet nous donne la forme de la région de rejet.

Région de rejet et latéralité[modifier|modifier le code]

Larégion de rejetest le sous-ensembleIdetel qu'on rejetteH0siSobsappartient àI.La forme de la région de rejet définit la latéralité du test:

  • Test bilatéral:On veut rejeterH0siSobsest trop grand ou trop petit, sans a priori. La région de rejet est alors de la forme.
  • Test unilatéral à droite: On veut rejeterH0seulement siSobsest trop grand. La région de rejet est alors de la forme.
  • Test unilatéral à gauche: On veut rejeterH0seulement siSobsest trop petit. La région de rejet est alors de la forme.

Probabilité critique[modifier|modifier le code]

La probabilité critique (ou valeur p) est la probabilité, sousH0,que la statistique soit au moins aussi éloignée de son espérance que la valeur observée. En d'autres termes, c'est la probabilité d'observer quelque chose d'au moins aussi surprenant que ce que l'on observe.

Erreur de type I et II[modifier|modifier le code]

Risque de première espèce et confiance[modifier|modifier le code]

Lerisque de première espèceαest la probabilité sousH0de la région de rejet. En d'autres termes, il s'agit de la probabilité que l'on accepte de déciderH1si la vérité estH0.

La quantité1 –αest la confiance du test. En d'autres termes, une proportionαdes situations dans lesquelles la vérité estH0verront une décision du test en faveur deH1.αest la probabilité avec laquelle on accepte de se tromper[Sur quoi?]quand la vérité estH0[pas clair].

On peut comparer lavaleur pàαplutôt queSobset la région de rejet[pas clair].

  • Si la valeur p est supérieure àα,il n'est pas exceptionnel sousH0d'observer la valeur effectivement observée. Par conséquent,H0n'est pas rejetée.
  • Si la valeur p est inférieure àα,la valeur observée est jugée exceptionnelle sousH0.On décide alors de rejeterH0et de validerH1.

Cette méthode possède l'avantage de permettre de se rendre compte à quel point la décision du test est sûre: la position de la valeur p par rapport àαne dépend pas de l'échelle des données, contrairement àSobset au(x) seuil(s) de la région de rejet.

Les valeurs du risqueαcouramment utilisées varient généralement entre 0,01 et 0,05. Dans le cas devariables continues,on peut choisir une valeur arbitraire deαet obtenir une région de rejet présentant exactement le risqueα.Dans le cas devariables discrètes,le nombre de région de rejet, et donc de risques possibles, est fini et dénombrable. Dans ce cas, on fixe un risque, ditrisque nominalpar exemple de 5 %. On cherche alors la plus grande région ne dépassant pas ce risque, qui devient alors la région de rejet. Le véritable risque, dit risque réel peut alors être recalculé.

Risque de deuxième espèce et puissance[modifier|modifier le code]

Lerisque de deuxième espèceβest la probabilité de ne pas rejeterH0alors que la vérité estH1.Il s'agit d'un risque qui n'est pas fixé a priori par le test, et il est souvent difficile à estimer. On prend ce risque lorsqu'on accepte l'hypothèseH0.

La quantité1 –βest la puissance du test[1].


Choix deαetβ[modifier|modifier le code]

Pour se représenter ces différentes notions, on peut les représenter au travers du tableau suivant:

Tableau permettant de différencier les deux types de risques.
Tableau permettant de différencier les deux types de risques.

Le choix deαet deβse fait de façon assez arbitraire car si l'on cherche à en diminuer un l'autre va automatiquement augmenter. On définit généralement le risqueαde façon arbitraire et la valeur du risqueβs'ajuste automatiquement. Ce choix détermine alors une valeur seuil (notéeSsur le schéma) qui représente la valeur de bascule pour lastatistiquedu test entre les deux décisions (rejet ou non-rejet deH0). Le graphique suivant tente de représenter visuellement ces risques, la courbe noire représente la loi icinormalede la statistique du test sous l'hypothèseH0et la courbe bleue représente la loi icinormalede la statistique du test sous l'hypothèseH1.

Graphique représentant les deux risques.
Graphique représentant les deux risques.

Si l'échantillon reste inchangé, une diminution deαentraîne une augmentation deβet inversement. Autrement dit, si on décide de réduire le nombre defaux positifs,on augmente le nombre defaux négatifs.La seule manière d'améliorer les deux critères est d'augmenter la taille de l'échantillon.

Courbe de puissance[modifier|modifier le code]

Pour déterminer la puissance d'un test, il faut connaître la loi de la statistiqueSsousH1,ce qui n'est généralement pas le cas. On recourt alors à des courbes de puissance qui sont des courbes pour lesquelles la puissance est calculée pour des valeurs données des paramètres du problème ou de la taille de l'échantillon. On ne sait pas où se situe la situation réelle sur cette courbe mais on y lit la probabilité de détecterH1en fonction de son « éloignement » deH0.

Tests classiques et tests bayésiens[modifier|modifier le code]

Pour les tests classiques qui constituèrent longtemps[Quand?]l'essentiel des tests statistiques, ces deux erreurs jouent un rôleasymétrique.On contrôle uniquement le risque de première espèce à un niveauα(principe de Neyman); cela revient à considérer que le risque de rejeter l'hypothèse nulle alors que cette hypothèse est vraie est beaucoup plus coûteux que celui de la conserver à tort (ce dernier risque n'étant pas maîtrisé).

Les testsbayésiens,qui commencent à compléter les méthodes classiques dans lesannées 1970à mesure que se répandent les ordinateurs, pondèrent ces deux risques en représentant par une loi la connaissance incertaine de cette probabilité. Si on cherche par exemple à tester le fait qu'un certain paramètreθvaut une certaine valeurθ0cette probabilitéa priorisera une loi deθsur son domaine de plausibilité. Cette loia priorimodélise l'incertitude admise sur sa valeur. Les tests correspondants utilisent en coulisses des calculs plus complexes, mais sans difficulté de mise en œuvre supplémentaire quand ils sont effectués par dessous-programmes.Ils nécessitent de choisir une loia priori,répondant aux contraintes connues, parmi celles d'entropie maximalepuis de l'affiner à mesure des observations en la mettant à jour par larègle de Bayes(voirThéorème de Cox-Jaynes). Leur mérite essentiel est de permettre la consolidation d'informations minuscules apportés par un grand nombre d'échantillons hétéroclites qui auraient chacun été considéré comme non significatif par les méthodes classiques. Cette consolidation permet d'obtenir des résultats utiles à partir d'observations très ténues. On l'utilise par exemple en cassage de codes, enanalyse d'imageet enreconnaissance vocale,ainsi qu'endeep learning.

Tests paramétriques et non paramétriques[modifier|modifier le code]

Définitions[modifier|modifier le code]

Untest paramétriqueest un test pour lequel on fait une hypothèse paramétrique sur la loi des données sousH0(loinormale,loi dePoisson...). Les hypothèses du test concernent alors les paramètres de cette loi.

Untest non paramétriqueest un test ne nécessitant pas d'hypothèse sur la loi des données.Les données sont alors remplacées par des statistiques ne dépendant pas desmoyennes/variancesdes données initiales (tableau de contingence,statistique d'ordre comme les rangs...).[pas clair]

Comment choisir?[modifier|modifier le code]

Les tests paramétriques, quand leur utilisation est justifiée, sont en général plus puissants que les tests non paramétriques. Les tests paramétriques reposent cependant sur l'hypothèse forte que l'échantillon considéré est tiré d'une population suivant une loi appartenant à une famille donnée. Il est possible de s'en affranchir pour des échantillons suffisamment grands en utilisant des théorèmesasymptotiquestels que lethéorème central limite.Les tests non paramétriques sont cependant à préférer dans de nombreux cas pratiques pour lesquels les tests paramétriques ne peuvent être utilisés sans violer les postulats dont ils dépendent (notamment dans le cas d'échantillons trop petits c'est-à-dire, par convention, quand l'effectif de l'échantillon est inférieur à 30). Les données sont également parfois récupérées sous forme de rangs et non de données brutes. Seuls les tests non paramétriques sont alors applicables.

Lorsque les données sont quantitatives, les tests non paramétriques transforment les valeurs en rangs. L’appellation « tests de rangs » est souvent rencontrée. Lorsque les données sont qualitatives, seuls les tests non paramétriques sont utilisables. La distinction paramétrique – non paramétrique est essentielle. Elle est systématiquement mise en avant dans la littérature. Les tests non paramétriques, en ne faisant aucune hypothèse sur les lois des données, élargissent le champ d’application des procédures statistiques. En contrepartie, ils sont moins puissants lorsque ces hypothèses sont compatibles avec les données.

Efficacité relative asymptotique[modifier|modifier le code]

On fixe une confiance1 –α,une puissance1 – β.Soitune suite d'hypothèses alternatives (se rapprochant deH0) etn1ketn2kles tailles d'échantillons pour queT1etT2(deux tests statistiques) aient la même puissance1 –βsous l'hypothèse.Sous certaines conditions, le quotienttend vers une constance, que l'on nomme efficacité relative asymptotique (ou ERA), quandktend vers l'infini.

Une ERA de 2 signifie que pour détecter la même différence, il faut asymptotiquement des échantillons deux fois plus grands pourT2que pourT1pour obtenir la même puissance, cela implique queT1est plus « efficace ». Cette mesure est asymptotique mais en pratique, l'efficacité pour des petits échantillons se révèle souvent proche de l'efficacité asymptotique.

Considérons l'exemple oùT1est letest du signepourH0:m= 0etT2est letest tpourH0:μ= 0,dans le cas de loissymétriques.On peut montrer que l'ERA est de2/π(donc inférieure à 1) pour des lois normales et supérieure à 1 pour d'autres lois comme lesdoubles exponentiellesou les lois deLaplace.Même en cas de validité des tests paramétriques, les tests non paramétriques peuvent donc être concurrentiels, d'autant plus que la puissance de calcul des ordinateurs actuels permet maintenant leur utilisation sur de grands échantillons.

Notions de sensibilité et de spécificité[modifier|modifier le code]

Distinctions préalables[modifier|modifier le code]

On distingue quatre types de données: lesfaux positifs,lesfaux négatifs,lesvrais positifset lesvrais négatifs.Ces quatre types se recoupent avec les notions décrites précédemment que sont le risqueα,le risqueβ,la puissance et la confiance.

Un vrai positif est un test qui a conduit à la décision d'accepter l'hypothèseH0quand cette dernière était effectivement vraie. Un vrai négatif est un test qui a conduit à la décision de ne pas accepter l'hypothèseH0quand cette dernière était effectivement fausse. À l'inverse, un faux positif est un test qui a conduit à la décision d'accepter l'hypothèseH0alors que cette dernière était fausse et un faux négatif est un test qui a conduit à la décision de ne pas accepter l'hypothèseH0alors que cette dernière était vraie. Ces notions sont très utilisées dans le cadre d'étudesépidémiologiques.

Sensibilité et spécificité[modifier|modifier le code]

La sensibilité d'un test désigne la probabilité que le test conclu à une acceptation deH0si cette dernière est vraie. Elle est donnée par.En épidémiologie, la sensibilité d'un test est sa capacité à identifier un individu comme étant malade si la maladie est effectivement présente.

La spécificité d'un test désigne la probabilité que le test conclu à un rejet deH0si cette dernière est fausse. Elle est donnée par.En épidémiologie, la spécificité d'un test est sa capacité à identifier un individu comme n'étant pas malade si la maladie n'est effectivement pas présente.

Mises ensemble, ces deux valeurs donnent une appréciation de la validité du test. Leur analyse séparée est inutile car un test ayant une sensibilité de 95 % n'est pas très bon si sa spécificité n'est que de 5 %. Si la somme de la sensibilité et de la spécificité vaut 100 % cela signifie que le test est sans intérêt. De plus, les valeurs de sensibilité et de spécificité d'un test dépendent beaucoup de la valeur seuil choisie. En effet, à l'instar des risquesαetβ,la sensibilité d'un test diminue quand sa spécificité augmente et inversement. Il convient donc également de choisir la valeur seuil selon l'utilisation que l'on désire faire du test. Un test très sensible sera utile pour vérifier queH0est vraie par exemple.

Valeur prédictive positive et valeur prédictive négative[modifier|modifier le code]

La valeur prédictive positive est la probabilité queH0soit vraie lorsque le test conclu à son acceptation. Elle est donnée par.

La valeur prédictive négative est la probabilité queH0soit fausse lorsque le test conclu à son rejet. Elle est donnée par.

Cependant, ces calculs sont valides uniquement si l'échantillon sur lequel est réalisé le test est représentatif de la population (cfÉchantillonnage). Ainsi, pour une même sensibilité et spécificité, la valeur prédictive négative d'un test donné va s'améliorer d'autant que la probabilité queH0soit vraie est faible et la valeur prédictive positive du même test va s'améliorer d'autant que la probabilité queH0soit vraie est élevée. Pour calculer les valeurs prédictives d'un test lorsque la représentativité de l'échantillon n'est pas certaine, on utilise des formulations reposant sur lethéorème de Bayes,en utilisant la sensibilité et la spécificité calculées sur l'échantillon et laprévalencede l'affection à diagnostiquer. Lorsqu’un test a une bonne valeur prédictive positive, c’est surtout quand son résultat est positif qu’il est fiable. De la même manière, un test avec une bonne valeur prédictive négative est fiable lorsque son résultat est négatif. Par exemple, un test avec une bonne valeur prédictive négative et une mauvaise valeur prédictive positive donne une information valable s’il est négatif mais est difficile à interpréter si son résultat est positif.

Tableau récapitulatif[modifier|modifier le code]

Tableau permettant de différencier les quatre types de tests
Tableau permettant de différencier les quatre types de tests

Courbe ROC[modifier|modifier le code]

La courbe ROC de trois estimateurs d'épitope.

La courbe ROC[2]est une représentation graphique qui vise à mettre en lumière la « performance » d'un test. On l'appelle égalementcourbe de performanceoucourbe sensibilité/spécificité.En abscisses de ce graphique on place l'anti-spécificité (c'est-à-dire 1-spécificité) aussi appelée « taux de faux positifs » et en ordonnées on place la sensibilité aussi appelée « taux de vrais positifs ». Cette courbe permet de comparer 2 tests entre eux ou bien de chercher les valeurs de sensibilité et de spécificité optimales (c'est-à-dire le moment où les 2 valeurs sont maximisées).

Déroulement d'un test[modifier|modifier le code]

Pour le cas spécifique d'un test unilatéral, le test suit une succession d'étapes définies:

  1. énoncé de l'hypothèse nulleH0et de l'hypothèse de remplacementH1;
  2. calcul d'unestatistique de test(variable de décision) correspondant à une mesure de la distance entre les deux échantillons dans le cas de l'homogénéité, ou entre l'échantillon et la loi statistique dans le cas de l'adéquation (ou conformité). Plus cette distance sera grande et moins l'hypothèse nulleH0sera probable. En règle générale, cette variable de décision s'appuie sur une statistique qui se calcule à partir des observations. Par exemple, la variable de décision pour un test unilatéral correspond à rejeter l'hypothèse nulle si la statistique dépasse une certaine valeur fixée en fonction du risque de première espèce;
  3. calcul de la probabilité, en supposant queH0est vraie, d'obtenir une valeur de la variable de décision au moins aussi grande que la valeur de la statistique que l'on a obtenue avec notre échantillon. Cette probabilité est appelée lavaleur p(p-value);
  4. conclusion du test, en fonction d'un risque seuil αseuil,en dessous duquel on est prêt à rejeterH0.Souvent, un risque de 5 % est considéré comme acceptable (c'est-à-dire que dans 5 % des cas quandH0est vraie, l'expérimentateur se trompera et la rejettera). Mais le choix du seuil à employer dépendra de la certitude désirée et de la vraisemblance des autres choix;
  5. si lavaleur pest plus petite queα,on rejette l'hypothèse nulle;
  6. si lavaleur pest plus grande queα,on peut utiliser la puissance1 – β,si elle est grande, on accepteH0;sinon le test est non concluant, ce qui revient à dire que l'on ne peut rien affirmer.

La probabilité pour queH0soit acceptée alors qu'elle est fausse est β, lerisque de deuxième espèce.C'est le risque de ne pas rejeterH0quand on devrait la rejeter. Sa valeur dépend du contexte, et peut être très difficilement évaluable (voire impossible à évaluer): c'est pourquoi le risque α est principalement utilisé comme critère de décision, on n'accepte que très rarementH0et la plupart du temps on conclut à un test non concluant si on ne rejette pasH0.

Le résultat d'un test comprend toujours une dose d'incertitude: on ne sait jamais si on a pris la bonne décision. La valeur p permet d'avoir une vision plus fine que sa simple comparaison avecα.En effet, plus elle est petite, plus l'évènement observé est surprenant sousH0.Ainsi pourα= 0,05,des valeurs p de 10–6et de 0,035 impliquent le rejet deH0mais avec des degrés de certitudes différents concernant la décision.

Catégories des tests[modifier|modifier le code]

Les tests peuvent être classés selon leur finalité, le type et le nombre des variables d’intérêt, l’existence d’hypothèsesa priorisur les lois des données, le mode de constitution des échantillons.

Les tests selon leur finalité[modifier|modifier le code]

La finalité définit l’objectif du test, les hypothèses que l’on veut opposer, l’information que l’on souhaite extraire des données.

Le test de conformité consiste à confronter un paramètre calculé sur l’échantillonà une valeur préétablie. On parle alors de test de conformité à un standard. Les plus connus sont certainement les tests portant sur la moyenne ou sur les proportions. Par exemple, dans un jeu de dés à six faces, on sait que la face 3 a une probabilité de 1/6 d’apparaître. On demande à un joueur de lancer (sans précautions particulières) 100 fois le dé, on teste alors si la fréquence d’apparition de la face 3 est compatible avec la probabilité 1/6. Si ce n’est pas le cas, on peut se poser des questions sur l’intégrité du dé.

Le test d’adéquation (ou d'ajustement) consiste à vérifier la compatibilité des données avec uneloichoisie a priori. Le test le plus utilisé dans cette optique est le test d’adéquation à laloi normale.On peut également tester la compatibilité des données avec une famille (paramétrée) de lois.

Le test d’homogénéité (ou de comparaison) consiste à vérifier queKéchantillons (groupes) proviennent de la même population. Ou, cela revient à la même chose, que la loi de la variable d’intérêt est la même dans lesKéchantillons.

Le test d’association (ou d’indépendance) consiste à éprouver l’existence d’uneliaisonentre deux variables. Les techniques utilisées diffèrent selon que les variables sont qualitatives nominales, ordinales ou quantitatives.

Les tests selon le type et le nombre de variables[modifier|modifier le code]

On distingue généralement trois principaux types de variables. Une variable qualitative nominale prend un nombre restreint de valeurs (modalités), il n’y a pas d’ordre entre ces valeurs, l’exemple le plus connu est le sexe, il y a deux valeurs possibles,homme et femme.Une variable qualitative ordinale prend un nombre restreint de valeurs, il y a un ordre entre les valeurs. Un exemple naturel est la préférence ou la satisfaction: peu satisfait, satisfait, très satisfait. Il y a un ordre naturel entre les valeurs, mais nous ne pouvons pas quantifier les écarts. Enfin, une variable quantitative prend théoriquement un nombre infini de valeurs, l’écart entre deux valeurs a un sens. Un exemple simple serait le poids, la différence de poids entre deux personnes est quantifiable, on sait l’interpréter.

Le type de données joue un rôle très important. Il circonscrit le cadre d’application des techniques. Pour un même objectif, selon le type de données, nous serons amenés à mettre en œuvre des tests différents. Par exemple, pour mesurer l’association entre deux variables: si elles sont quantitatives, nous utiliserons plutôt le coefficient de corrélation dePearson;si elles sont qualitatives nominales, ce coefficient de corrélation n’a pas de sens, on utilisera plutôt le coefficient de corrélation deSpearman,ou des mesures telles que le V de Cramer ou le t de Tschuprow.

Principalement concernant les tests de conformité et d’homogénéité, on dit que le test est univarié s’il ne porte que sur une variable d’intérêt (ex. comparer la consommation de véhicules selon le type de carburant utilisé), il est multivarié s’il met en jeu simultanément plusieurs variables (ex. la comparaison porte sur la consommation, la quantité de CO2émise, la quantité de particules émises, etc.).

Constitution des échantillons[modifier|modifier le code]

Ce point est surtout associé aux tests de comparaison. On parle d’échantillons indépendants lorsque les observations sont indépendantes à l’intérieur des groupes et d’un groupe à l’autre. C’est le cas lorsque l’échantillon provient d’un échantillonnage simple dans la population globale.

Les échantillons appariés en revanche reposent sur un schéma différent. D’un groupe à l’autre, les individus sont liés. C’est le cas lorsque nous procédons à des mesures répétées sur les mêmes sujets. Par exemple, on mesure la fièvre d’un patient avant et après la prise d’un médicament. L’appariement est une procédure complexe qui va au-delà des mesures répétées (ex. les blocs aléatoires complets), elle vise à améliorer la puissance des tests en réduisant l’influence des fluctuations d’échantillonnage.

Tests classiques[modifier|modifier le code]

Il existe de nombreux tests statistiques classiques parmi lesquels on peut citer:

  • letest de Student,qui sert à la comparaison d'une moyenne observée avec une valeur « attendue » pour un échantillon distribué selon une loi normale;
  • letest de Fisher,aussi appelé test de Fisher-Snédécor, qui sert à la comparaison de deux variances observées;
  • l'analyse de la varianceouANOVA,permet de comparer entre elles plusieurs moyennes observées (pour les groupes étudiés), selon un plan expérimental prédéterminé. Elle se fonde sur une décomposition de la variance en une partie « explicable » (variance inter-groupes) et une partie « erreur » (variance globale intragroupe — ouvariance résiduelle), supposée distribuée selon uneloi normale.Ce test est particulièrement utilisé en sciences humaines, sciences sociales,sciences cognitives,en médecine et enbiologie;
  • letest du χ²,également appelé test duχ2de Pearson, qui sert notamment à la comparaison d'un couple d'effectifs observés, ou à la comparaison globale de plusieurs couples d'effectifs observés, et plus généralement à la comparaison de deuxloisobservées;
  • letest de Kolmogorov-Smirnov,qui comme le test duχ2constitue un test d'adéquation entre des échantillons observés et uneloi de probabilité.Il compare lafonction de répartitionobservée et la fonction de répartition attendue. Il est particulièrement utilisé pour lesvariables aléatoirescontinues.

Eninférence bayésienne,on utilise le psi-test (mesure dedistancedans l'espace des possibles) dont on démontre que le test dureprésente une excellente approximation asymptotique lorsqu'il existe un grand nombre d'observations.

Notes et références[modifier|modifier le code]

  1. Gilbert Saporta,Probabilités, analyse des données et statistique,Technip Éditions,(ISBN2-7108-0565-0)[détail des éditions],page 320.
  2. Cette abréviation d’origine anglophone reste la plus couramment employée, y compris dans l'univers scientifique francophone.

Voir aussi[modifier|modifier le code]

Bibliographie[modifier|modifier le code]

Document utilisé pour la rédaction de l’article:document utilisé comme source pour la rédaction de cet article.

  • P.Dagnelie,Statistique théorique et appliquée,t.1:Statistique descriptive et base de l'inférence statistique,Paris et Bruxelles, De Boeck et Larcier,.Document utilisé pour la rédaction de l’article
  • P.Dagnelie,Statistique théorique et appliquée,t.2:Inférence statistique à une et à deux dimensions,Paris et Bruxelles, De Boeck et Larcier,.Document utilisé pour la rédaction de l’article
  • G. Millot,Comprendre et réaliser les tests statistiques à l'aide de R3eédition,De Boeck, Louvain-la-Neuve, 2014.Document utilisé pour la rédaction de l’article
  • J.-J. Droesbecke,Éléments de statistique,Ellipses, Paris, 2001.Document utilisé pour la rédaction de l’article
  • B. Escofier et J. Pages,Initiation aux traitements statistiques: Méthodes, méthodologie,Rennes,Presses universitaires de Rennes,1997.Document utilisé pour la rédaction de l’article
  • Falissard et Monga,Statistique: concepts et méthodes,Masson, Paris, 1993.Document utilisé pour la rédaction de l’article
  • H. Rouanet, J.-M. Bernard et B. Le Roux,Statistique en sciences humaines: analyse inductive des données,Dunod,Paris, 1990.Document utilisé pour la rédaction de l’article
  • G. Saporta,Probabilité, analyse des données et statistique,Technip, Paris, 1990.Document utilisé pour la rédaction de l’article
  • R. Veysseyre,Statistique et probabilité pour l'ingénieur,Dunod, Paris, 2002.Document utilisé pour la rédaction de l’article

Articles connexes[modifier|modifier le code]

Liens externes[modifier|modifier le code]

Sur les autres projets Wikimedia: