Aller au contenu

Inférence statistique

Un article de Wikipédia, l'encyclopédie libre.
Illustration des 4 principales étapes de l'inférence statistique

L'inférence statistiqueest l'ensemble des techniques permettant d'induireles caractéristiques d'un groupe général (lapopulation) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction:la probabilité d'erreur[1].

Strictement, l'inférence s'appliqueà l'ensemble des membres (pris comme un tout)de la population représentée par l'échantillon, etnon pas à tel ou tel membre particulierde cette population. Par exemple, les intentions de vote indiquées par l'échantillon ne peuvent révéler l'intention de vote qu'a tel ou tel membre particulier de la population des électeurs de la circonscription électorale.

L'inférence statistique est donc un ensemble de méthodes permettant de tirer des conclusions fiables à partir de données d'échantillons statistiques. L'interprétation de données statistiques est, pour une large part, le point clé de l'inférence statistique. Elle est guidée par plusieurs principes et axiomes.

L'union entre les méthodes statistiques rudimentaires dePierre-Simon de Laplaceet deCarl Friedrich Gauss,confinées à l'astronomie, et la science de l'État, circonscrite à la démographie et auxsciences socialesnaissantes, a lieu à la charnière desXIXesiècle etXXesiècle, dans le domaine intermédiaire de labiologie,lorsque l'évolutionfut reformulée en tant que problème statistique grâce à l'influence de l'eugénismeet de labiométrie[1].

Les méthodes d'inférence statistiques ont connu deux grandes phases de développement. La première commence à la fin duXIXesiècle,avec les travaux deK. Pearson,R. Fisher,Jerzy Neyman,Egon PearsonetAbraham Waldqui dégagent les notions fondamentales devraisemblance,de puissance destests d'hypothèseet d’intervalle de confiance.

La seconde période, qui perdure aujourd'hui, a été rendue possible grâce à la puissance de calcul des ordinateurs et à la banalisation de l'outil informatique à partir de la fin desannées 1940.Ces calculateurs ont permis de dépasser les hypothèses traditionnelles d'indépendance et de normalité, commodes du point de vue mathématique mais souvent simplistes, pour donner toute leur fécondité à des concepts même anciens comme l’hypothèse bayésienne.L'informatique a permis aussi l'explosion des techniques de simulation par application des techniques de rééchantillonnage:méthode de Monte Carlo,bootstrap,jackknifeetc. imaginées parJohn von Neumann,Stanislas Ulam,Bradley Efron,Richard von Mises.

Principes et axiomes

[modifier|modifier le code]

Notes et références

[modifier|modifier le code]


Sur les autres projets Wikimedia:

Bibliographie

[modifier|modifier le code]

Document utilisé pour la rédaction de l’article:document utilisé comme source pour la rédaction de cet article.

  • (en)GeorgeCasellaet RogerBerger,Statistical Inference,Brooks/Cole,,2eéd.
  • Carlos M.Madrid Casadoet MagaliMangin(Trad.),La statistique, entre mathématique et expérience: Fisher,Barcelone, RBA Coleccionables,,174p.(ISBN978-84-473-9558-3).Ouvrage utilisé pour la rédaction de l'article

Articles connexes

[modifier|modifier le code]

Liens externes

[modifier|modifier le code]