Aller au contenu

Loi binomiale

Un article de Wikipédia, l'encyclopédie libre.

Loi binomiale
Image illustrative de l’article Loi binomiale
Fonction de masse
Image illustrative de l’article Loi binomiale
Fonction de répartition

Paramètres
Support
Fonction de masse
Fonction de répartition
Espérance
Médiane ou
Mode
Variance
Asymétrie
Kurtosis normalisé
Entropie
Fonction génératrice des moments
Fonction caractéristique
Fonction génératrice des probabilités

Enthéorie des probabilitéset enstatistique,laloi binomialemodélise la fréquence du nombre de succès obtenus lors de la réalisation de plusieurs expériences aléatoires identiques et indépendantes.

Plus mathématiquement, la loi binomiale est uneloi de probabilité discrètedécrite par deux paramètres:nle nombre d'expériences réalisées, etpla probabilité de succès. Pour chaque expérience appeléeépreuve de Bernoulli,on utilise unevariable aléatoirequi prend la valeur1lors d'un succès et la valeur0sinon. La variable aléatoire, somme de toutes ces variables aléatoires, compte le nombre de succès et suit une loi binomiale. Il est alors possible d'obtenir la probabilité deksuccès dans une répétition denexpériences:

Cette formule fait intervenir lecoefficient binomialduquel provient le nom de la loi.

L'importance de cette loi est d'abord historique puisqu'elle a été l'objet d'étude duthéorème de Moivre-Laplace,résultat duxviiiesiècle fondateur desthéorèmes de convergence.Une loi binomiale peut également être utilisée pour modéliser des situations simples de succès ou échec, un jeu depile ou facepar exemple. Le calcul de safonction de massedevient rapidement fastidieux lorsquenest grand, il est alors possible d'utiliser des approximations par d'autreslois de probabilitételles que laloi de Poissonou laloi normaleet d'utiliser des tables de valeurs.

La loi binomiale est utilisée dans divers domaines d'étude, notamment à travers destests statistiquesqui permettent d'interpréter des données et de prendre des décisions dans des situations dépendant de l'aléa. De par la simplicité de sa définition, c'est l'une des lois de probabilité étudiées dans les cours d'introduction à la théorie des probabilités.

Explication intuitive

[modifier|modifier le code]
Pile ou face.

Premiers exemples

[modifier|modifier le code]

Considéronsnlancers successifs d'une pièce de monnaie. Alors le nombre de fois où la pièce apparaît du côté pile suit la loi binomiale où le nombre d'expériences réalisées estnet où la probabilité de succès est.

Lancer de dé

[modifier|modifier le code]

Considéronsnlancers successifs d'un dé à 6 faces. Alors le nombre de fois où l'on obtient un 1, suit la loi binomiale où le nombre d'expériences réalisées estnet où la probabilité de succès est.

Définition intuitive

[modifier|modifier le code]

Uneloi de Bernoullidécrit le comportement d'uneexpérience aléatoirequi possède deux résultats possibles traditionnellement appelés succès et échec[1].Une telle expérience s'appelle uneépreuve de Bernoulli.Par exemple, lors d'un lancer depile ou face,on peut considérer qu'obtenir face est un succès et obtenir pile est un échec. Dans ce modèle, la probabilité de succès est une valeur fixe, c'est-à-dire qui reste constante à chaque renouvellement de l'expérience aléatoire. Cette probabilité de succès est notéep.Nous pouvons noter sa loi de probabilité:

On considère la situation où une telle expérience aléatoire (deux résultats possibles et une probabilité fixe) est répétée un certain nombre de fois de manière indépendante; notonsnce nombre de fois. Cette répétition indépendante d'épreuves de Bernoulli s'appelle unschéma de Bernoulliou simplement desépreuves de Bernoulli[2].Une loi binomiale décrit le nombre de fois où lesuccèsapparaît sur lesnexpériences effectuées. Le nombre de succès obtenus étant une valeur aléatoire, une loi binomiale est décrite grâce à la donnée des probabilités que le succès apparaisse précisémentkfois sur lesnessais.

Arbre de probabilité

[modifier|modifier le code]
arbre de probabilité
Arbre de probabilitépour une loi binomiale associée à 3 épreuves de Bernoulli.

Une manière visuelle de représenter une suite d'expériences est d'utiliser unarbre de probabilité.Chaque épreuve est représentée par deux branches: l'une pour le succès, l'autre l'échec. À chaque extrémité, on rajoute deux branches (succès et échec) pour l'épreuve suivante. On recommence jusqu'au nombre total d'épreuves. À chaque extrémité finale, on peut compter le nombre de succès obtenus. Il suffit de multiplier le nombre de fois où il y aksuccès par la probabilité d'obtenirksuccès pour obtenir la probabilité correspondante de la loi binomiale.

Par exemple, on lance 3 fois de suite un dé équilibré à six faces et on s'intéresse au nombre de fois que le1apparaît. Il apparaît 0, 1, 2 ou 3 fois. Chaque lancer est indépendant des autres et la probabilité d'obtenir le1est de1/6sur chacun d'entre eux, autrement dit la probabilité qu'il n'apparaisse pas est de5/6à chaque lancer. Ainsi, pour chaque lancer, on considère une loi de Bernoulli de paramètre1/6.Il y a trois configurations pour obtenir une seule fois le1:il apparaît au premier lancer ou au deuxième ou au troisième. Chacune de ces issues a la même probabilité d'apparaître:.La probabilité pour avoir une fois le1est alors:.On retrouve bienpour une loi binomialeb(3, 1/6).Il est possible de retrouver les autres probabilités de la même façon.

Définition mathématique

[modifier|modifier le code]

Laloi binomialeest uneloi de probabilité discrète[3]à deux paramètres:et.Il est fréquent d'utiliser également le paramètreq= 1 –ppour avoir des expressions plus concises. Elle possède plusieurs définitions équivalentes:

fonctions de masse d'unela loi binomiale
Diagrammes en bâtonsde trois fonctions de masse de lois binomiales. Les paramètres sontn= 20etp= 0,1(en bleu),p= 0,5(en vert) etp= 0,8(en rouge).

Définition 1[4],[1]La loi binomiale, de paramètresnetp,est laloi de probabilitéd'une variable aléatoireXégale au nombre de succès rencontrés au cours d'une répétition denépreuves de Bernoulli,pétant la probabilité desuccèsdans chacune d'entre elles.

Définition 2[5]La loi binomiale, de paramètresnetp,est laloi de probabilitéd'une variable aléatoireXtelle que:

sont desvariables aléatoires indépendantesdeloi de Bernoullide même paramètrep.

Définition 3[3]La loi binomiale, de paramètresnetp,est laloi de probabilité discrèted'une variable aléatoireXdont lafonction de masseest donnée par:

pour.

On rappelle que des variables aléatoiresetde loi discrète sontindépendantessi.

La fonction de masse donnée dans la définition 3 a bien un sens puisque laformule du binôme de Newtondonne[6]:.La définition 2 est l'écriture mathématique de la définition 1[7].

La définition 3 est équivalente aux deux autres: on calcule explicitement la probabilité queksuccès apparaissent dansnessais. Puisque lesnrépétitions sont indépendantes, la probabilité d'obtenirksuccès et doncn – kéchecs est:,dans le cas où on ne tient pas compte de la place des résultats[5],[8].Il suffit alors de s'intéresser à la place desksuccès etn – kéchecs. C'est-à-dire, combien y a-t-il de manière de placerksuccès parminrésultats (sans s'occuper de l'ordre entre les succès)? C'est le nombre decombinaisonsdekéléments parminéléments[9]donné par lecoefficient binomial.On retrouve alors la fonction de masse de la définition 3.

Notation

Le fait qu'une variable aléatoireXsuive une loi binomiale de paramètresnetpest noté[3],[5]:;ou.

Mesure de probabilité

Puisque la loi binomialeb(n,p)est une loi discrète, il est possible de la définir grâce à samesure de probabilité[10]:

,oùest lamesure de Diracau pointk.
Schéma constitué de formes géométriques
Laplanche de Galton:les billes rouges (les points rouges sur la figure) empilées dans le bas de l'appareil correspondent à lafonction de massede la loi binomiale, la courbe bleue correspond à la densité de la loi normale.

La loi binomiale fait partie des plus anciennes lois de probabilités étudiées[3].Elle a été introduite parJacques Bernoulliqui y fait référence en 1713 dans son ouvrageArs Conjectandi.Entre 1708 et 1718, on découvre aussi laloi multinomiale(généralisation multi-dimensionnelle de la loi binomiale), laloi binomiale négativeainsi que l'approximation de la loi binomiale par laloi de Poisson,laloi des grands nombrespour la loi binomiale et une approximation de laqueuede la loi binomiale[11].

Grâce à l'expression de safonction de masse,la loi binomiale a été utilisée par plusieurs scientifiques pour réaliser des calculs dans des situations concrètes. C'est le cas d'Abraham de Moivre[a 1]qui réussit à trouver une approximation de la loi binomiale par laloi normale,il publie d'abord ses résultats en 1733 en latin[12]:Approximatio ad summam terminorum binomii(a + b)nin seriem expansi,puis les traduit pour les publier en 1738 dansThe Doctrine of Chances(en)[12].En 1812,Pierre-Simon de Laplacereprend ces travaux.Francis Galtoncrée laplanche de Galtonqui permet d'avoir une représentation physique de cette convergence[a 1].En 1909,Émile Borelénonce et prouve, dans le cas de la loi binomiale, la première version de laloi forte des grands nombres[13].

Plus récemment, en 1914,McKendrickdémontre que la loi binomiale est la solution d'un processus simplede naissance et d'émigration[14].D'après les travaux deWilliam Felleren 1957, elle peut aussi être vue comme laloi stationnairepour lemodèle des urnes d'Ehrenfest.Cette même année, Haight montre que la loi binomiale est liée à unproblème de file d'attente[14].

La loi binomiale apparaît dans de nombreuses applications auXXesiècle[15]:engénétique,enbiologie animale,enécologie végétale,pour lestests statistiques,dans différents modèles physiques tels que des réseaux téléphoniques[16]ou le modèle des urnes d'Ehrenfest, etc.

Le nom « binomiale » de cette loi provient[7],[a 1]de l'écriture de sa fonction de masse (voir ci-dessous) qui contient uncoefficient binomialissu du développement du binôme:(p + q)n.

Représentation sous la forme d'un arbre

[modifier|modifier le code]
Représentation de la loi binomiale sous forme d'un arbre.

Puisque la loi binomiale est une suite d'épreuves de Bernoulli, il est possible de la représenter grâce à unarbre de probabilité:chaque nœud représente le résultat d'une épreuve, les probabilités de succès et d'échecs sont représentés par deux branches distinctes rattachées à un nœud. Le graphique est donc unarbre binaireéquilibré. Un arbre contenantngénérations correspond à une loi binomialeb(n,p).

Si on indique les résultats de chaque épreuve sur les arêtes de l'arbre, il est possible de visualiser les différentes issues de la loi binomiale[17].Si ce sont les valeurs des probabilités qui sont indiquées sur les arêtes, alors les probabilités de la loi binomiale apparaissent au bout des branches[18](voir le graphique ci-contre).

Le graphique est un arbre de probabilité pour une loi binomiale de paramètren= 3.Sur chaque branche sont indiquées les probabilités des différentes issues: par exemple branches droite, gauche puis droite; c'est-à-dire échec, succès puis échec. Au bout des branches de l'arbre, apparaissent les probabilités de chaque issue de la loi binomialeb(3,p).C'est-à-dire pour les valeursk= 0, 1, 2ou3,on obtient,,et.On retrouve ainsi les différentscoefficients binomiaux:

Les plus connus sont l'espéranceet lavariance,que l'on déduit classiquement[a 2]de ladéfinition 2 ci-dessus:

.

Lesmoments factorielsde la loi binomiale de paramètresnetpsont[a 3],[a 4]:

.

Par conséquent[19],sesmoments ordinairessont[20]:

S(r,k)pk, avec comme premières valeurs[21]:

(espérance)

On peut aussi les obtenir par laformule de récurrence

,

où le termedésigne ladérivéepar rapport à la variablep.

Les moments inverses, c'est-à-direavec,sont infinis[22].

Moments centrés

Lesmoments centréssont les moments de la différence entre la variable et sa moyenne[23],[21].

;(variance)

L'expression de la variance donne l'écart type[24]:.

Les moments centrés se calculent aussi par cette autre relation de récurrence[a 5],[21]:

.

Écart moyen

L'Écart moyen(ou déviation moyenne) est la moyenne des écarts à la moyenne; il est donné par[22]:

,

est lapartie entièredenp.

Par exemple, si,,valeur à comparer avec l'écart-type:.

Fréquence de succès

Grâce aux formules précédentes, on obtient les moments de la fréquence des succès[24]::

moment d'ordre1(ou espérance) de la fréquence de succès
moment centré d'ordre2(ou variance) de la fréquence de succès
moment centré d'ordre4de la fréquence de succès

L'expression de la variance de la fréquence donne l'écart type de la fréquence des succès:.

Covariance

On considère deux variables aléatoireset,pas forcémentindépendantes,de lois binomiales respectiveset.Lacovariancepermet d'évaluer la dépendance entre les deux variables:

.

Propriétés et caractérisations

[modifier|modifier le code]
Valeurs descriptives de la loi
  • Lecoefficient d'asymétried'une loi binomialeb(n,p)est[25]:.L'asymétriede la loi binomialeb(n,p)est positive[26]sip< 1/2et négative sip> 1/2.La loi est symétrique si et seulement sip= 1/2.
  • Lamédianede la loi binomiale estou,le signedésigne lapartie entière.Ces valeurs s'obtiennent grâce à la formule[a 6]:(cette borne étant optimale).
  • Lemodede la loi binomialeb(n,p)est la valeur,elle est la valeur de plus grande probabilité.

Sinpest unentier,alors le mode, la moyenne et la médiane valent tous troisnp.

Propriétés de stabilité
  • SiXsuit une loi binomialeb(n,p),alors[5]Y = n – Xsuit une loib(n,1 –p).Cette symétrie donne les relations suivantes pour la fonction de répartition et pour la fonction de masse[27],[28]:et.
  • Si lesvariables aléatoiresindépendantesetsont de lois binomiales respectiveset,alors la variable aléatoireest de loi binomiale.Cette propriété peut s'obtenir grâce à l'expression des fonctions caractéristiques ou grâce à l'écriture sous forme de somme de variables de Bernoulli[29].
Inégalités
  • L'inégalité de Bienaymé-Tchebychevpour une variable aléatoireXsuivant la loi binomialeb(n,p)est obtenue grâce aux moments[24]:
    .
  • L'inégalité de Hoeffdingpour une variable aléatoireXde loib(n,p)est plus précise que l'inégalité de Bienaymé-Tchebychev lorsquexest grand, elle s'écrit[30]:
    .
  • L'inégalité de Kolmogorovs'écrit pour une somme de variables aléatoires indépendantes. Pour des variables aléatoires indépendantesdeloi de Bernoulli,la sommesuit une loi binomialeb(k,p)recentrée, l'inegalité s'écrit alors[31]:
    .
Caractérisations
  • En 1964, un cas particulier d'un théorème de Patil et Seshadri énonce[32]:si laloi conditionnelledeX + YsachantXest uneloi hypergéométriquede paramètresmetn,alorsXetYsuivent des lois binomiales de paramètres respectifsetest arbitraire.
  • En 1973, Kagan, Linnik et Rao donnent plusieurs caractérisations en considérant desmarches aléatoiresà pas binomiaux sur un réseau avec destemps d'arrêt markoviens[32].
  • En 1991, Ahmed démontre qu'une variable aléatoireXsuit une loi binomiale variable aléatoireb(n,p)si et seulement si[32].

Fonction de répartition

[modifier|modifier le code]
Graphique de 3 fonctions de répartition de lois binomiales avec paramètres:n= 20etp= 0,1(en bleu),p= 0,5(en vert) etp= 0,8(en rouge).

Lafonction de répartitiond'une variable aléatoireXsuivant la loi binomialeb(n,p)est donnée par[23]:

est lapartie entièredex.

Même s'il existe une expression de la fonction de répartition, son calcul n'est pas facile[33]à cause des coefficients binomiaux,notamment lorsquenest grand. Il existe alors des tables de valeurs (voirci-dessous). Des théorèmes d'approximation ont été développés[33]pour approcher de manière théorique et calculatoire cette fonction de répartition (voirci-dessous). L'expression suivante provient du lien entre la loi binomiale et laloi bêta[23](voirci-dessous): pour

Best lafonction bêta. il est alors possible d'écrire la fonction de répartition grâce à lafonction bêta incomplète[34]:

.

Fonctions caractéristique et génératrice

[modifier|modifier le code]

Lafonction caractéristiqued'une variable aléatoireXsuivant la loi binomialeb(n,p)est donnée par[24]:

.

Lafonction génératrice des momentsd'une variable aléatoireXsuivant la loi binomialeb(n,p)est donnée par[23]:

.

On déduit directement lafonction génératrice des cumulants[14]:

,

et lafonction génératrice des cumulants factoriels[14]:

.

Lien avec d'autres lois

[modifier|modifier le code]

Loi de Bernoulli

[modifier|modifier le code]

Rappelons que la loi binomiale de paramètresetest la loi de la somme denvariables aléatoires indépendantes deloi de Bernoullide même paramètrep.

Ainsi, la loi binomialeb(1,p)est une loi de Bernoulli de paramètrep.

C'est par cette représentation du nombre de succès et d'échecs dans une suite d'épreuves que la loi binomiale est source de nombreuses applications[35].

Lois réciproques

[modifier|modifier le code]

Les lois suivantes ont un lien avec la loi binomiale grâce à leur fonctions de répartition. Lorsque le nombre de succèskest fixé, elles donnent la loi du nombre d'épreuves nécessaires (loi binomiale négative) ou la loi du paramètrep(lois bêta ou de Fisher). En ce sens, elles peuvent servir delois réciproques.

  • La loi binomialeb(n,p)donne le nombre de succès dans une succession denépreuves indépendantes. Laloi binomiale négative,ou loi de Pascal,est le nombre d'épreuves nécessaires pour obtenirksuccès[36].le termenégatifprovient de l'écriture de la fonction de masse qui contient un coefficient binomial avec un terme négatif[a 7].
    De plus, siXsuit une loiet siYsuit une loib(n + k,p)alors[37],[38],pourkentre0etn:
    ,oùest lafonction bêta incomplète.Autrement dit: la probabilité qu'il faille au moinsnépreuves pour avoirksuccès est égale à la probabilité qu'il y ait au plusksuccès enn + képreuves.
  • Grâce au calcul de la fonction de répartition de laloi bêtadonnée par lafonction bêta incomplète,on obtient[a 7],[28],pourkentre0etn:
Xsuit une loi bêta de paramètresk+ 1,n – ketYsuit une loi binomialeb(n,p).
  • La loi binomiale est liée à laloi de Fisherpar la propriété suivante[a 7],[39]:siYsuit une loi binomialeb(n,p)alors, pourkentre0etn:
Fsuit une loi de Fischer de paramètres.
La relation précédente permet de trouver lesquantilesde la loi binomiale[39].
  • Laloi binomiale (doublement) tronquéede paramètresetest la loi binomialeb(n,p)avectelle que les valeurs danset danssont enlevées[40].Lafonction de massede cette loi est donnée par l'expression: pour
De la même manière, il est possible de définir la loi binomiale (simplement) tronquée[40]en omettant uniquement les valeurs entre0etou entreet.
  • Laloi binomiale positiveouloi binomiale tronquée en 0est la loi binomialeb(n,p)dont on retire la valeur 0. Sa fonction de masse est:.De la même manière il est possible de définir laloi binomiale négative.
  • Laloi multinomialeest la généralisation multi-dimensionnelle de la loi binomiale[23]dans le sens où la loi multinomiale modélise une succession d'épreuves dont chacune possède plusieurs issues, pas uniquement succès ou échec. Cette loi multidimensionnelle donne les probabilités du nombre d'apparition des différentes issues dans une succession d'épreuves indépendantes[a 7].
  • Laloi bêta-binomialeest construite grâce à un mélange de loi[41]:une variable aléatoire qui suit une loi binomialedont le paramètreest une variable aléatoire qui suit uneloi bêta,est de loi bêta-binomiale de paramètres.Cette loi binomiale est similaire à laloi hypergéométrique négative(en),il suffit de changer les paramètres[42].
  • La fonction de masse d'une variableYdeloi hypergéométriquede paramètresest donnée par:.Elle correspond au nombre tirages gagnants dans une expérience dentirages simultanés dans une urne contenantAboules et une proportion depboules gagnantes.
Si le nombre de boules augmente, c'est-à-direAtend vers l'infini, et sip/Atend vers une valeur,alors la loi hypergéométrique converge vers une loi binomiale[43]b(n,p').
Autrement dit, si la taille de la population (A) est grande par rapport à la taille de l'échantillon (n), alors les tirages peuvent être convenablement représentés par une loi binomiale de paramètrep'égal au pourcentage (p) d'éléments ayant le caractère étudié.
De plus, sietsont deux variables aléatoires indépendantes de loi binomiale respectiveset,alors la loi desachant queest la loi hypergéométrique de paramètres[29]:et.

Convergences et approximations

[modifier|modifier le code]

Pour de grandes valeurs den,le calcul des fonctions de masse et de répartition deviennent vite fastidieux. Une méthode est d'approcher ces valeurs grâce aux théorèmes limites. La loi (faible ou forte) des grands nombres permet d'approcher la moyenne de la loi binomiale. Pour obtenir des valeurs approchées de la fonction de répartition, il est possible d'utiliser l'approximation normale ou l'approximation par laloi de Poisson.L'approximation normale est plus performante lorsque le paramètrepn'est pas trop proche de0ou de1,sinon l'approximation par la loi de Poisson donne de meilleurs résultats[44].

Loi des grands nombres

[modifier|modifier le code]

Laloi faible des grands nombres,appliquée à unprocessus de Bernoullide paramètrep,garantit que pour toute suite(Xn)de variables aléatoires, définies sur un mêmeespace probabilisé,et de lois respectivesb(n,p)(cf. définition 2ci-dessus), on a, pour tout: Plus précisément, puisque l'espérance et la variance deXnsont respectivement égales ànpetnp(1 –p),l'inégalité de Bienaymé-Tchebychevmontre que[24]: Cela peut s'interpréter grossièrement de la manière suivante. Si l'on sait que lors d'une expérience aléatoire (tirage d'un individu dans une population de grande taille, lancer d'une pièce…) la probabilité d'apparition de la propriétéAestp(A),alors la fréquence d'apparition de la propriétéAau cours denexpériences de ce type (tirages denindividus dans une population de taille très supérieure àn,nlancers de pièce…) est souvent voisine dep(A),avec une probabilité d'autant meilleure quenest grand et quep(A)est proche de0ou1.

Il existe de meilleures majorations de cette probabilité, l'inégalité de Hoeffdingdonne[a 8]:

Convergence vers la loi de Poisson

[modifier|modifier le code]
Convergence

Considérons une loi binomialeb(n,p)telle que les paramètresnetpsont liés par la formule:est fixé. Lorsquentend vers l'infini, et doncptend vers 0, alors[45]:.Autrement dit, la probabilité qu'une variable de loi binomiale prenne la valeurkconverge (lorsquendevient grand) vers la probabilité qu'une variable deloi de Poissonprenne la valeurk.Le paramètrepconverge alors vers 0, il correspond donc à un évènement de probabilité très faible, la loi de Poisson est alors appelée loi des évènements rares[45].Par sommation, on obtient alors le résultat[46]:

est la partie entière,Xest une variable de loi binomiale etYde loi de Poisson.Cette limite montre laconvergence en loide la loi binomiale (avec les conditions précédentes) vers la loi de Poisson. Une expression plus détaillée de la convergence peut être donnée par la formule[47],[23]:aveclorsquentend vers l'infini etest lecomparateur asymptotique.

Fonctions de masse d'une loi binomiale(en violet),(en rouge) et d'une loi de poisson(en bleu).

En 1953,Iouri Prokhorovdonne une majoration de l'erreur totale d'approximation entre la fonction de répartition d'une loi binomialeb(n,p)et uneloi de Poisson[48]:.Il est également possible de borner le ratio entre les deux fonctions de répartition[48]:

Approximation

Grâce à la convergence ci-dessus, il est possible d'approcher les probabilités de la loi binomiale par la loi de Poisson. En pratique, le cas s'applique lorsquenest grand et doncppetit. Différentes valeurs sont proposées[47],[45],[49],[50]:

  • ,lorsque(ce qui fait);
  • ,lorsque(ce qui fait);
  • ,lorsque(ce qui fait);
  • ;
  • ,lorsque;
  • et.

L'idée commune de toutes ces propositions est d'avoir la valeurnpstable lorsquenest grand etppetit.

Convergence vers la loi normale

[modifier|modifier le code]
convergence de la loi binomiale
Illustration de la convergence de la fonction de masse de la loi binomiale vers la loi normale lorsquengrandit.
Convergence

Le théorème de Moivre-Laplace, énoncé en 1733, montre qu'une variable aléatoire de loi binomiale, convenablement renormalisée,converge en loivers une variable aléatoire deloi normale.Ce résultat peut s'énoncer grâce aux fonctions de répartition des deux lois. Considérons une variable aléatoireXde loi binomialeb(n,p),la variable aléatoireXrenormalisée est la variable aléatoire centrée et réduite, c'est-à-dire:. Si l'on notela fonction de répartition de la loi normale, alors:

Théorème de Moivre-Laplace:pour tout,

Bien qu'Abraham de Moivren'ait énoncé ce résultat que dans le cas d'une loi binomiale[51],cette convergence est généralisée dans le cas d'autres lois, c'est lethéorème central limite.Ce théorème permet d'approcher une loi discrète par une loi continue, il est alors utile d'ajouter un coefficient, ditcorrection de continuité,afin d'améliorer les approximations futures (voir ci-dessous). La convergence précédente peut alors s'écrire sous forme d'équivalencelorsquentend vers l'infini[52]:pour tout

L'erreur commise par l'approximation est estimée par l'inégalité de Berry-Esseendont la constante est régulièrement améliorée, elle fournit une borne de la différence entre les deux fonctions de répartition lorsquenest grand[53],[a 9],pourXune variable aléatoire de loi binomialeb(n,p)etYde loi normalede fonction de répartition notée:.Une expression plus détaillée de la convergence peut être donnée par la formule avec correction de continuité[23]:uniformémentpour toute variablex,lorsquentend vers l'infini et oùest lecomparateur asymptotique.D'autres approximations plus fines ont été étudiées[54],par exemple parLaplace(1820),Prokhorov(1953) ouPeizeretPratt(en)(1968).

Approximation

Grâce aux théorèmes de convergence ci-dessus, lorsquenest grand, les probabilités de la binomiale renormalisée peuvent être approchées par les valeurs des probabilités de la loi normale. Il existe plusieurs règles sur les paramètresnetppour que l'approximation soit valable[55],[50],[56],[57]:

  • ,et;
  • ou;
  • et.

L'influence de ces paramètres sur l'approximation a été finement étudiée dans les années 1990, par exemple[55]:pournfixé, l'erreur absolue minimale est atteinte pourp= 1/2;l'erreur absolue est inférieure à.

Tables de la loi binomiale

[modifier|modifier le code]

Des tables de lafonction de masseet de lafonction de répartitionde la loi binomiale ont été publiées en 1950 par leNational Bureau of Standardspuis en 1955 dansNational of the Computation Laboratoryet par Raoet al.en 1985[58].

Grâce aux relations de symétrie (voirci-dessus), il suffit[27],[28]de donner des tables de valeurs pour.

Valeurs de la fonction de masse

[modifier|modifier le code]

Les tables de valeurs suivantes[49]donnent les valeurs de la fonction de masse de la loi binomialeb(n,p)pour différentes valeurs den.

Exemples: SiXsuit une loi,alors.SiYsuit une loi,alors.

Valeurs de la fonction de répartition

[modifier|modifier le code]

Les tables de valeurs suivantes[59]donnent les valeurs de la fonction de répartition de la loi binomialeb(n,p)pour différentes valeurs den.

Exemples: SiXsuit une loi,alors.SiYsuit une loi,alors.

Tests et applications

[modifier|modifier le code]

D'une manière générale, untest statistiquepermet de rejeter, ou non, une hypothèse ditehypothèse nulle.L'idée principale est de prendre unéchantillonet de vérifier si l'hypothèse est vraie pour chaque élément de l'échantillon. Si on considère que les éléments sont indépendants, on compte donc le nombre d'éléments vérifiant une propriété, il y a donc présence de la loi binomiale. On compare si la proportion observée est significativement éloignée de la probabilité théorique de la loi binomiale[60].Ce test est appelé untest binomial.On peut utiliser aussi la loi normale lorsque la taille de l'échantillon est grand.

Il est possible d'effectuer un test statistique sur la conformité des valeurs des paramètres d'une loi de probabilité, notamment d'une loi binomiale, par rapport aux paramètres théoriques attendus pour la population étudiée[61].Le test de conformité de l'indice de dispersion s'applique dans ce cas[62].Cet indice de dispersion est le quotient de la somme des carrés des écarts et de la moyenne. Sisont les valeurs étudiées de moyenne notéealors l'indice est:.Grâce à uneLoi du χ²ou uneloi normale,le test rejette l'hypothèse de la valeur que prend le paramètrepde la loi binomiale[62].

Il est également possible de tester l'égalité de deux variables aléatoires de lois binomiales. Soientetdeuxvariables aléatoiresde lois respectiveset.On souhaite tester si,c'est l'hypothèsedu test. Par lethéorème central limite,l'estimateursuit uneloi normalelorsqueest grand. Il en est de même avec.En considérant l'hypothèsevraie, on peut montrer quesuit une loi normale centrée réduite[63].On rejette alors l'hypothèseau niveau de confiance 0,95 si.

Autres applications

[modifier|modifier le code]

Par définition la somme de variables aléatoires indépendantes deloi de Bernoullisuit une loi binomiale. Un exemple typique de phénomène suivant une loi de Bernoulli est le lancer d'une pièce pour unpile ou face[35].Le nombre de succès, par exemple le nombre de fois où l'on obtient pile, suit donc une loi binomiale. De nombreuses situations peuvent être modélisées par cet exemple ce qui donne son importance à la loi[35].

Engénétique,lors de la reproduction, chaquegèneest composée de deuxallèlesqui sont issus des deux parents. Soit les deux allèles proviennent du même parent, soit chaque parent transmet un allèle. Il est alors possible de faire une liste de différents allèles et de noter ces deux cas. Le nombre d'allèles issus du même parent peut être modélisé par une variable aléatoire de loi binomiale[64].Pour savoir s'il y a égale probabilité d'allèle de même provenance ou de provenance différente, on peut étudier un test statistique[64].Inversement, pour simuler les allèles d'un individu, il est possible de simuler les fréquences des allèles par des variables aléatoires binomiales[65].

marche aléatoire
Exemple de marche aléatoire (renormalisée). La position de la marche suit une loi binomiale.

Enlinguistique,la loi binomiale est utilisée pour étudier la richesse du vocabulaire d'un texte[a 10].C'est un outil quantitatif qui permet de mesurer la fréquence d'un mot dans un texte indépendamment de la longueur du texte. Plus précisément la méthode de Müller permet d'évaluer la richesse théorique du vocabulaire d'un texte grâce au vocabulaire d'un texte plus long, et ainsi comparer avec la richesse du vocabulaire du texte court en question. Techniquement, siest le nombre de mots d'un texte etcelui d'un autre texte. Alorsest la probabilité d'apparition d'un mot tiré au hasard dans le premier texte; de même pourdans le deuxième texte[a 11].Le nombre de mots ayant la même fréquence d'apparition dans le premier texte suit alors une loi binomiale de paramètresetp.Il est possible d'effectuer des tests statistiques pour conclure si la richesse du vocabulaire est grande ou non.

En 1908,Émile Borelétudie la fréquence des différents chiffres dans ledéveloppement décimald'unnombre réel.Il considère les2npremières valeurs de la décomposition décimale et estime la probabilité d'obtention du nombre de fois où apparaît chaque entier dans cette décomposition grâce à l'approximation par la loi normale. Il démontre ainsi le théorème desnombres normaux[a 12].

Unemarche aléatoiresurest unprocessus stochastiqueà temps entier[66].C'est-à-dire que la marche part d'une valeur initialeS0= 0par exemple et à chaque unité de temps, le marcheur se déplace (indépendamment du chemin parcouru avant) d'un pas vers le haut avec une probabilitépou d'un pas vers le bas avec une probabilité1 –p,ainsiS1= –1ou1.Sndonne la position du marcheur au bout d'un tempsn.Sip= 1 –p= 0,5,la marche est dite symétrique et le marcheur a autant de chance d'aller vers le haut que vers le bas. Dans ce cas, au bout du tempsn,la variable aléatoirepeut prendre comme valeurset elle est de loi binomialeb(n,0,5).Cette considération ainsi que la convergence vers la loi normale (voirci-dessus) permet de démontrer qu'une marche aléatoire renormalisée converge vers lemouvement brownien(voirThéorème de Donsker)[67].

Notes et références

[modifier|modifier le code]
  1. aetbGossett 2009,p.310.
  2. Dodge 2007,p.175.
  3. abcetdDodge 2007,p.287.
  4. Ruegg 1994,p.38.
  5. abcetdBogaert 2005,p.50.
  6. Gossett 2009,p.316.
  7. aetbRuegg 1994,p.39.
  8. Gossett 2009,p.311.
  9. Bogaert 2005,p.305.
  10. Foata, Fuchs et Ranchi 2012,p.68.
  11. Hald 2005,p.5.
  12. aetbHald 2005,p.485.
  13. Hazewinkel 1994,p.438.
  14. abcetdJohnson, Kemp et Kotz 2005,p.109.
  15. Johnson, Kemp et Kotz 2005,p.136.
  16. Johnson, Kemp et Kotz 2005,p.140.
  17. Gossett 2009,p.274.
  18. Ruegg 1994,p.23.
  19. Johnson, Kemp et Kotz 2005,p.53.
  20. Dette et Studden 1997,p.16.
  21. abetcJohnson, Kemp et Kotz 2005,p.110.
  22. aetbJohnson, Kemp et Kotz 2005,p.111.
  23. abcdefetgHazewinkel 1994,p.397.
  24. abcdeteCourtin 2012,p.1 G 17.
  25. Bogaert 2005,p.329.
  26. Johnson, Kemp et Kotz 2005,p.114.
  27. aetbMittag et Rinne 1993,p.515.
  28. abetcMittag et Rinne 1993,p.105.
  29. aetbJohnson, Kemp et Kotz 2005,p.115.
  30. Pfister 2012,p.104.
  31. Courtin 2012,p.1 G 16.
  32. abetcJohnson, Kemp et Kotz 2005,p.135.
  33. aetbJohnson, Kemp et Kotz 2005,p.116.
  34. Johnson, Kemp et Kotz 2005,p.125.
  35. abetcLesigne 2005,p.4ème couv.
  36. Bogaert 2005,p.54.
  37. Johnson, Kemp et Kotz 2005,p.218.
  38. Mittag et Rinne 1993,p.109.
  39. aetbMittag et Rinne 1993,p.116.
  40. aetbJohnson, Kemp et Kotz 2005,p.137.
  41. Johnson, Kemp et Kotz 2005,p.253.
  42. Johnson, Kemp et Kotz 2005,p.254.
  43. Courtin 2012,p.1 G 18.
  44. Siegmund et Yakir 2007,p.14.
  45. abetcFoata, Fuchs et Ranchi 2012,p.73.
  46. Hald 2005,p.215.
  47. aetbJohnson, Kemp et Kotz 2005,p.121.
  48. aetbJohnson, Kemp et Kotz 2005,p.123.
  49. aetbBogaert 2005,p.348.
  50. aetbMittag et Rinne 1993,p.106.
  51. Hald 2005,p.492.
  52. Ruegg 1994,p.93.
  53. Hazewinkel 1994,p.369.
  54. Johnson, Kemp et Kotz 2005,p.118.
  55. aetbJohnson, Kemp et Kotz 2005,p.117.
  56. Lesigne 2005,p.34.
  57. Bogaert 2005,p.71.
  58. Dodge 2007,p.288.
  59. Bogaert 2005,p.349.
  60. Dagnelie 1998,p.122.
  61. Dagnelie 1998,p.76.
  62. aetbDagnelie 1998,p.78.
  63. Siegmund et Yakir 2007,p.17.
  64. aetbSiegmund et Yakir 2007,p.11.
  65. Siegmund et Yakir 2007,p.240.
  66. Pfister 2012,p.154.
  67. Pfister 2012,p.155.
Articles et autres sources
  1. abetcAimé Fuchs, «Plaidoyer pour la loi normale».
  2. Suivre par exemple lelien en bas de cette pagevers la leçon surWikiversité.
  3. (en)R. B. Potts(en)Note on the factorial moments of standard distributions»,Austr. J. Phys.(en),vol.6,‎,p.498(lire en ligne).
  4. Marc Diener, «Probabilités élémentaires — Chap. 7: Fonctions génératrices», surUniversité Nice Sophia Antipolis,,p.33.
  5. (en)V. RomanovskyNote on the moments of the binomial(p + q)nabout its mean»,Biometrika,vol.15,nos3-4,‎,p.410-412(DOI10.2307/2331875).
  6. (en)Kais Hamza, «The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions»,Statist. Probab. Lett.,vol.23,‎,p.21-25(lire en ligne).
  7. abcetdE. Morice, «Quelques modèles mathématiques de durée de vie»,Revue de statistique appliquée,t.14,no1,‎,p.45-126(lire en ligne),p.68.
  8. (en)Wassily Hoeffdin, «Probability inequalities for sums of bounded random variables»,Journal of the American Statistical Association,vol.58,no301,‎,p.13-30(lire en ligne).
  9. (en)Victor Korolev et Irina Shevtsova, «An improvement of the Berry–Esseen inequality with applications to Poisson and mixed Poisson random sums»,Scandinavian Actuarial Journal,vol.2,‎,p.81-105(lire en ligne).
  10. Étienne Évrard, «Les mystères des vocables»,Revue Informatique et Statistique dans les Sciences humaines - CIPL,vol.XXX (30?),nos1 à 4,‎,p.272-274(lire en ligne).
  11. Étienne Brunet, «Müller le lexicomaître»,CIPL,‎,p.99-119(lire en ligne).
  12. ÉmileBorelLes probabilités dénombrables et leurs applications arithmétiques»,Rendiconti del Circolo Matematico di Palermo,Circolo Matematico di Palermo,vol.27,no1,‎,p.247-271(ISSN0009-725Xet1973-4409,DOI10.1007/BF03019651,lire en ligne).

Sur les autres projets Wikimedia:

Bibliographie

[modifier|modifier le code]

Document utilisé pour la rédaction de l’article:document utilisé comme source pour la rédaction de cet article.

Articles connexes

[modifier|modifier le code]

Liens externes

[modifier|modifier le code]