![]() |
Théologien
(protestant), il s'adonna aux mathématiques sous la houlette
d'Abraham de Moivre en s'intéressant aux travaux de son maître : le calcul des
probabilités et le calcul différentiel au sujet desquels il
soutint et exposa la
théorie newtonienne des fluxions (Introduction to the doctrine of fluxions,
1736), similaires, sur le continent, aux premières ébauches du calcul
infinitésimal et au concept de fonction dérivée
initiées par Leibniz. Introduit par
De Moivre, ll fut élu membre de la Royal
Society en 1742.
Bayes sera le premier, avant Laplace, dont il admira les travaux en ce domaine, à exposer, à titre posthume cependant car publié deux ans après sa mort (1763), un essai novateur en théorie des probabilités : Essay towards solving a problem in the doctrine of chances (essai sur la résolution d'un problème en théorie des probabilités). Contestées par Boole, mais aussi par Laplace dans ses premiers travaux en calcul des probabilités, les idées de Bayes ne se sont imposées que 20 ans après sa mort.
Probabilité composée, probabilité conditionnelle, événements indépendants : |
Avant d'aborder le théorème de Bayes, on rappelle ci-dessous les définitions, notations et résultats relatifs à l'indépendance en probabilité dont l'initiateur fut de Moivre :
En notations modernes, celles de Kolmogorov et de la théorie des ensembles, considérons un espace probabilisé (Ω, p) et soit A un événement de probabilité non nulle. L'application pA, définie pour tout événement B de Ω par :
est une probabilité sur Ω, dite des probabilités composées. Le réel pA(B) est la probabilité de réalisation de B sachant que A est réalisé; on parle de probabilité conditionnelle et on préfère souvent utiliser la notation p(B/A) : probabilité conditionnelle de B par rapport à A.
On a donc en général (résultat énoncé par
de
Moivre en 1718) : p(AB) = p(A)
x p(B/A) et
comme A
B = B
A
:
p(AB) = p(A) x p(B/A) =
p(B) x
p(A/B)
Si on note respectivement A et B les événements contraires de A et de B, on schématise souvent une situation probabiliste par un "arbre" comme :
ou bien :
et on porte sur les branches les probabilités de l'événement auxquelles elles aboutissent, ce qui facilite la résolution d'un problème :
♦ La somme des probabilités issues d'un même événement est égale à 1 :
p(B/A) + p(B/A) = 1
♦En suivant une branche, on obtient la conjonction de deux événements, par exemple dans le cas ci-contre :
p(A
B) = p(A) × p(B/A) = 1/3 × 3/4 = 1/4
Cela signifie que la probabilité de la réalisation simultanée des événements A et nonB est 0,25.
La probabilité de l'événement A est 1/3; celle de B se calcule ainsi : on voit sur l'arbre que B peut se réaliser de deux façons, sachant que A a eu lieu ou non. Donc :
p(B) = p(AB)
+ p(A
B)
Techniquement :
On fait la somme des probabilités de chaque branche aboutissant à B.
La probabilité d'une branche est le produit des probabilités rencontrés sur la branche.
➔
On peut
retrouver ce résultat sur un schéma ensembliste où l'on voit que l'événement B est la
réunion des deux événements incompatibles AB
et A
B
:
Ainsi :
♦ Événements indépendants :
On dit que les événements A et B sont indépendants si pA(B) = p(B) : la réalisation de A n'influence pas celle de B. C'est aussi dire que pB(A) = p(A) ou encore que :
p(AB) = p(A) x p(B)
Or, p(B) = p(AB)
+ p(A
B)
et vu que 1 - p(A) = p(A),
on obtient pA(B)
= p(B). En définitive, et concrètement, B ne dépend aucunement de la réalisation
ou non de A. Ce qui justifie pleinement cette notion d'indépendance en
probabilité.
∗∗∗
Prouver que si A et B sont indépendants, il en est de même
de A
et B, A et
B, A
et
B
➔ La situation se généralise à un nombre fini d' événements A1, A2, ..., An sont dits deux à deux indépendants si pour tout i et j distincts :
p(AiAj) = p(Ai) x p(Aj).
Plus généralement, on parle de famille d'événements indépendants {A1, A2, ..., An} (ou mutuellement indépendants) pour exprimer que :
Prob(A1A2
...
An)
= Prob(A1) × Prob(A2)
× ... × Prob(An)
Dans le cas d'une suite infinie A1, A2, ..., An, ... d'événements, on utilise le même vocabulaire pour signifier que tout famille finie extraite {Ai1, Ai2, ..., Aip} de ces événements constitue une famille d'événements indépendants.
♦ Tribus et indépendance de variables aléatoires :
On définit de même l'indépendance en probabilité de variables aléatoires par l'indépendance des événements qu'elles engendrent. Dans le cas de d'un couple (X,Y) de variables aléatoires discrètes, les variables X et Y sont indépendantes en probabilité lorsque, pour toutes éventualités (X = xi ) et (Y = yj), on a :
p[(X = xi )∩(Y = yj)] = p(X = xi) × prob(Y = yj)
En termes de probabilités conditionnelles : p[(Y = yj)/(X = xi)] = p(Y = yj) et p[(X = xi)/(Y = yj)/] = p(X = xi).
Plus généralement, dans le cadre du concept de tribu d'événements : Si X est une variable aléatoire à valeurs dans K, définie dans un espace probabilisé Ω et si J ⊂K, on vérifie facilement que les sous-ensembles {ω∈Ω / X(ω) ∈J} constituent une sous-tribu d'événements : on parle de tribu engendrée par X et on dit que les variables aléatoires X1, X2, ..., Xn sont indépendantes pour exprimer que les tribus engendrées par ces variables constituent des familles d'événements indépendants.
» Kolmogorov , Markov Cas d'un couple statistique : »
∗∗∗ Exercices niveau Bac S/ES : |
Jeu de dés
solution
élémentaire ou probabilités conditionnelles |
Probabilité des causes, théorème (ou formule) de Bayes : |
Dans la continuation des travaux de son maître, Abraham de Moivre, qui avait défini le nouveau concept d'indépendance en probabilités (Doctrine of Chances, 1718), Thomas Bayes expose, dans son traité de 1763, l'important problème de la probabilité des causes, à savoir l'estimation de la probabilité d'un événement complexe dont on sait que l'un (au moins) de ses composants, responsable de sa réalisation (une de ses causes) a eu lieu.
Soit A un événement conséquence a priori d'événements C1, C2, ..., Cn (causes). Avec les notations rappelées précédemment, la formule de Bayes, dite aussi des probabilités des causes peut s'écrire :
∗∗∗ Exemple :
Des pièces usinées sont traitées par l'une ou l'autre des deux machines M1 et M2 d'une unité de production. M1 et M2 fournissent respectivement 60% et 40% de la production. Les statistiques d'échantillonnage permettent d'estimer respectivement à 2 et 3 pour 1000 les proportions de pièces jugées défectueuses produites respectivement par M1 et M2.
Quelle est la probabilité qu'une pièce ainsi jugée provienne de M2 ?
Réponse : Appelons D l'événement "une pièce est défectueuse". Nous cherchons à calculer la probabilité p(M2/D), soit :
![]()
Ce qui nous donne : p(M2/D) = 3/1000 x 0,4 / (2/1000 × 0,6 + 3/1000 x 0,4) = 0,5. On a donc 1 chance sur 2 qu'une pièce jugée défectueuse provienne de M2.