ChronoMath, une chronologie des MATHÉMATIQUES
à l'usage des professeurs de mathématiques, des étudiants et des élèves des lycées & collèges

BAYES Thomas, anglais, 1702-1761

Théologien (protestant), il s'adonna aux mathématiques sous la houlette d'Abraham de Moivre en s'intéressant aux travaux de son maître : le calcul des probabilités et le calcul différentiel au sujet desquels il soutint et exposa la théorie newtonienne des fluxions (Introduction to the doctrine of fluxions, 1736), similaires, sur le continent, aux premières ébauches du calcul infinitésimal et au concept de fonction dérivée initiées par Leibniz. Introduit par De Moivre, ll fut élu membre de la Royal Society en 1742.

Bayes sera le premier, avant Laplace, dont il admira les travaux en ce domaine, à exposer, à titre posthume cependant car publié deux ans après sa mort (1763), un essai novateur en théorie des probabilités : Essay towards solving a problem in the doctrine of chances (essai sur la résolution d'un problème en théorie des probabilités). Contestées par Boole, mais aussi par Laplace dans ses premiers travaux en calcul des probabilités, les idées de Bayes ne se sont imposées que 20 ans après sa mort.

Probabilité composée, probabilité conditionnelle, événements indépendants :

Avant d'aborder le théorème de Bayes, on rappelle ci-dessous les définitions, notations et résultats relatifs à l'indépendance en probabilité dont l'initiateur fut de Moivre :

En notations modernes, celles de Kolmogorov et de la théorie des ensembles, considérons un espace probabilisé (Ω, p) et soit A un événement de probabilité non nulle. L'application pA, définie pour tout événement B de Ω par :

est une probabilité sur Ω, dite des probabilités composées. Le réel pA(B) est la probabilité de réalisation de B sachant que A est réalisé; on parle de probabilité conditionnelle et on préfère souvent utiliser la notation p(B/A) : probabilité conditionnelle de B par rapport à A.

On a donc en général (résultat énoncé par de Moivre en 1718) : p(AB) = p(A) x p(B/A)  et comme AB = BA :

p(AB) = p(A) x p(B/A) = p(B) x p(A/B)

Si on note respectivement A et B les événements contraires de A et de B, on schématise souvent une situation probabiliste par un "arbre" comme :

    ou bien :

et on porte sur les branches les probabilités de l'événement auxquelles elles aboutissent, ce qui facilite la résolution d'un problème : 

 La somme des probabilités issues d'un même événement est égale à 1 : 

p(B/A) + p(B/A) = 1

En suivant une branche, on obtient la conjonction de deux événements, par exemple dans le cas ci-contre  :

p(AB) = p(A) x p(B/A) = 1/3 x 3/4 = 1/4

Cela signifie que la probabilité de la réalisation simultanée des événements A et nonB est 0,25.

La probabilité de l'événement A est 1/3; celle de B se calcule ainsi : on voit sur l'arbre que B peut se réaliser de deux façons, sachant que A a eu lieu ou non. Donc :

p(B) = p(AB) + p(AB)

Techniquement, on fait la somme des probabilités de chaque branche aboutissant à B. La probabilité d'une branche est le produit des probabilités rencontrés sur la branche.

On peut retrouver ce résultat sur un schéma ensembliste où l'on voit que B est la réunion des deux événements incompatibles AB et AB.

Ainsi :

p(B) = p(A) x p(B/A) + p(A) x p(B/A) = 1/12 + 4/9 = 19/36.

Événements indépendants :      

On dit que les événements A et B sont indépendants si pA(B) = p(B) : la réalisation de A n'influence pas celle de B. C'est aussi dire que pB(A) = p(A) ou encore que :

p(AB) = p(A) x p(B)

Or, p(B) = p(AB) + p(AB) et vu que 1 - p(A) = p(A), on obtient  pA(B) = p(B). En définitive, et concrètement, B ne dépend aucunement de la réalisation ou non de A. Ce qui justifie pleinement cette notion d'indépendance en probabilité.


Prouver que si A et B sont indépendants, il en est de même de A et B,  A et BA et B

La situation binaire peut se compliquer par une tierce intervention... : des événements A1, A2, ..., An sont dits 2 à 2 indépendants si pour tout i et j distincts : p(AiAj) = p(Ai) x p(Aj).

Plus généralement, on parle de famille d'événements indépendants {A1, A2, ..., An} (ou mutuellement indépendants) pour exprimer que :

Prob(A1A2 ...An) = Prob(A1)Prob(A2) ...Prob(An)

Dans le cas d'une suite infinie A1, A2, ..., An, ... d'événements, on utilise le même vocabulaire pour signifier que tout famille finie extraite {Ai1, Ai2, ..., Aip} de ces événements constitue une famille d'événements indépendants.

Tribus et indépendance de variables aléatoires :       

On définit de même l'indépendance en probabilité de variables aléatoires par l'indépendance des événements qu'elles engendrent. Dans le cas de d'un couple (X,Y) de variables aléatoires discrètes, les variables X et Y sont indépendantes en probabilité lorsque, pour toutes éventualités (X = xi ) et (Y = yj), on a :

p[(X = xi )(Y = yj)] = p(X = xi)prob(Y = yj)

En termes de probabilités conditionnelles : p[(Y = yj)/(X = xi)] = p(Y = yj)  et  p[(X = xi)/(Y = yj)/] = p(X = xi).

Plus généralement, dans le cadre du concept de tribu d'événements : Si X est une variable aléatoire à valeurs dans K, définie dans un espace probabilisé Ω et si J K, on vérifie facilement que les sous-ensembles {ωΩ / X(ω) J} constituent une sous-tribu d'événements : on parle de tribu engendrée par X et on dit que les variables aléatoires X1, X2, ..., Xn sont indépendantes pour exprimer que les tribus engendrées par ces variables constituent des familles d'événements indépendants.

  Kolmogorov , Markov              Cas d'un couple statistique :  

  Exercices niveau Bac S/ES :

Jeu de dés  solution élémentaire ou probabilités conditionnelles
Fille ou garçon ?  solution élémentaire ou probabilités conditionnelles
Conjonction d'événements & probabilités conditionnelles    (arbre 2 x 2)
Conjonction d'événements & probabilités conditionnelles    (arbre 2 x 3)

 

Probabilité des causes,  théorème (ou formule) de Bayes :

Dans la continuation des travaux de son maître, Abraham de Moivre, qui avait défini le nouveau concept d'indépendance en probabilités (Doctrine of Chances, 1718), Thomas Bayes expose, dans son traité de 1763, l'important problème de la probabilité des causes, à savoir l'estimation de la probabilité d'un événement complexe dont on sait que l'un (au moins) de ses composants, responsable de sa réalisation (une de ses causes) a eu lieu.

Soit A un événement conséquence a priori d'événements C1, C2, ..., Cn (causes). Avec les notations rappelées précédemment, la formule de Bayes, dite aussi des probabilités des causes peut s'écrire :

 

Exemple :   

Des pièces usinées sont traitées par l'une ou l'autre des deux machines M1 et M2 d'une unité de production.
M1 et M2 fournissent respectivement 60% et 40% de la production.
Les statistiques d'échantillonnage permettent d'estimer respectivement à 2 et 3 pour 1000 les proportions de pièces jugées défectueuses produites respectivement par M1 et M2.

Quelle est la probabilité qu'une pièce ainsi jugée provienne de M2 ?

Réponse : Appelons D l'événement "une pièce est défectueuse". Nous cherchons à calculer la probabilité p(M2/D), soit :

Ce qui nous donne : p(M2/D) = 3/1000 x 0,4 / (2/1000 x 0,6 + 3/1000 x 0,4) = 0,5. On a donc 1 chance sur 2 qu'une pièce jugée défectueuse provienne de M2.


Daniel Bernoulli   Cramer
© Serge Mehl - www.chronomath.com