ChronoMath, une chronologie des MATHÉMATIQUES
à l'usage des professeurs de mathématiques, des étudiants et des élèves des lycées & collèges

BAYES Thomas, anglais, 1702-1761

Théologien (protestant), il s'adonna aux mathématiques sous la houlette de De Moivre. Travaux sur le calcul des probabilités et en calcul différentiel au sujet desquels il soutint et exposa (Introduction to the doctrine of fluxions, 1736) la théorie newtonienne des fluxions.

Bayes sera le premier, avant Laplace, dont il admira les travaux en ce domaine, à exposer,  à titre posthume cependant, un essai sur la résolution d'un problème en théorie des probabilités (Essay towards solving a problem in the doctrine of chances, 1763). Il s'agit du problème de la probabilité des causes : calcul de la probabilité d'un événement complexe dont on sait qu'un de ses composants, responsable de sa réalisation (une de ses causes) a eu lieu. Bayes fut membre de la Royal Society.

Probabilité composée, probabilité conditionnelle, événements indépendants :

En notations modernes (celles de Kolmogorov) : considérons un espace probabilisé (Ω, p) et soit A un événement de probabilité non nulle. L'application pA, définie pour tout événement B de Ω par :

est une probabilité sur Ω, dite des probabilités composées. Elle fut énoncée préalablement par De Moivre en 1718, dans sa Doctrine of Chances.

Le réel pA(B) est la probabilité de réalisation de B sachant que A est réalisé; on parle de probabilité conditionnelle et on préfère souvent utiliser la notation p(B/A) : probabilité conditionnelle de B par rapport à A.

On a donc en général : p(AB) = p(A) x p(B/A)  et comme AB = BA :

p(A B) = p(A) x p(B/A) = p(B) x p(A/B)

Si on note respectivement A et B les événements contraires de A et de B, on schématise souvent une situation probabiliste par un "arbre" comme :

    ou bien :

et on porte sur les branches les probabilités de l'événement auxquelles elles aboutissent, ce qui facilite la résolution d'un problème : 

 La somme des probabilités issues d'un même événement est égale à 1 : 

p(B/A) + p(B/A) = 1

En suivant une branche, on obtient la conjonction de deux événements, par exemple dans le cas ci-contre  :

p(AB) = p(A) x p(B/A) = 1/3 x 3/4 = 1/4

Cela signifie que la probabilité de la réalisation simultanée des événements A et nonB est 0,25.

La probabilité de l'événement A est 1/3; celle de B se calcule ainsi : on voit sur l'arbre que B peut se réaliser de deux façons, sachant que A a eu lieu ou non. Donc :

p(B) = p(AB) + p(AB)

Techniquement, on fait la somme des probabilités de chaque branche aboutissant à B. La probabilité d'une branche est le produit des probabilités rencontrés sur la branche.

On peut retrouver ce résultat sur un schéma ensembliste où l'on voit que B est la réunion des deux événements incompatibles AB et AB.

Ainsi :

p(B) = p(A) x p(B/A) + p(A) x p(B/A) = 1/12 + 4/9 = 19/36.

Événements indépendants :      

On dit que les événements A et B sont indépendants si pA(B) = p(B) : la réalisation de A n'influence pas celle de B. C'est aussi dire que pB(A) = p(A) ou encore que :

p(AB) = p(A) x p(B)

Or, p(B) = p(AB) + p(AB) et vu que 1 - p(A) = p(A), on obtient  pA(B) = p(B). En définitive, et concrètement, B ne dépend aucunement de la réalisation ou non de A. Ce qui justifie pleinement cette notion d'indépendance en probabilité.


Prouver que si A et B sont indépendants, il en est de même de A et B,  A et BA et B

La situation binaire peut se compliquer par une tierce intervention... : des événements A1, A2, ..., An sont dits 2 à 2 indépendants si pour tout i et j distincts : p(AiAj) = p(Ai) x p(Aj).

Plus généralement, on parle de famille d'événements indépendants {A1, A2, ..., An} (ou mutuellement indépendants) pour exprimer que :

Prob(A1A2 ...An) = Prob(A1)Prob(A2) ...Prob(An)

Dans le cas d'une suite infinie A1, A2, ..., An, ... d'événements, on utilise le même vocabulaire pour signifier que tout famille finie extraite {Ai1, Ai2, ..., Aip} de ces événements constitue une famille d'événements indépendants.

Tribus et indépendance de variables aléatoires :       

  On définit de même l'indépendance de variables aléatoires par l'indépendance des événements qu'elles engendrent.

Plus précisément, dans le cadre du concept de tribu d'événements : Si X est une variable aléatoire à valeurs dans K, définie dans un espace probabilisé Ω et si J K, on vérifie facilement que les sous-ensembles {ωΩ / X(ω) J} constituent une sous-tribu d'événements : on parle de tribu engendrée par X et on dit que les variables aléatoires X1, X2, ..., Xn sont indépendantes pour exprimer que les tribus engendrées par ces variables constituent des familles d'événements indépendants.

  Kolmogorov, Markov  

  Exercices niveau Bac S/ES :

Jeu de dés  solution élémentaire ou probabilités conditionnelles

Fille ou garçon ?  solution élémentaire ou probabilités conditionnelles

Conjonction d'événements & probabilités conditionnelles    (arbre 2 x 2)

Conjonction d'événements & probabilités conditionnelles    (arbre 2 x 3)


Théorème (ou Formule) de Bayes (1763) :

Soit A un événement conséquence a priori d'événements C1, C2, ..., Cn (causes). La formule de Bayes (1763), dite aussi des probabilités des causes peut s'écrire :

                                                                                   
Des pièces usinées sont traitées par l'une ou l'autre des deux machines M1 et M2 d'une unité de production. M1 et M2 fournissent respectivement 60% et 40% de la production.

Les statistiques d'échantillonnage permettent d'estimer respectivement à 2 et 3 pour 1000 les proportions de pièces jugées défectueuses produites par M1 et M2.

Quelle est la probabilité qu'une pièce ainsi jugée provienne de M2 ?

Appelons D l'événement "une pièce est défectueuse". Avec des notations évidentes, nous cherchons à calculer la probabilité p(M2/D), soit :

Ce qui nous donne :

p(M2/D) = 3/1000 x 0,4 / (2/1000 x 0,6 + 3/1000 x 0,4) = 0,5

On a donc 1 chance sur 2 qu'une pièce jugée défectueuse provienne de M2.


Daniel Bernoulli   Cramer
© Serge Mehl - www.chronomath.com