ChronoMath, une chronologie des MATHÉMATIQUES
à l'usage des professeurs de mathématiques, des étudiants et des élèves des lycées & collèges

PEARSON Karl, anglais, 1857-1936

Mathématicien, physicien, historien, Pearson eut Burnside, Cayley et Stockes comme professeurs à l'université de Cambridge. Il fut grandement impressionné par son compatriote Francis Galton, éminent savant, physiologiste, fondateur de l'eugénisme visant à  parfaire les caractères génétiques de l'espèce humaine. Il sera d'ailleurs l'éditeur de Biometrika, fondé par Galton, et à l'origine des Annals of Eugenics (1925).

L'influence de ce dernier, qui fut tuteur de sa thèse (1879), le conduit finalement vers la statistique et il enseignera à l'University College de Londres après avoir poursuivi des études en sciences humaines en Allemagne (métaphysique, darwinisme).

Très importants travaux sur les distributions statistiques, la corrélation, les problèmes d'estimation sur échantillons pour lesquels il collabora avec Gosset, alias Student et Fisher (malgré des désaccords). Pearson est souvent considéré comme le fondateur de la statistique moderne. Son fils Egon Sharpe fut également statisticien.

Les notions de base de la statistique descriptive :

Loi de Pearson, dite loi du  χ2 , lire « khi 2 » , test du  χ2 :

Introduite par Pearson en 1900, cette célèbre loi de probabilités fut en fait préalablement étudiée par l'astronome et géodésien allemand Friedrich Robert Helmert (1843-1917), auteur d'une Théorie mathématique et physique de géodésie supérieure (1880) dans le cadre de la théorie des erreurs.

Son usage permet de confirmer ou infirmer avec un seuil de sûreté choisi par le statisticien (exprimé en termes de pourcentages), une hypothèse faite sur un phénomène aléatoire. La probabilité que χ2 soit inférieur à un réel α (seuil de probabilité) donné positif est :

 Étude de la loi de Pearson :

On doit en outre à Pearson :
 Huygens , Koenig             Cas d'une variable aléatoire continue

 
Diagramme en barres, médiane, classe modale , Diagramme circulaire et histogramme, Contrôle de vitesse

Compris entre -1 et 1, il indiquera une présomption de liaison linéaire entre les deux séries d'autant qu'il sera proche de 1 en valeur absolue. Si r = ±1, X et Y sont liés par une relation affine de type Y = aX + b.

   exercice un peu tristounet...

Le coefficient de corrélation r n'est autre que le quotient de cov(X,Y) par le produit σxσy σx et σy sont les écart-types respectifs de X et Y. On  remarque alors que l'on a r = cov(X',Y') où X' et Y' désignent les formes centrées et réduites de X et Y :

En termes de probabilité, si les phénomènes X et Y désignent des variables aléatoires indépendantes, r est nul. L'indépendance entre X et Y se détermine par un calcul sur les fréquences d'apparition des phénomènes X et Y (calcul des fréquences marginales).

  Pour en savoir plus :


Lyapunov  Goursat
© Serge Mehl - www.chronomath.com