ChronoMath, une chronologie des MATHÉMATIQUES
à l'usage des professeurs de mathématiques, des étudiants et des élèves des lycées & collèges

PEARSON Karl, anglais, 1857-1936

Mathématicien, physicien, historien, Pearson eut Burnside, Cayley et Stockes comme professeurs à l'université de Cambridge. Il fut grandement impressionné par son compatriote Francis Galton, éminent savant, physiologiste, fondateur de l'eugénisme visant à  parfaire les caractères génétiques de l'espèce humaine. Il sera d'ailleurs l'éditeur de Biometrika, fondé par Galton, et à l'origine des Annals of Eugenics (1925).

L'influence de ce dernier, qui fut tuteur de sa thèse (1879), le conduit finalement vers la statistique et il enseignera à l'University College de Londres après avoir poursuivi des études en sciences humaines en Allemagne (métaphysique, darwinisme).

Très importants travaux sur les distributions statistiques, la corrélation, les problèmes d'estimation sur échantillons pour lesquels il collabora avec Gosset, alias Student et Fisher (malgré des désaccords). Pearson est souvent considéré comme le fondateur de la statistique moderne. Son fils Egon Sharpe fut également statisticien.

Les notions de base de la statistique descriptive :

Loi de Pearson, également dite loi du  χ2  (lire « khi 2 ») , test du  χ2 :

Introduite par Pearson en 1900, cette célèbre loi de probabilités fut en fait préalablement étudiée par l'astronome et géodésien allemand Friedrich Robert Helmert (1843-1917), auteur d'une Théorie mathématique et physique de géodésie supérieure (1880) dans le cadre de la théorie des erreurs.

Son usage permet de confirmer ou infirmer avec un seuil de sûreté choisi par le statisticien (exprimé en termes de pourcentages), une hypothèse faite sur un phénomène aléatoire. La probabilité que χ2 soit inférieur à un réel α (seuil de probabilité) donné positif est :

 Étude de la loi de Pearson :             Student

On doit en outre à Pearson :

Dans une classe de niveau normal, il est n'est pas anormal d'obtenir des diagrammes de notes rappelant la cloche de Gauss (série unimodale), c'est à dire la loi normale...

 Huygens , Koenig

Cas des études statistiques à deux variables :              Cas d'une variable aléatoire continue :

 
Diagramme en barres, médiane, classe modale , Diagramme circulaire et histogramme, Contrôle de vitesse

σx et σy sont les écarts-types respectifs de X et Y, racines carrées de leur variance. Le coefficient de corrélation est compris entre -1 et 1 car cov2(X,Y) V(X)V(Y) et si X' et Y' désignent les formes centrées et réduites de X et Y, à savoir :

        

le coefficient de corrélation est inchangé r = cov(X,Y) = r = cov(X',Y').

Étude statistique à deux variables :

Le coefficient de corrélation indique une présomption de liaison linéaire entre les deux séries d'autant qu'il sera proche de 1 en valeur absolue. Si r = ± 1, X et Y sont liés par une relation affine de type Y = aX + b.  La justification du choix de ce coefficient r est donnée en complément sur la page relative à la méthode des moindres carrés.

- Lorsque les phénomènes X et Y désignent des variables aléatoires indépendantes, le coefficient de corrélation r est nul car dans ce cas l'espérance du produit XY est le produit des espérances de X et de Y, ce qui annule la covariance. L'indépendance entre X et Y se détermine par un calcul sur les fréquences d'apparition des phénomènes X et Y (calcul des fréquences marginales).

- Inversement, un coefficient de corrélation faible, voire nul, ne signifie pas qu'il y a indépendance : la corrélation linéaire est un cas particulier de relation fonctionnelle entre deux variables aléatoires ou statistiques. On peut plus généralement chercher à approcher un nuage de point statistique par une courbe de type y = f(x) : on parle de régression, laquelle peut être linéaire, polynomial, logarithmique, exponentielle, etc.

- Dans le cas de la méthode des moindres carrés, le minimum de la somme Δ des carrés des écarts par rapport à la droite de régression de y en x est égal à (1 - r2)V(Y), et à (1 - r2)V(X) par rapport à la droite de régression de x en y

En considérant la racine carrée (1 - r2)1/2σ(Y), on estime qu'une corrélation linéaire pertinente correspond à des écarts en ordonnée n'excédant pas, en valeur absolue, ½σ(Y), soit la moitié de l'écart-type des yi. Ce qui conduit à 1 - r2 < 1/4, soit r > 3/2 0,87. Si | r | < 0,5, la présomption de linéarité est faible. Même conclusion relativement à la droite de régression de x en y.

Méthode des moindres carrés, corrélation linéaire, programme en ligne :

  
extrait BTS gestion 1990 | Exercice un peu tristounet... | Usure des pneus et puissance fiscale (couple pondéré) |


  Pour en savoir plus :


Lyapunov  Goursat
© Serge Mehl - www.chronomath.com