2. Variables aléatoires. lois de probabilité.

2.1 Variables aléatoires

Définition : on appelle variable aléatoire (notée v.a.) une application qui à chaque u.s. tirée au hasard dans W associe un objet ou un nombre appartenant à un ensemble V.

X :

W

______>

V

·           La v.a. X est appelée discrète si l’ensemble V est inclus dans l’ensemble des entiers N (ou si elle prend un nombre fini de valeurs x1, x2, …, xn).

·           La v.a. X est appelée continue si l’ensemble V est égal à l’ensemble des réels R ou à un intervalle de R. Nous apporterons des précisions ultérieurement.

·           La v.a. X est appelée qualitative si l’ensemble V est un ensemble de modalités (par ex. la liste des couleurs des cheveux, des catégories socioprofessionnelles, etc.)

Exemple : on considère les variables aléatoires définies sur l’ensemble de la clientèle d’EUROMARKET suivantes :

l’âge X1,

le nombre d’enfants X2,

le revenu X3,

la catégorie socioprofessionnelle X4,

le montant de ses achats X5.

le sexe X6.

L’âge, le revenu, le montant des achats définissent des variables aléatoires quantitatives ; ce sont des variables aléatoires « réelles », dont les valeurs appartiennent à l’ensemble R des nombres réels.

X1, X3, X5 :

W

______>

V = R

Le sexe et la catégorie socioprofessionnelle définissent des variable aléatoires qualitatives dont les modalités sont pour le sexe F pour Féminin et M pour Masculin et pour la catégorie socioprofessionnelle :

Agri : agriculteur ; ouvrier agricole

C.M. : cadre moyen ;

Ouv. : ouvrier

C.Sup. : cadre supérieur;

Emp. : employé ;

PIC : Commerçants, artisans ;

 

Inact. : inactifs, retraités, chômeurs, étudiants .

Le nombre d’enfants est une variable aléatoire discrète puisqu’elle prend les valeurs 0, 1, 3, .... La notion de moyenne ayant un sens, c’est une variable quantitative.

2.2 Probabilité d’un intervalle.

Soit X une v.a. et I un sous-ensemble de V. On appelle événement « XÎ I » l’ensemble A des u.s. u de la population telles que X(u) Î I.

On note NA le nombre d’unités statistiques de A. On a donc :

P [XÎI] = NA/N

 

Chaque variable aléatoire X « transporte » donc la probabilité P définie sur la population statistique W sur l’ensemble X(W ), en général l’ensemble des nombres réels R (figure5.4) . Cette probabilité transportée est notée fréquemment PX,

 

Définition : on appelle loi de probabilité de la variable X la probabilité définie sur W transportée par X sur R.

Exemple : On considère l’âge (v.a. X1) : . L’événement 33£ X1£ 45 est défini par l’ensemble A des clients âgés de 33 à 45 ans. La probabilité P(33£ X1£ 45) est égale par définition à la probabilité P(A), c’est-à-dire à la proportion de clients âgés de 33 à 45 ans dans la population totale.

On considère le sexe (v.a. X6). L’événement {X6 = F} est défini par l’ensemble B des clients de sexe féminin. La probabilité P(X6= F) est égale par définition à P(B), c’est-à-dire à la proportion de clientes dans la population totale.

2.3 Loi de probabilité d’une v.a. discrète.

Définition : la densité de la loi probabilité (ou densité de probabilité) d’une v.a. discrète dont les valeurs possibles sont x1, x2, ..., xi, ..., …xi, …, xn est définie par la suite de toutes les probabilités pi = P(X = xi), i = 1, …, n.

 

Dans le cas où il existe une infinité de valeurs possibles de la v.a. X, on supposera que les sommes de 1 à n données ci-dessous tendent vers une limite lorsque n tend vers l’infini ; la notation consiste simplement à remplacer n par + ¥.

 

Exemple : on considère la variable définie par le nombre d’enfant. Sa loi de probabilité est la suite p0, p1, p2, ... définie par :

p0 = nombre de clients sans enfant / nombre total de clients

p1 = nombre de clients ayant 1 enfant / nombre total de clients

p2 = nombre de clients ayant 2 enfants / nombre total de clients

etc.

 

Propriétés :

·        la probabilité P[XÎ{x1, x2, ..., xl}] est la somme des probabilités P[ X = x1], P[ X = x2], ..., P[ X = xl] :

P[ X Î{x1, x2, ..., xl}]= P[ X = x1] + P[ X = x2] + ... + P[ X = xl]

·        la somme de toutes les probabilités pi est égale à 1 :

 

 

n

 

 

 

p1 + p2 + p3 + ... pi + … + pn

=

S

pi

=

1

 

 

i = 1

 

 

 

 

Ces propriétés découlent directement de la définition de la probabilité par le rapport du nombre de cas favorables au nombre de cas possibles.

Définitions :

·        l’espérance E(X) (ou moyenne m) d’une v.a. discrète prenant les valeurs x1, x2, ..., xi, ..., xn est la somme ci-dessous :

m = E(X) = p1 x1 + p2 x2 + ... pi xi + … pn xn

Soit :

 

 

n

 

m = E(X)

=

S

pi xi

 

 

i = 1

 

 

·        la variance V(X) (ou s2) d’une v.a. discrète prenant les valeurs x1, x2, ..., xi, ..., xn est la somme ci-dessous :

s2= V(X)

= p1 (x1m)2 + p2 (x2m)2 + ... + pi (xim)2 + ... + pn (xnm)2

 

 

n

 

 

s2 = V(X)

=

S

pi (xim)2

 

 

 

i = 1

 

 

 

On montre que cette variance est égale à

s2  =   p1 x12 + p2 x22 + ... + pi xi 2 + … + pn xn2m2

 

 

n

 

s2 = V(X)

=

S

pi xi 2m2

 

 

i = 1

 

 

c’est-à-dire à l’espérance des carrés moins le carré de l’espérance.

Le terme s est appelé écart-type.

·     La fonction de répartition théorique est une fonction définie pour toute valeur réelle x par la relation ci-dessous :

F(x) = P(X £ x)

 

Remarque : nous retrouvons les définitions déjà vues de la moyenne, de la variance et de la fonction de répartition d’une série d’observations, mais ici il s’agit de valeurs théoriques, concernant une variable aléatoire, et non une suite de valeurs observées. La statistique consiste justement à trouver des valeurs approchées de ces paramètres et de la fonction, les meilleures si possible, et à en étudier les propriétés.

2.4 Loi de probabilité d’une v.a. continue.

On considère une v.a. continue X. Nous allons définir la densité de la loi de probabilité de cette variable en plusieurs étapes. On définit tout d’abord des intervalles disjoints recouvrant l’ensemble des valeurs possibles de la variable X : I1, I2, ..., Ii..., Ik.

On en déduit les probabilités P1, P2,..., Pi, ...Pk :

Pi = P(XÎIi)

Densité par intervalle :

On appelle densité par intervalle définie sur k intervalles Ii, i = 1, …, k la suite (di) i = 1, …, k définie par :

di = Pi/li

li est l’amplitude de l’intervalle Ii.

Relation fondamentale : Pi = di x li

 

Remarque : en supposant que la population est d’effectif fini N, les probabilités P1, P2,..., Pi, ...Pk sont définies de la façon suivante :

Pi = P(XÎIi) = Ni / N

et la densité par intervalle de l’intervalle Ii de longueur li par :

di =  ( Ni / N) / li

La notion de densité par intervalle d’une variable aléatoire est donc la même que celle que nous avons définie dans le chapitre 1 pour construire des histogrammes. Mais la densité est ici calculée à partir des probabilités et non des proportions.

 

Exemple : on considère la variable montant des achats que l’on suppose toujours compris entre 0 et 1000F. On définit les intervalles :

 

I1 = [0, 200[

I2 = [200, 500[

I3 = [500, 800[

I4 = [800, 1000]

 

On suppose N = 15 000, N1 = 3000, N2 = 4700, N3 = 4400, N4 = 2900.

On en déduit la densité par intervalle :

 

d1 = 0.0010

d2 = 0.001044

d3 =0.000978

d4 = 0.000967

 

Définition : on appelle densité de probabilité d’une variable continue la fonction f(x) limite de la densité par intervalle lorsque le nombre d’observations augmente indéfiniment et que la longueur des intervalles tend vers 0.

 

Cette définition repose sur l’hypothèse de la convergence du rapport Pi/li dont le numérateur Pi =Ni / N et le dénominateur li tendent vers 0. Dans le cas d’une population finie, la densité de l’intervalle Ii de centre noté x est :

di = ( Ni/N ) / li

Lorsque N tend vers l’infini et que li tend vers 0, le numérateur Ni / N tend vers 0 et le dénominateur li aussi : la limite du rapport est indéterminée. L’hypothèse que l’on effectue pour définir les v.a. continues consiste à supposer que la limite du rapport existe, dépend du centre de l’intervalle et est donc de la forme f(x). Lorsque cette limite n’existe pas, la variable n’est pas continue : nous n’étudierons pas ce genre de variable aléatoire.

 

Exemple : nous considérons une population constituée de 15 000 valeurs que nous répartissons en 20 classes de même amplitude. La densité par intervalle suivant ces 20 classes est représentée par l’histogramme (figure 6). La densité théorique (ici la densité de la loi normale définie plus loin) est la courbe superposée à cet histogramme.

2.5 Propriétés et calcul des probabilités.

·           L’aire comprise entre la courbe et l’axe des abscisses de –¥ à + ¥ est égale à 1. En effet, cette aire est la limite de la somme des aires des rectangles, qui est la somme des probabilités Pi, donc toujours égale à 1.

·           La probabilité de l’événement { X Î [ a, b] } (ou { X Î [ a, b [ } ) est égale à l’aire comprise entre la densité, l’axe des abscisses et les droites x = a et x = b. Une approximation de cette aire est donnée par l’aire du rectangle défini par l’intervalle [a, b] et la densité dans cet intervalle (figure 6).

·           On définit l’espérance et la variance en considérant la densité par intervalle. Pour des intervalles Ii fixés, on peut calculer l’espérance et la variance comme dans le cas des variables aléatoires discrètes. En nous limitant à la notion d’espérance (le raisonnement est identique dans le cas de la variance), on étudie la somme :

 

n

 

p1 x1 + p2 x2 + ... pi xi + … pn xn =

S

pi xi

 

i = 1

 

Lorsque la longueur des intervalles Ii tend vers 0 et que le nombre d’observations augmente indéfiniment, le nombre n tend vers l’infini et les probabilités pi deviennent égales aux produits f(xi) li par définition de la densité f(x). L’espérance est alors la limite de la somme ci-dessus.

Ces propriétés s’expriment de façon simple par le calcul intégral élémentaire.

·           La probabilité de l’événement { X Î ] a, b] } est l’intégrale de la densité définie entre x = a et x = b.

 

·        L’intégrale entre – ¥ et + ¥ est égale à 1.

·        Cette intégrale est égale à F(b) – F(a), où F(x) est une primitive de la densité f(x) (ou la dérivée de F(x) est égale à la densité f(x)).

·        L’espérance et la variance sont définies de la façon suivante :

·           La fonction F(x) définie par la relation ci-dessous :

F(x) = P(X £ x)

est appelée fonction de répartition de la v.a. Sa dérivée est égale à la densité f(x). On a :

P(a < X £ b) = F(b) – F(a)

La démarche pratique ne fait presque jamais appel au calcul intégral. Dans la quasi totalité des cas en effet, F(a) et F(b) sont donnés dans une table numérique ou calculés par ordinateur (on en trouvera des exemples dans le paragraphe ci-dessous).

Pour calculer les probabilités d’événements dans le cas d’une v.a. continue, on utilise les propriétés suivantes :

·                   P( XÎ ] a, b ]) = P( XÎ [ a, b [ ) = P( XÎ ] a, b [ ) = P( XÎ [ a, b ])

·                   Soit c Î ] a, b[ : P( XÎ [ a, b ]) = P( XÎ [ a, c [ ) + P( XÎ [ c, b [ )

·                   P( XÎ ] – ¥, a ]) = F(a)

·                   P( XÎ ] a, + ¥ ]) = 1 – F(a)

 

Pour calculer l’espérance et la variance des v.a., on utilise les propriétés suivantes :

·                   E(a X + b Y ) = a E(X) + b E(Y)

·                   V(a X+ b ) = a2 V(X)