notions de
probabilités
· Population statistique : ensemble P constitué de N éléments appelés unités statistiques (notées u.s.) ou individus. Le nombre N est appelé nombre de cas possibles.
· événement : sous-ensemble de la population P. Le nombre NA d’u.s. appartenant à un événement A est appelé « nombre de cas favorables ».
· Il existe deux événements très particuliers :
§ L’événement certain caractérisé par la population P.
§ L’événement impossible ou ensemble vide noté par la lettre grecque F (phi).
· B est inclus dans A si tous les éléments de B appartiennent à A.
· L’ensemble « A inter B » ou événement « A et B » noté AÇB, est constitué des éléments qui appartiennent à la fois à A et à B.
· L’ensemble « A union B » ou événement « A ou B » noté AÈB est constitué des éléments de A, de B ou de A et B (figure 2). On dit que le « ou » est inclusif.
· le sous-ensemble complémentaire Bc d’un sous-ensemble B (figure 4) est défini par le sous-ensemble A tel que :
AÈB = P |
AÇB = F. |
On considère une population P d’effectif N et un événement A d’effectif NA.
Définition : on appelle probabilité de l’événement A le rapport NA/N « du nombre de cas favorables NA au nombre de cas possibles N ».
Définition : Tirages avec et sans remise :
· L’unité statistique tirée peut être remise dans la population et être éventuellement retirée : le tirage est dit indépendant puisqu’il n’exerce aucune influence sur les tirages suivants.
· Inversement, si l’u .s. n’est pas remise, les nombres NA et N sont diminués de 1 : après le premier tirage, la probabilité de l’événement A devient (NA – 1)/(N – 1) et n’est plus la même : les tirages sont « dépendants » ou « sans remise ».
0 £ P(A) £ = 1 |
P(P) = 1 P(F) = 0 |
P(Ac) = 1 – P(A) |
P(AÈB) = P(A) + P(B) – P(AÇB) |
B Ì A Þ P(B)
£ P(A) |
Définition : La probabilité conditionnelle d’un événement B pour un événement A fixé de probabilité non nulle est définie de la façon suivante :
P(B/A) = P(BÇA)/P(A) |
Définition : on dit que deux événements A et B sont indépendants quand la réalisation de l’un ne modifie pas la probabilité de l’autre. La probabilité de l’événement A Ç B est alors égale au produit des probabilités :
Formule de Bayes : soit A un événement de P. On considère un événement B
et son complémentaire Bc . On a :
|
|
P(A/B)
P(B) |
P(B/A) |
= |
___________________________________ |
|
|
P(A/B)
P(B) + P(A/Bc) P(Bc) |
Définition : on appelle variable aléatoire (notée v.a.) une application qui à chaque u.s. de P associe un objet ou un nombre appartenant à un ensemble V.
P
|
______> |
V |
· X discrète : V Ì N
· X qualitative : V = ensemble de modalités
L’événement « XÎ V » est l’ensemble des u.s. de P telles que X(u) appartienne à V :
P{ XÎ V } = P{u Î P ;
X(u) Î V}= P [X-1 (V)] |
Définition : la loi (ou densité) de probabilité d’une v.a. discrète dont les valeurs possibles sont 1, 2, ..., i, ..., …n est la suite de toutes les probabilités pi = P(X = i).
· Propriété: toutes les probabilités pi sont positives ou nulles et leur somme est est égale à 1.
|
pour tout i de 1 à n |
pi ³0 |
|
|
|
|
|
|
|
n |
|
|
|
|
p1
+ p2 + p3 + ... pi + … + pn |
= |
S |
pi |
= |
1 |
|
|
|
i = 1 |
|
|
|
· Calcul de probabilité : on considère des nombres entiers x1, x2, …, xl. On a :
P[ X Î{x1, x2, ..., xl}]= P[ X = x1] + P[ X = x2] + ... + P[ X = xl]
|
|
l |
|
|
P[ X Î{x1, x2, ..., xl}] |
= |
S |
P[ X = xj] |
|
|
|
j = 1 |
|
|
· Espérance E(X) (ou moyenne m) :
m = E(X) = p1 x1 + p2
x2 + ... pi xi
+ … pn xn
|
|
n |
|
m = E(X) |
= |
S |
pi
xi |
|
|
i = 1 |
|
· Variance V(X) (ou écart type s) :
s2 = V(X) =
p1 (x1 – m)2 +
p2 (x2 – m)2 + ...
+ pi (xi – m)2
+ ... + pn
(xn – m)2
|
|
n |
|
s2
= V(X) |
= |
S |
pi (xi – m)2 |
|
|
i = 1 |
|
s2 = p1
x12 + p2 x22 + ... + pi xi 2
+ … + pn xn2 – m2
|
|
n |
|
s2
= V(X) |
= |
S |
pi xi 2
– m2 |
|
|
i = 1 |
|
F(x) = P(X £ x) |
· Propriétés de l’espérance et de la variance :
E(a X + b Y ) = a E(X) + b E(Y) |
V(a X+ b ) = a2 V(X) |
densité
par intervalle :
di = Pi/li
où Pi est la probabilité de l’intervalle Ii et li est l’amplitude de l’intervalle Ii.
Relation fondamentale : Pi = di x li |
Définitions :
· On appelle densité de probabilité d’une variable continue la fonction f(x) limite de la densité par intervalle lorsque le nombre d’observations augmente indéfiniment et que la longueur des intervalles tend vers 0.
F(x) =
P(X £ x) |
· La dérivée de la fonction de répartition F(x) est égale à densité f(x).
Propriétés des probabilités
· Aire comprise entre la courbe et l’axe des abscisses de -¥ à + ¥ : 1.
· P { X Î [ a, b] } (ou { X Î [ a, b [ } ) : aire comprise entre la densité, l’axe des abscisses et les droites x = a et x = b.
·
P( XÎ ] a, b ]) = P( XÎ [ a, b [ ) = P( XÎ ] a, b [ ) = P( XÎ [ a, b ])
·
Soit c
Î ] a, b[ : P( XÎ [ a, b ]) = P( XÎ [ a, c [ ) + P( XÎ [ c, b [ )
·
P( XÎ ] – ¥, a ]) = F(a), P( XÎ ] a, + ¥ ]) = 1 – F(a)
· Espérance et variance : limites de l’espérance et de la variance en considérant la densité par intervalles.
|
|
· Propriétés de l’espérance et de la variance :
E(a X + b Y ) = a E(X) + b E(Y) |
V(a X+ b ) = a2 V(X) |