أحدث الموضوعات

Loi de probabilité d'un couple aléatoire discret


1. Loi de probabilité d'un couple aléatoire discret.

1.1. Définition : loi de probabilité conjointe.

Etant donnée un couple de variables aléatoires discrètes (XY) à valeurs réelles ((XY) (WÌ R ²), on appelle loi conjointe de X et Y, l'application de R ² dans R définie par :

(x iy j)  P ({X = x iI {Y = y j})

On écrit aussi :

P ({(XY) = (x iy j)}) = P ({X = x iI {Y = y j})

Le couple aléatoire (XY) n'est plus une variable aléatoire réelle, mais une variable aléatoire à valeurs dans R ².
Une loi conjointe se représente, habituellement, par un tableau dans lequel on met, en marge, les valeurs de X et de Y et, dans les cellules correspondantes, les valeurs de probabilité des événements conjoints {X = x iI {Y = y j} :

X  \  Yy 1...y j...
x 1P ({X = x 1I {Y = y 1})...P ({X = x 1I {Y = y j})...
...............
x iP ({X = x iI {Y = y 1})...P ({X = x iI {Y = y j})...
...............

1.2. Lois marginales.

Etant donnée la loi conjointe d'un couple aléatoire réel discret (XY), la loi marginale de X est la loi de probabilité de X.
Elle se calcule en faisant la somme, pour toutes les valeurs possibles de y j, des probabilités
P ({X = x iI {Y = y j}).
P ({X = x i}) = P ({X = x iI {Y = y j}).
Les lois marginales se représentent, habituellement, par les sommes des lignes et des colonnes du tableau de la loi conjointe :
X  \  Yy 1...y j...Total
Loi marginale de X
x 1P ({X = x 1I {Y = y 1})...P ({X = x 1I {Y = y j})...P ({X = x 1})
..................
x iP ({X = x iI {Y = y 1})...P ({X = x iI {Y = y j})...P ({X = x i})
..................
Total
Loi marginale de Y
P ({Y = y 1})...P ({Y = y j})...1

 1.3. Lois conditionnelles.

Etant donnée la loi conjointe d'un couple aléatoire réel discret (XY), la loi conditionnelle de X pour Y fixé est définie par :

P ({X = x i} | {Y = y j}) = 

La loi conditionnelle de X s'obtient, pour chaque valeur de Y, en divisant la probabilité conjointe dans une case, par la somme de la colonne.
La loi conditionnelle de Y s'obtient, pour chaque valeur de X, en divisant la probabilité conjointe dans une case, par la somme de la ligne :

X  \  Yy 1...y j...Total
Loi marginale de X
x 1P ({X = x 1I {Y = y 1})...P ({X = x 1I {Y = y j})...P ({X = x 1})
..................
x iP ({X = x iI {Y = y 1})...P ({X = x iI {Y = y j})...P ({X = x i})
..................
Total
Loi marginale de Y
P ({Y = y 1})...P ({Y = y j})...1

 1.4. Indépendance.

Les variables aléatoires réelles discrètes X et Y sont dites indépendantes si, et seulement si, la loi conjointe est le produit des lois marginales :

P ({X = x iI {Y = y j}) = P ({X = x i}) × P ({Y = y j})

Sur le tableau de la loi conjointe, complété par les lois marginales, l'indépendance de X et Y se vérifie par le fait que la probabilité dans une case de la loi conjointe est le produit de la somme de la ligne correspondante et de la somme de la colonne correspondante :

X  \  Yy 1...y j...Total
Loi marginale de X
x 1P ({X = x 1I {Y = y 1})...P ({X = x 1I {Y = y j})...P ({X = x 1})
..................
x iP ({X = x iI {Y = y 1})...P ({X = x iI {Y = y j})...P ({X = x i})
..................
Total
Loi marginale de Y
P ({Y = y 1})...P ({Y = y j})...1

 1.5. Espérance conditionnelle, variance conditionnelle.

Théorème de l'espérance conditionnelle.
Soeint X et Y deux variables aléatoires réelles discrètes.
Si E Y (X) désigne l'espérance conditionnelle de X pour Y fixé, l'espérance de X est donnée par :


E (X)= E (E Y (X))

Ce théorème est vrai aussi pour un couple de variables aléatoires réelles quelconques.
Théorème de la variance conditionnelle.
Soeint X et Y deux variables aléatoires réelles discrètes.
Si E Y (X) désigne l'espérance conditionnelle de X pour Y fixé, et Var Y (X) la variance conditionnelle de X pour Y fixé, la variance de X est donnée par :


Var (X) = Var (E Y (X)) + E (Var Y (X))

Ce théorème est vrai aussi pour un couple de variables aléatoires réelles quelconques.

2. Fonction génératrice d'un couple aléatoire discret.

2.1. Définition.

Etant donné un couple (XY) de variables aléatoires réelles à valeurs entières positives, on appelle fonction génératrice du couple (XY), l'application g (XY) de R ² dans R qui, à un couple (uvΠR ² fait correspondre l'espérance mathématique de la fonction aléatoire u X v Y :

g (XY) (uv) = E (u X v Y) = P ({X = mI {Y = n}) u m v n.

Propriété (condition de normalisation).

La somme des probabilités des valeurs du couple (XY) étant toujours égale à 1, on a :

g (XY) (1, 1) = E (1) = P ({X = mI {Y = n}) = 1

2.2. Fonction génératrice et loi de probabilité conjointe.

Etant donné un couple (XY) de variables aléatoires réelles à valeurs entières positives, de fonction génératrice :

g (XY) (uv) = E (u X v Y) = P ({X = mI {Y = n}) u m v n,

le développement de g (XY) (uv) en série de Taylor-Mac Laurin au voisinage de (0, 0), donne

P ({X = mI {Y = n}) =  (0, 0)

La probabilité d'une valeur (mn) du couple (XY) est le coefficient du terme u m v n dans le développement en série entière de la fonction génératrice g (XY) (uv) au voisinage de (0, 0).

2.3. Fonction génératrice et lois marginales.

Etant donné un couple (XY) de variables aléatoires réelles à valeurs entières positives, de fonction génératrice :

g (XY) (uv) = E (u X v Y) = P ({X = mI {Y = n}) u m v n,

la fonction génératrice de X est donnée par :

g X (u) = E (u X) = g (XY) (u, 1)

la fonction génératrice de Y est donnée par :

g Y (v) = E (v Y) = g (XY) (1, v)

2.4. Fonction génératrice et lois conditionnelles.

Etant donné un couple (XY) de variables aléatoires réelles à valeurs entières positives, de fonction génératrice :

g (XY) (uv) = E (u X v Y) = P ({X = mI {Y = n}) u m v n,

la loi conditionnelle de X pour Y fixé est donnée par :

P ({X = m} | {Y = n}) = 

Or :

P ({X = mI {Y = n}) =  (0, 0)
P ({Y = n}) =  (0) =   (1, 0)

donc :

P ({X = m} | {Y = n}) =  

et la fonction génératrice de X pour Y fixé est donnée par :

g X | Y = n (u) = E Y = n (u X) =  u m =  

2.5. Fonction génératrice et indépendance.

Etant donné un couple (XY) de variables aléatoires réelles à valeurs entières positives, de fonction génératrice :

g (XY) (uv) = E (u X v Y) = P ({X = mI {Y = n}) u m v n,

la condition d'indépendance

P ({X = mI {Y = n}) = P ({X = m}) × P ({Y = n})

se traduit par :

g (XY) (uv) = P ({X = m}) × P ({Y = n}) u m v n
P ({X = m}) u m×P ({Y = n}) v n
g X (ug Y (v)

Pour que les variables aléatoires à valeurs entières positives X et Y, soient indépendantes, il faut et il suffit que la fonction génératrice conjointe soit égale au produit de la fonction génératrice de X et de la fonction génératrice de Y.
Il revient d'ailleurs au même de dire que les variables X et Y sont indépendantes si, et seulement si, la fonction génératrice conjointe est produit de deux fonctions d'une seule variable.


2.6. Espérance, variance, covariance.

Etant donné un couple (XY) de variables aléatoires réelles à valeurs entières positives, de fonction génératrice :

g (XY) (uv) = E (u X v Y) = P ({X = mI {Y = n}) u m v n,

L'espérance de X est donnée par : E (X) = g ' X (1) = (1,1)
L'espérance de Y est donnée par : E (Y) = g ' Y (1) =  (1,1)
La variance de X est donnée par :
Var (X) = g " X (1) + g ' X (1) – (g ' X (1)) ²
     =  (1, 1) +  (1, 1) – (1, 1)
La variance de Y est donnée par :
Var (Y) = g " Y (1) + g ' Y (1) – (g ' Y (1)) ²
     =  (1, 1) +  (1, 1) –  (1, 1)
La covariance de X et Y, définie par l'espérance du produit des aléatoires centrées X – E (X) et Y – E (Y), est donnée par la formule de la covariance :

Cov (XY) = E (X Y) – E (XE (Y)

On trouve ici, en fonction de la fonction génératrice conjointe :
Cov (XY) =  (1, 1) –  (1, 1) ×  (1, 1)

3. Variable aléatoire discrète à n dimensions.

Les résultats obtenus, valables dans R ², peuvent être généralisés à R n, à ceci près qu'il faudra distinguer, pour une famille de n variables aléatoires réelles, entre l'indépendance de la famille dans son ensemble (la probabilité conjointe est le produit des probabilités marginales) et l'indépendance des variables aléatoires deux à deux (la probabilité conjointe de deux variables aléatoires quelconques de la famille est le produit des probabilités marginales de ces deux variables aléatoires).
L'indépendance de la famille dans son ensemble entraîne l'indépendance des variables deux à deux, mais la réciproque est fausse.

ليست هناك تعليقات