Couples de variables aléatoires

Un article de wiki sillages.info.

Ce résumé est basé sur le programme de mathématiques de première année des classes préparatoires aux grandes écoles économiques et commerciales, voie scientifique (ECS1). Un résumé complet du programme de mathématiques ECS1 est proposé sur la Plate-forme SILLAGES.

On pourra au préalable consulter l'article sur les variables aléatoires discrètes.

Sommaire

Loi conjointe d’un couple (X,Y) de variables aléatoires discrètes

Si X(\Omega)=\{x_i/i\in I\} et Y(\Omega)=\{y_j/j\in J\}, la loi conjointe est définie par : \forall(i,j)\in I\times J\quad p_{i,j}=P[(X=x_i)\cap(Y=y_j)].

Propriétés : \forall(i,j)\in I\times J\quad 0\leq p_{i,j}\leq 1\quad\mathrm{et}\quad\sum_{(i,j)\in I\times J}p_{i,j}=1.

Lois marginales d’un couple (X,Y) de variables discrètes

Ce sont les lois de X et de Y. On les déduit de la loi conjointe :

Loi de X : \forall i\in I\quad P(X=x_i)=\sum_{j\in J}P[(X=x_i)\cap(Y=y_j)].

Loi de Y : \forall j\in J\quad P(Y=y_j)=\sum_{i\in I}P[(X=x_i)\cap(Y=y_j)].

Lois conditionnelles de variables discrètes

La loi conditionnelle de X sachant (Y=y_j) est définie par les probabilités P_{(Y=y_j)}(X=x_i) pour tout i\in I.

La loi conditionnelle de Y sachant (X=x_i) est définie par les probabilités P_{(X=x_i)}(Y=y_j) pour tout j\in J.

On peut en déduire la loi conjointe :

  • P[(X=x_i)\cap(Y=y_j)]=P_{(X_i=x_i)}(Y=y_j)(P(X=x_i)
  • P[(X=x_i)\cap(Y=y_j)]=P_{(Y_i=y_j)}(X=x_i)(P(Y=y_j)

On peut en déduire les lois marginales :

  • \forall i\in I\quad P(X=x_i)=\sum_{j\in J}P_{(Y=y_j)}(X=x_i)P(Y=y_j).
  • \forall j\in J\quad P(Y=y_j)=\sum_{i\in I}P_{(X=x_i)}(Y=y_j)P(X=x_i).

Loi de Z=f(X,Y) si les variables X et Y sont discrètes

Si Z=f(X,Y) et si l'on note : \forall z\in Z(\Omega)\quad K(z)=\{(i,j)\in I\times J/f(x_i,y_j)=z\} alors :

\forall z\in Z(\Omega)\quad P(Z=z)=\sum_{(i,j)\in K(z)}P[(X=x_i)\cap(Y=y_j)].

Théorème de transfert :

Si Z=f(X,Y), alors sous réserve d'existence : E(Z)=\sum_{(i,j)\in I\times J}f(x_i,y_j)P[(X=x_i)\cap(Y=y_j)].

Exemples :

E(X+Y)=\sum_{(i,j)\in I\times J}(x_i+y_j)P[(X=x_i)\cap(Y=y_j)].

E(XY)=\sum_{(i,j)\in I\times J}x_iy_jP[(X=x_i)\cap(Y=y_j)].

Somme de deux variables aléatoires discrètes

Il y a deux manières de déterminer sa loi :

P(X+Y=z)=\sum_{i\in I}P[(X=x_i)\cap(Y=z-x_i)]

P(X+Y=z)=\sum_{j\in J}P[(Y=y_j)\cap(X=z-y_j)]

Espérance : E(X+Y)=E(X)+E(Y)

Variance : V(X+Y)=V(X)+V(Y)+2\mathrm{cov}(X,Y)

Covariance du couple (X,Y)

\mathrm{cov}(X,Y)=E([X-E(X)][Y-E(Y)])

Propriété : \mathrm{cov}(X,Y)=E(XY)-E(X)E(Y)

Inégalité de Schwarz : |\mathrm{cov}(X,Y)|\leq\sqrt{V(X)V(Y)}

Si \mathrm{cov}(X,Y)=0 on dit que X et Y sont non corrélées.

Coefficient de corrélation linéaire du couple (X,Y)

\rho(X,Y)=\dfrac{\mathrm{cov}(X,Y)}{\sigma(X)\sigma(Y)}

Propriété : -1\leq\rho(X,Y)\leq 1

Plus |\rho(X,Y)| est voisin de 1, plus la corrélation de X et Y est forte.

Indépendance de deux variables aléatoires discrètes

X et Y sont indépendantes si :

\forall(i,j)\in I\times J\quad P[(X=x_i)\cap(Y=y_j)]=P(X=x_i)\times P(Y=y_j)

Propriétés : Si X et Y sont indépendantes :

E(XY)=E(X)E(Y)

\mathrm{cov(X,Y)}=0\quad\mathrm{donc}\quad\rho(X,Y)=0

V(X+Y)=V(X)+V(Y)

Indépendance de n variables aléatoires discrètes

Les variables aléatoires discrètes X_1,...,X_n sont mutuellement indépendantes si :

\forall(x_1,...,x_n)\in\mathbb R^n\quad P\left[\bigcap_{i=1}^{n}(X_i=x_i)\right]=\prod_{i=1}^{n}P(X_i-x_i)

Alors toute fonction des variables X_1,...,X_k est indépendante de toute fonction des variables X_{k+1},...,X_n.

Propriété :

V(X_1+...+X_n)=V(X_1)+...+V(X_n) si les variables sont indépendantes.


--CatherineLaidebeure 29 juillet 2010 à 13:32 (CEST)