next up previous
Next: About this document ...

VARIABLES ALÉATOIRES CONTINUES

IUT de ROUEN - Marc HAUCHEMAILLE

Version AcrobatReader(pdf)
I) DENSITÉ DE PROBABILITÉ
1) Définition :

Une densité de probabilité est une fonction définie et intégrable sur R telle que :

$\displaystyle \left\lbrace
\begin{array}{l}
\forall t \in \mathbb{R}\quad f(t)\geqslant 0 \\
\int\limits_{\mathbb{R}}f(t)\,dt=1
\end{array}\right.
$

2) Exemple : Densité de Cauchy

$\displaystyle f(t)=\frac{1}{\pi(1+t^{2})}$

\includegraphics[scale=0.75]{cauchy.eps}
II) VARIABLE ALÉATOIRE CONTINUE
1) Définition approximative : On dit que la variable aléatoire X admet la densité de probabilité f lorsque :

$\displaystyle P(X\leqslant x)=\int\limits_{-\infty}^{x} f(t)\,dt$

L'ensemble des valeurs possibles d'une variable continue est un intervalle ou une réunion d'intervalles.

2) Fonction de répartition : La fonction F définie par :

$\displaystyle F(x)=P(X\leqslant x)=\int\limits_{-\infty}^{x}f(t)\,dt$

est appelée fonction de répartition de la variable aléatoire X. Dans le cas où on réalise un grand nombre de mesures de la même variable dans les conditions de répétabilité, la fonction de réartition est la proportion de valeurs qui tomberont à gauche de la valeur x.

La dérivée de la fonction de répartition est la densité de probabilité.

Graphiquement, il s'agit de l'aire délimitée par la courbe, l'axe des abscisses et à gauche de la droite d'abscisse x parallèlle à l'axe des ordonnées.

Dans le cas d'une variable aléatoire X admettant la densité de probabilité de Cauchy, la probabilité de tomber à gauche de 1 est :

$\displaystyle \int\limits_{-\infty}^{1}\frac{dt}{\pi(1+t^{2})}=
\frac{1}{\pi}\left(\,\textrm{arctg}\,1 - \frac{-\pi}{2}\right)=
\frac{3}{4}
$

Sur un grand nombre d'essais, environ 75% des essais fourniront une valeur inférieure à 1.

3) Sens de variation de la fonction de répartition :

Sa dérivée est positive puisque c'est la densité de probabilité. Elle est donc continue et croissante sur $ \mathbb{R}$. Elle tend vers 0 au voisinage de $ -\infty$ et elle tend vers 1 au voisinage de $ +\infty$.

4) Fonction de répartition droite :

Elle est égale à $ P(X\geqslant x)=1-F(x)$.

C'est l'aire située sous la courbe, à droite de l'abscisse x. Elle est fournie par les calculateurs HP48G pour certaines densités fréquemment utilisées.

5) Probabilité d'un intervalle :

La probabilité pour que X tombe dans l'intervalle $ [\,a\;;\;b\,]$ est donnée par :

\fbox{\begin{minipage}{8cm}
$P(a\leqslant X \leqslant b)=
\int\limits_{a}^{b}f(t)\,dt=F(b)-F(a)
$
\end{minipage}}
Il en résulte que, pour une valeur donnée x, on aura $ P(X=x)=0$ puisque les bornes de l'intégrale sont confondues.
III) PARAMÈTRES D'UNE VARIABLE ALÉATOIRE CONTINUE
1) Espérance mathématique:

X admettant la densité de probabilité f, on appelle espérance mathématique de X l'intégrale :

\fbox{\begin{minipage}{4cm}
$
\,\textrm{E}\,{(X)}=\int\limits_{-\infty}^{+\infty}t\,f(t)\,dt
$
\end{minipage}}

ATTENTION : Si l'intégrale diverge alors l'espérance n'est plus définie. C'est le cas des variables aléatoires admettant la densité de Cauchy.

On peut dire que c'est en quelque sorte le centre de gravité de l'ensemble des valeurs possibles de $ X$, chacune étant pondérée par la densité de probabilité.

2) Variance:

X admettant la densité de probabilité f, et en appelant m l'espérance, on appelle variance de X l'intégrale :

\fbox{\begin{minipage}{6cm}
$
\,\textrm{Var}\,{(X)}=\int\limits_{-\infty}^{+\infty}(t-m)^{2}\,f(t)\,dt
$
\end{minipage}}
ATTENTION : Si l'intégrale, diverge on voit que la variance n'est plus définie.

On peut dire que c'est le moment d'inertie de l'ensemble des valeurs possibles, calculé par rapport au centre de gravité. Plus la courbe de densité est étalée, plus grande est la variance.

Ecart type ou déviation standard. C'est la racine carrée positive de la variance.

\fbox{\begin{minipage}{3cm}
$\sigma=\sqrt{\,\textrm{Var}\,{(X)}}$
\end{minipage}}

3) Propriétés de l'espérance et de la variance:

On n'abordera pas ici la densité d'une somme, d'un produit de deux variables aléatoires.

X et Y étant deux variables aléatoires, a et b deux constantes, on a :

\fbox{
\begin{minipage}{7.0cm}
$
\begin{array}{l@{\ =\ }l}
\,\textrm{E}\,{(X...
...)} & \,\textrm{Var}\,{(X)}+\,\textrm{Var}\,{(Y)}
\end{array} $
\end{minipage}}
La dernière relation n'est vraie que pour des variables indépendantes.
4) Variable centré, variable réduite:
  • Variable centrée : c'est une variable dont l'espérance est nulle.
  • Variable réduite : c'est une variable dont la variance vaut 1.
  • On appelle variable centrée réduite associée à X, d'espérance m et d'écart type $ \sigma$ la variable

    $\displaystyle X^{\ast}=\frac{X-m}{\sigma}$

    On vérifie très facilement que l'espérance est nulle et que l'écart type vaut 1.
5) Intervalle de confiance :

$ \alpha$ étant réel pris dans $ ]\,0\;;\;1\,[$, on appelle intervalle au niveau de confiance $ 1-\alpha$ tout intervalle de probabilité $ 1-\alpha$.

6) Axe de symétrie sur la courbe de densité

Si la courbe de densité admet un axe de symétrie à l'abscisse m, alors l'espérance vaut m.

On a en effet : $ f(2m-t)=f(t)$ quel que soit t. Donc :

$\displaystyle \,\textrm{E}\,(X)=\int\limits_{-\infty}^{+\infty}tf(t)\,dt=
\int\...
...-\infty}^{+\infty}tf(2m-t)\,dt=
\int\limits_{+\infty}^{-\infty}(2m-u)f(u)(-du)
$

$\displaystyle =2m\int\limits_{-\infty}^{+\infty}f(u)du-
\int\limits_{-\infty}^{+\infty}uf(u)du=
2m-\,\textrm{E}\,(X)\Longrightarrow \,\textrm{E}\,(x)=m
$

Il en résulte que, si la densité de probabilité est paire, l'espérance est nulle.
7) Intervalle de confiance centré sur l'espérance : soit X une variable de densité f, d'espérance m et d'écart type $ \sigma$. On suppose que la densité f est paire. Démontrons que $ F(m-a)=1-F(m+a)$, le réel a étant positif.

$\displaystyle \int\limits_{-\infty}^{m-a}f(t)\,dt=
\int\limits_{-\infty}^{m-a}f...
...\limits_{+\infty}^{m+a}f(u)\,(-du)=
\int\limits_{m+a}^{+\infty}f(u)\,du=1-F(a)
$

L'interprétation géométrique est évidente : les aires situées à gauche et à droite des abscisses $ m-a$ et $ m+a$ sont les mêmes en raison de la symétrie par rapport à la droite verticale d'abscisse m.

Cherchons maintenant le niveau de confiance (c'est sa probabilité) de l'intervalle $ ]\,-a\;;\;+a\,[$.

$ P(m-a\leqslant X\leqslant m+a)=F(m+a)-F(m-a)$

$ = F(m+a)-[1-F(m+a)]=2F(m+a)-1 $

Pour une variable de densité paire, $ m=0$, donc :

$\displaystyle P(-a\leqslant X\leqslant+a)=2F(a)-1$

La zone située entre les abscisses -a et a a donc une aire égale à $ 2F(a)-1$.

IV) LOI UNIFORME
1) Définition : on dit que la variable X suit la loi uniforme de paramètres m et a lorsque sa densité est constante non nulle sur $ [\,m-a\;;\;m+a\,]$ et nulle en dehors. C'est une fonction créneau dont la valeur constante vaut évidemment $ \frac{1}{2a}$ sur l'intervalle où elle n'est pas nulle.
2) Espérance et écart type :

L'axe de symétrie de la courbe et un calcul d'intégrationélémentaire montrent que l'espérance m et l'écart type $ \sigma$ valent respectivement :

\fbox{
\begin{minipage}{8cm}
$
\addtolength{\arraylinesep}{6pt}
\begin{array...
...\,(X)=m & \,\textrm{Var}\,(X)=\frac{a}{\sqrt{3}}
\end{array} $
\end{minipage}}
La loi uniforme est utilisé pour caractériser certains appareils de mesure. Tel voltmère affiche un tension U, en mV, et le certificat d'étalonnage précise que la vraie valeur est comprise entre $ U-0,05$ et $ U+0,05$ avec une probabilité de 1.

Elle est disponible dans Microsoft Excel par la fonction ALEA() qui renvoit une valeur aléatoire uniforme de paramètres 0,5 et 0,5.

3) Fonction de répartition de la loi uniforme :

$\displaystyle \left\lbrace
\begin{array}{l@{\ \Longrightarrow\ }l}
x< m-a & F(x...
...eqslant m+a & F(x)=\frac{1}{2a}(x-m+a) \\
m+a < x & F(x)=1
\end{array}\right.
$

V) LOI DE GAUSS LAPLACE
1) Définition : on dit que la variable X suit la loi de Gauss Laplace, appelée aussi loi normale, lorsque sa densité de probabilité est :
\fbox{
\begin{minipage}{11cm}
$
\addtolength{\arraylinesep}{6pt}
\begin{arra...
...ray} \quad\textrm{avec}\quad m\in\mathbb{R}, \quad \sigma >0
$
\end{minipage}}
On note $ \mathcal{N}(m,\sigma)$ la loi normale de paramètres $ m\textrm{\ et\ }\sigma$
2) Théorème : si X suit la loi normale $ \mathcal{N}(m,\sigma)$ alors sa variable centrée réduite associée est aussi une variable normale.
3) Courbe :

\includegraphics[scale=0.75]{gauss.eps}

4) Fonction de répartition :

\includegraphics[scale=0.75]{invgauss.eps}
Tout comme celle de sa dérivée, la courbe de la fonction de répartition montre l'intervalle $ [\,-3\;;\;+3\,]$ regroupe plus de 99% des valeurs mesurées pour la loi $ \mathcal{N}(0,1)$.
VI) LOI DE STUDENT :
1) Définition : on dit que la variable T suit la loi de Student à n degrés de liberté lorsque sa densité est, avec $ n\in\mathbb{N}^{\ast}$ :
\fbox{\begin{minipage}{10cm}
\begin{displaymath}f_n(t)=\frac{1}{\sqrt{\pi n}}
...
...ft(1+\frac{t^{2}}{n}\right)^{-\frac{n+1}{2}}
\end{displaymath} \end{minipage} }
2) Exemple : pour $ n=3$, la densité de Student s'écrit :

$\displaystyle f_{n}(t)=\frac{2}{\pi\sqrt{3}}
\frac{1}{\left(1+\frac{t^{2}}{3}\right)^{2}}
$

ce qui donne la courbe suivante :
\includegraphics[scale=0.75]{student.eps}
La ressemblance avec la loi $ \mathcal{N}(0,1)$ est liée au fait que lorsque $ n\to+\infty$, la loi de Student converge en loi vers $ \mathcal{N}(0,1)$
3) Espérance et Variance :

Soit T une variable de Student à n degrés de liberté. La densité étant paire, l'espérance est nulle.

$\displaystyle \,\textrm{E}\,(T)=0$

On démontre que la variance, pour $ n>2$, est : $ \,\textrm{Var}\,(T)=\frac{n}{n-2}$

VII) LOI DE FISHER :
1) Définition : on dit que la variable F suit la loi de Fisher à $ n_{1}$ et $ n_{2}$ ddl lorsque sa densité est :

$\displaystyle \forall t\geqslant 0\quad f_{m,n}(t)=\sqrt{m^{m}n^{n}}
\frac{\Gam...
...2}\right)
\Gamma\left(\frac{n}{2}\right)}
\sqrt{\frac{t^{m-2}}{(mt+n)^{m+n)}}}
$

Sur $ ]\,-\infty\;;\;0\,[$, la densité de Fisher est nulle.
2) Courbe de la densité de Fisher :
\includegraphics[scale=0.75]{fisher.eps}

La courbe a ététracée pour des valeurs positives ou nulles de la variable puisque la densité est nulle à gauche de 0. Les paramètres sont $ m=n=4$.

3) Espérance et Variance : on peut prouver, en utilisant des propriés non exposées ici, que, pour la loi de F à m et n degrés de liberté :

$\displaystyle \,\textrm{E}\,(F)=\frac{n}{n-2}\quad\textrm{et}\quad
\,\textrm{Var}\,(F)=\frac{n(2m+2n-4)}{m^{2}(n-2)^{2}(n-4)}$

4) Notation :

On notera $ \textrm{F}_{m,n}(\alpha)$ l'abscisse à droite de laquelle l'aire située sous la courbe a une valeur $ \alpha$. En d'autres termes, si la variable aléatoire X si la loi de F à m et n degrés de liberté, on aura : $ P[X\geqslant \textrm{F}_{m,n}(\alpha)]=\alpha$ C'est l'inverse de la fonction de répartition droite d'une variable de Fisher.

On y accède avec EXCEL par la fonction INVERSE.LOI.F et avec las calculatices HP48G, HP48GX par la fonction UTPF.

VIII) LOI DE KHI2 :
1) Définition : on dit que la variable X suit la loi du $ \chi^{2}$ n degrés de liberté, avec $ n \in\mathbb{N}$, lorsque sa densité est nulle sur $ ]\,-\infty\;;\;0\,[$ avec :

$\displaystyle \forall t \in \mathbb{R}^{+}\quad
{\displaystyle
f(t)=\frac{\disp...
...playstyle2^{n/2}\Gamma\left(\frac{n}{2}\right)}
\exp\left(-\frac{t}{2}\right)}
$

2) Courbe de la densité du $ \chi^{2}$ :

Pour $ n=4$, on obtient la densité suivante :

\includegraphics[scale=0.75]{chi2.eps}
3) Espérance et variance :

On démontre que, si X est une variable de $ \chi^{2}$ à n degrés de liberté,

$\displaystyle \,\textrm{E}\,(X)=n\quad\textrm{et}\quad\,\textrm{Var}\,(X)=2n$

Cela montre que la courbe de densité est d'autant plus étalée que le nombre de degrés de liberté est plus élevé.

4) Notation : On notera $ \chi_{n}^{2}(\alpha)$ l'abscisse à droite de laquelle l'aire située sous la courbe a une valeur $ \alpha$. En d'autres termes, si la variable aléatoire X si la loi de $ \chi^{2}$ à n degrés de liberté, on aura : $ P[X\geqslant \chi_{n}^{2}(\alpha)]=\alpha$ C'est l'inverse de la fonction de répartition droite d'une variable de $ \chi^{2}$.

On y accède avec EXCEL par la fonction KHIDEUX.INVERSE et avec las calculatices HP48G, HP48GX par la fonction UTPC. Attention à la documentation Microsoft des fonctions statistique, elle est souvent incompréhensible et parfois entachée d'erreur mathématique comme la confusion entre densité et fonction de répartition.

IX) LE MINIMUM A RETENIR
  1. Lorsqu'une mesure suit la densité f, si on la répète un grand nombre de fois, on peut considérer que la proportion de valeurs qui vont tomber dans l'intervalle $ [\,a\;;\;b\,]$ est $ 1-\alpha =\int\limits_{a}^{b}\,f(t)\,dt$

    Un tel intervalle est qualifié d'intervalle de confiance au risque $ \alpha$. On peut rapprocher cette notion de l'incertitude relative qui est le rapport de la demi longueur de l'intervalle de confiance à la valeur centrale.


    Le mot confiance n'a pas la signification qu'on lui donne habituellement. Quand on dit que $ [\,a\;;\;b\,]$ est un intervalle de confiance á 10%, cela veut seulement dire que, sur une série de n mesures, 10% d'entre elles tomberont dans cet intervalle. Cela est d'autant plus vrai que n est plus grand.

  2. L'espérance mathématique et la variance sont des intégrales. Il ne faut pas les confondre avec leurs estimateurs que sont la moyenne arithmétique et la variance estimée à partir déchantillons. Si on effectue n mesures de la même variable X dont l'espérance est m et dont la variance est $ \sigma^{2}$, les valeurs $ \,\overline{\strut{x}}\,=\frac{1}{n}\sum\limits_{i}\,x_{i}\quad\textrm{et}\quad
\frac{\sum\limits_{i}(x_{i}-\,\overline{\strut{x}}\,)^{2}}{n-1}$ ont pour espérances respectives $ m\quad\textrm{et}\quad\sigma^{2}$
  3. La médiane est la valeur pour laquelle la fonction de répartition vaut 1/2. Elle est identique à l'espérance à condition que la courbe de densité admette un axe de symétrie. C'est la valeur de part et d'autre de laquelle on trouve la moitié des valeurs mesurées. L'estimation de la médiane à partir d'un échantillon de valeurs relève souvent du défi au bon sens et de l'erreur grossière de raisonnement.

EXERCICE I

Une variable aléatoire X suit la loi $ \mathcal{N}(0;2)$. Déterminer l'intervalle au niveau de confiance $ 1-\alpha$ centré sur l'espérance. On prendra $ \alpha \in \left\lbrace 0,01\quad 0,05 \right\rbrace$


Réponse : La densité de la loi $ \mathcal{N}(m,\sigma)$ possède une courbe symétrique par rapport á la droite verticale d'équation $ x=m$. On a donc un intervalle de la forme $ [\,m-a\;;\;m+a\,]$ tel que l'aire situé entre les bornes soit égale á $ 1-\alpha$ et les deux aires situées de part et d'autre soient égales à $ \alpha/2$.

Si on appelle F la fonction de répartition gauche de notre variable, on a :

$\displaystyle \textrm{F}(m-a)=\frac{\alpha}{2}\qquad\textrm{et}
\textrm{F}(m+a)=1-\frac{\alpha}{2}$

On peut utiliser un tableur (StarCalc ou Excel) pour résoudre cette équation.

La fonction LOI.NORMALE.INVERSE(<esperance>,<ecartype>,<aire>) renvoit l'abscisse à gauche de laquelle la surface située sous la courbe est égale à aire : c'est la réciproque de la fonction de répartition gauche.

On obtient, pour $ \alpha=0,01$, l'intervalle $ [\,-5,15247\;;\;+5,15247\,]$

On obtient, pour $ \alpha=0,05$, l'intervalle $ [\,-3,92079\;;\;+3,92079\,]$

Les deux bornes sont symétriques par rapport á l'espérance.

EXERCICE II

On veut construire une table de la fonction de répartition de la loi normale $ \mathcal{N}(0;1)$ pour des valeurs de x comprises entre -3 et +3.




next up previous
Next: About this document ...
2006-09-19