next up previous
Next: About this document ...

CHIMIOMETRIE - ECHANTILLONNAGE

Marc Hauchemaille - IUT de ROUEN


Date: September 19, 2006

Telecharger la version pdf
  1. GÉNÉRALITÉS
    1. Échantillon :

      On considère $ n$ variables $ X_1,X_2,\ldots,X_n$ deux à deux indépendantes et de même loi, ayant donc toutes la même espérance $ m$ et le même écart type $ \sigma$, tous deux inconnus. C'est ce qui se produit lors de la répétition de la même mesure $ n$ fois d'affilée.

      On suppose généralement que toutes ces variables suivent la loi $ \mathcal{N}(m,\sigma)$.

    2. Moyenne arithmétique :

      On appelle moyenne arithmétique de léchantillon la variable aléatoire $ \,\overline{\strut{X}}\,$ définie par :

      $\displaystyle \,\overline{\strut{X}}\, = \frac{1}{n}\sum\limits_{i=1}^{i=n}X_{i}$

      On note souvent $ \bar{x}$ une valeur numérique particulière de la variable $ \,\overline{\strut{X}}\,$.

    3. Variance échantillonnelle :

      On appelle variance d'échantillon de la série de variables $ X_1,X_2,\ldots,X_n$ la variable $ s^2$ définie par :

      $\displaystyle s^{2}=\frac{\displaystyle\quad\sum\limits_{i=1}^{i=n}
\left(X_{i}-\,\overline{\strut{X}}\,\right)^{2}\quad}{n-1}$

      On appelle écart type d'échantillon la racine carrée positives $ s$ de la variance d'échantillon.

  2. ESTIMATEURS
    1. Théorème : L'espérance de la moyenne arithmétique $ \,\overline{\strut{X}}\,$ est l'espérance m commune à toutes les variables $ X_i$.

      Démonstration :

      On sait que l'espérance d'une somme est la somme des espérances, que les variables soient indépendantes où non. Il en résulte que :

      $\displaystyle E(\,\overline{\strut{X}}\,)=E\left(\frac{1}{n}\sum\limits_{i=1}^{...
...rac{nm}{n}
\Longrightarrow E(\,\overline{\strut{X}}\,)=m\quad\textrm{C.Q.F.D.}
$

      Puisque $ E(\,\overline{\strut{X}}\,)=m$, on utilisera les valeurs le la moyenne arithmétique $ \,\overline{\strut{X}}\,$ comme estimateur de $ m$ qui est inconnu.

      Par ailleurs, on voit que $ E(X_i-\,\overline{\strut{X}}\,)=0$ du fait de la linéarité de l'espérance.

    2. Théorème :

      L'espérance de la variance d'échantillon $ s^2$ est la variance $ \sigma^2$ commune à tous les $ X_i$.

      Démonstration : On sait que, pour toute variable $ X$, on a :

      $\displaystyle {\displaystyle Var(X)=
E\left(X^2\right)-\left[E(X)\right]^{2}}$

      Puisque $ X_i-\,\overline{\strut{X}}\,$ est centrée (son espérance est nulle), on peut alors écrire que :

      $\displaystyle E\left[\left(X_i-\,\overline{\strut{X}}\,\right)^{2}\right]=Var(X_i-\,\overline{\strut{X}}\,)$

      Or la variance d'une somme n'est la somme des variances que si les variables sont indépendantes, ce qui n'est pas le cas des variables $ X_i$ et $ \,\overline{\strut{X}}\,$ puisque la deuxième dépend de la première. On se sort de cette situation en remarquant que :

      $\displaystyle X_i-\,\overline{\strut{X}}\,=X_i-\frac{1}{n}\sum\limits_{j=1}^{j=...
...=1}^{j=n}X_j\right)
=\frac{1}{n}\left[(n-1)X_i-\sum\limits_{j\neq i}X_j\right]
$

      D'où on tire : $ {\displaystyle\quad X_i-\,\overline{\strut{X}}\,=\frac{(n-1)X_i}{n}
-\frac{1}{n}\sum\limits_{j\neq i}X_j}$

      Dans cette dernière expression, les deux termes sont indépendant, d'où :

      $ Var(X_i-\,\overline{\strut{X}}\,)=\left(\frac{n-1}{n}\right)^{2}Var(X_i)
+\fra...
...}Var(X_j)
=\left(\frac{n-1}{n}\right)^{2}\sigma^{2}
+\frac{(n-1)\sigma^2}{n^2}
$ On en tire alors : $ {\displaystyle\quad Var(X_i-\,\overline{\strut{X}}\,)
=\left(\frac{n-1}{n}\right)\sigma^2
=E\left[(X_i-\,\overline{\strut{X}}\,)^2\right]
}$ En reprenant la définition de $ s^2$, on obtient alors :

      $\displaystyle E(s^2)=\frac{1}{n-1}\sum\limits_{i=1}^{i=n}E\left[(X_i-\,\overlin...
..._{i=1}^{i=n}\left(\frac{n-1}{n}\right)\sigma^2
\Longrightarrow E(s^2)=\sigma^2
$

      Cette dernière égalité justifie le choix de $ s$ comme estimateur de $ \sigma$.

  3. LOI SUIVIE PAR LA MOYENNE ARITHMÉTIQUE :
    1. Position du problème :

      On répète plusieurs fois la la même série de mesures $ {\displaystyle X_1, X_2, \dots, X_n}$. La moyenne arithmétique $ \,\overline{\strut{X}}\,$ va fluctuer d'une série à l'autre et il en est de même pour la dispersion $ s^{2}$.

      On se propose, à partir d'une série de $ n$ valeurs, de prévoir le comportement de $ \,\overline{\strut{X}}\,$ pour toutes les autres avec un niveau de confiance donné.

    2. Théorème :

      Dans le cas d'une série de $ n$ mesures gaussiennes indépendantes et de même loi $ \mathcal{N}(m,\sigma)$, si $ \bar{x}$ désigne une valeur particulière de la moyenne $ \,\overline{\strut{X}}\,$ et $ s$ une valeur particulière de la variance d'échantillon, alors le rapport :

      $\displaystyle \displaystyle t = \frac{\qquad\,\overline{\strut{X}}\, - \bar{x}\qquad}
{\displaystyle\frac{s}{\sqrt{n}}}$

      suit la loi de Student à $ n-1$ degrés de liberté.

    3. Exemple d'application du théorème ci-dessus :

      On procède à 22 mesures successives de la même grandeur et on obtient les valeurs suivantes(valeurs en 1ere ligne, effectif en 2eme ligne) :

      $\displaystyle \begin{array}{\vert c\vert c\vert c\vert c\vert c\vert c\vert c\v...
...& 12,18 \\
\hline
1 & 1 & 2 & 3 & 4 & 4 & 3 & 2 & 1 & 1 \\
\hline
\end{array}$

      La moyenne arithmétique est $ \bar{x}\simeq 12,00$.

      L'écart type d'échantillon est $ s\simeq 0,08965543$

      L'intervalle bilatéral centré à 95% pour une variable de Student à 21 degrés de liberté est : $ [\,-2,07961421\;;\;+2,07961421\,]$.

      On en tire l'encadrement de $ \,\overline{\strut{X}}\,$ au niveau de confiance de 95%

      $\displaystyle -2,07961421<\frac{\qquad\,\overline{\strut{X}}\,-12,00\qquad}
{\d...
...t{18}}}
<+2,07961421\Longrightarrow
11,961 < \,\overline{\strut{X}}\, < 12,039
$

      On pourrait éalement formuler ce résultat de la manière suivante : Dans l'hypothèse où l'espérance vaut 12, la variable a une probabilité de 0,95 de tomber entre 11,961 et 12,039.
    4. Théorème de la limite centrée : On considère une série de $ n$ mesures indépendantes et de même loi, $ \bar{x}$ désignant une valeur particulière de la moyenne $ \,\overline{\strut{X}}\,$ et $ s$ une valeur particulière de la variance d'échantillon, alors le rapport :

      $\displaystyle \displaystyle t = \frac{\qquad\,\overline{\strut{X}}\, - \bar{x}\qquad}
{\displaystyle\frac{s}{\sqrt{n}}}$

      converge en loi vers la loi $ \mathcal{N}(0,1)$

      Pour les grandes valeurs de $ n$, il n'est donc plus nécessaire d'avoir des mesures gaussiennes pour calculer des encadrements de la moyenne arithmétique. Il n'est plus nécessaire de passer par la loi de Student à $ n-1$ degrés de liberté.



  4. PRÉVISIONS SUR L'ÉCART TYPE :
    1. Théorème :

      Considérons une séries de $ n$ mesures $ X_1,X_2,\ldots,X_n$ indépendantes et de même loi $ \mathcal{N}(m,\sigma)$. Dans cette hypothèse, le rapport $ \displaystyle\frac{(n-1)s^{2}}{\sigma^{2}}$ suit la loi de $ \chi^{2}$ à $ n-1$ degrés de liberté.

    2. Intervalle de confiance sur l'écart type

      Soit $ \alpha$ un niveau de risque. Choisissons (c'est arbitraire) un intervalle de confiance de probabilité $ 1-\alpha$ tel que les probabilités des intervalles gauche et droite soient égales à $ \alpha/2$.

      \includegraphics[scale=0.8]{khi2.eps}

    Si on appelle $ \chi_{n-1}^{2}(\alpha)$ l'inverse de la répartition droite du KHI2 à $ n-1$ degrés de liberté, l'intervalle que nous recherchons est donné par :

    $\displaystyle (n-1)\frac{s^{2}}{\sigma^{2}} \in
\left[\,\chi_{n-1}^{2}\left(1-\frac{\alpha}{2}\right)\;;\;
\chi_{n-1}^{2}\left(\frac{\alpha}{2}\right)\,\right]
$

    $\displaystyle \iff
s\sqrt{\frac{n-1}{\chi_{n-1}^{2}\left(\frac{\alpha}{2}\right...
...ma \leqslant
s\sqrt{\frac{n-1}{\chi_{n-1}^{2}\left(1-\frac{\alpha}{2}\right)}}
$

  5. TEST D'HYPOTHÈSES :
    1. Comparaison d'une moyenne àune valeur de référence

      On se propose de vérifier que la concentration en mesilate de pergolide est de 1,31 mg par comprimé. Le laboratoire de contrôle effectue une série de 10 mesures et obtient les résultats suivants :

      $\displaystyle \overline{x}=\frac{\sum\limits_{i}x_{i}}{n}\simeq 1,30
\qquad s^{2}=\frac{\sum\limits_{i}(x_{i}-\overline{x})^{2}}{n-1}
\simeq0,025
$

      Faut-il considére que les comprimés sont non conformes à ce qui est indiquésur la boîte ?

      On sait que la moyenne arithmétique centreée réduite suit la loi de Student à $ n-1$ degrés de liberté. L'espérance de la moyenne arithmétique est égale à celle de la variable et son écart type est divisé par $ \sqrt{n}$. Ce qui fait que, avec une probabilité $ 1-\alpha$, on a :

      $\displaystyle -t_{\alpha}\leqslant\frac{ \quad \,\overline{\strut{X}}\, - \overline{\mu} \quad }
{s/\sqrt{n}}
\leqslant +t_{\alpha}$

      Dans cette double inéglité, $ t_{\alpha}$ désigne la borne supérieure de l'intervalle de confiance de la variable de Student au niveau de confiance $ 1-\alpha$.

      Au niveau de confiance $ 1-\alpha=0,99$, on a une aire égale à 0,005 de part et d'autre, ce qui fait que la borne supérieure de cet intervalle est l'inverse de la répartition droite de la Loi de Student.

      A 0,005 et 9 ddl, la fonction de réépartition droite inverse vaut : $ t_{0,005}\simeq3,1692726$




next up previous
Next: About this document ...
2006-09-19