Distributions continues de probabilité
Résumé
Ici, nous examinerons en profondeur le concept de distributions continues de probabilité, en soulignant les caractéristiques et les utilisations des cinq plus connues : la distribution exponentielle, la distribution uniforme rectangulaire, la distribution normale (Gaussienne), la distribution de Weibull et la distribution Gamma. Les formules mathématiques définissant chacune de ces distributions sont fournies, et les implications et les applications pratiques de ces dernières sont examinées, telles que l’évaluation de l’émission de particules dans des échantillons radioactifs ou le calcul de la position d’une balle dans un rail avec des limites. En outre, il est détaillé comment ces distributions peuvent être modifiées et adaptées par l’application de paramètres spécifiques.
OBJECTIFS D’APPRENTISSAGE :
À la fin de cette leçon, l’étudiant sera capable de :
- Comprendre ce que sont les distributions continues de probabilité.
- Appliquer les distributions continues de probabilité les plus connues : exponentielle, uniforme rectangulaire, exponentielle, normale (Gaussienne), Weibull et Gamma.
TABLE DES MATIÈRES :
Qu’est-ce que les distributions continues de probabilité ?
Les 5 distributions continues de probabilité les plus connues
Distribution exponentielle
Distribution uniforme rectangulaire
Distribution normale (Gaussienne)
Distribution de Weibull
Distribution Gamma
Exercices
Lorsque nous avons examiné les espaces d’échantillonnage, nous avons vu qu’ils peuvent être de deux types : discrets et continus. Nous avons également examiné ce qui constitue une distribution de probabilité discrète. Il est maintenant temps de se pencher sur les distributions continues de probabilité.
Qu’est-ce que les distributions continues de probabilité ?
Nous dirons qu’une variable aléatoire X a une distribution continue de probabilité s’il existe une fonction f_X : \mathbb{R} \longrightarrow \mathbb{R}^+, que nous appellerons densité de X, telle que \forall A \subseteq \mathbb{R} l’égalité suivante soit vérifiée
P(X\in A) = \displaystyle \int_A f_X(x)dx
En particulier, si nous prenons A=]a,b] nous aurons
P(a\lt X \leq b) = \displaystyle \int_a^b f_X(x)dx
et si a=-\infty
F_X(x) = P( X \leq x) = \displaystyle \int_{-\infty}^x f_X(t)dt
Et de plus, à partir de la propriété (c) des distributions de probabilité il en résulte que
\displaystyle \int_{-\infty}^{+\infty} f_X(t)dt = 1
En appliquant le théorème fondamental du calcul à cette dernière expression, nous obtenons que pour une distribution continue, F_X(x), est continue pour tous les x, et sa dérivée est f_X(x) pour toutes les valeurs x où f_X(x) est continue. De la continuité de F_X(x) et de la propriété (d) (voir ici) il en résulte que :
P(x=X)=0
Et donc
P(x\leq X)= P(x\lt X)
Si f est une fonction quelconque qui satisfait f\geq 0 et \displaystyle \int_{-\infty}^{+\infty}f(x)dx = 1, alors on dit que c’est une densité.
Les 5 distributions continues de probabilité les plus connues
Distribution exponentielle
Une fonction de distribution exponentielle avec le paramètre \alpha \gt 0 est une fonction de distribution de la forme suivante :
F(t) = \left\{\begin{array}{lll} 1 - e^{-t/\alpha} & ; & t\geq 0 \\ \\ 0 & ; & t\lt 0 \end{array}\right.
En conséquence, sa fonction de densité est de la forme
\displaystyle f(t) = \left\{\begin{array}{lll} \frac{1}{\alpha}e^{-t/\alpha} & ; & t\geq 0 \\ \\ 0 & ; & t\lt 0 \end{array}\right.
Si une variable aléatoire a une distribution exponentielle avec le paramètre \alpha, nous écrivons X\sim Ex(\alpha).
Dans le contexte de la distribution de Poisson, si nous avons un échantillon radioactif qui émet une particule avec un taux moyen d’émission c, alors le moment T où la première particule est émise a une distribution exponentielle avec le paramètre 1/c. En d’autres termes T\sim Ex(1/c), et par conséquent :
P(T\geq t)= e^{-ct}
Distribution uniforme rectangulaire
Une distribution uniforme rectangulaire sur un intervalle [a,b] est définie par la fonction de densité suivante
f(x) = \left\{\begin{array}{lll} \displaystyle\frac{1}{b-a} & ; & x\in[a,b] \\ \\ 0 & ; & E.O.C. \end{array}\right.
Si nous laissons tomber une petite balle sur un rail avec des limites aux extrémités de l’intervalle [a,b], et qu’elle rebondit élastiquement en frappant les bords, alors la variable aléatoire X associée à la position d’arrêt de la balle en raison du frottement a une distribution uniforme rectangulaire et s’écrit X\sim Un(a,b).
Distribution normale (Gaussienne)
Parmi les distributions continues de probabilité, la distribution normale est l’une des plus populaires en pratique.
Distribution normale standard
La densité normale standard est définie par la fonction suivante
\displaystyle \phi_{0,1}(x) = \frac{1}{\sqrt{2\pi}} e^{-x^2/2}
Par sa définition, il est clair que \phi\gt 0. Par conséquent, il peut être vérifié que c’est une densité de probabilité simplement en vérifiant que
\displaystyle \int_{-\infty}^{+\infty}\phi_{0,1}(x)dx
Cette dernière égalité peut être démontrée en calculant la valeur de I^2 lorsque I =\int_{-\infty}^{+\infty}\phi(x)dx=1. En effet, nous avons :
\begin{array}{rl} I^2 & = \displaystyle \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}} e^{-x^2/2} dx \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}} e^{-x^2/2}dx \\ \\ & = \displaystyle \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}} e^{-x^2/2} dx \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}} e^{-y^2/2} dy \\ \\ & = \displaystyle \frac{1}{{2\pi}} \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} e^{-\frac{x^2 + y^2}{2}} dxdy \\ \\ \end{array}
Mais il se trouve que
\displaystyle \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} e^{-\frac{x^2 + y^2}{2}} dxdy = \int_{0}^{2\pi} \int_{0}^{+\infty} e^{-r^2/2} rdr d\theta = 2\pi
Par conséquent, I^2 = 1, donc I=\int_{-\infty}^{+\infty}\phi_{0,1}(x)dx = 1.
À partir de la densité normale standard, la distribution normale standard est définie \Phi_{0,1}(x) = \int_{-\infty}^x\phi_{0,1}(t)dt. Si une variable aléatoire X a une distribution normale standard, nous écrivons X\sim N(0,1). La distribution \Phi_{0,1}(x) ne peut pas être calculée explicitement, cependant, il existe des tables qui permettent d’obtenir rapidement des valeurs approximatives.
Distribution normale avec paramètres \mu et \sigma
À partir de la densité de la distribution normale standard \phi_{0,1} il est possible de construire la densité pour la distribution normale avec les paramètres \mu et \sigma, où \mu\in\mathbb{R} et \sigma\gt 0 sont respectivement la moyenne et l’écart-type. La densité de la distribution normale avec ces paramètres est écrite de la manière suivante :
\displaystyle\phi_{\mu,\sigma}(x) = \frac{1}{\sigma}\phi_{0,1}\left(\frac{x-\mu}{\sigma} \right)
Ainsi, la distribution normale avec paramètres \mu et \sigma, \Phi_{\му,\σ}(x), est de la forme suivante :
\displaystyle \Phi_{\mu,\sigma}(x) = \int_{-\infty}^x\frac{1}{\sigma}\phi_{0,1}\left(\frac{t-\mu}{\sigma} \right)dt = \frac{1}{\sqrt{2\pi\sigma}}\int_{-\infty}^x e^{-\frac{(t-\mu)^2}{2\sigma^2}}dt
Si la variable aléatoire X a une distribution normale avec les paramètres \mu, \sigma, nous écrivons X\sim N(\mu, \sigma).
Distribution de Weibull
La distribution de Weibull avec les paramètres \alpha,\beta \gt 0 a une fonction de distribution de la forme suivante
F(t) = \left\{\begin{array}{llr} \left(1 - e^{-t/\alpha} \right)^\beta &;& t\geq 0 \\ \\ 0 &;& t\lt 0 \end{array}\right.
Si une variable aléatoire X a une distribution de Weibull avec les paramètres \alpha, \beta nous écrivons X\sim We(\alpha,\beta). La distribution de Weibull est une généralisation de la distribution exponentielle, remarquez que We(\alpha,1) = Ex(\alpha).
Distribution Gamma
La distribution Gamma avec les paramètres \beta,\alpha a une fonction de densité de la forme suivante
f(t) = \left\{\begin{array}{llr} \displaystyle \frac{1}{\alpha \Gamma(\beta)}\left(\frac{t}{\alpha} \right)^{\beta-1}e^{-t/\alpha} &;& t\geq 0 \\ \\ 0 &;& t\lt 0 \end{array}\right.
Où \Gamma(s) = \displaystyle \int_0^{+\infty}u^{s-1}e^{-u}du est ce qu’on appelle la « fonction Gamma ».
Une des propriétés les plus remarquables de la fonction Gamma est qu’elle permet de généraliser les factorielles des nombres naturels aux réels (et même aux complexes). Il n’est pas difficile de vérifier que \Gamma(s+1) = s\Gamma(s) en intégrant par parties. De plus, comme \Gamma(1)=1 il en résulte que
\left(\forall n\in\mathbb{N}\right)\left(\Gamma(n) = (n-1)! \right)
Si une variable aléatoire X a une distribution Gamma avec les paramètres \beta, \alpha nous écrivons X\sim Ga(\alpha,\beta). La distribution Gamma est une autre généralisation de la distribution exponentielle, remarquez que Ga(\alpha,1) = Ex(\alpha).
Dans un processus de Poisson avec une fréquence c (comme une désintégration radioactive), si T est la variable aléatoire représentant le moment où le m-ème événement se produit ; alors, étant donné un t\geq 0 et un nombre N d’événements qui se produisent dans l’intervalle de temps [0,t] nous aurons t\lt T \leftrightarrow N\lt m et, comme N\sim Po(ct), il s’ensuit :
1-F_T(t) = P(T\gt t) = \displaystyle \sum_{k=0}^{m-1}Po(k; ct)=e^{-ct}\sum_{k=0}^{m-1}\frac{(ct)^k}{k!}
Et donc, en dérivant cela, nous découvrirons que la fonction de densité est
\displaystyle f(t) = ce^{-ct}\frac{(ct)^{m-1}}{(m-1)!}
Et donc, T\sim Ga(1/c, m).
Exercices
- Trouver la constante c telle que \displaystyle f(x) = \frac{c}{x^2+1} soit une densité de probabilité et calculer la fonction de distribution correspondante (distribution de Cauchy)
- À partir de la fonction de densité de la distribution Un(a.b), déterminer la fonction de distribution correspondante.
- Démontrer que la fonction \Phi_{\mu,\sigma}(x) est une fonction de distribution de probabilité.
