Distribuciones continuas de probabilidad

Distribuciones continuas de probabilidad

Distribuciones continuas de probabilidad

Resumen
Aquí examinaremos en profundidad el concepto de distribuciones continuas de probabilidad, destacando las características y usos de las cinco más conocidas: la distribución exponencial, la distribución uniforme rectangular, la distribución normal (Gaussiana), la distribución Weibull y la distribución Gamma. Se proporcionan las fórmulas matemáticas que definen cada una de estas distribuciones, y se examinan las implicaciones y las aplicaciones prácticas de estas, tales como la evaluación de la emisión de partículas en muestras radiactivas o el cálculo de la ubicación de una bola en un riel con límites. Además, se detalla cómo estas distribuciones pueden ser modificadas y adaptadas mediante la aplicación de parámetros específicos.


OBJETIVOS DE APRENDIZAJE:
Al finalizar esta clase, el estudiante será capaz de:

  1. Comprender qué son las distribuciones continuas de probabilidad.
  2. Aplicar las distribuciones continuas de probabilidad más conocidas: exponencial, uniforme rectangular, Exponencial, Normal (gaussiana), Weibull, y Gamma.


ÍNDICE DE CONTENIDOS:
¿Qué son las distribuciones continuas de probabilidad?
Las 5 distribuciones continuas de probabilidad más conocidas
Distribución Exponencial
Distribución Uniforme Rectangular
Distribución Normal (Gaussiana)
Distribución Weibull
Distribución Gamma
Ejercicios

Cuando revisamos lo relativo a los espacios muestrales vimos que estos pueden ser de dos especies: unos discretos y otros continuos. También revisamos lo que conforma una distribución de probabilidad discreta. Ahora es el turno de las distribuciones continuas de probabilidad.

 



¿Qué son las distribuciones continuas de probabilidad?

Diremos que una variable aleatoria X tiene una distribución continua de probabilidad si existe una función f_X : \mathbb{R} \longrightarrow \mathbb{R}^+, que llamaremos Densidad de X, tal que \forall A \subseteq \mathbb{R} valga la igualdad

P(X\in A) = \displaystyle \int_A f_X(x)dx

En particular, si tomamos A=]a,b] se tendrá

P(a\lt X \leq b) = \displaystyle \int_a^b f_X(x)dx

y si a=-\infty

F_X(x) = P( X \leq x) = \displaystyle \int_{-\infty}^x f_X(t)dt

Y además, a partir de la propiedad (c) de las distribuciones de probabilidad se tendrá que

\displaystyle \int_{-\infty}^{+\infty} f_X(t)dt = 1

Aplicando el teorema fundamental del cálculo sobre esta última expresión se tiene que para una distribución contnua, F_X(x), es continua para todos los x, y su dervada es f_X(x) para todos los valores x donde f_X(x) sea continua. De la continuidad de F_X(x) y de la propiedad (d) (ver aquí) se deduce que:

P(x=X)=0

Y por lo tanto

P(x\leq X)= P(x\lt X)

Si f es cualquier función que cumple con f\geq 0 y con \displaystyle \int_{-\infty}^{+\infty}f(x)dx = 1, entonces se dice que es ua densidad.



Las 5 distribuciones continuas de probabilidad más conocidas



Distribución Exponencial

Una función de distribución exponencial con parámetro \alpha \gt 0 es una función de distribución F de la forma.

F(t) = \left\{\begin{array}{lll} 1 - e^{-t/\alpha} & ; & t\geq 0 \\ \\ 0 & ; & t\lt 0 \end{array}\right.

En consecuencia, su función de densidad es de la forma

\displaystyle f(t) = \left\{\begin{array}{lll} \frac{1}{\alpha}e^{-t/\alpha} & ; & t\geq 0 \\ \\ 0 & ; & t\lt 0 \end{array}\right.

Si una variable aleatoria tiene distribución exponencial con parámetro \alpha escribimos X\sim Ex(\alpha).

En el contexto de la distribución de Poisson, si tenemos una muestra radiactiva que emite una partícula con una tasa promedio de emisión c, entonces el instante de tiempo T en que emite la primera partícula tiene distribución exponencial con parámetro 1/c. En otras palabras T\sim Ex(1/c), y en consecuencia:

P(T\geq t)= e^{-ct}



Distribución Uniforme Rectangular

Una distribución uniforme rectangular sobre un intervalo [a,b] es aquella que es definida por la función de densidad

f(x) = \left\{\begin{array}{lll} \displaystyle\frac{1}{b-a} & ; & x\in[a,b] \\ \\ 0 & ; & E.O.C. \end{array}\right.

Si soltamos una pequeña bolita en un riel con límites en los extremos del intervalo [a,b], y esta rebota elásticamente al chocar con los bordes, entonces la variable aleatoria X asociada a la posición de detención de la bolita por efecto del roce tiene distribución uniforme rectangular y se escribe X\sim Un(a,b).



Distribución Normal (Gaussiana)

De entre las distribuciones continuas de probabilidad, la distribución normal es una de las más populares en la práctica.

Distribución normal estándar

Se define la densidad normal estándar a través de la función

\displaystyle \phi_{0,1}(x) = \frac{1}{\sqrt{2\pi}} e^{-x^2/2}

Por su definición, es claro que \phi\gt 0. Por lo tanto, se puede verificar que ésto es una densidad de probabilidad simplemente corroborando que

\displaystyle \int_{-\infty}^{+\infty}\phi_{0,1}(x)dx

Esta última igualdad se puede demostrar calculando el valor de I^2 cuando I =\int_{-\infty}^{+\infty}\phi(x)dx=1. En efecto, se tiene que:

\begin{array}{rl} I^2 & = \displaystyle \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}} e^{-x^2/2} dx \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}} e^{-x^2/2}dx \\ \\ & = \displaystyle \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}} e^{-x^2/2} dx \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}} e^{-y^2/2} dy \\ \\ & = \displaystyle \frac{1}{{2\pi}} \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} e^{-\frac{x^2 + y^2}{2}} dxdy \\ \\ \end{array}

Pero resulta que

\displaystyle \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} e^{-\frac{x^2 + y^2}{2}} dxdy = \int_{0}^{2\pi} \int_{0}^{+\infty} e^{-r^2/2} rdr d\theta = 2\pi

Por lo tanto I^2 = 1, de modo que I=\int_{-\infty}^{+\infty}\phi_{0,1}(x)dx = 1.

A partir de la densidad normal estandar se define la distribución normal estandar \Phi_{0,1}(x) = \int_{-\infty}^x\phi_{0,1}(t)dt. Si una variable aleatoria X tiene distribución normal estándar, entonces se escribe X\sim N(0,1). La distribución \Phi_{0,1}(x) no se puede calcular de forma explicita, sin embargo, existen tablas que permiten obtener rápidamente valores aproximados.

Distribución normal con parámetros \mu y \sigma

A partir de la densidad de la distribución normal estándar \phi_{0,1} es posible construir la densidad para la distribución normal con parámetros \mu y \sigma, donde \mu\in\mathbb{R} y \sigma\gt 0 son, respectivamente, la media y la desviación estándar. La densidad de la distribución normal con estos parámetros queda escrita de la siguiente manera:

\displaystyle\phi_{\mu,\sigma}(x) = \frac{1}{\sigma}\phi_{0,1}\left(\frac{x-\mu}{\sigma} \right)

De modo que la distribución normal con patrámetros \mu y \sigma, \Phi_{\mu,\sigma}(x), queda de la forma

\displaystyle \Phi_{\mu,\sigma}(x) = \int_{-\infty}^x\frac{1}{\sigma}\phi_{0,1}\left(\frac{t-\mu}{\sigma} \right)dt = \frac{1}{\sqrt{2\pi\sigma}}\int_{-\infty}^x e^{-\frac{(t-\mu)^2}{2\sigma^2}}dt

Si la variable aleatoria X tiene distribución normal con parámetros \mu, \sigma, entonces se escribe X\sim N(\mu, \sigma).



Distribución Weibull

La distribución Weibull con parámetros \alpha,\beta \gt 0 tiene una función de distribución de la forma

F(t) = \left\{\begin{array}{llr} \left(1 - e^{-t/\alpha} \right)^\beta &;& t\geq 0 \\ \\ 0 &;& t\lt 0 \end{array}\right.

Si una variable aleatoria X tiene distribución Weibull con parámetros \alpha, \beta se escribe X\sim We(\alpha,\beta). La distribución Weibull es una generalización para la distribución exponencial, nótese que We(\alpha,1) = Ex(\alpha).



Distribución Gamma

La distribución Gamma con parámetros \beta,\alpha tiene una función de densidad de la forma

f(t) = \left\{\begin{array}{llr} \displaystyle \frac{1}{\alpha \Gamma(\beta)}\left(\frac{t}{\alpha} \right)^{\beta-1}e^{-t/\alpha} &;& t\geq 0 \\ \\ 0 &;& t\lt 0 \end{array}\right.

Donde \Gamma(s) = \displaystyle \int_0^{+\infty}u^{s-1}e^{-u}du es lo que se conoce como «Función Gamma».

Una de las propiedades más notables de la función Gamma es que permite generalizar los factoriales de los números naturales sobre los reales (e incluso los complejos). No es complicado verificar que \Gamma(s+1) = s\Gamma(s) integrando por partes. Además, como \Gamma(1)=1 resulta que

\left(\forall n\in\mathbb{N}\right)\left(\Gamma(n) = (n-1)! \right)

Si una variable aleatoria X tiene distribución GAmma con parámetros \beta, \alpha se escribe X\sim Ga(\alpha,\beta). La distribución Gamma es otra generalización para la distribución exponencial, nótese que Ga(\alpha,1) = Ex(\alpha).

En un proceso de Poisson con frecuencia c (como un decaimiento radiactivo), si T es la variable aleatoria que representa el instante en que se produce el m-ésimo evento; entonces, dado un t\geq 0 y un número N de sucesos que ocurren en el intervalo de tiempo [0,t] se tendrá que t\lt T \leftrightarrow N\lt m y, como N\sim Po(ct), se tiene:

1-F_T(t) = P(T\gt t) = \displaystyle \sum_{k=0}^{m-1}Po(k; ct)=e^{-ct}\sum_{k=0}^{m-1}\frac{(ct)^k}{k!}

Y por lo tanto, si derivamos esto descubriremos que la función de densidad es

\displaystyle f(t) = ce^{-ct}\frac{(ct)^{m-1}}{(m-1)!}

Y por lo tanto, T\sim Ga(1/c, m).



Ejercicios

  1. Hallar la constante c tal que \displaystyle f(x) = \frac{c}{x^2+1} es una densidad de probabilidad y calcule la correspodiente función de distribución de probabilidad (distribución de Cauchy)
  2. A partir de la función de densidad de la distribución Un(a.b), determine su correspondiente función de distribución.
  3. Demuestre que la función \Phi_{\mu,\sigma}(x) es una función de distribución de probabilidad.

Vistas: 190

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *