Distribución uniforme continua

Para la distribución discreta, véase Distribución uniforme discreta.
Uniforme
PDF of the uniform probability distribution using the maximum convention at the transition points.
Utilizando convención de máximo
Función de densidad de probabilidad
CDF of the uniform probability distribution.
Función de distribución de probabilidad
Parámetros a , b R {\displaystyle a,b\in \mathbb {R} }
Dominio x [ a , b ] {\displaystyle x\in [a,b]}
Función de densidad (pdf) 1 b a a x b {\displaystyle {\frac {1}{b-a}}\quad a\leq x\leq b}
Función de distribución (cdf) x a b a a x < b {\displaystyle {\frac {x-a}{b-a}}\quad a\leq x<b}
Media a + b 2 {\displaystyle {\frac {a+b}{2}}\,\!}
Mediana a + b 2 {\displaystyle {\frac {a+b}{2}}\,\!}
Moda cualquier valor en [ a , b ] {\displaystyle [a,b]\,\!}
Varianza ( b a ) 2 12 {\displaystyle {\frac {(b-a)^{2}}{12}}\,\!}
Coeficiente de simetría 0 {\displaystyle 0\,\!}
Curtosis 6 5 {\displaystyle {\frac {-6}{5}}\,\!}
Entropía ln ( b a ) {\displaystyle \ln(b-a)\,\!}
Función generadora de momentos (mgf) e t b e t a t ( b a ) {\displaystyle {\frac {e^{tb}-e^{ta}}{t(b-a)}}\,\!}
Función característica e i t b e i t a i t ( b a ) {\displaystyle {\frac {e^{itb}-e^{ita}}{it(b-a)}}\,\!}
[editar datos en Wikidata]

En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que para cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a {\displaystyle a} y b {\displaystyle b} , que son sus valores mínimo y máximo respectivamente.

El intervalo puede ser cerrado (es decir, [ a , b ] {\displaystyle [a,b]} ) o abierto (es decir, ( a , b ) {\displaystyle (a,b)} ).[1]​ Por lo tanto, la distribución a menudo se abrevia U ( a , b ) , {\displaystyle U(a,b),} donde U {\displaystyle U} significa distribución uniforme.[2]​ La diferencia entre los límites define la longitud del intervalo; todos los intervalos de la misma longitud en el soporte de la distribución son igualmente probables. Es la distribución de probabilidad de máxima entropía para una variable aleatoria X {\displaystyle X} sin más restricción que la de estar contenida en el soporte de la distribución.[3]

Definición

Notación

Si X {\displaystyle X} es una variable aleatoria continua con distribución uniforme continua entonces escribiremos X U ( a , b ) {\displaystyle X\sim \operatorname {U} (a,b)} o X Unif ( a , b ) {\displaystyle X\sim \operatorname {Unif} (a,b)} .

Función de densidad

Si X U ( a , b ) {\displaystyle X\sim \operatorname {U} (a,b)} entonces la función de densidad es:

f X ( x ) = 1 b a {\displaystyle f_{X}(x)={\frac {1}{b-a}}}

para x [ a , b ] {\displaystyle x\in [a,b]} .

Dicho de otra forma, la función de densidad de probabilidad de la distribución uniforme continua es:

f ( x ) = { 1 b a para  a x b , 0 para  x < a    o    x > b . {\displaystyle f(x)={\begin{cases}{\frac {1}{b-a}}&{\text{para }}a\leq x\leq b,\\[8pt]0&{\text{para }}x<a\ {\text{ o }}\ x>b.\end{cases}}}

Los valores de f ( x ) {\displaystyle f(x)} en los dos límites a {\displaystyle a} y b {\displaystyle b} no suelen tener importancia, porque no alteran el valor de c d f ( x ) d x {\textstyle \int _{c}^{d}f(x)dx} en ningún intervalo [ c , d ] , {\displaystyle [c,d],} ni de a b x f ( x ) d x , {\textstyle \int _{a}^{b}xf(x)dx,} ni de ningún momento superior. A veces se elige que sean cero, y a veces se elige que sean 1 b a . {\displaystyle {\tfrac {1}{b-a}}.} Esto último es apropiado en el contexto de la estimación por el método de máxima verosimilitud. En el contexto del análisis de Fourier, se puede tomar el valor de f ( a ) {\displaystyle f(a)} o f ( b ) {\displaystyle f(b)} para ser 1 2 ( b a ) , {\displaystyle {\tfrac {1}{2(b-a)}},} porque entonces la transformada inversa de muchas transformada integrals de esta función uniforme devolverá la propia función, en lugar de una función que es igual "casi en todas partes", es decir. es decir, excepto en un conjunto de puntos con medida nula. Además, es consistente con la función signo, que no tiene tal ambigüedad.

Cualquier función de densidad de probabilidad integra a 1 , {\displaystyle 1,} por lo que la función de densidad de probabilidad de la distribución uniforme continua se representa gráficamente como un rectángulo donde b-a es la longitud de la base y 1/(b-a) es la altura. A medida que la longitud de la base aumenta, la altura (la densidad en cualquier valor particular dentro de los límites de la distribución) disminuye.[4]

En términos de media μ {\displaystyle \mu } y varianza σ 2 , {\displaystyle \sigma ^{2},} la función de densidad de probabilidad de la distribución uniforme continua es:

f ( x ) = { 1 2 σ 3 for  σ 3 x μ σ 3 , 0 otherwise . {\displaystyle f(x)={\begin{cases}{\frac {1}{2\sigma {\sqrt {3}}}}&{\text{for }}-\sigma {\sqrt {3}}\leq x-\mu \leq \sigma {\sqrt {3}},\\0&{\text{otherwise}}.\end{cases}}}

Función de distribución

Si X U ( a , b ) {\displaystyle X\sim \operatorname {U} (a,b)} entonces la función de distribución es:

F X ( x ) = { 0 x < a x a b a a x < b 1 x b {\displaystyle F_{X}(x)={\begin{cases}0&x<a\\\displaystyle {\frac {x-a}{b-a}}&a\leq x<b\\1&x\geq b\end{cases}}}

la cual es fácil de obtener a partir de la función de densidad pues

F X ( x ) = a x 1 b a d u = 1 b a u | a x = x a b a {\displaystyle {\begin{aligned}F_{X}(x)=\int _{a}^{x}{\frac {1}{b-a}}\;du={\frac {1}{b-a}}\;u{\bigg |}_{a}^{x}={\frac {x-a}{b-a}}\end{aligned}}}

Ejemplo 1. Uso de la función de distribución uniforme continua

Para una variable aleatoria X U ( 0 , 23 ) , {\displaystyle X\sim U(0,23),} hallar P ( 2 < X < 18 ) : {\displaystyle P(2<X<18):}

P ( 2 < X < 18 ) = ( 18 2 ) 1 23 0 = 16 23 . {\displaystyle P(2<X<18)=(18-2)\cdot {\frac {1}{23-0}}={\frac {16}{23}}.}

En una representación gráfica de la función de distribución uniforme continua [ f ( x )  vs  x ] , {\displaystyle [f(x){\text{ vs }}x],} el área bajo la curva dentro de los límites especificados, y mostrando la probabilidad, es un rectángulo. Para el ejemplo concreto anterior, la base sería 16, y la altura sería 1/23[5]

Ejemplo 2. Utilizando la función de distribución uniforme continua (condicional)

Para una variable aleatoria X U ( 0 , 23 ) , {\displaystyle X\sim U(0,23),} hallar P ( X > 12   |   X > 8 ) : {\displaystyle P(X>12\ |\ X>8):}

P ( X > 12   |   X > 8 ) = ( 23 12 ) 1 23 8 = 11 15 . {\displaystyle P(X>12\ |\ X>8)=(23-12)\cdot {\frac {1}{23-8}}={\frac {11}{15}}.}

El ejemplo anterior es un caso de probabilidad condicional para la distribución uniforme continua: dado que X > 8 es cierto, ¿cuál es la probabilidad de que X > 12? La probabilidad condicional cambia el espacio muestral, por lo que hay que calcular un nuevo intervalo de longitud (b-a'), donde b = 23 {\displaystyle b=23} y a = 8 {\displaystyle a'=8} .[5]​ La representación gráfica seguiría el ejemplo 1, donde el área bajo la curva dentro de los límites especificados muestra la probabilidad; la base del rectángulo sería 11, y la altura sería 1/15[5]

Propiedades

Si X {\displaystyle X} es una variable aleatoria tal que X U ( a , b ) {\displaystyle X\sim \operatorname {U} (a,b)} entonces la variable aleatoria X {\displaystyle X} satisface algunas propiedades.

Media

La media de la variable aleatoria X {\displaystyle X} es

E [ X ] = a + b 2 {\displaystyle \operatorname {E} [X]={\frac {a+b}{2}}}

Esta se demuestra fácilmente utilizando la definición de esperanza matemática

E [ X ] = a b x b a d x = 1 b a x 2 2 | a b = b 2 a 2 2 ( b a ) = ( b a ) ( b + a ) 2 ( b a ) = a + b 2 {\displaystyle {\begin{aligned}\operatorname {E} [X]&=\int _{a}^{b}{\frac {x}{b-a}}\;dx\\&={\frac {1}{b-a}}{\frac {x^{2}}{2}}{\bigg |}_{a}^{b}\\&={\frac {b^{2}-a^{2}}{2(b-a)}}\\&={\frac {(b-a)(b+a)}{2(b-a)}}\\&={\frac {a+b}{2}}\end{aligned}}}

Si se exponeen un gráfico la función de densidad de esta distribución notará que la media corresponde al punto medio del intervalo [ a , b ] {\displaystyle [a,b]} .

Varianza

La varianza de la variable aleatoria X {\displaystyle X} es

Var ( X ) = ( b a ) 2 12 {\displaystyle \operatorname {Var} (X)={\frac {(b-a)^{2}}{12}}}

Momentos

El n {\displaystyle n} -ésimo momento de la variable aleatoria X {\displaystyle X} está dado por

E [ X n ] = b n + 1 a n + 1 ( n + 1 ) ( b a ) = 1 n + 1 k = 0 n a k b n k {\displaystyle \operatorname {E} [X^{n}]={\frac {b^{n+1}-a^{n+1}}{(n+1)(b-a)}}={\frac {1}{n+1}}\sum _{k=0}^{n}a^{k}b^{n-k}}

para n N {\displaystyle n\in \mathbb {N} } .

Función generadora de momentos

La función generadora de momentos de esta distribución es

M X ( t ) = e t b e t a t ( b a ) {\displaystyle M_{X}(t)={\frac {e^{tb}-e^{ta}}{t(b-a)}}}

para valores t 0 {\displaystyle t\neq 0} .

Esto se demuestra fácilmente utilizando la definición de función generadora de momentos:

M X ( t ) = E [ e t X ] = a b e t x 1 b a d x = 1 b a e t x t | a b = e t b e t a t ( b a ) {\displaystyle {\begin{aligned}M_{X}(t)&=\operatorname {E} [e^{tX}]\\&=\int _{a}^{b}{e^{tx}{\frac {1}{b-a}}dx}\\&={\frac {1}{b-a}}{\frac {e^{tx}}{t}}{\bigg |}_{a}^{b}\\&={\frac {e^{tb}-e^{ta}}{t(b-a)}}\\\end{aligned}}}

Generalización a conjuntos de Borel

Esta distribución puede ser generalizada a conjuntos de intervalos más complicados. Si S {\displaystyle S} es un conjunto de Borel de medida finita positiva, la distribución probabilidad uniforme en S {\displaystyle S} se puede especificar definiendo que la pdf sea nula fuera de S {\displaystyle S} e igual a 1/K dentro de S {\displaystyle S} , donde K es la medida de Lebesgue de S {\displaystyle S} .

Estadísticas de orden

Sea X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} una muestra independiente e identicamente distribuidas de U ( 0 , 1 ) {\displaystyle U(0,1)} . Sea X ( k ) {\displaystyle X_{(k)}} el k {\displaystyle k} -ésimo estadístico de orden de esta muestra. Entonces la distribución de probabilidad de X ( k ) {\displaystyle X_{(k)}} es una distribución Beta con parámetros k {\displaystyle k} y n k + 1 {\displaystyle n-k+1} . La esperanza matemática es

E [ X ( k ) ] = k n + 1 . {\displaystyle \operatorname {E} [X_{(k)}]={k \over n+1}.}

Esto es útil cuando se realizan Q-Q plots.

Las varianzas son

Var ( X ( k ) ) = k ( n k + 1 ) ( n + 1 ) 2 ( n + 2 ) . {\displaystyle \operatorname {Var} (X_{(k)})={k(n-k+1) \over (n+1)^{2}(n+2)}.}

Uniformidad

La probabilidad de que una variable aleatoria uniformemente distribuida se encuentre dentro de algún intervalo de longitud finita es independiente de la ubicación del intervalo (aunque sí depende del tamaño del intervalo), siempre que el intervalo esté contenido en el dominio de la distribución.

Es posible verificar esto: si X U ( a , b ) {\displaystyle X\sim \operatorname {U} (a,b)} y [ x , x + l ] [ a , b ] {\displaystyle [x,x+l]\subseteq [a,b]} con l > 0 {\displaystyle l>0} fijo, entonces

P [ x X x + l ] = x x + l 1 b a d t = l b a {\displaystyle P\left[x\leq X\leq x+l\right]=\int _{x}^{x+l}{\frac {1}{b-a}}dt={\frac {l}{b-a}}} .

lo cual sólo depende de la longitud del intervalo l {\displaystyle l} y es independiente de x {\displaystyle x} . Este hecho es el que le da su nombre a la distribución.

Distribución uniforme estándar

Si se restringe a = 0 {\displaystyle a=0} y b = 1 {\displaystyle b=1} entonces la distribución resultante se llama distribución uniforme estándar. Si X {\displaystyle X} es una variable aleatoria con distribución uniforme estándar entonces se escribirá X U ( 0 , 1 ) {\displaystyle X\sim \operatorname {U} (0,1)} .

Para esta distribución en particular, se tiene que:

Función de densidad

La función de densidad para cualquier valor x [ 0 , 1 ] {\displaystyle x\in [0,1]} es simplemente la constante 1 {\displaystyle 1} , esto es

f X ( x ) = 1 {\displaystyle f_{X}(x)=1}

Función de probabilidad

La función de probabilidad de X {\displaystyle X} se reduce a la recta identidad, esto es

F X ( x ) = x {\displaystyle F_{X}(x)=x}

para valores de x [ 0 , 1 ] {\displaystyle x\in [0,1]}

Media y Varianza

La media y varianza están dadas por

E [ X ] = 1 2 {\displaystyle \operatorname {E} [X]={\frac {1}{2}}}
Var ( X ) = 1 12 {\displaystyle \operatorname {Var} (X)={\frac {1}{12}}}

respectivamente.

Simetría

Si X U ( 0 , 1 ) {\displaystyle X\sim \operatorname {U} (0,1)} , entonces 1 X U ( 0 , 1 ) {\displaystyle 1-X\sim \operatorname {U} (0,1)} .

Transformada integral de probabilidad

Si Y {\displaystyle Y} es una variable aleatoria continua con función de distribución F Y {\displaystyle F_{Y}} , entonces la variable aleatoria X = F Y ( Y ) U ( 0 , 1 ) {\displaystyle X=F_{Y}(Y)\sim \operatorname {U} (0,1)} .

Aplicando este resultado, es posible simular valores aleatorios de cualquier variable aleatoria continua a partir de valores aleatorios de una distribución uniforme en el intervalo [ 0 , 1 ] {\displaystyle [0,1]} : basta aplicar a dichos valores la inversa de la función de distribución de la variable que queremos simular.

Distribuciones relacionadas

Si X {\displaystyle X} tiene una distribución uniforme estándar, es decir, X U ( 0 , 1 ) {\displaystyle X\sim \operatorname {U} (0,1)} entonces:

  • Y = ln ( X ) / λ {\displaystyle Y=-\ln(X)/\lambda } tiene una distribución exponencial con parámetro λ {\displaystyle \lambda } , es decir Y Exponencial ( λ ) {\displaystyle Y\sim \operatorname {Exponencial} (\lambda )} .
  • Y = 1 X 1 / n {\displaystyle Y=1-X^{1/n}} tiene una distribución beta con parámetros 1 {\displaystyle 1} y n {\displaystyle n} . (Notar que esto implica que la distribución uniforme estándar es un caso especial de la distribución beta, con parámetros 1 y 1).

Relaciones con otras funciones

Siempre y cuando se sigan las mismas convenciones en los puntos de transición, la función densidad de probabilidad puede también ser expresada mediante la función escalón de Heaviside:

f ( x ) = H ( x a ) H ( x b ) b a , {\displaystyle f(x)={\frac {\operatorname {H} (x-a)-\operatorname {H} (x-b)}{b-a}},\,\!} o en términos de la función rectángulo
f ( x ) = 1 b a rect ( x ( a + b 2 ) b a ) . {\displaystyle f(x)={\frac {1}{b-a}}\,\operatorname {rect} \left({\frac {x-\left({\frac {a+b}{2}}\right)}{b-a}}\right).}

No existe ambigüedad en el punto de transición de la función signo. Utilizando la convención de la mitad del máximo en los puntos de transición, la distribución uniforme se puede expresar a partir de la función signo como:

f ( x ) = sgn ( x a ) sgn ( x b ) 2 ( b a ) . {\displaystyle f(x)={\frac {\operatorname {sgn} {(x-a)}-\operatorname {sgn} {(x-b)}}{2(b-a)}}.}

Aplicaciones

En estadística, cuando se utiliza un p-valor a modo de prueba estadística para una hipótesis nula simple, y la distribución de la prueba estadística es continua, entonces la prueba estadística esta uniformemente distribuida entre 0 y 1 si la hipótesis nula es verdadera.

Muestreo de una distribución uniforme

Existen muchos usos en que es útil realizar experimentos de simulación. Muchos lenguajes de programación poseen la capacidad de generar números pseudo-aleatorios que están distribuidos de acuerdo a una distribución uniforme estándar.

Si u es un valor muestreado de una distribución uniforme estándar, entonces el valor a + (ba)u posee una distribución uniforme parametrizada por a y b, como se describió previamente.

Muestreo de una distribución arbitraria

La distribución uniforme resulta útil para muestrear distribuciones arbitrarias. Un método general es el método de muestreo de transformación inversa, que utiliza la distribución de probabilidad (CDF) de la variable aleatoria objetivo. Este método es muy útil en trabajos teóricos. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han diseñado métodos alternativos para aquellos casos donde no se conoce el CDF en una forma cerrada. Otro método similar es el muestreo de rechazo.

La distribución normal es un ejemplo importante en el que el método de la transformada inversa no es eficiente. Sin embargo, existe un método exacto, el Método de Box-Muller, que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente.

Error de cuantificación

Artículo principal: Cuantificación digital

En la conversión analógico-digital se produce un error de cuantización. Este error se debe al redondeo o al truncamiento. Cuando la señal original es mucho mayor que un least significant bit (LSB), el error de cuantización no está significativamente correlacionado con la señal, y tiene una distribución aproximadamente uniforme. Por lo tanto, el error RMS, por sus siglas en inglés, se obtiene a partir de la varianza de esta distribución.

Generación de variantes aleatorias

Hay muchas aplicaciones en las que resulta útil realizar experimentos de simulación. Muchos lenguajes de programacións vienen con implementaciones para generar números pseudoaleatorios que se distribuyen efectivamente según la distribución uniforme estándar.

Por otro lado, los números distribuidos uniformemente se utilizan a menudo como base para la generación de variantes aleatorias no uniformes.

Si u {\displaystyle u} es un valor muestreado de la distribución uniforme estándar, entonces el valor a + ( b a ) u {\displaystyle a+(b-a)u} sigue la distribución uniforme parametrizada por a {\displaystyle a} y b , {\displaystyle b,} como se ha descrito anteriormente.

Historia

Aunque los orígenes históricos de la concepción de la distribución uniforme no son concluyentes, se especula que el término "uniforme" surgió del concepto de equiprobabilidad en los juegos de dados (nótese que los juegos de dados tendrían discreta y no espacio muestral uniforme continuo). La equiprobabilidad fue mencionada en el Liber de Ludo Aleae de Gerolamo Cardano, un manual escrito en el siglo XVI y detallado sobre el cálculo avanzado de probabilidades en relación con los dados.[6]

Véase también

Referencias

  1. Walpole, Ronald (2012). Probabilidad y estadística para ingenieros y científicos. Boston, USA: Prentice Hall. pp. 171-172. ISBN 978-0-321-62911-1. 
  2. Dekking, Michel (2005). A modern introduction to probability and statistics : understanding why and how. London, UK: Springer. pp. 60–61. ISBN 978-1-85233-896-1. 
  3. Park, Sung Y.; Bera, Anil K. (2009). «Modelo de heteroscedasticidad condicional autorregresiva de entropía máxima». Journal of Econometrics 150 (2): 219-230. doi:10.1016/j.jeconom.2008.12.014. 
  4. «Distribución Uniforme (Continua)». MathWorks. 2019. Consultado el 22 de noviembre de 2019. 
  5. a b c Illowsky, Barbara (2013). Introductory Statistics. Rice University, Houston, Texas, USA: OpenStax College. pp. 296–304. ISBN 978-1-938168-20-8. 
  6. Bellhouse, David (Mayo 2005). «Descifrando el Liber de Ludo de Cardano». Historia Mathematica 32: 180-202. 

Bibliografía

  • Casella, George; Roger L. Berger (2001), Statistical Inference (2nd edición), ISBN 978-0-534-24312-8, LCCN 2001025794 .

Enlaces externos

  • Calculadora - Distribución uniforme continua
  • [1] Calcular la probabilidad de una distribución uniforme con R (lenguaje de programación)



Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q274506
  • Commonscat Multimedia: Uniform distribution / Q274506

  • Identificadores
  • LCCN: sh85038543
  • NLI: 987007557954005171
  • Diccionarios y enciclopedias
  • Britannica: url
  • Wd Datos: Q274506
  • Commonscat Multimedia: Uniform distribution / Q274506