Distribución marginal

Imagen representativa de una distribución gaussiana multivariada y sus respectivas marginales.

En teoría de probabilidades, la distribución marginal es la distribución de probabilidad de un subconjunto de variables aleatorias de un conjunto de variables aleatorias. La distribución marginal proporciona la probabilidad de un subconjunto de valores del conjunto sin necesidad de conocer los valores de las otras variables. Esto contrasta con la distribución condicional, que proporciona probabilidades contingentes sobre el valor conocido de otras variables.

El término variable marginal se usa para referirse a una variable del subconjunto de retenido y cuyos valores pueden ser conocidos.[1]​ La distribución de las variables marginales, la distribución marginal, se obtiene marginalizando sobre la distribución de variables descartadas y las variables descartadas se llaman a veces variables marginalizadas.

El caso más simple es el de dos variables aleatorias reales X {\displaystyle X} y Y {\displaystyle Y} para la que se conozca su distribución de probabilidad conjunta F X , Y ( x , y ) {\displaystyle F_{X,Y}(x,y)\;} , entonces la distribución marginal de X {\displaystyle X} es la distribución de probabilidad F X ( x ) {\displaystyle F_{X}(x)} de X {\displaystyle X} haciendo caso omiso de la información referente a Y {\displaystyle Y} . Para las variables aleatorias discretas, la ley de probabilidad marginal P [ X = x ] {\displaystyle \operatorname {P} [X=x]} se escribe

P [ X = x ] = y P [ X = x , Y = y ] = y P [ X = x | Y = y ] P [ Y = y ] {\displaystyle \operatorname {P} [X=x]=\sum _{y}\operatorname {P} [X=x,Y=y]=\sum _{y}\operatorname {P} [X=x|Y=y]\operatorname {P} [Y=y]}

donde P [ X = x , Y = y ] {\displaystyle \operatorname {P} [X=x,Y=y]} denota la distribución conjunta de X {\displaystyle X} y Y {\displaystyle Y} , mientras que P [ X = x | Y = y ] {\displaystyle \operatorname {P} [X=x|Y=y]} denota la distribución condicional de X {\displaystyle X} conociendo Y {\displaystyle Y} . Ésta es la lección principal del Teorema de la probabilidad total. Del mismo modo, para variables aleatorias continuas, la densidad de probabilidad marginal pX (x) verifica

p X ( x ) = y p X , Y ( x , y ) d y = y p X | Y ( x | y ) p Y ( y ) d y {\displaystyle p_{X}(x)=\int _{y}p_{X,Y}(x,y)\,{\mbox{d}}y=\int _{y}p_{X|Y}(x|y)\,p_{Y}(y)\,{\mbox{d}}y}

donde p X , Y {\displaystyle p_{X,Y}} da la distribución conjunta de X {\displaystyle X} y Y {\displaystyle Y} , y p X | Y | ( x | y ) {\displaystyle p_{X|Y}|(x|y)} la distribución condicional de X {\displaystyle X} conociendo Y {\displaystyle Y} .

Este tipo de cálculo se produce cuando se considera el estudio de una tabla de contingencia.[1]

Referencias

  1. a b Trumpler and Weaver (1962), pp. 32–33.

Bibliografía

  • Everitt, B. S. (2002). The Cambridge Dictionary of Statistics. Cambridge University Press. ISBN 0-521-81099-X. 
  • Trumpler, Robert J. and Harold F. Weaver (1962). Statistical Astronomy. Dover Publications. 

Enlaces externos

  • Obtención distribución marginal a partir de distribución conjunta de una variable bidimensional discreta con R-Project
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q670653
  • Identificadores
  • GND: 4176932-6
  • LCCN: sh97007812
  • NLI: 987007549205405171
  • Diccionarios y enciclopedias
  • Britannica: url
  • Wd Datos: Q670653