Erweiterte Zufallsvariable

Eine erweiterte Zufallsvariable ist eine Zufallsvariable mit Werten in den erweiterten reellen Zahlen. Eine erweiterte Zufallsvariable heißt auch numerische Zufallsvariable im Unterschied zu einer reellen Zufallsvariablen, die nur Werte in den reellen Zahlen annimmt.

Definition und Eigenschaften

Für die erweiterten reellen Zahlen R ¯ := R { + , } {\displaystyle {\bar {\mathbb {R} }}:=\mathbb {R} \cup \{+\infty ,-\infty \}} wird < x < {\displaystyle -\infty <x<\infty } für alle x R {\displaystyle x\in \mathbb {R} } vereinbart. B ( R ¯ ) {\displaystyle {\mathcal {B}}({\bar {\mathbb {R} }})} bezeichne die borelsche σ-Algebra auf den erweiterten reellen Zahlen. ( Ω , A , P ) {\displaystyle (\Omega ,\mathbb {A} ,P)} sei ein Wahrscheinlichkeitsraum.

Definition

Eine Abbildung X : Ω R ¯ {\displaystyle X:\Omega \to {\bar {\mathbb {R} }}} , die A - B ( R ¯ ) {\displaystyle \mathbb {A} {\text{-}}{\mathcal {B}}({\bar {\mathbb {R} }})} -messbar ist, heißt erweiterte Zufallsvariable[1] (engl. extended random variable[2]).
Eine erweiterte Zufallsvariable heißt auch erweiterte zufällige Größe[3] oder – analog zur Terminologie der numerischen Funktion – numerische Zufallsvariable[4][5][6].

Eigenschaften

  • Die A - B ( R ¯ ) {\displaystyle \mathbb {A} {\text{-}}{\mathcal {B}}({\bar {\mathbb {R} }})} -Messbarkeit von X {\displaystyle X} bedeutet, dass X 1 ( B ) A {\displaystyle X^{-1}(B)\in \mathbb {A} } für alle B B ( R ¯ ) {\displaystyle B\in {\mathcal {B}}({\bar {\mathbb {R} }})} gilt. Dabei bezeichnet X 1 ( B ) {\displaystyle X^{-1}(B)} das Urbild einer Menge B R ¯ {\displaystyle B\subseteq {\bar {\mathbb {R} }}} . Somit ist die Wahrscheinlichkeit P ( X B ) = P ( X 1 ( B ) ) {\displaystyle P(X\in B)=P(X^{-1}(B))} für alle B B ( R ¯ ) {\displaystyle B\in {\mathcal {B}}({\bar {\mathbb {R} }})} definiert.
  • Insbesondere sind im Unterschied zu einer reellen Zufallsvariablen auch die beiden Wahrscheinlichkeiten P ( X = ) = P ( X 1 ( { } ) ) {\displaystyle P(X=-\infty )=P(X^{-1}(\{-\infty \}))} und P ( X = ) = P ( X 1 ( { } ) ) {\displaystyle P(X=\infty )=P(X^{-1}(\{\infty \}))} definiert und können positiv sein.
  • Durch
P X ( B ) := P ( X B ) {\displaystyle P_{X}(B):=P(X\in B)} für alle B B ( R ¯ ) {\displaystyle B\in {\mathcal {B}}({\bar {\mathbb {R} }})}
ist die Wahrscheinlichkeitsverteilung der erweiterten Zufallsvariablen X {\displaystyle X} auf dem Messraum ( R ¯ , B ( R ¯ ) ) {\displaystyle ({\bar {\mathbb {R} }},{\mathcal {B}}({\bar {\mathbb {R} }}))} definiert, so dass ( R ¯ , B ( R ¯ ) , P X ) {\displaystyle ({\bar {\mathbb {R} }},{\mathcal {B}}({\bar {\mathbb {R} }}),P_{X})} ein Wahrscheinlichkeitsraum ist.
  • Eine erweiterte Zufallsvariable X {\displaystyle X} mit der Bildmenge X ( Ω ) R {\displaystyle X(\Omega )\subseteq \mathbb {R} } ist eine reelle Zufallsvariable. Insofern sind reelle Zufallsvariablen spezielle erweiterte Zufallsvariablen.
  • Eine erweiterte Zufallsvariable X {\displaystyle X} mit der speziellen Eigenschaft P ( X = ) = P ( X = + ) = 0 {\displaystyle P(X=-\infty )=P(X=+\infty )=0} unterscheidet sich wahrscheinlichkeitstheoretisch nicht von der durch
X ( ω ) := { X ( ω ) für  ω X 1 ( R ) 17 für  ω X 1 ( { , } ) {\displaystyle X'(\omega ):={\begin{cases}X(\omega )&{\text{für }}\omega \in X^{-1}(\mathbb {R} )\\17&{\text{für }}\omega \in X^{-1}(\{-\infty ,\infty \})\end{cases}}}
definierten reellen Zufallsvariable X {\displaystyle X'} . Die Zahl 17 kann durch jede beliebige reelle Zahl ersetzt werden, da nach Konstruktion P ( X = 17 ) = 0 {\displaystyle P(X'=17)=0} gilt. Es gilt
P ( X B ) = P ( X B ) für alle  B B ( R ) , {\displaystyle P(X\in B)=P(X'\in B)\quad {\text{für alle }}B\in {\mathcal {B}}(\mathbb {R} ),}
wobei B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} die borelsche σ-Algebra auf R {\displaystyle \mathbb {R} } bezeichnet.
  • Die Wahrscheinlichkeitsverteilung einer erweiterten Zufallsvariablen kann durch deren Subverteilungsfunktion H X ( x ) := P ( X x ) {\displaystyle H_{X}(x):=P(X\leq x)} für x R {\displaystyle x\in \mathbb {R} } charakterisiert werden. Dabei gilt P ( X = ) = lim x H X ( x ) {\displaystyle P(X=-\infty )=\lim _{x\to -\infty }H_{X}(x)} und P ( X = ) = 1 lim x H X ( x ) {\displaystyle P(X=\infty )=1-\lim _{x\to \infty }H_{X}(x)} .
  • Die Klasse der erweiterten Zufallsvariablen ist abgeschlossen bezüglich der punktweisen Konvergenz. Es gilt folgender Satz: Es sei ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} eine Folge erweiterter Zufallsvariablen auf demselben Wahrscheinlichkeitsraum mit der Ergebnismenge Ω {\displaystyle \Omega } und X ( ω ) = lim n X n ( ω ) {\displaystyle X(\omega )=\lim _{n\to \infty }X_{n}(\omega )} für alle ω Ω {\displaystyle \omega \in \Omega } , dann ist X {\displaystyle X} ebenfalls eine erweiterte Zufallsvariable.[7]

Uneinheitliche Terminologie

Die Begriffe Zufallsvariable, reelle Zufallsvariable und numerische Zufallsvariable werden uneinheitlich verwendet. Z. B. verwendet Klaus Schmidt den Begriff 'Zufallsvariable' für eine erweiterte oder numerische Zufallsvariable mit Werten in R ¯ {\displaystyle {\bar {\mathbb {R} }}} im Unterschied zu einer 'reellen Zufallsvariablen' mit Werten in R {\displaystyle \mathbb {R} } .[8]

Anwendungen

Unendliche Lebensdauer mit positiver Wahrscheinlichkeit

Bei der Überlebenszeitanalyse modelliert eine nichtnegative Zufallsvariable X {\displaystyle X} die zufällige Lebensdauer. Dabei ist P ( X > x ) {\displaystyle P(X>x)} die so genannte Überlebensfunktion. Bei biometrischen Anwendungen ist eine übliche Annahme

lim x P ( X > x ) = 0 {\displaystyle \lim _{x\to \infty }P(X>x)=0} ,

bzw. dazu äquivalent

lim x P ( X x ) = 1 {\displaystyle \lim _{x\to \infty }P(X\leq x)=1} .

Diese Annahme ist plausibel, da sie ein – mit positiver Wahrscheinlichkeit – unendlich langes Leben ausschließt. Bei physikalischen Modellen ergibt sich eine andere Situation. Wenn man das Konzept der Überlebenszeitanalyse zum Beispiel auf eine Mischung stabiler und instabiler Kohlenstoff-Isotope anwendet, so ist

lim x P ( X > x ) > 0 {\displaystyle \lim _{x\to \infty }P(X>x)>0}

und somit auch

lim x P ( X x ) < 1 , {\displaystyle \lim _{x\to \infty }P(X\leq x)<1,}

da die instabilen Isotope zerfallen und die stabilen Isotope dauerhaft überleben. Ein Modell für Überlebenszeiten kann in diesem Fall auf einer erweiterten Zufallsvariable mit der Eigenschaft P ( X = ) > 0 {\displaystyle P(X=\infty )>0} basieren.

Zufällige Zeiten

Stoppzeiten werden typischerweise als erweiterte Zufallsvariablen mit Werten in N 0 {\displaystyle \mathbb {N} _{0}\cup \infty } oder [ 0 , ] {\displaystyle [0,\infty ]} modelliert. Eine Stoppzeit T {\displaystyle T} mit P ( T < ) = 1 {\displaystyle P(T<\infty )=1} heißt endliche Stoppzeit.

Teststatistik als erweiterte Zufallsvariable

In der mathematischen Statistiken wird manchmal die Teststatistik (Prüfgröße) eines Tests als erweiterte Zufallsvariable T : ( X , B ) ( R ¯ , B ( R ¯ ) ) {\displaystyle T:({\mathcal {X}},{\mathcal {B}})\to ({\bar {\mathbb {R} }},{\mathcal {B}}({\bar {\mathbb {R} }}))} und damit als messbare Funktion vom Stichprobenraum ( X , B ) {\displaystyle ({\mathcal {X}},{\mathcal {B}})} in die erweiterten reellen Zahlen definiert.[9]

Bedingte Erwartung als Zufallsvariable

Der Erwartungswert einer Zufallsvariablen wird teils im engeren Sinn als reelle Zahl und teils im weiteren Sinn als erweiterte reelle Zahl definiert. Entsprechend führt das allgemeinere Konzept der 'bedingten Erwartung' zur bedingen Erwartung im engeren Sinn als reelle Zufallsvariable oder zur bedingten Erwartung im erweiterten Sinn als erweiterte Zufallsvariable.[10][11] Im ersten Fall werden bedingte Erwartungen gegeben eine reelle Zufallsvariable oder allgemeiner gegeben ein Ereignissystem als σ-Algebra nur für integrierbare Zufallsvariablen, im zweiten Fall allgemeiner für quasiintegrierbare Zufallsvariablen definiert.

Limes von Folgen reeller Zufallsvariablen

Eine erweiterte Zufallsvariable X {\displaystyle X} kann als Limes einer Folge reeller Zufallsvariablen ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} aufgefasst werden, die im üblichen wahrscheinlichkeitstheoretischen Sinn nicht konvergiert. Es sei ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} eine Folge normalverteilter Zufallsvariablen mit Erwartungswert 0 {\displaystyle 0} und Standardabweichung n {\displaystyle n} . Eine Zufallsvariable X n {\displaystyle X_{n}} hat dann die Verteilungsfunktion F n ( x ) = P ( X n x ) = Φ ( x / n ) {\displaystyle F_{n}(x)=P(X_{n}\leq x)=\Phi (x/n)} , wobei Φ {\displaystyle \Phi } die Verteilungsfunktion der Standardnormalverteilung bezeichnet. Die Folge ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} konvergiert in den üblichen wahrscheinlichkeitstheoretischen Konvergenzkonzepten für reelle Zufallsvariablen nicht gegen eine reelle Zufallsvariable, da

lim n P ( X n > x ) = 1 2 für alle (noch so großen)  x R {\displaystyle \lim _{n\to \infty }P(X_{n}>x)={\frac {1}{2}}\quad {\text{für alle (noch so großen) }}x\in \mathbb {R} } ,
lim n P ( X n < x ) = 1 2 für alle (noch so kleinen)  x R {\displaystyle \lim _{n\to \infty }P(X_{n}<x)={\frac {1}{2}}\quad {\text{für alle (noch so kleinen) }}x\in \mathbb {R} }

und

lim n P ( | X n | x ) = 0 für alle (noch so großen)  x ( 0 , ) {\displaystyle \lim _{n\to \infty }P(|X_{n}|\leq x)=0\quad {\text{für alle (noch so großen) }}x\in (0,\infty )} .

Für wachsendes n {\displaystyle n} weicht die Wahrscheinlichkeitsmasse auf beiden Seiten ins Unendliche aus. Offenbar kann die erweiterte Zufallsvariable X {\displaystyle X} mit P ( X = ) = P ( X = ) = 1 / 2 {\displaystyle P(X=-\infty )=P(X=\infty )=1/2} als Limes der Folge ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} interpretiert werden, der allerdings außerhalb der Klasse der reellen Zufallsvariablen liegt. Dieser intuitive Konvergenzbegriff deckt sich mit maßtheoretischen Konvergenzbegriffen, wenn die reellen Zufallsvariablen als Teilmenge der erweiterten Zufallsvariablen aufgefasst werden und Subverteilungsfunktionen verwendet werden. Es gilt nämlich

lim n F n ( x ) = lim n Φ ( x / n ) = 1 2 für alle  x R {\displaystyle \lim _{n\to \infty }F_{n}(x)=\lim _{n\to \infty }\Phi (x/n)={\frac {1}{2}}\quad {\text{für alle }}x\in \mathbb {R} } ,

wobei H ( x ) = 1 / 2 {\displaystyle H(x)=1/2} für alle x R {\displaystyle x\in \mathbb {R} } die Subverteilungsfunktion der erweiterten Zufallsvariablen X {\displaystyle X} ist. Es handelt sich bei der Konvergenz der Folge ( F n ) n N {\displaystyle (F_{n})_{n\in \mathbb {N} }} gegen H {\displaystyle H} um die vage Konvergenz von maßtheoretischen Verteilungsfunktionen, die für Subverteilungsfunktionen, da diese beschränkt sind, mit der schwachen Konvergenz von maßtheoretischen Verteilungsfunktionen zusammenfällt.

Rechnen mit erweiterten Zufallsvariablen

Besondere Vorsicht ist bei allen Berechnungen und Umformungen mit erweiterten Zufallsvariablen erforderlich. Wenn X {\displaystyle X} und Y {\displaystyle Y} erweiterte Zufallsvariablen sind, wirft bereits die Bildung von a X + b Y {\displaystyle aX+bY} mit reellen Koeffizienten a {\displaystyle a} und b {\displaystyle b} besondere Probleme auf.

  • Wenn X > 0 {\displaystyle X>0} und P ( X = + ) > 0 {\displaystyle P(X=+\infty )>0} gilt, dann stellt X = 0 X {\displaystyle X'=0\cdot X} die Frage, wie das Produkt 0 ( + ) {\displaystyle 0\cdot (+\infty )} zu bilden ist. Mit der in der Maßtheorie üblichen Vereinbarung 0 ( + ) := 0 {\displaystyle 0\cdot (+\infty ):=0} gilt dann
X ( ω ) = { 0 X ( ω ) = 0 für  X ( ω ) < + 0 ( + ) = 0 für  X ( ω ) = + {\displaystyle X'(\omega )={\begin{cases}0\cdot X(\omega )=0&{\text{für }}X(\omega )<+\infty \\0\cdot (+\infty )=0&{\text{für }}X(\omega )=+\infty \end{cases}}}
und somit X = 0 {\displaystyle X'=0} .
  • Wenn X > 0 {\displaystyle X>0} und P ( X = + ) > 0 {\displaystyle P(X=+\infty )>0} gilt, dann gilt X X = 0 {\displaystyle X-X=0} , falls ( + ) ( + ) = 0 {\displaystyle (+\infty )-(+\infty )=0} vereinbart wird. Die ist aber keine übliche Vereinbarung.
  • Wenn X > 0 {\displaystyle X>0} und P ( X = + ) = p > 0 {\displaystyle P(X=+\infty )=p>0} gilt, kann die reelle Zufallsvariable
X ( ω ) = { 1 X ( ω ) für  X ( ω ) < + 0 für  X ( ω ) = + {\displaystyle X'(\omega )={\begin{cases}{\frac {1}{X(\omega )}}&{\text{für }}X(\omega )<+\infty \\0&{\text{für }}X(\omega )=+\infty \end{cases}}}
mit P ( X = 0 ) = p {\displaystyle P(X'=0)=p} gebildet werden. Damit dann aber die Gleichung X X = 1 {\displaystyle X\cdot X'=1} gilt, muss an dieser Stelle ( + ) 0 = 1 {\displaystyle (+\infty )\cdot 0=1} vereinbart werden.
  • Wenn X { , + } {\displaystyle X\in \{-\infty ,+\infty \}} gilt, dann ergibt sich mit den üblichen Regeln ( + ) + ( + ) = + {\displaystyle (+\infty )+(+\infty )=+\infty } und ( ) + ( ) = {\displaystyle (-\infty )+(-\infty )=-\infty } die Gleichung X + X = X {\displaystyle X+X=X} , ohne dass X = 0 {\displaystyle X=0} gilt.

Einzelnachweise

  1. Guido Walz (Hrsg.): Lexikon der Mathematik. 2. Auflage. Band 2. Eig bis Inn. Springer Spektrum, Berlin 2017, ISBN 978-3-662-53503-5, S. 78, doi:10.1007/978-3-662-53504-2. 
  2. Galen R. Shorack: Probability for Statisticians (= Springer Texts in Statistics). 2. Auflage. Springer, Cham 2017, ISBN 978-3-319-52206-7, S. 35, 193, doi:10.1007/978-3-319-52207-4. 
  3. A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 184, Definition 4. 
  4. Guido Walz (Hrsg.): Lexikon der Mathematik. 2. Auflage. Band 4. Moo bis Sch. Springer Spektrum, Berlin 2017, ISBN 978-3-662-53499-1, S. 98, doi:10.1007/978-3-662-53500-4. 
  5. Peter Gänssler, Winfried Stute: Wahrscheinlichkeitstheorie. Springer-Verlag, Berlin / Heidelberg / New York 1977, ISBN 3-540-08418-5, S. 18. 
  6. Heinz Bauer: Wahrscheinlichkeitstheorie. 5. Auflage. Walter de Gruyter, Berlin / New York 2002, ISBN 3-11-017236-4, S. 14. 
  7. A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 185, Satz 2. 
  8. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, S. 194. 
  9. Hermann Witting: Mathematische Statistik I. Parametrische Verfahren bei festem Stichprobenumfang. Teubner, Stuttgart 1985, ISBN 3-519-02026-2, S. 189, doi:10.1007/978-3-322-90150-7. 
  10. A. N. Širjaev: Wahrscheinlichkeit (= Hochschulbücher für Mathematik. Band 91). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9, S. 223, Definition 1. 
  11. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin / Heidelberg 2011, ISBN 978-3-642-21025-9, Kap. 19.  Zu beachten ist, dass bei Schmidt der Begriff 'Zufallsvariable' eine erweiterte Zufallsvariable bezeichnet.