Stochastisch unabhängige Zufallsvariablen

Die stochastische Unabhängigkeit von Zufallsvariablen ist ein zentrales Konzept der Wahrscheinlichkeitstheorie und der Statistik, das die stochastische Unabhängigkeit von Ereignissen und die Unabhängigkeit von Mengensystemen verallgemeinert. Die stochastische Unabhängigkeit von Zufallsvariablen wird beispielsweise bei der Formulierung des Zentralen Grenzwertsatzes benötigt.

Definition für zwei Zufallsvariablen

Gegeben seien ein Wahrscheinlichkeitsraum ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} sowie zwei Messräume ( E 1 , Σ 1 ) {\displaystyle (E_{1},\Sigma _{1})} und ( E 2 , Σ 2 ) {\displaystyle (E_{2},\Sigma _{2})} und zwei Zufallsvariablen

X 1 : ( Ω , A , P ) ( E 1 , Σ 1 ) {\displaystyle X_{1}:(\Omega ,{\mathcal {A}},P)\to (E_{1},\Sigma _{1})}

und

X 2 : ( Ω , A , P ) ( E 2 , Σ 2 ) {\displaystyle X_{2}:(\Omega ,{\mathcal {A}},P)\to (E_{2},\Sigma _{2})} .

Die beiden Zufallsvariablen heißen stochastisch unabhängig oder einfacher unabhängig, wenn für jedes B 1 Σ 1 {\displaystyle B_{1}\in \Sigma _{1}} und jedes B 2 Σ 2 {\displaystyle B_{2}\in \Sigma _{2}} gilt, dass

P ( { ω Ω : X 1 ( ω ) B 1 und X 2 ( ω ) B 2 } ) = P ( { ω Ω : X 1 ( ω ) B 1 } ) P ( { ω Ω : X 2 ( ω ) B 2 } ) {\displaystyle P(\{\omega \in \Omega \colon X_{1}(\omega )\in B_{1}\,{\text{und}}\,X_{2}(\omega )\in B_{2}\})=P(\{\omega \in \Omega \colon X_{1}(\omega )\in B_{1}\})\cdot P(\{\omega \in \Omega \colon X_{2}(\omega )\in B_{2}\})} .

Meist werden die Mengen kompakter notiert, indem man anstelle von { ω Ω : X 2 ( ω ) B 2 } {\displaystyle \{\omega \in \Omega \colon X_{2}(\omega )\in B_{2}\}} einfach { X 2 B 2 } {\displaystyle \{X_{2}\in B_{2}\}} schreibt. Dann lautet die Definition

P ( { X 1 B 1 , X 2 B 2 } ) = P ( { X 1 B 1 } ) P ( { X 2 B 2 } ) {\displaystyle P(\{X_{1}\in B_{1},\,X_{2}\in B_{2}\})=P(\{X_{1}\in B_{1}\})\cdot P(\{X_{2}\in B_{2}\})}

für alle B 1 Σ 1 , B 2 Σ 2 {\displaystyle B_{1}\in \Sigma _{1},\,B_{2}\in \Sigma _{2}} . Außerdem werden – weiter vereinfachend – häufig die Mengenklammern weggelassen, so dass die Notation

P ( X 1 B 1 , X 2 B 2 ) = P ( X 1 B 1 ) P ( X 2 B 2 ) , {\displaystyle P(X_{1}\in B_{1},\,X_{2}\in B_{2})=P(X_{1}\in B_{1})\cdot P(X_{2}\in B_{2}),}

resultiert, die auch im Folgenden verwendet wird.

Eine alternative Definition wird durch die stochastische Unabhängigkeit von Ereignissen ermöglicht. Man definiert dann

A B 1 1 = { ω Ω : X 1 ( ω ) B 1 } {\displaystyle A_{B_{1}}^{1}=\{\omega \in \Omega \colon X_{1}(\omega )\in B_{1}\}}
A B 2 2 = { ω Ω : X 2 ( ω ) B 2 } {\displaystyle A_{B_{2}}^{2}=\{\omega \in \Omega \colon X_{2}(\omega )\in B_{2}\}} .

Die Zufallsvariablen X 1 , X 2 {\displaystyle X_{1},X_{2}} heißen dann stochastisch unabhängig, wenn für alle B 1 Σ 1 , B 2 Σ 2 {\displaystyle B_{1}\in \Sigma _{1},B_{2}\in \Sigma _{2}} gilt, dass die A B 1 1 {\displaystyle A_{B_{1}}^{1}} und A B 2 2 {\displaystyle A_{B_{2}}^{2}} stochastisch unabhängige Ereignisse sind, also

P ( A B 1 1 A B 2 2 ) = P ( A B 1 1 ) P ( A B 2 2 ) {\displaystyle P(A_{B_{1}}^{1}\cap A_{B_{2}}^{2})=P(A_{B_{1}}^{1})P(A_{B_{2}}^{2})}

gilt.

Beispiel

Wir betrachten den Wahrscheinlichkeitsraum ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} mit Grundmenge Ω = { 1 , 2 , 3 , 4 } {\displaystyle \Omega =\{1,2,3,4\}} , σ-Algebra A = P ( Ω ) {\displaystyle {\mathcal {A}}={\mathcal {P}}(\Omega )} und als Wahrscheinlichkeitsmaß die Gleichverteilung auf der Grundmenge. Sei E 1 = E 2 = { 0 , 1 } {\displaystyle E_{1}=E_{2}=\{0,1\}} und Σ 1 = Σ 2 = P ( { 0 , 1 } ) {\displaystyle \Sigma _{1}=\Sigma _{2}={\mathcal {P}}(\{0,1\})} . Die Zufallsvariablen sind definiert als

X 1 ( ω ) = { 1  falls  ω { 1 , 2 } 0  falls  ω { 3 , 4 } {\displaystyle X_{1}(\omega )={\begin{cases}1&{\text{ falls }}\omega \in \{1,2\}\\0&{\text{ falls }}\omega \in \{3,4\}\end{cases}}}
X 2 ( ω ) = { 1  falls  ω { 2 , 3 } 0  falls  ω { 1 , 4 } {\displaystyle X_{2}(\omega )={\begin{cases}1&{\text{ falls }}\omega \in \{2,3\}\\0&{\text{ falls }}\omega \in \{1,4\}\end{cases}}} .

Jede der σ-Algebren hat 4 Elemente: , { 0 } , { 1 } , { 0 , 1 } {\displaystyle \emptyset ,\{0\},\{1\},\{0,1\}} . Demnach wären 16 Kombinationen zu überprüfen. Die Fälle, in denen eine der beteiligten Mengen die Obermenge oder die leere Menge ist, können jedoch ausgeschlossen werden, da jede Menge von diesen beiden unabhängig ist. Demnach bleiben nur 4 Fälle übrig: B 1 = { 0 } {\displaystyle B_{1}=\{0\}} oder B 1 = { 1 } {\displaystyle B_{1}=\{1\}} kombiniert mit B 2 = { 0 } {\displaystyle B_{2}=\{0\}} oder B 2 = { 1 } {\displaystyle B_{2}=\{1\}}

  1. Sei B 1 = B 2 = { 0 } {\displaystyle B_{1}=B_{2}=\{0\}} . Dann ist A B 1 1 = { 3 , 4 } {\displaystyle A_{B_{1}}^{1}=\{3,4\}} und A B 2 2 = { 1 , 4 } {\displaystyle A_{B_{2}}^{2}=\{1,4\}} sowie A B 1 1 A B 2 2 = { 4 } {\displaystyle A_{B_{1}}^{1}\cap A_{B_{2}}^{2}=\{4\}} . Diese Ereignisse sind unabhängig, denn es ist P ( { 4 } ) = 1 4 = P ( { 3 , 4 } ) P ( { 1 , 4 } ) {\displaystyle P(\{4\})={\tfrac {1}{4}}=P(\{3,4\})P(\{1,4\})} .
  2. Sei B 1 = B 2 = { 1 } {\displaystyle B_{1}=B_{2}=\{1\}} . Dann ist A B 1 1 = { 1 , 2 } {\displaystyle A_{B_{1}}^{1}=\{1,2\}} und A B 2 2 = { 2 , 3 } {\displaystyle A_{B_{2}}^{2}=\{2,3\}} sowie A B 1 1 A B 2 2 = { 2 } {\displaystyle A_{B_{1}}^{1}\cap A_{B_{2}}^{2}=\{2\}} . Diese Ereignisse sind unabhängig, denn es ist P ( { 2 } ) = 1 4 = P ( { 1 , 2 } ) P ( { 2 , 3 } ) {\displaystyle P(\{2\})={\tfrac {1}{4}}=P(\{1,2\})P(\{2,3\})} .
  3. Sei B 1 = { 1 } {\displaystyle B_{1}=\{1\}} und B 2 = { 0 } {\displaystyle B_{2}=\{0\}} . Dann ist A B 1 1 = { 1 , 2 } {\displaystyle A_{B_{1}}^{1}=\{1,2\}} und A B 2 2 = { 1 , 4 } {\displaystyle A_{B_{2}}^{2}=\{1,4\}} sowie A B 1 1 A B 2 2 = { 1 } {\displaystyle A_{B_{1}}^{1}\cap A_{B_{2}}^{2}=\{1\}} . Diese Ereignisse sind unabhängig, denn es ist P ( { 1 } ) = 1 4 = P ( { 1 , 2 } ) P ( { 1 , 4 } ) {\displaystyle P(\{1\})={\tfrac {1}{4}}=P(\{1,2\})P(\{1,4\})} .
  4. Sei B 1 = { 0 } {\displaystyle B_{1}=\{0\}} und B 2 = { 1 } {\displaystyle B_{2}=\{1\}} . Dann ist A B 1 1 = { 3 , 4 } {\displaystyle A_{B_{1}}^{1}=\{3,4\}} und A B 2 2 = { 2 , 3 } {\displaystyle A_{B_{2}}^{2}=\{2,3\}} sowie A B 1 1 A B 2 2 = { 3 } {\displaystyle A_{B_{1}}^{1}\cap A_{B_{2}}^{2}=\{3\}} . Diese Ereignisse sind unabhängig, denn es ist P ( { 3 } ) = 1 4 = P ( { 3 , 4 } ) P ( { 2 , 3 } ) {\displaystyle P(\{3\})={\tfrac {1}{4}}=P(\{3,4\})P(\{2,3\})} .

Somit sind alle Ereignisse unabhängig und demnach auch die Zufallsvariablen.

Allgemeine Definition

Die Familie von Zufallsvariablen X i : ( Ω , A , P ) ( E i , Σ i ) {\displaystyle X_{i}\colon (\Omega ,{\mathcal {A}},P)\rightarrow (E_{i},\Sigma _{i})} , i I {\displaystyle i\in I} für eine beliebige Indexmenge I {\displaystyle I} heißt stochastisch unabhängig, falls für jede endliche Teilmenge J {\displaystyle J} von I {\displaystyle I} gilt, dass

P ( j J { X j B j } ) = j J P ( X j B j ) {\displaystyle P\left(\bigcap _{j\in J}\{X_{j}\in B_{j}\}\right)=\prod _{j\in J}P(X_{j}\in B_{j})}

für alle B j Σ j {\displaystyle B_{j}\in \Sigma _{j}} gilt.

Mit der Unabhängigkeit für Mengensysteme wird die stochastische Unabhängigkeit von Zufallsvariablen auch wie folgt definiert: Eine Familie von Zufallsvariablen ist genau dann stochastisch unabhängig, wenn ihre Initial-σ-Algebren voneinander unabhängig sind.

Diese Definition kann äquivalent auf Zufallsvektoren, also auf R n {\displaystyle \mathbb {R} ^{n}} -wertige Zufallsvariablen, angewandt werden.[1] An die Unabhängigkeit der Komponentenabbildungen sind dabei keine weiteren Forderungen gestellt.

Kriterien für Unabhängigkeit

Erzeugendensysteme

Die Anzahl der auf Unabhängigkeit zu überprüfenden Mengen lässt sich reduzieren, wenn ein Erzeuger bekannt ist. Existiert zu jeder σ-Algebra Σ i {\displaystyle \Sigma _{i}} ein durchschnittsstabiler Erzeuger E i {\displaystyle {\mathcal {E}}_{i}} , gilt also σ ( E i ) = Σ i {\displaystyle \sigma ({\mathcal {E}}_{i})=\Sigma _{i}} , so genügt es, die Unabhängigkeit auf den Erzeugern zu überprüfen. Das Kriterium reduziert sich dann zu

P ( j J { X j B j } ) = j J P ( X j B j ) {\displaystyle P\left(\bigcap _{j\in J}\{X_{j}\in B_{j}\}\right)=\prod _{j\in J}P(X_{j}\in B_{j})}

für alle B j E j {\displaystyle B_{j}\in {\mathcal {E}}_{j}} und alle endlichen Teilmengen J {\displaystyle J} von I {\displaystyle I} . Für diskrete Wahrscheinlichkeitsräume wählt man als Erzeuger meist die Punktmengen { x k } {\displaystyle \{x_{k}\}} , für reelle Zufallsvariablen die halboffenen Intervalle als Erzeuger der Borelsche σ-Algebra.

Endliche Familien

Ist die Familie von Zufallsvariablen und damit auch die Indexmenge endlich, zum Beispiel mit Indexmenge I = { 1 , , n } {\displaystyle I=\{1,\dots ,n\}} , so genügt es

P ( i I { X i B i } ) = i I P ( X i B i ) {\displaystyle P\left(\bigcap _{i\in I}\{X_{i}\in B_{i}\}\right)=\prod _{i\in I}P(X_{i}\in B_{i})}

für alle B i Σ i {\displaystyle B_{i}\in \Sigma _{i}} zu überprüfen. Auf die Überprüfung der Teilmengen J I {\displaystyle J\subset I} kann verzichtet werden. Dies folgt daraus, dass { X i E i } = Ω {\displaystyle \{X_{i}\in E_{i}\}=\Omega } ist. Der Fall mit J I {\displaystyle J\subsetneqq I} folgt dann automatisch aus dem obigen Fall, man setzt für i I J {\displaystyle i\in I\setminus J} dann B i = E i {\displaystyle B_{i}=E_{i}} und erhält daraus die Aussage für die kleinere Indexmenge.

Für endliche Familien diskreter Zufallsvariablen

Beide oben genannten Kriterien lassen sich für eine endliche Familie von Zufallsvariablen, die Werte in einem diskreten Messraum annehmen zusammenfassen. Sei I = { 1 , , n } {\displaystyle I=\{1,\dots ,n\}} und seien die X i {\displaystyle X_{i}} Zufallsvariablen von ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} nach ( E i , Σ i ) {\displaystyle (E_{i},\Sigma _{i})} und sei E i {\displaystyle E_{i}} diskret, also endlich oder abzählbar unendlich. Dann sind die Zufallsvariablen genau dann unabhängig, wenn

P ( X 1 = x 1 , , X n = x n ) = i = 1 n P ( X i = x i ) {\displaystyle P(X_{1}=x_{1},\dots ,X_{n}=x_{n})=\prod _{i=1}^{n}P(X_{i}=x_{i})}

für alle x i E i {\displaystyle x_{i}\in E_{i}} gilt.

Für endliche Familien reeller Zufallsvariablen

Für endliche Familien reellwertiger Zufallsvariablen ergibt sich folgendes Kriterium: Die Zufallsvariablen ( X i ) i I {\displaystyle (X_{i})_{i\in I}} sind genau dann stochastisch unabhängig, wenn

P ( X 1 x 1 , , X n x n ) = i = 1 n P ( X i x i ) {\displaystyle P(X_{1}\leq x_{1},\dots ,X_{n}\leq x_{n})=\prod _{i=1}^{n}P(X_{i}\leq x_{i})}

für alle x 1 , , x n R {\displaystyle x_{1},\dots ,x_{n}\in \mathbb {R} } gilt. Sind also F X i ( x ) = P ( X i x ) {\displaystyle F_{X_{i}}(x)=P(X_{i}\leq x)} die Verteilungsfunktionen der X i {\displaystyle X_{i}} sowie F I ( x 1 , , x n ) := P ( X 1 x 1 , , X n x n ) {\displaystyle F_{I}(x_{1},\dots ,x_{n}):=P(X_{1}\leq x_{1},\dots ,X_{n}\leq x_{n})} die gemeinsame Verteilungsfunktion, dann sind die X i {\displaystyle X_{i}} genau dann stochastisch unabhängig, wenn

F I ( x 1 , , x n ) = i = 1 n F X i ( x i ) {\displaystyle F_{I}(x_{1},\dots ,x_{n})=\prod _{i=1}^{n}F_{X_{i}}(x_{i})}

gilt. Falls die X i {\displaystyle X_{i}} eine gemeinsame Dichtefunktion f I {\displaystyle f_{I}} besitzen, so sind sie genau dann stochastisch unabhängig, wenn

f I ( x 1 , , x n ) = i = 1 n f X i ( x i ) {\displaystyle f_{I}(x_{1},\dots ,x_{n})=\prod _{i=1}^{n}f_{X_{i}}(x_{i})}

gilt. Dabei bezeichnet f X i {\displaystyle f_{X_{i}}} die Randdichte von X i {\displaystyle X_{i}} .

Existenz unabhängiger Zufallsvariablen

Für abzählbar unendliche Familien von Zufallsvariablen stellt sich die Frage, ob überhaupt ein „genügend großer“ Wahrscheinlichkeitsraum existiert, so dass die gesamte Familie auf diesem Wahrscheinlichkeitsraum unabhängig ist. Es ist nicht offensichtlich, dass dies möglich ist, alternativ könnte die Unabhängigkeit eine zu starke Forderung sein, da die Initial-σ-Algebren bei vielen Zufallsvariablen immer zwangsläufig abhängig sind.

Tatsächlich lässt sich die Frage aber mittels des Produktmaßes positiv beantworten. Betrachtet man das unendliche Produktmodell

( i = 1 Ω i , i = 1 A i , i = 1 P i ) {\displaystyle \left(\prod _{i=1}^{\infty }\Omega _{i},\bigotimes _{i=1}^{\infty }{\mathcal {A}}_{i},\bigotimes _{i=1}^{\infty }P_{i}\right)}

und definiert als Familie von Zufallsvariablen genau die Projektionen auf die i-ten Komponenten ( X i ) i N = ( π i ) i N {\displaystyle (X_{i})_{i\in \mathbb {N} }=(\pi _{i})_{i\in \mathbb {N} }} , so ist diese Familie per Definition des Produktmodells und des Produktmaßes unabhängig und die Projektionen π i {\displaystyle \pi _{i}} haben genau die Verteilung P i {\displaystyle P_{i}} auf dem Ereignisraum ( Ω i , A i ) {\displaystyle (\Omega _{i},{\mathcal {A}}_{i})} . Das Produktmodell ist also groß genug, um eine unabhängige Familie von Zufallsvariablen zu enthalten. Andererseits wird dadurch das Problem der Existenz von unendlich vielen unabhängigen Zufallsvariablen auf die Existenz eines unendlichen Produktmaßes zurückgeführt, was nicht selbstverständlich ist. Diese Existenzfrage wird beispielsweise durch den Satz von Andersen-Jessen für beliebige Indexmengen positiv beantwortet, kann aber auch für abzählbare Indexmengen über den Satz von Ionescu-Tulcea oder für Borel’sche Räume über den Erweiterungssatz von Kolmogorov erfolgen.

Unkorreliertheit und Unabhängigkeit

Zwei Zufallsvariablen X , Y {\displaystyle X,Y} heißen unkorreliert, wenn ihre Kovarianz Cov ( X , Y ) {\displaystyle \operatorname {Cov} (X,Y)} gleich null ist. Diese Definition der Unkorreliertheit setzt nicht voraus, dass der Korrelationskoeffizient existiert und damit die Varianzen beider Zufallsvariablen positiv sind.

Aus Unabhängigkeit der Zufallsvariablen X , Y {\displaystyle X,Y} folgt ihre Unkorreliertheit, falls die Erwartungswerte E ( X Y ) {\displaystyle \operatorname {E} (XY)} , E ( Y ) {\displaystyle \operatorname {E} (Y)} und E ( Y ) {\displaystyle \operatorname {E} (Y)} endlich sind. Sind nämlich die Zufallsvariablen unabhängig, so gilt E ( X Y ) = E ( X ) E ( Y ) {\displaystyle \operatorname {E} (XY)=\operatorname {E} (X)\operatorname {E} (Y)} und demnach

Cov ( X , Y ) = E ( X Y ) E ( X ) E ( Y ) = E ( X ) E ( Y ) E ( X ) E ( Y ) = 0 {\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y)=\operatorname {E} (X)\operatorname {E} (Y)-\operatorname {E} (X)\operatorname {E} (Y)=0} .

Dabei folgt die erste Gleichheit aus dem Verschiebungssatz für die Kovarianz und die zweite aus der Unabhängigkeit der Zufallsvariablen und der obigen Folgerung für den Erwartungswert.

Aus der Unkorreliertheit folgt nicht stochastische Unabhängigkeit. Ein Beispiel dafür sind die Zufallsvariable X {\displaystyle X} , die gleichverteilt auf [ 1 , 1 ] {\displaystyle [-1,1]} ist und Y = X 2 {\displaystyle Y=X^{2}} . Es gilt dann

Cov ( X , Y ) = E ( X 3 ) E ( X ) E ( X 2 ) = 0 0 E ( X 2 ) = 0 {\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} (X^{3})-\operatorname {E} (X)\operatorname {E} (X^{2})=0-0\cdot \operatorname {E} (X^{2})=0} ,

die Zufallsvariablen sind also unkorreliert. Sie sind aber nicht unabhängig, denn es ist zum Beispiel

P ( { X [ 0 , 1 2 ] , Y [ 0 , 1 9 ] } ) = P ( [ 0 , 1 2 ] [ 1 3 , 1 3 ] ) = 1 6 {\displaystyle P(\{X\in [0,{\tfrac {1}{2}}],\,Y\in [0,{\tfrac {1}{9}}]\})=P([0,{\tfrac {1}{2}}]\cap [-{\tfrac {1}{3}},{\tfrac {1}{3}}])={\frac {1}{6}}}

und

P ( { X [ 0 , 1 2 ] } ) = P ( [ 0 , 1 2 ] ) = 1 4  und  P ( { Y [ 0 , 1 9 ] } ) = P ( [ 1 3 , 1 3 ] ) = 1 3 {\displaystyle P(\{X\in [0,{\tfrac {1}{2}}]\})=P([0,{\tfrac {1}{2}}])={\frac {1}{4}}{\text{ und }}P(\{Y\in [0,{\tfrac {1}{9}}]\})=P([-{\tfrac {1}{3}},{\tfrac {1}{3}}])={\frac {1}{3}}} .

Die Abhängigkeit folgt dann aus 1 4 1 3 1 6 {\displaystyle {\tfrac {1}{4}}\cdot {\tfrac {1}{3}}\neq {\tfrac {1}{6}}} .

Analyse auf Abhängigkeit

Für die Analyse auf Abhängigkeit zweier Zufallsvariablen kann man auch testen, ob der Korrelationskoeffizient Null ist. Wenn die Hypothese abgelehnt wird, geht man davon aus, dass diese Variablen stochastisch abhängig sind. Der Umkehrschluss ist allerdings nicht zulässig, denn es können Abhängigkeitsstrukturen vorliegen, die der Korrelationskoeffizient nicht erfassen kann. Jedoch sind beispielsweise unkorrelierte, gemeinsam normalverteilte Zufallsvariablen auch stochastisch unabhängig.

Unabhängigkeit von Zufallsvariablen und Mengensystemen

Im Rahmen des bedingten Erwartungswertes wird teilweise auch von der Unabhängigkeit einer Zufallsvariable X {\displaystyle X} und eines Mengensystems E {\displaystyle {\mathcal {E}}} gesprochen. Die Zufallsvariable und das Mengensystem heißen unabhängig, wenn das Mengensystem E {\displaystyle {\mathcal {E}}} und die Initial-σ-Algebra σ ( X ) {\displaystyle \sigma (X)} der Zufallsvariable unabhängige Mengensysteme sind.

Verallgemeinerungen

Mittels des bedingten Erwartungswertes lässt sich sowohl die Unabhängigkeit von Mengensystemen als auch die Unabhängigkeit von Zufallsvariablen zur bedingten Unabhängigkeit erweitern.

Literatur

  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6. 
  • Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt. 8. Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5. 
  • Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7. 
  • Christian Hesse: Angewandte Wahrscheinlichkeitstheorie. 1. Auflage. Vieweg, Wiesbaden 2003, ISBN 3-528-03183-2. 
  • A. M. Prochorow: Independence. In: Michiel Hazewinkel (Hrsg.): Encyclopaedia of Mathematics, Kluwer Academic Publishers, 2001, ISBN 978-1-55608-010-4 (online).

Weblinks

Wikibooks: Einführung in stochastische Unabhängigkeit – Lern- und Lehrmaterialien

Einzelnachweise

  1. Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-45386-1, S. 95, doi:10.1007/978-3-642-45387-8.