Questa voce o sezione sull'argomento matematica non cita le fonti necessarie o quelle presenti sono insufficienti.
In teoria della probabilità e statistica, la disuguaglianza di Markov afferma che, per una variabile casuale
non negativa il cui valore atteso esiste:
![{\displaystyle P\left(X\geq \alpha \right)\leq {\frac {\mathbb {E} [X]}{\alpha }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f12866505180552fc55911821662b7d62cb09d6f)
Questa disuguaglianza permette di stabilire un limite superiore al valore di probabilità dalla sola conoscenza del valore atteso
a condizione che la variabile casuale sia definita non negativa.
La disuguaglianza di Markov è anche utilizzata nella dimostrazione della disuguaglianza di Čebyšëv.
Dimostrazione
Si definiscano le variabili casuali
ed
come segue:
![{\displaystyle X:\Omega \rightarrow \mathbb {R} _{0}^{+},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6a2b1891b952abeb0653a7a2c9ff2163fb479842)
con
spazio campionario e
![{\displaystyle \ I=\left\{{\begin{matrix}1&\iff &X\geq \alpha \\0&\iff &X<\alpha \end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/353ed1758ded15de1ad42c68989a4bfbb88e600e)
con
Chiaramente per ogni
non nullo, vale la seguente disuguaglianza larga
Supponiamo inoltre che per la variabile aleatoria
esiste
allora:
![{\displaystyle P\left(X\geq \alpha \right)=\mathbb {E} [I].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d824061811ace29a05ea674481b0eca8ccc92e4b)
Il valore atteso è definito come somma di tutti i valori che la variabile aleatoria può assumere moltiplicati per la probabilità che tale variabile assuma effettivamente tali valori: nel nostro caso
![{\displaystyle \mathbb {E} [I]=0\cdot P(I=0)+1\cdot P(I=1)=P(I=1).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5de41fede24c1ec015ef4a1f46928db6d9d2bd0c)
Ma ancora, la probabilità che
sia uguale a 1 è proprio la probabilità che
sia maggiore o uguale ad
![{\displaystyle \mathbb {E} [I]\leq \mathbb {E} \left[{\frac {X}{\alpha }}\right].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3051e55d579838f8b8bc258a4ccff9f38399455e)
Il valore atteso mantiene la disuguaglianza degli argomenti poiché si tratta di una funzione non decrescente, in vista del fatto che gli argomenti sono variabili non negative. Basti pensare alla definizione di valore atteso, nel caso discreto e quello continuo, la quale genera serie a termini positivi in un caso, e integrali di funzioni positive nell'altro.
![{\displaystyle \mathbb {E} \left[{\frac {X}{\alpha }}\right]={\frac {\mathbb {E} [X]}{\alpha }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b4ea425b81abd1a0869c0753a9e79268123f10a2)
Per la linearità del valore atteso. Quindi si conclude che
![{\displaystyle P\left(X\geq \alpha \right)\leq {\frac {\mathbb {E} [X]}{\alpha }}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fcb63d481b3b170766b7c77e75dafb521823b476)
Disuguaglianza di Čebyšëv
Partendo dall'appena dimostrata disuguaglianza possiamo ottenere, come corollario, il seguente enunciato:
con parametro
positivo. Per farlo definiamo una variabile aleatoria
e associamo ad essa la variabile aleatoria
Così definita
è una variabile aleatoria non negativa, pertanto applichiamo ad essa la disuguaglianza di Markov, ottenendo
![{\displaystyle P\left(Y\geq \gamma ^{2}\right)\leq {\frac {\mathbb {E} [Y]}{\gamma ^{2}}}\iff P\left((X-\mathbb {E} [X])^{2}\geq \gamma ^{2}\right)\leq {\frac {\mathbb {E} [(X-\mathbb {E} [X])^{2}]}{\gamma ^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d677e0266d2339dafafb4d3172d8ca04eea340c6)
a destra otteniamo la definizione di varianza
e sapendo che in generale
vale quanto segue
otteniamo quanto si voleva dimostrare, cioè
![{\displaystyle P(|X-\mathbb {E} [X]|\geq \gamma )\leq {\frac {Var(X)}{\gamma ^{2}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/883b96147c76b2bf2ec0252d8f027bae940cc2b5)
che può anche essere riscritta ponendo il parametro
![{\displaystyle P(|X-\mathbb {E} [X]|\geq t{\sqrt {Var(X)}})\leq {\frac {1}{t^{2}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fe69c123b16fe59603fd90eddbade115fb0082bd)
possiamo inoltre semplificare la scrittura usando, anziché la varianza, lo strumento statistico della deviazione standard, definito proprio come sua radice.
![{\displaystyle P(|X-\mathbb {E} [X]|\geq t\sigma )\leq {\frac {1}{t^{2}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7d5a68b4a501d4d2cf4deafff0eccd43aa38feef)
Legge debole dei grandi numeri
La disuguaglianza di Čebyšëv, viene inoltre utilizzata nella famosa legge dei grandi numeri, di cui qui verrà dimostrata il suo enunciato cosiddetto "debole". L'enunciato è il seguente:
Consideriamo una popolazione di
elementi di variabili aleatorie indipendenti tutte di valore atteso
e varianza
.
![{\displaystyle \{X_{n}\}_{n\in \mathbb {N} ,\ n\leq N}\subset \mathbb {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/a0420a1422a76b7c23818c52ae724e797c7a3d32)
![{\displaystyle \mathbb {E} [X_{n}]=\mu ,\ \forall n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/068d65e6f2dac008eae88c028dab8007da5ff029)
![{\displaystyle Var(X_{n})=\sigma ^{2},\ \forall n.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/14154a9921a84e9c3a276410f42a53c9a70bee8c)
E definendo lo stimatore del valor medio
si ha
![{\displaystyle \forall \epsilon \in \mathbb {R} ^{+}\lim _{N\rightarrow \infty }P(|{\bar {X}}_{N}-\mu |<\epsilon )=1.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f0d2b639755a776eb880da653f72c953dc249558)
Il che vuol dire che aumentando la grandezza della popolazione in nostro possesso, lo stimatore del valor medio va sempre di più a coincidere con il valore atteso.
Dimostrazione
Applichiamo la disuguaglianza di Čebyšëv allo stimatore del valor medio:
![{\displaystyle P(|{\bar {X}}_{N}-\mathbb {E} [{\bar {X}}_{N}]|\geq \epsilon )\leq {\frac {Var({\bar {X}}_{N})}{\epsilon ^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/05bedabdf67d330fd246107cf4af72cd5ab627d5)
per ogni
Per le proprietà di linearità del valore atteso abbiamo che in generale la media aritmetica di variabili aleatorie di diverso valore atteso corrisponde a uno stimatore di valore atteso pari alla media aritmetica dei singoli valori attesi. Nel nostro caso tutte le
hanno lo stesso valore atteso
, pertanto
![{\displaystyle \mathbb {E} [{\bar {X}}_{N}]={\frac {1}{N}}\sum _{n=1}^{N}\mathbb {E} [X_{n}]=\mu .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bf8df125df15d5777d17962e64526d19f569ad7b)
Poiché le
sono indipendenti tra di loro vale quanto segue
tale che
![{\displaystyle Var(aX_{i}+bX_{j})=a^{2}Var(X_{i})+b^{2}Var(X_{j}).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f380c6b5728326c7a416f5539df027526c9fb05f)
Nel nostro caso quindi abbiamo che
![{\displaystyle Var({\bar {X}}_{N})={\frac {1}{N^{2}}}\sum _{n=1}^{N}Var(X_{n})={\frac {\sigma ^{2}}{N}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/969d6186595a102099ee100d34c926ccbc546b56)
Quindi riscriviamo la nostra relazione alla luce di quanto detto
![{\displaystyle P(|{\bar {X}}_{N}-\mu |\geq \epsilon )\leq {\frac {\sigma ^{2}}{N\epsilon ^{2}}}\rightarrow 1-P(|{\bar {X}}_{N}-\mu |\geq \epsilon )\geq 1-{\frac {\sigma ^{2}}{N\epsilon ^{2}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c469ca2ed8920bd058fbe0e5a9f340be1eac4d7a)
Il primo termine può essere riscritto mediante il complementare dell'evento di cui stiamo calcolando la probabilità
![{\displaystyle 1-P(|{\bar {X}}_{N}-\mu |\geq \epsilon )=P(|{\bar {X}}_{N}-\mu |<\epsilon ).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/434a97f03d2209bbafde474a9026fa33fc83453a)
Ma comunque la probabilità di qualunque evento è al più 1:
![{\displaystyle 1\geq P(|{\bar {X}}_{N}-\mu |<\epsilon )\geq 1-{\frac {\sigma ^{2}}{N\epsilon ^{2}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/622d8447b35aac1949bc98599732808c0101bc86)
Pertanto se portiamo al limite tale espressione otteniamo quanto stavamo cercando per il teorema del confronto:
![{\displaystyle \lim _{N\rightarrow \infty }P(|{\bar {X}}_{N}-\mu |<\epsilon )=1.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0ed9a06522ecf1caf96ed279f01620dec941090c)
Il che vuol dire che è certo l'evento preso in considerazione, ovvero che definitivamente la distanza tra
e
è maggiorata da
arbitrario positivo
![{\displaystyle \forall \epsilon >0\ \exists {\bar {N}}\ t.c.\forall N>{\bar {N}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1a9b788922c688284192dc7518a1d486aca232c4)
![{\displaystyle |{\bar {X}}_{N}-\mu |<\epsilon .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/39f34015c3fb96d3f1ff8136ecef78d5a9a068f7)
Il che significa in conclusione, per definizione di limite, che
![{\displaystyle \lim _{N\rightarrow \infty }{\bar {X}}_{N}=\mu .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2d4b90bf3e48a618acd44d10cdbfe9ee30400afe)
Voci correlate
Collegamenti esterni
- (EN) Eric W. Weisstein, Disuguaglianza di Markov, su MathWorld, Wolfram Research.
![Modifica su Wikidata](//upload.wikimedia.org/wikipedia/commons/thumb/7/73/Blue_pencil.svg/10px-Blue_pencil.svg.png)
Portale Matematica
Portale Statistica