Disuguaglianza di Čebyšëv

Disambiguazione – Se stai cercando la disuguaglianza omonima riguardante numeri reali, vedi Disuguaglianza di Čebyšëv sulla somma.

La disuguaglianza di Čebyšëv è usata soprattutto nell'ambito della teoria probabilistica e più raramente nell'ambito di serie di dati reali. Spesso la disuguaglianza di Čebyšëv viene indicata come disuguaglianza di Markov, di cui è un corollario.

La disuguaglianza venne pubblicata la prima volta nel 1853 da Irénée-Jules Bienaymé e riscoperta indipendentemente da Pafnutij L'vovič Čebyšëv alcuni anni dopo (pertanto viene anche citata come disuguaglianza di Bienaymé-Čebyšëv).

Descrizione

Nell'ambito delle variabili casuali (v.c.) essa afferma che se la v.c. X {\displaystyle X} ha valore atteso μ {\displaystyle \mu } e la varianza σ 2 {\displaystyle \sigma ^{2}} e λ {\displaystyle \lambda } è un numero reale positivo, allora la probabilità che X {\displaystyle X} assuma un valore compreso tra μ λ σ {\displaystyle \mu -\lambda \sigma } e μ + λ σ {\displaystyle \mu +\lambda \sigma } è maggiore di 1 1 / λ 2 {\textstyle 1-1/\lambda ^{2}} .

In altre parole afferma che, dato un carattere di cui sono noti solamente media aritmetica μ {\displaystyle \mu } e deviazione standard σ {\displaystyle \sigma } , possiamo conoscere la probabilità che una variabile casuale possa avere valori esterni a un intervallo simmetrico rispetto alla media aritmetica. In altri termini questo teorema ci assicura che, indipendentemente dalla distribuzione della variabile casuale, la probabilità che questa assuma valori distanti dalla media più di λ {\displaystyle \lambda } volte la deviazione standard è al massimo 1 / λ 2 {\displaystyle 1/\lambda ^{2}}

Otteniamo quindi il limite inferiore della probabilità di Pr ( | X μ | λ σ ) {\displaystyle \Pr \left(|X-\mu |\leq \lambda \cdot \sigma \right)} espresso con la formula:

Pr ( | X μ | λ σ )   1 1 λ 2 {\displaystyle \Pr \left(|X-\mu |\leq \lambda \cdot \sigma \right)\geq \ 1-{\frac {1}{\lambda ^{2}}}}

cioè:

Pr ( μ λ σ X μ + λ σ )   1 1 λ 2 {\displaystyle \Pr(\mu -\lambda \sigma \leq X\leq \mu +\lambda \sigma )\geq \ 1-{\frac {1}{\lambda ^{2}}}}

da cui si può ottenere anche il limite superiore della probabilità di Pr ( | X μ | λ σ ) {\displaystyle \Pr \left(|{X-\mu }|\geq \lambda \cdot \sigma \right)} espresso come:[1]

1 Pr ( | X μ | λ σ )   1 λ 2 {\displaystyle 1-\Pr \left(|{X-\mu }|\leq \lambda \cdot \sigma \right)\leq \ {\frac {1}{\lambda ^{2}}}}

che equivale a scrivere:

Pr ( | X μ | λ σ )   1 λ 2 {\displaystyle \Pr \left(|{X-\mu }|\geq \lambda \cdot \sigma \right)\leq \ {\frac {1}{\lambda ^{2}}}}

cioè:

Pr ( X μ λ σ     X μ + λ σ ) 1 λ 2 {\displaystyle \Pr(X\leq \mu -\lambda \sigma \ \cup \ X\geq \mu +\lambda \sigma )\leq {\frac {1}{\lambda ^{2}}}}

Nell'ambito della statistica descrittiva essa afferma che l'intervallo di valori compreso tra μ λ σ {\displaystyle \mu -\lambda \sigma } e μ + λ σ {\displaystyle \mu +\lambda \sigma } ha un livello di confidenza di almeno ( 1 1 / λ 2 ) {\displaystyle (1-1/\lambda ^{2})} . Fisz dimostrò che per le variabili dotate di media e varianza non è possibile trovare una disuguaglianza migliore di quella di Čebyšëv, a meno che non si impongano dei vincoli alla distribuzione della variabile.

Da questa disuguaglianza si deduce che

  • almeno il 75% dei valori sono compresi tra μ 2 σ {\displaystyle \mu -2\sigma } e μ + 2 σ {\displaystyle \mu +2\sigma }
  • almeno l'89% dei valori sono compresi tra μ 3 σ {\displaystyle \mu -3\sigma } e μ + 3 σ {\displaystyle \mu +3\sigma }
  • almeno il 94% dei valori sono compresi tra μ 4 σ {\displaystyle \mu -4\sigma } e μ + 4 σ {\displaystyle \mu +4\sigma }
  • almeno il 96% dei valori sono compresi tra μ 5 σ {\displaystyle \mu -5\sigma } e μ + 5 σ {\displaystyle \mu +5\sigma }
  • almeno il 99% dei valori sono compresi tra μ 10 σ {\displaystyle \mu -10\sigma } e μ + 10 σ {\displaystyle \mu +10\sigma }

indipendentemente da come sono distribuiti i valori.

Dimostrazione probabilistica

Per ogni evento A {\displaystyle A} , sia I A {\displaystyle I_{A}} la variabile casuale indicatore di A {\displaystyle A} , cioè I A {\displaystyle I_{A}} è uguale a 1 {\displaystyle 1} se l'evento A {\displaystyle A} accade e 0 {\displaystyle 0} altrimenti. Allora si ha:

Pr ( | X μ | λ σ ) = E ( I | X μ | λ σ ) = E ( I ( X μ ) 2 ( λ σ ) 2 ) = Pr ( ( X μ ) 2 ( λ σ ) 2 ) {\displaystyle \Pr(|X-\mu |\geq \lambda \sigma )=\operatorname {E} (I_{|X-\mu |\geq \lambda \sigma })=\operatorname {E} (I_{(X-\mu )^{2}\geq (\lambda \sigma )^{2}})=\Pr((X-\mu )^{2}\geq (\lambda \sigma )^{2})}

Dalla disuguaglianza di Markov segue poi:

Pr ( ( X μ ) 2 ( λ σ ) 2 ) E ( ( X μ ) 2 ) ( λ σ ) 2 {\displaystyle \Pr((X-\mu )^{2}\geq (\lambda \sigma )^{2})\leq {\frac {\operatorname {E} ((X-\mu )^{2})}{(\lambda \sigma )^{2}}}}

Si ha quindi:

Pr ( | X μ | λ σ ) 1 λ 2 E ( ( X μ ) 2 ) σ 2 = 1 λ 2 {\displaystyle \Pr(|X-\mu |\geq \lambda \sigma )\leq {\frac {1}{\lambda ^{2}}}{\frac {\operatorname {E} ((X-\mu )^{2})}{\sigma ^{2}}}={\frac {1}{\lambda ^{2}}}}

Note

  1. ^ Si ha infatti:
    Pr ( μ λ σ X μ + λ σ ) = Pr ( λ σ X μ + λ σ ) = Pr ( | X μ | λ σ ) {\displaystyle \Pr(\mu -\lambda \sigma \leq X\leq \mu +\lambda \sigma )=\Pr(-\lambda \sigma \leq X-\mu \leq +\lambda \sigma )=\Pr \left(|X-\mu |\leq \lambda \cdot \sigma \right)}
    e:
    Pr ( | X μ | λ σ )   1 1 λ 2 {\displaystyle \Pr \left(|{X-\mu }|\leq \lambda \cdot \sigma \right)\geq \ 1-{\frac {1}{\lambda ^{2}}}}
    da cui:
    1 Pr ( | X μ | λ σ )   1 λ 2 {\displaystyle 1-\Pr \left(|{X-\mu }|\leq \lambda \cdot \sigma \right)\leq \ {\frac {1}{\lambda ^{2}}}}

Bibliografia

  • A. Papoulis (1991), Probability, Random Variables, and Stochastic Processes, 3rd ed. McGraw-Hill. ISBN 0-07-100870-5. pp. 113–114.
  • G. Grimmett and D. Stirzaker (2001), Probability and Random Processes, 3rd ed. Oxford. ISBN 0-19-857222-0. Section 7.3.

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su disuguaglianza di Čebyšëv

Collegamenti esterni

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica