Varianssi

Varianssi on todennäköisyyslaskennassa ja tilastotieteessä satunnaismuuttujan hajonnan mitta. Varianssi kuvaa sitä, kuinka paljon satunnaismuuttujan arvot keskimäärin vaihtelevat odotusarvosta tai populaation keskiarvosta. Varianssissa yksittäisen mittauksen poikkeamat keskiarvosta tai odotusarvosta korotetaan toiseen potenssiin (neliöön). Varianssi saadaan ottamalla keskiarvo näistä neliöön korotetuista eroista. Kun arvot keskittyvät odotusarvon ympärille tiiviisti, on varianssin arvo pieni, ja kun arvot ovat hajallaan odotusarvon ympärillä, on sen arvo suuri. Reaaliarvoisen satunnaismuuttujan varianssi on sen toinen keskusmomentti. Varianssin yksikkö on satunnaismuuttujan yksikkö korotettuna toiseen potenssiin. Varianssin neliöjuurta sanotaan keskihajonnaksi, jonka yksikkö on sama kuin satunnaismuuttujalla.[1][2][3][4]

Määritelmä ja merkinnät

Matemaattisesti varianssi σ X 2 {\displaystyle \sigma _{X}^{2}} määritellään reaaliarvoisen satunnaismuuttujan X {\displaystyle X} odotusarvon E {\displaystyle \operatorname {E} } avulla

σ X 2 = E ( ( X μ ) 2 ) , {\displaystyle \sigma _{X}^{2}=\operatorname {E} ((X-\mu )^{2}),} [2]

missä μ = E [ X ] {\displaystyle \mu =\operatorname {E} [X]} on satunnaismuuttujan odotusarvo. Varianssin arvo on ääretön, ellei odotusarvo E [ X 2 ] {\displaystyle \operatorname {E} [X^{2}]} ole äärellisenä olemassa. Varianssi voidaan merkitä myös

σ X 2 = σ 2 ( X ) = σ 2 = V a r ( X ) = D 2 ( X ) . {\displaystyle \sigma _{X}^{2}=\sigma ^{2}(X)=\sigma ^{2}=Var(X)=D^{2}(X).} [2][4]

Varianssin avulla voidaan esittää myös keskihajonta eli standardipoikkeama σ X = σ X 2 . {\displaystyle \sigma _{X}={\sqrt {\sigma _{X}^{2}}}.} [2]

Diskreetti satunnaismuuttuja

Diskreetin satunnaismuuttujan varianssi lasketaan

σ X 2 = x X ( x μ X ) 2 f X ( x ) , {\displaystyle \sigma _{X}^{2}=\sum _{x\in X}(x-\mu _{X})^{2}f_{X}(x),} [2][3][4]

missä f X ( x ) {\displaystyle f_{X}(x)} on jakauman pistetodennäköisyysfunktio.

Jatkuva satunnaismuuttuja

Jatkuvan satunnaismuuttujaparin varianssi on taas

σ X 2 = + ( x μ X ) 2 f X ( x ) d x , {\displaystyle \sigma _{X}^{2}=\int _{-\infty }^{+\infty }(x-\mu _{X})^{2}f_{X}(x)dx,\,} [2][3][4]

missä f X ( x ) {\displaystyle f_{X}(x)} on jakauman tiheysfunktio.

Ominaisuuksia

Rinnakkaiskaavan johtaminen

Varianssin lauseketta voidaan kehittää edelleen käyttämällä hyväksi odotusarvon ominaisuuksia:[2]

σ X 2 = E [ ( X E [ X ] ) 2 ] = E [ X 2 2 X E [ X ] + ( E [ X ] ) 2 ] = E [ X 2 ] 2 E [ X ] E [ X ] + ( E [ X ] ) 2 = E [ X 2 ] ( E [ X ] ) 2 {\displaystyle {\begin{aligned}\sigma _{X}^{2}&=\operatorname {E} \left[(X-\operatorname {E} [X])^{2}\right]\\&=\operatorname {E} \left[X^{2}-2X\operatorname {E} [X]+(\operatorname {E} [X])^{2}\right]\\&=\operatorname {E} \left[X^{2}\right]-2\operatorname {E} [X]\operatorname {E} [X]+(\operatorname {E} [X])^{2}\\&=\operatorname {E} \left[X^{2}\right]-(\operatorname {E} [X])^{2}\end{aligned}}}

Ensimmäistä muotoa kutsutaan toiseksi keskusmomentiksi ja viimeisessä muodossa käytetään toista ja ensimmäistä origomomenttia.[4]

Varianssin laskemiseksi on käytössä myös tekijämomentin sisältävä muoto:

σ 2 = E [ X ( X 1 ) ] + E [ X ] ( E [ X ] ) 2 {\displaystyle \sigma ^{2}=\operatorname {E} [X(X-1)]+\operatorname {E} [X]-(\operatorname {E} [X])^{2}} [3]

Ominaisuuksia

Varianssin arvo on aina epänegatiivinen. Kun varianssi on nolla, ei arvoissa esiinny vaihtelua ja satunnaismuuttuja antaa vain samoja arvoja. Siten

σ 2 ( X ) 0. {\displaystyle \sigma ^{2}(X)\geq 0.} [3]

Varianssi on kovarianssi kahden identtisen satunnaismuuttujan välillä

σ 2 ( X ) = σ ( X , X ) . {\displaystyle \sigma ^{2}(X)=\sigma (X,X).} [5] (kovarianssi)

Päättelysääntöjä summista

Jokaisen satunnaismuuttujan arvoon lisätty vakio ei vaikuta varianssin arvoon eli

σ 2 ( X + a ) = σ 2 ( X ) , {\displaystyle \sigma ^{2}(X+a)=\sigma ^{2}(X),} [2][3][4]

mutta arvojen kertominen vakiolla kasvattavat ( | a | > 1 ) {\displaystyle (|a|>1)} tai vähentävät ( | a | < 1 ) {\displaystyle (|a|<1)} varianssia

σ 2 ( a X ) = a 2 σ 2 ( X ) . {\displaystyle \sigma ^{2}(aX)=a^{2}\sigma ^{2}(X).} [2][3][4]

Kahden satunnaismuuttujan lineaarikombinaatiossa varianssiin vaikuttaa myös satunnaismuuttujien kovarianssi

σ 2 ( a X ± b Y ) = a 2 σ 2 ( X ) + b 2 σ 2 ( Y ) ± 2 a b σ ( X , Y ) , {\displaystyle \sigma ^{2}(aX\pm bY)=a^{2}\sigma ^{2}(X)+b^{2}\sigma ^{2}(Y)\pm 2ab\,\sigma (X,Y),} [2]

mikä merkitään yleisemmässä tapauksessa

σ 2 ( a 1 X 1 + a 2 X 2 + + a n X n ) = i = 1 n a i 2 σ 2 ( X i ) + 2 1 i < j n a i a j σ ( X i , X j ) . {\displaystyle \sigma ^{2}(a_{1}X_{1}+a_{2}X_{2}+\dots +a_{n}X_{n})=\sum _{i=1}^{n}a_{i}^{2}\,\sigma ^{2}(X_{i})+2\sum _{1\leq i<j\leq n}a_{i}a_{j}\sigma (X_{i},X_{j}).} [2][4]

Nämä arvot voidaan käsitellä hallitummin kovarianssimatriisissa.[6] Tämä ominaisuus vaikuttaa myös satunnaismuuttujien summan varianssiin

σ 2 ( X 1 + X 2 + + X n ) = i = 1 n j = 1 n σ ( X i , X j ) = i = 1 n σ 2 ( X i ) + i j σ ( X i , X j ) . {\displaystyle \sigma ^{2}(X_{1}+X_{2}+\dots +X_{n})=\sum _{i=1}^{n}\sum _{j=1}^{n}\sigma (X_{i},X_{j})=\sum _{i=1}^{n}\sigma ^{2}(X_{i})+\sum _{i\neq j}\sigma (X_{i},X_{j}).} [4]

Kovarianssia ei tarvitse huomioida, mikäli satunnaismuuttujat ovat korreloimattomia σ ( X i , X j ) = 0   ,     ( i j ) , {\displaystyle \sigma (X_{i},X_{j})=0\ ,\ \forall \ (i\neq j),} jolloin

σ 2 ( X 1 + X 2 + + X n ) = i = 1 n σ 2 ( X i ) . {\displaystyle \sigma ^{2}(X_{1}+X_{2}+\dots +X_{n})=\sum _{i=1}^{n}\sigma ^{2}(X_{i}).}

Riippumattomat satunnaismuuttujat ovat aina korreloimattomia. Korreloimattomilla satunnaismuuttujilla välimerkki ei vaikuta varianssin arvoon

σ 2 ( X ± Y ) = σ 2 ( X ) + σ 2 ( Y ) . {\displaystyle \sigma ^{2}(X\pm Y)=\sigma ^{2}(X)+\sigma ^{2}(Y).} [2]

Päättelysääntöjä tuloista

Kahden satunnaismuuttujan tulon varianssi voidaan määrittää odotusarvon ominaisuuksien avulla

Var ( X Y ) = [ E ( X ) ] 2 Var ( Y ) + [ E ( Y ) ] 2 Var ( X ) + Var ( X ) Var ( Y ) = E ( X 2 ) E ( Y 2 ) [ E ( X ) ] 2 [ E ( Y ) ] 2 . {\displaystyle {\begin{aligned}\operatorname {Var} (XY)&=[E(X)]^{2}\operatorname {Var} (Y)+[E(Y)]^{2}\operatorname {Var} (X)+\operatorname {Var} (X)\operatorname {Var} (Y)\\&=E(X^{2})E(Y^{2})-[E(X)]^{2}[E(Y)]^{2}.\end{aligned}}}

Populaatio- ja otosvarianssi

Varianssi lasketaan äärelliselle populaatiolle ( y 1 , , y N ) {\displaystyle (y_{1},\dots ,y_{N})} seuraavasti

σ x 2 = 1 N i = 1 N ( y i y ¯ ) 2 , {\displaystyle \sigma _{x}^{2}={\frac {1}{N}}\sum _{i=1}^{N}\left(y_{i}-{\overline {y}}\right)^{2},\,} [1][7][4]

missä y ¯ {\displaystyle {\overline {y}}} on populaation keskiarvo. Tätä kutsutaan toisinaan otosvarianssiksi, mutta termin käyttö on vaihtelevaa. Kun ( y 1 , , y N ) {\displaystyle (y_{1},\dots ,y_{N})} on otos laajemmasta populaatiosta, σ 2 {\displaystyle \sigma ^{2}} on varianssin tarkentuva mutta harhainen estimaatti. Harhaton estimaatti on

s x 2 = 1 N 1 i = 1 N ( y i y ¯ ) 2 , {\displaystyle s_{x}^{2}={\frac {1}{N-1}}\sum _{i=1}^{N}\left(y_{i}-{\overline {y}}\right)^{2},} [1][7][4]

jota yleensä kutsutaan otosvarianssiksi. Suurten otosten tapauksessa ei ole käytännössä merkitystä kumpaa estimaattoria käytetään. Molempien keskihajonta saadaan ottamalla varianssista neliöjuuri.[7][4]

Lähteet

  1. a b c Alatupa, Sami et al.: Pitkä Sigma 6, s. 31−42. (lukion pitkän matematiikan oppikirja). Helsinki: Otava, 2010. ISBN 978-951-31-5343-4.
  2. a b c d e f g h i j k l Mellin, Ilkka: Moniulotteiset satunnaismuuttujat ja jakaumat, s.165−173, luentomoniste kurssista Todennäköisyyslaskenta, Aalto-yliopisto, 2007
  3. a b c d e f g Ruskeapää, Heikki: Todennäköisyyslaskenta I (Arkistoitu – Internet Archive)(luentomoniste), Turun Yliopisto, 2012
  4. a b c d e f g h i j k l Weisstein, Eric W.: Variance (Math World – A Wolfram Web Resource) Wolfram Research. (englanniksi)
  5. Weisstein, Eric W.: Covariance (Math World – A Wolfram Web Resource) Wolfram Research. (englanniksi)
  6. Weisstein, Eric W.: Covariance Matrix (Math World – A Wolfram Web Resource) Wolfram Research. (englanniksi)
  7. a b c Mellin, Ilkka: Lineaarinen regressioanalyysi, s.240−266, luentomoniste kurssista Todennäköisyyslaskenta, Aalto-yliopisto, 2007