Wieloczynnikowa analiza wariancji

Wieloczynnikowa analiza wariancji jest testem statystycznym służącym ocenie wpływu wielu zmiennych niezależnych (czynników) na wartość rozpatrywanej zmiennej zależnej. Za analizę wieloczynnikową przyjmuje się taką, w której mamy do czynienia z co najmniej dwoma zmiennymi niezależnymi (czynnikami klasyfikującymi).

Założenia

Wyniki uzyskane metodą analizy wieloczynnikowej uznaje się za prawdziwe, o ile spełnione są następujące założenia:

Teoria

Omówmy podstawy analizy wieloczynnikowej na przykładzie 2-czynnikowej analizy wariancji.

Podobnie jak w przypadku analizy jednoczynnikowej, tak i teraz wpływ zmiennych niezależnych na zmienną zależną weryfikowany jest z uwzględnieniem wielu ich poziomów – dla przykładu, zmienna niezależna pn. „satysfakcja pacjenta z terapii lekowej” może być rozpatrywana na 4 poziomach: terapia lekiem I, terapia lekiem II, terapia lekiem III, terapia przy użyciu placebo. Analiza wieloczynnikowa prowadzi zatem do wskazania, jak na zmienną zależną wpływają:

  • czynniki klasyfikujące (zmienne niezależne) – oznaczane z reguły wielkimi literami (A, B, C itd.);
  • wzajemne interakcje między czynnikami klasyfikującymi (zmiennymi niezależnymi) – oznaczane poprzez wskazanie współzależnych czynników (AB, AC itd.);
  • poziomy czynników klasyfikujących (zmiennych niezależnych) – oznaczane z reguły małymi literami (a, b, c itd.).

Co istotne, ponieważ wieloczynnikowa analiza wariancji uwzględnia interakcję czynników (zmiennych niezależnych) między sobą – czyni to niezasadnym metodologicznie wielokrotne stosowanie jednoczynnikowych analiz wariancji dla każdego z rozpatrywanych czynników kwalifikujących.

Załóżmy zatem, że spełnione są ww. założenia, a we wszystkich podgrupach wyznaczonych przez czynniki klasyfikujące A (niech tworzy go a-poziomów) i B (niech tworzy go b-poziomów) znajduje się taka sama liczba obserwacji (k).

Układ hipotez zerowych jest następujący:

  • H A 0 : {\displaystyle H_{A0}{:}} Czynnik A nie wpływa na zmienną zależną.
  • H B 0 : {\displaystyle H_{B0}{:}} Czynnik B nie wpływa na zmienną zależną.
  • H A B 0 : {\displaystyle H_{AB0}{:}} Wzajemna interakcja czynników AB nie wpływa na zmienną zależną.

Dla każdego z czynników A, B (źródeł zmienności) oraz interakcji AB wyznaczany jest osobny zestaw parametrów, na które składają się: liczba stopni swobody ( υ z ) , {\displaystyle (\upsilon _{z}),} suma kwadratów odchyleń ( S S z ) {\displaystyle (SS_{z})} oraz średni kwadrat odchyleń ( M S z ) . {\displaystyle (MS_{z}).} Parametry te stanowią podstawę do obliczenia wartości statystyki testowej ( F z ) . {\displaystyle (F_{z}).} Statystyka F z {\displaystyle F_{z}} ma, przy założeniu prawdziwości hipotezy zerowej, rozkład F Snedecora o liczbie stopni swobody odpowiadającej υ z {\displaystyle \upsilon _{z}} i czynnikowi losowemu e {\displaystyle e} (błąd).

Komplet przydatnych wzorów, z uwzględnieniem powyższych uwarunkowań, zestawiono poniżej:

  • liczba stopni swobody: υ A = a 1 , {\displaystyle \upsilon _{A}=a-1,} υ B = b 1 , {\displaystyle \upsilon _{B}=b-1,} υ A B = ( a 1 ) ( b 1 ) , {\displaystyle \upsilon _{AB}=(a-1)\cdot (b-1),} e = n a b . {\displaystyle e=n-ab.}
  • suma kwadratów odchyleń: S S A = b k i = 1 a ( y i ¯ y ¯ ) 2 , {\displaystyle SS_{A}=bk\sum \limits _{i=1}^{a}({\overline {y_{i\cdot \cdot }}}-{\overline {y}})^{2},} S S B = a k j = 1 b ( y j ¯ y ¯ ) 2 , {\displaystyle SS_{B}=ak\sum \limits _{j=1}^{b}({\overline {y_{\cdot j\cdot }}}-{\overline {y}})^{2},} S S A B = k i = 1 a j = 1 b ( y i j ¯ y i ¯ y j ¯ + y ¯ ) 2 , {\displaystyle SS_{AB}=k\sum \limits _{i=1}^{a}\sum \limits _{j=1}^{b}({\overline {y_{ij\cdot }}}-{\overline {y_{i\cdot \cdot }}}-{\overline {y_{\cdot j\cdot }}}+{\overline {y}})^{2},} S S e = i = 1 a j = 1 b l = 1 k ( y i j l y i j ¯ ) 2 . {\displaystyle SS_{e}=\sum \limits _{i=1}^{a}\sum \limits _{j=1}^{b}\sum \limits _{l=1}^{k}(y_{ijl}-{\overline {y_{ij\cdot }}})^{2}.}
  • średni kwadrat odchyleń: M S A = S S A υ A = S S A a 1 , {\displaystyle MS_{A}={\frac {SS_{A}}{\upsilon _{A}}}={\frac {SS_{A}}{a-1}},} M S B = S S B υ B = S S B b 1 , {\displaystyle MS_{B}={\frac {SS_{B}}{\upsilon _{B}}}={\frac {SS_{B}}{b-1}},} M S A B = S S A B υ A B = S S A B ( a 1 ) ( b 1 ) , {\displaystyle MS_{AB}={\frac {SS_{AB}}{\upsilon _{AB}}}={\frac {SS_{AB}}{(a-1)(b-1)}},} M S e = S S e υ e = S S e n a b . {\displaystyle MS_{e}={\frac {SS_{e}}{\upsilon _{e}}}={\frac {SS_{e}}{n-ab}}.}
  • statystyka testowa: F A = M S A M S e , {\displaystyle F_{A}={\frac {MS_{A}}{MS_{e}}},} F B = M S B M S e , {\displaystyle F_{B}={\frac {MS_{B}}{MS_{e}}},} F A B = M S A B M S e . {\displaystyle F_{AB}={\frac {MS_{AB}}{MS_{e}}}.}
  • wartość krytyczna odczytywana z tablic: F v A , v e , {\displaystyle F_{v_{A},v_{e}},} F v B , v e , {\displaystyle F_{v_{B},v_{e}},} F v A B , v e . {\displaystyle F_{v_{AB},v_{e}}.}

Jeżeli w świetle dokonanych szacunków, przy ustalonej wartości poziomu istotności α {\displaystyle \alpha } , odczytana z tablic wartość krytyczna F v z , v e {\displaystyle F_{v_{z},v_{e}}} jest mniejsza od wyliczonej wartości statystyki testowej F z {\displaystyle F_{z}} – odrzucamy hipotezę zerową H 0 {\displaystyle H_{0}} na rzecz hipotezy alternatywnej H 1 {\displaystyle H_{1}} [1].

Zobacz też

Przypisy

  1. Statystyka od A do Z portal edukacyjny poświęcony statystyce [online], www.statystyka.az.pl [dostęp 2018-01-18]  (pol.).