Kumulante

Kumulanten sind in der Wahrscheinlichkeitstheorie und Statistik Kenngrößen der Verteilung einer Zufallsvariablen, die in Bezug auf die Summenbildung von stochastisch unabhängigen Zufallsvariablen einfachen Rechengesetzen genügen. Die Folge der Kumulanten beginnt mit dem Erwartungswert und der Varianz.

Definition

Ist M X ( t ) {\displaystyle M_{X}(t)} die momenterzeugende Funktion der Zufallsvariablen X {\displaystyle X} , d. h., es ist

M X ( t ) = E ( e t X ) {\displaystyle M_{X}(t)=E(e^{tX})\,} ,

so heißt die Funktion

g X ( t ) = ln M X ( t ) = ln E ( e t X ) {\displaystyle g_{X}(t)=\ln M_{X}(t)=\ln E(e^{tX})}

kumulantenerzeugende Funktion. Die n {\displaystyle n} -te Kumulante κ n {\displaystyle \kappa _{n}} der Zufallsvariablen X {\displaystyle X} ist dann definiert durch

κ n = n t n g X ( t ) | t = 0 {\displaystyle \kappa _{n}={\frac {\partial ^{n}}{\partial t^{n}}}g_{X}(t){\bigg |}_{t=0}} .

Alternativ lassen sich Kumulanten auch durch die charakteristische Funktion G X ( t ) = E ( e i t X ) {\displaystyle G_{X}(t)=E(e^{itX})} einer Zufallsvariablen X {\displaystyle X} definieren.

Die n {\displaystyle n} -te Kumulante κ n {\displaystyle \kappa _{n}} ist dann definiert durch

κ n = 1 i n n t n ln G X ( t ) | t = 0 {\displaystyle \kappa _{n}={\frac {1}{i^{n}}}{\frac {\partial ^{n}}{\partial t^{n}}}\ln G_{X}(t){\bigg |}_{t=0}}

Die ersten vier Kumulanten einer Zufallsvariablen X {\displaystyle X} sind, wie unten noch umfassender dargelegt wird:

κ 1 = E ( X ) , {\displaystyle \kappa _{1}=E(X),}
κ 2 = Var ( X ) , {\displaystyle \kappa _{2}=\operatorname {Var} (X),}
κ 3 = E ( ( X E ( X ) ) 3 ) {\displaystyle \kappa _{3}=E((X-E(X))^{3})} (drittes zentrales Moment) und
κ 4 = E ( ( X E ( X ) ) 4 ) 3 Var ( X ) 2 . {\displaystyle \kappa _{4}=E((X-E(X))^{4})-3\operatorname {Var} (X)^{2}.}

Eigenschaften

Kumulanten können aufgrund der für sie geltenden Rechengesetze oft einfach berechnet werden:

Verschiebungs-Invarianz

Die Kumulanten werden auch als Semiinvarianten der Dichtefunktion p ( x ) {\displaystyle p(x)} bezeichnet, da sie sich, mit Ausnahme von κ 1 {\displaystyle \kappa _{1}} , bei einer Verschiebung des Erwartungswertes nicht ändern. Sei X {\displaystyle X} eine Zufallsvariable, dann gilt für eine beliebige Konstante c R {\displaystyle c\in \mathbb {R} } :

κ 1 ( X + c ) = κ 1 ( X ) + c {\displaystyle \kappa _{1}(X+c)=\kappa _{1}(X)+c\,}
κ n ( X + c ) = κ n ( X )    mit    n 2 {\displaystyle \kappa _{n}(X+c)=\kappa _{n}(X)~{\text{ mit }}~n\geq 2\,}

Homogenität

Die n {\displaystyle n} -te Kumulante ist homogen vom Grad n {\displaystyle n} , sei c {\displaystyle c} eine beliebige Konstante, dann gilt:

κ n ( c X ) = c n κ n ( X ) {\displaystyle \kappa _{n}(cX)=c^{n}\kappa _{n}(X)\,}

Additivität

Seien X 1 {\displaystyle X_{1}} und X 2 {\displaystyle X_{2}} stochastisch unabhängige Zufallsvariablen, dann gilt für Y = X 1 + X 2 {\displaystyle Y=X_{1}+X_{2}}

κ n ( Y ) = κ n ( X 1 ) + κ n ( X 2 ) {\displaystyle \kappa _{n}(Y)=\kappa _{n}(X_{1})+\kappa _{n}(X_{2})\,}

Analog gilt für die Summe Y = i = 1 N X i {\displaystyle Y=\sum _{i=1}^{N}X_{i}} aus N {\displaystyle N} stochastisch unabhängigen Zufallsvariablen X 1 , X 2 , , X N {\displaystyle X_{1},X_{2},\dotsc ,X_{N}} :

κ n ( Y ) = i = 1 N κ n ( X i ) {\displaystyle \kappa _{n}(Y)=\sum _{i=1}^{N}\kappa _{n}(X_{i})\,}

Die Additivität beruht darauf, dass für die charakteristische Funktionen einer Summe unabhängiger Zufallsvariablen die Produktdarstellung G Y ( k ) = G X 1 ( k ) G X 2 ( k ) {\displaystyle G_{Y}(k)=G_{X_{1}}(k)\cdot G_{X_{2}}(k)} gilt. Für die Logarithmen gilt somit eine Additivität:

n = 1 ( i t ) n n ! κ n ( Y ) = ln G Y ( t ) = ln G X 1 ( t ) + ln G X 2 ( t ) = n = 1 ( i t ) n n ! [ κ n ( X 1 ) + κ n ( X 2 ) ] {\displaystyle \sum _{n=1}^{\infty }{\frac {(\mathrm {i} t)^{n}}{n!}}\kappa _{n}(Y)=\ln G_{Y}(t)=\ln G_{X_{1}}(t)+\ln G_{X_{2}}(t)=\sum _{n=1}^{\infty }{\frac {(\mathrm {i} t)^{n}}{n!}}\left[\kappa _{n}(X_{1})+\kappa _{n}(X_{2})\right]}

Besonderheit der Normalverteilung

Für eine Normalverteilung mit Erwartungswert μ {\displaystyle \mu } und Varianz σ 2 {\displaystyle \sigma ^{2}} ist die charakteristische Funktion gleich G ( t ) = exp ( i μ t σ 2 t 2 / 2 ) {\displaystyle G(t)=\exp(\mathrm {i} \mu t-\sigma ^{2}t^{2}/2)} und somit die Kumulanten:

κ 1 = μ ; κ 2 = σ 2 ; κ n = 0 {\displaystyle \kappa _{1}=\mu ;\quad \kappa _{2}=\sigma ^{2};\quad \kappa _{n}=0} für n 3 {\displaystyle n\geq 3} .

Alle Kumulanten größer als 2. Ordnung verschwinden. Diese Eigenschaft charakterisiert die Normalverteilung.

Man kann zeigen, dass

  • entweder alle Kumulanten außer den ersten beiden verschwinden
  • oder unendlich viele nichtverschwindende Kumulanten existieren.

Anders ausgedrückt: Die Kumulanten generierende Funktion ln G ( k ) {\displaystyle \ln G(k)} kann kein endliches Polynom von Grad größer 2 sein.

Kumulanten und Momente

Kumulanten als Funktion der Momente

Bezeichne m n {\displaystyle m_{n}} das n-te Moment einer Zufallsvariablen X {\displaystyle X} . Durch G ( k ) {\displaystyle G(k)} lässt sich m n {\displaystyle m_{n}} darstellen als

m n = 1 i n n t n G ( t ) | t = 0 {\displaystyle m_{n}={\frac {1}{i^{n}}}{\frac {\partial ^{n}}{\partial t^{n}}}G(t){\bigg |}_{t=0}}

Folglich lassen sich die Kumulanten durch die Momente m n {\displaystyle m_{n}} bzw. folgendermaßen ausdrücken:

κ 1 = m 1 {\displaystyle \kappa _{1}=m_{1}\,}
κ 2 = m 2 m 1 2 {\displaystyle \kappa _{2}=m_{2}-m_{1}^{2}\,}
κ 3 = m 3 3 m 2 m 1 + 2 m 1 3 {\displaystyle \kappa _{3}=m_{3}-3m_{2}m_{1}+2m_{1}^{3}\,}
κ 4 = m 4 4 m 3 m 1 3 m 2 2 + 12 m 2 m 1 2 6 m 1 4 {\displaystyle \kappa _{4}=m_{4}-4m_{3}m_{1}-3m_{2}^{2}+12m_{2}m_{1}^{2}-6m_{1}^{4}\,}
κ 5 = m 5 + 5 m 1 ( 6 m 2 2 m 4 ) 10 m 3 m 2 + 20 m 3 m 1 2 60 m 2 m 1 3 + 24 m 1 5 {\displaystyle \kappa _{5}=m_{5}+5m_{1}(6m_{2}^{2}-m_{4})-10m_{3}m_{2}+20m_{3}m_{1}^{2}-60m_{2}m_{1}^{3}+24m_{1}^{5}\,}

Im Allgemeinen lässt sich die Abhängigkeit der Kumulanten von den Momenten durch folgende Rekursionsformel beschreiben:

κ n = m n k = 1 n 1 ( n 1 k 1 ) κ k m n k {\displaystyle \kappa _{n}=m_{n}-\sum _{k=1}^{n-1}{n-1 \choose k-1}\kappa _{k}m_{n-k}}

Alternativ lässt sich aus der Formel von Faà di Bruno die k-te Kumulante mittels der Bell-Polynome B n , k {\displaystyle B_{n,k}} und der Momente m 1 , , m n {\displaystyle m_{1},\dots ,m_{n}} darstellen als

κ n = k = 1 n ( k 1 ) ! ( 1 ) k + 1 B n , k ( m 1 , , m n k + 1 ) {\displaystyle \kappa _{n}=\sum _{k=1}^{n}(k-1)!(-1)^{k+1}B_{n,k}(m_{1},\dots ,m_{n-k+1})} .

Mit den zentralen Momenten μ n {\displaystyle \mu _{n}} sind die Formeln meist kürzer:

κ 1 = m 1 {\displaystyle \kappa _{1}=m_{1}\,}
κ 2 = μ 2 {\displaystyle \kappa _{2}=\mu _{2}\,}
κ 3 = μ 3 {\displaystyle \kappa _{3}=\mu _{3}\,}
κ 4 = μ 4 3 μ 2 2 {\displaystyle \kappa _{4}=\mu _{4}-3\mu _{2}^{2}\,}
κ 5 = μ 5 10 μ 3 μ 2 {\displaystyle \kappa _{5}=\mu _{5}-10\mu _{3}\mu _{2}\,}
κ 6 = μ 6 15 μ 4 μ 2 10 μ 3 2 + 30 μ 2 3 {\displaystyle \kappa _{6}=\mu _{6}-15\mu _{4}\mu _{2}-10\mu _{3}^{2}+30\mu _{2}^{3}\,}

Von besonderer Bedeutung sind die ersten beiden Kumulanten: κ 1 {\displaystyle \kappa _{1}} ist der Erwartungswert m 1 = E ( X ) {\displaystyle m_{1}=E(X)} und κ 2 {\displaystyle \kappa _{2}} ist die Varianz μ 2 = V ( X ) {\displaystyle \mu _{2}=V(X)} . Ab der vierten Ordnung stimmen Kumulante und zentrales Moment nicht mehr überein.

Herleitung der ersten Kumulanten

Man entwickelt ln G ( t ) {\displaystyle \ln G(t)} um G ( t ) = 1 {\displaystyle G(t)=1}

ln G ( t ) = n = 1 ( 1 ) n + 1 ( G ( t ) 1 ) n n = ( G ( t ) 1 ) ( G ( t ) 1 ) 2 2 + ( G ( t ) 1 ) 3 3 {\displaystyle \ln G(t)=\sum _{n=1}^{\infty }(-1)^{n+1}{\frac {(G(t)-1)^{n}}{n}}=(G(t)-1)-{\frac {(G(t)-1)^{2}}{2}}+{\frac {(G(t)-1)^{3}}{3}}\mp \dotsb }

und setzt die Reihendarstellung von G ( k ) {\displaystyle G(k)}

G ( t ) = n = 0 ( i t ) n n ! m n = 1 + i t m 1 + ( i t ) 2 2 m 2 + ( i t ) 3 6 m 3 + {\displaystyle G(t)=\sum _{n=0}^{\infty }{\frac {(\mathrm {i} t)^{n}}{n!}}m_{n}=1+\mathrm {i} tm_{1}+{\frac {(it)^{2}}{2}}m_{2}+{\frac {(it)^{3}}{6}}m_{3}+\dotsb }

in obige Entwicklung ein

ln G ( t ) = [ i t m 1 + ( i t ) 2 2 m 2 + ( i t ) 3 6 m 3 + ] 1 2 [ i t m 1 + ( i t ) 2 2 m 2 + ] 2 + 1 3 [ i t m 1 + ( i t ) 2 2 m 2 + ] 3 = [ i t m 1 + ( i t ) 2 2 m 2 + ( i t ) 3 6 m 3 + ] 1 2 [ ( i t ) 2 m 1 2 + 2 ( i t ) 3 2 m 1 m 2 + ( i t ) 4 4 m 2 2 + ] + 1 3 [ ( i t ) 3 m 1 3 + 2 ( i t ) 4 2 m 1 2 m 2 + 2 ( i t ) 5 4 m 1 m 2 2 + ( i t ) 6 8 m 2 3 + ] {\displaystyle {\begin{aligned}\ln G(t)=&\left[\mathrm {i} tm_{1}+{\frac {(it)^{2}}{2}}m_{2}+{\frac {(it)^{3}}{6}}m_{3}+\dotsb \right]\\&-{\frac {1}{2}}\left[\mathrm {i} tm_{1}+{\frac {(it)^{2}}{2}}m_{2}+\dotsb \right]^{2}\\&+{\frac {1}{3}}\left[\mathrm {i} tm_{1}+{\frac {(it)^{2}}{2}}m_{2}+\dotsb \right]^{3}\mp \dotsb \\=&\left[\mathrm {i} tm_{1}+{\frac {(it)^{2}}{2}}m_{2}+{\frac {(it)^{3}}{6}}m_{3}+\dotsb \right]\\&-{\frac {1}{2}}\left[(\mathrm {i} t)^{2}m_{1}^{2}+2{\frac {(it)^{3}}{2}}m_{1}m_{2}+{\frac {(it)^{4}}{4}}m_{2}^{2}+\dotsb \right]\\&+{\frac {1}{3}}\left[(\mathrm {i} t)^{3}m_{1}^{3}+2{\frac {(it)^{4}}{2}}m_{1}^{2}m_{2}+2{\frac {(it)^{5}}{4}}m_{1}m_{2}^{2}+{\frac {(it)^{6}}{8}}m_{2}^{3}+\dotsb \right]\mp \dotsb \end{aligned}}}

Sortiert man noch nach Potenzen von t {\displaystyle t} , so erhält man die Kumulanten:

ln G ( t ) = i t [ m 1 ] κ 1 + ( i t ) 2 2 [ m 2 m 1 2 ] κ 2 + ( i t ) 3 6 [ m 3 3 m 1 m 2 + 2 m 1 3 ] κ 3 + {\displaystyle \ln G(t)=\mathrm {i} t\underbrace {\left[m_{1}\right]} _{\kappa _{1}}+{\frac {(it)^{2}}{2}}\underbrace {\left[m_{2}-m_{1}^{2}\right]} _{\kappa _{2}}+{\frac {(it)^{3}}{6}}\underbrace {\left[m_{3}-3m_{1}m_{2}+2m_{1}^{3}\right]} _{\kappa _{3}}+\dotsb }

Momente als Funktion der Kumulanten

Das n {\displaystyle n} -te Moment ist ein Polynom n {\displaystyle n} -ten Grades der ersten n {\displaystyle n} Kumulanten. Hier die ersten sechs Momente:

m 1 = κ 1 {\displaystyle m_{1}=\kappa _{1}\,}
m 2 = κ 2 + κ 1 2 {\displaystyle m_{2}=\kappa _{2}+\kappa _{1}^{2}\,}
m 3 = κ 3 + 3 κ 2 κ 1 + κ 1 3 {\displaystyle m_{3}=\kappa _{3}+3\kappa _{2}\kappa _{1}+\kappa _{1}^{3}\,}
m 4 = κ 4 + 4 κ 3 κ 1 + 3 κ 2 2 + 6 κ 2 κ 1 2 + κ 1 4 {\displaystyle m_{4}=\kappa _{4}+4\kappa _{3}\kappa _{1}+3\kappa _{2}^{2}+6\kappa _{2}\kappa _{1}^{2}+\kappa _{1}^{4}\,}
m 5 = κ 5 + 5 κ 4 κ 1 + 10 κ 3 κ 2 + 10 κ 3 κ 1 2 + 15 κ 2 2 κ 1 + 10 κ 2 κ 1 3 + κ 1 5 {\displaystyle m_{5}=\kappa _{5}+5\kappa _{4}\kappa _{1}+10\kappa _{3}\kappa _{2}+10\kappa _{3}\kappa _{1}^{2}+15\kappa _{2}^{2}\kappa _{1}+10\kappa _{2}\kappa _{1}^{3}+\kappa _{1}^{5}\,}
m 6 = κ 6 + 6 κ 5 κ 1 + 15 κ 4 κ 2 + 15 κ 4 κ 1 2 + 10 κ 3 2 + 60 κ 3 κ 2 κ 1 + 20 κ 3 κ 1 3 + 15 κ 2 3 + 45 κ 2 2 κ 1 2 + 15 κ 2 κ 1 4 + κ 1 6 {\displaystyle m_{6}=\kappa _{6}+6\kappa _{5}\kappa _{1}+15\kappa _{4}\kappa _{2}+15\kappa _{4}\kappa _{1}^{2}+10\kappa _{3}^{2}+60\kappa _{3}\kappa _{2}\kappa _{1}+20\kappa _{3}\kappa _{1}^{3}+15\kappa _{2}^{3}+45\kappa _{2}^{2}\kappa _{1}^{2}+15\kappa _{2}\kappa _{1}^{4}+\kappa _{1}^{6}\,}

Die Koeffizienten entsprechen genau denjenigen in der Formel von Faà di Bruno. Allgemeiner ist das n {\displaystyle n} -te Moment genau das n {\displaystyle n} -te vollständige Bell-Polynom B n {\displaystyle B_{n}} , ausgewertet an der Stelle ( κ 1 , , κ n ) {\displaystyle (\kappa _{1},\dots ,\kappa _{n})} :

m n = B n ( κ 1 , , κ n ) {\displaystyle m_{n}=B_{n}(\kappa _{1},\dots ,\kappa _{n})} .

Um die zentralen Momente als Funktion der Kumulanten auszudrücken, vernachlässige in obigen Polynomen für die Momente alle Terme, bei denen κ 1 {\displaystyle \kappa _{1}} als Faktor auftaucht:

μ 1 = 0 {\displaystyle \mu _{1}=0\,}
μ 2 = κ 2 {\displaystyle \mu _{2}=\kappa _{2}\,}
μ 3 = κ 3 {\displaystyle \mu _{3}=\kappa _{3}\,}
μ 4 = κ 4 + 3 κ 2 2 {\displaystyle \mu _{4}=\kappa _{4}+3\kappa _{2}^{2}\,}
μ 5 = κ 5 + 10 κ 3 κ 2 {\displaystyle \mu _{5}=\kappa _{5}+10\kappa _{3}\kappa _{2}\,}
μ 6 = κ 6 + 15 κ 4 κ 2 + 10 κ 3 2 + 15 κ 2 3 {\displaystyle \mu _{6}=\kappa _{6}+15\kappa _{4}\kappa _{2}+10\kappa _{3}^{2}+15\kappa _{2}^{3}\,}

Kumulanten und Mengenpartitionen

Oben haben wir die Momente als Polynome in den Kumulanten ausgedrückt. Diese Polynome haben eine interessante kombinatorische Interpretation: ihre Koeffizienten zählen Mengenpartitionen. Die allgemeine Form dieser Polynome kann folgendermaßen geschrieben werden

m n = π Π B π κ | B | {\displaystyle m_{n}=\sum _{\pi \in \Pi }\prod _{B\in \pi }\kappa _{\left|B\right|}}

wobei

  • π {\displaystyle \pi } die Menge aller Partitionen einer n-elementigen Menge durchläuft;
  • " B π {\displaystyle B\in \pi } " bedeutet, dass B {\displaystyle B} einer der Blöcke ist, in welche die Menge zerlegt wurde; und
  • | B | {\displaystyle \vert B\vert } ist die Größe des Blocks B {\displaystyle B} .

Multivariate Kumulanten

Die multivariaten (oder gemeinsamen) Kumulanten von mehreren Zufallsvariablen X1, ..., Xn kann auch durch eine Kumulanten-erzeugende Funktion definiert werden:

K ( t 1 , t 2 , , t n ) = log E ( e j = 1 n t j X j ) . {\displaystyle K(t_{1},t_{2},\dots ,t_{n})=\log E(\mathrm {e} ^{\sum _{j=1}^{n}t_{j}X_{j}}).}

Diese Formel kann wieder in kombinatorischer Form interpretiert werden gemäß

κ n ( X 1 , , X n ) = π ( | π | 1 ) ! ( 1 ) | π | 1 B π E ( i B X i ) {\displaystyle \kappa _{n}(X_{1},\dots ,X_{n})=\sum _{\pi }(|\pi |-1)!(-1)^{|\pi |-1}\prod _{B\in \pi }E\left(\prod _{i\in B}X_{i}\right)}

wobei π {\displaystyle \pi } alle Partitionen von { 1, ..., n } durchläuft, B {\displaystyle B} läuft durch die Menge aller Blöcke der Partition π {\displaystyle \pi } , und | π | {\displaystyle \vert \pi \vert } ist die Anzahl der Blöcke in π {\displaystyle \pi } . Zum Beispiel haben wir

κ 3 ( X , Y , Z ) = E ( X Y Z ) E ( X Y ) E ( Z ) E ( X Z ) E ( Y ) E ( Y Z ) E ( X ) + 2 E ( X ) E ( Y ) E ( Z ) . {\displaystyle \kappa _{3}(X,Y,Z)=E(XYZ)-E(XY)E(Z)-E(XZ)E(Y)-E(YZ)E(X)+2E(X)E(Y)E(Z).\,}

Dieser kombinatorische Zusammenhang zwischen Kumulanten und Momenten erhält eine einfachere Form, wenn man Momente durch Kumulanten ausdrückt:

E ( X 1 X n ) = π B π κ ( X i : i B ) . {\displaystyle E(X_{1}\cdots X_{n})=\sum _{\pi }\prod _{B\in \pi }\kappa (X_{i}:i\in B).}

Zum Beispiel haben wir dann:

E ( X Y Z ) = κ ( X , Y , Z ) + κ ( X , Y ) κ ( Z ) + κ ( X , Z ) κ ( Y ) + κ ( Y , Z ) κ ( X ) + κ ( X ) κ ( Y ) κ ( Z ) . {\displaystyle E(XYZ)=\kappa (X,Y,Z)+\kappa (X,Y)\kappa (Z)+\kappa (X,Z)\kappa (Y)+\kappa (Y,Z)\kappa (X)+\kappa (X)\kappa (Y)\kappa (Z).\,}

Die erste Kumulante einer Zufallsvariable ist ihr Erwartungswert, die gemeinsame zweite Kumulante von zwei Zufallsvariablen ist ihre Kovarianz. Sind einige der Zufallsvariablen unabhängig voneinander, so verschwindet jede gemischte Kumulante welche mindestens zwei der unabhängigen Variablen enthält. Sind alle Zufallsvariablen gleich, so reduziert sich die gemeinsame Kumulante κ n ( X , , X ) {\displaystyle \kappa _{n}(X,\dots ,X)} auf die gewöhnliche n-te Kumulante κ n {\displaystyle \kappa _{n}} von X {\displaystyle X} .

Eine weitere wichtige Eigenschaft der multivariaten Kumulanten ist Multilinearität in den Variablen:

κ n ( X + Y , Z 1 , Z 2 , ) = κ n ( X , Z 1 , Z 2 , ) + κ n ( Y , Z 1 , Z 2 , ) . {\displaystyle \kappa _{n}(X+Y,Z_{1},Z_{2},\dots )=\kappa _{n}(X,Z_{1},Z_{2},\dots )+\kappa _{n}(Y,Z_{1},Z_{2},\dots ).\,}

Folgerungen

Gegeben seien die identisch verteilten und stochastisch unabhängigen Zufallsvariablen X 1 , X 2 , , X N {\displaystyle X_{1},X_{2},\dotsc ,X_{N}} .

Zentraler Grenzwertsatz

Für die Zufallsvariable

Y = 1 N ( X 1 + X 2 + + X N ) {\displaystyle Y={\frac {1}{\sqrt {N}}}(X_{1}+X_{2}+\dotsb +X_{N})\,}

ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:

κ n ( Y ) = 1 N n i = 1 N κ n ( X i ) O ( N 1 n / 2 ) {\displaystyle \kappa _{n}(Y)={\frac {1}{{\sqrt {N}}^{n}}}\sum _{i=1}^{N}\kappa _{n}(X_{i})\approx {\mathcal {O}}(N^{1-n/2})\,}

Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten i = 1 N κ n {\displaystyle \sum _{i=1}^{N}\kappa _{n}} von der Ordnung O ( N ) {\displaystyle {\mathcal {O}}(N)} ist. Hier die Ordnungen der ersten Kumulanten:

κ 1 ( Y ) = O ( N 1 / 2 )   , κ 2 ( Y ) = O ( N 0 )   , κ 3 ( Y ) = O ( N 1 / 2 )   , κ 4 ( Y ) = O ( N 1 ) {\displaystyle \kappa _{1}(Y)={\mathcal {O}}(N^{1/2})\ ,\quad \kappa _{2}(Y)={\mathcal {O}}(N^{0})\ ,\quad \kappa _{3}(Y)={\mathcal {O}}(N^{-1/2})\ ,\quad \kappa _{4}(Y)={\mathcal {O}}(N^{-1})}

Für n 3 {\displaystyle n\geq 3} ist die Ordnung N {\displaystyle N} hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:

lim N κ n ( Y ) = 0 mit n 3 {\displaystyle \lim _{N\to \infty }\kappa _{n}(Y)=0\quad {\text{mit}}\quad n\geq 3}

D. h., es bleiben nur die beiden ersten Kumulanten übrig. Die einzige Verteilung, die nur die erste und zweite Kumulante besitzt, ist die Gauß-Verteilung. Damit wird plausibel, dass die Summe beliebiger Zufallsvariablen geteilt durch die Wurzel der Anzahl gegen die Gauß-Verteilung konvergiert; dies ist der Zentrale Grenzwertsatz. Um diese Plausibilitätsbetrachtung zu einem Beweis zu vervollständigen, bedarf es der Verwendung allgemeiner Gesetzmäßigkeiten von charakteristischen Funktionen. Die Gauß-Verteilung nimmt also eine besondere Stellung unter allen Verteilungen ein. Wirken bei einem Experiment viele stochastisch unabhängige Einflüsse, so kann man die Gesamtheit der Einflüsse durch eine Gaußsche Zufallsvariable darstellen.

Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch X i = X {\displaystyle X_{i}=X} mit Mittelwert 0, Varianz σ 2 {\displaystyle \sigma ^{2}} und beliebigen höheren Momenten.

κ 1 ( Y ) = 1 N i = 1 N 0 = 0   , κ 2 ( Y ) = 1 N i = 1 N σ 2 = σ 2   , κ 3 ( Y ) = 1 N 3 i = 1 N κ 3 ( X ) = κ 3 ( X ) N N 0 {\displaystyle \kappa _{1}(Y)={\frac {1}{\sqrt {N}}}\sum _{i=1}^{N}0=0\ ,\quad \kappa _{2}(Y)={\frac {1}{N}}\sum _{i=1}^{N}\sigma ^{2}=\sigma ^{2}\ ,\quad \kappa _{3}(Y)={\frac {1}{{\sqrt {N}}^{3}}}\sum _{i=1}^{N}\kappa _{3}(X)={\frac {\kappa _{3}(X)}{\sqrt {N}}}{\underset {N\to \infty }{\longrightarrow }}0}

Für die Zufallsvariable Z {\displaystyle Z}

Z := Y E ( Y ) = 1 N ( X 1 E ( X 1 ) + X 2 E ( X 2 ) + + X N E ( X N ) ) {\displaystyle Z:=Y-E(Y)={\frac {1}{\sqrt {N}}}(X_{1}-E(X_{1})+X_{2}-E(X_{2})+\dotsb +X_{N}-E(X_{N}))\,}

kann man gegenüber Y {\displaystyle Y} die Verschiebungsinvarianz der Kumulanten der Ordnung größer gleich 2 ausnutzen. Der einzige Unterschied zur Zufallsvariablen Y {\displaystyle Y} ist, dass Erwartungswert von Z {\displaystyle Z} Null ist, auch dann wenn die Erwartungswerte der X i {\displaystyle X_{i}} nicht verschwinden.

κ 1 ( Z ) = 1 N i = 1 N κ 1 ( X i E ( X i ) ) E ( X i ) E ( X i ) = 0 κ 2 ( Z ) = 1 N i = 1 N κ 2 ( X i E ( X i ) ) = 1 N i = 1 N κ 2 ( X i ) = κ 2 ( Y ) = 1 N i = 1 N σ i 2 = σ i = σ , i  Spezialfall  σ 2 κ 3 ( Z ) = 1 N 3 i = 1 N κ 3 ( X i E ( X i ) ) = 1 N 3 i = 1 N κ 3 ( X i ) = κ 3 ( Y ) N 0 {\displaystyle {\begin{aligned}\kappa _{1}(Z)&={\frac {1}{\sqrt {N}}}\sum _{i=1}^{N}\underbrace {\kappa _{1}(X_{i}-E(X_{i}))} _{E(X_{i})-E(X_{i})}=0\\\kappa _{2}(Z)&={\frac {1}{N}}\sum _{i=1}^{N}\kappa _{2}(X_{i}-E(X_{i}))={\frac {1}{N}}\sum _{i=1}^{N}\kappa _{2}(X_{i})=\kappa _{2}(Y)={\frac {1}{N}}\sum _{i=1}^{N}\sigma _{i}^{2}{\overset {\text{ Spezialfall }}{\underset {\sigma _{i}=\sigma ,\,\forall i}{=}}}\sigma ^{2}\\\kappa _{3}(Z)&={\frac {1}{{\sqrt {N}}^{3}}}\sum _{i=1}^{N}\kappa _{3}(X_{i}-E(X_{i}))={\frac {1}{{\sqrt {N}}^{3}}}\sum _{i=1}^{N}\kappa _{3}(X_{i})=\kappa _{3}(Y){\underset {N\to \infty }{\longrightarrow }}0\end{aligned}}}

Gesetz der großen Zahlen

Für die Zufallsvariable

Y = 1 N ( X 1 + X 2 + + X N ) {\displaystyle Y={\frac {1}{N}}(X_{1}+X_{2}+\dotsb +X_{N})\,}

ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:

κ n ( Y ) = 1 N n i = 1 N κ n ( X i ) O ( N 1 n ) {\displaystyle \kappa _{n}(Y)={\frac {1}{N^{n}}}\sum _{i=1}^{N}\kappa _{n}(X_{i})\approx {\mathcal {O}}(N^{1-n})\,}

Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten i = 1 N κ n {\displaystyle \sum _{i=1}^{N}\kappa _{n}} von der Ordnung O ( N ) {\displaystyle {\mathcal {O}}(N)} ist. Hier die Ordnungen der ersten Kumulanten:

κ 1 ( Y ) = O ( N 0 )   , κ 2 ( Y ) = O ( N 1 )   , κ 3 ( Y ) = O ( N 2 )   , κ 4 ( Y ) = O ( N 3 ) {\displaystyle \kappa _{1}(Y)={\mathcal {O}}(N^{0})\ ,\quad \kappa _{2}(Y)={\mathcal {O}}(N^{-1})\ ,\quad \kappa _{3}(Y)={\mathcal {O}}(N^{-2})\ ,\quad \kappa _{4}(Y)={\mathcal {O}}(N^{-3})}

Für n 2 {\displaystyle n\geq 2} ist die Ordnung N {\displaystyle N} hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:

lim N κ n ( Y ) = 0 mit n 2 {\displaystyle \lim _{N\to \infty }\kappa _{n}(Y)=0\quad {\text{mit}}\quad n\geq 2}

D. h., es bleibt nur die erste Kumulante bzw. das erste Moment übrig. Mit wachsendem N {\displaystyle N} erhält man eine Gauß-Verteilung um den Mittelwert

κ 1 ( Y ) = 1 N i = 1 N κ 1 ( X i ) {\displaystyle \kappa _{1}(Y)={\frac {1}{N}}\sum _{i=1}^{N}\kappa _{1}(X_{i})} ,

wobei die Breite von der Ordnung N 1 {\displaystyle N^{-1}} ist, und im Grenzfall N {\displaystyle N\to \infty } einen scharfen (Delta-förmigen) Peak bei κ 1 {\displaystyle \kappa _{1}} .

Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch X i = X {\displaystyle X_{i}=X} mit Mittelwert μ {\displaystyle \mu } , Varianz σ 2 {\displaystyle \sigma ^{2}} und beliebigen höheren Momenten.

κ 1 ( Y ) = 1 N i = 1 N m = m   , κ 2 ( Y ) = 1 N 2 i = 1 N σ 2 = σ 2 N N 0   , κ 3 ( Y ) = 1 N 3 i = 1 N κ 3 ( X ) = κ 3 ( X ) N 2 N 0 {\displaystyle \kappa _{1}(Y)={\frac {1}{N}}\sum _{i=1}^{N}m=m\ ,\quad \kappa _{2}(Y)={\frac {1}{N^{2}}}\sum _{i=1}^{N}\sigma ^{2}={\frac {\sigma ^{2}}{N}}{\underset {N\to \infty }{\longrightarrow }}0\ ,\quad \kappa _{3}(Y)={\frac {1}{N^{3}}}\sum _{i=1}^{N}\kappa _{3}(X)={\frac {\kappa _{3}(X)}{N^{2}}}{\underset {N\to \infty }{\longrightarrow }}0}

Somit ist Y {\displaystyle Y} eine Zufallsvariable mit demselben Mittelwert wie X {\displaystyle X} (man nennt Y {\displaystyle Y} erwartungstreuer Schätzer für den Mittelwert von X {\displaystyle X} ). Die für wachsende N {\displaystyle N} immer schmaler werdende Breite der Gauß-Verteilung (Standardabweichung um Mittelwert) beträgt σ Y = σ X / N {\displaystyle \sigma _{Y}=\sigma _{X}/{\sqrt {N}}} .

Geschichte

Kumulanten und ihre Eigenschaften wurden erstmals 1889 von dem dänischen Mathematiker Thorvald Nicolai Thiele in einem in dänischer Sprache erschienenen Buch beschrieben.[1] Obwohl dieses Buch im gleichen Jahr im Jahrbuch über die Fortschritte der Mathematik ausführlich referiert wurde,[2] blieben die Ergebnisse zunächst weitgehend unbeachtet, so dass Felix Hausdorff noch 1901 diese Kenngrößen in einer Arbeit als (von ihm) „neueingeführt“ bezeichnete.[3]

Freie Kumulanten

In obiger kombinatorischer Momenten-Kumulanten-Formel

E ( X 1 X n ) = π B π κ ( X i : i B ) {\displaystyle E(X_{1}\cdots X_{n})=\sum _{\pi }\prod _{B\in \pi }\kappa (X_{i}:i\in B)}

summiert man über alle Partitionen der Menge { 1 , , n } {\displaystyle \{1,\dotsc ,n\}} . Wenn man stattdessen nur über nicht-kreuzende Partitionen summiert, so erhält man die freien Kumulanten. Diese wurden von Roland Speicher[4] eingeführt und spielen in der freien Wahrscheinlichkeitstheorie eine analoge Rolle wie die üblichen Kumulanten in der klassischen Wahrscheinlichkeitstheorie.[5] Insbesondere sind die freien Kumulanten additiv für freie Zufallsvariable. Die Wignersche Halbkreisverteilung, welche das freie Gegenstück zur Normalverteilung ist, ist dadurch charakterisiert, dass nur die freie Kumulante zweiter Ordnung nicht verschwindet.

Literatur

  • Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3-8348-1753-2, doi:10.1007/978-3-8348-8264-6, S. 68–70.
  • Crispin W. Gardiner: Stochastic methods: a handbook for the natural and social sciences. Springer, 2009. ISBN 978-3-540-70712-7, S. 33–35.
  • M. Abramowitz, I. A. Stegun: Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables. Dover, 1965. ISBN 978-0-486-61272-0

Einzelnachweise

  1. Thorvald Nicolai Thiele: Forelæsninger over almindelig Iagttagelseslære: Sandsynlighedsregning og mindste Kvadraters Methode, Kopenhagen 1889.
  2. Jahrbuch über die Fortschritte der Mathematik JFM 21.0210.01.
  3. Felix Hausdorff: Gesammelte Werke, Band V: Astronomie, Optik und Wahrscheinlichkeitstheorie. 2006, ISBN 978-3-540-30624-5, S. 544, 577, doi:10.1007/3-540-30669-2_8.
  4. Speicher, Roland (1994), "Multiplicative functions on the lattice of non-crossing partitions and free convolution", Mathematische Annalen, 298 (4): 611–628
  5. Jonathan Novak, Piotr Śniady: What Is a Free Cumulant? In: Notices of the American Mathematical Society. 58. Jahrgang, Nr. 2, 2011, ISSN 0002-9920, S. 300–301 (ams.org [PDF]).