Stichprobenvarianz (Schätzfunktion)

Die Stichprobenvarianz ist eine Schätzfunktion in der mathematischen Statistik. Ihre zentrale Aufgabe ist es, die unbekannte Varianz einer zugrundeliegenden Wahrscheinlichkeitsverteilung zu schätzen. Außerhalb der Schätztheorie findet sie auch als Hilfsfunktion zur Konstruktion von Konfidenzbereichen und statistischen Tests Verwendung. Die Stichprobenvarianz wird in mehreren Varianten definiert, die sich leicht bezüglich ihrer Eigenschaften und somit auch ihrer Anwendungsgebiete unterscheiden. Die Unterscheidung der unterschiedlichen Varianten ist in der Literatur nicht immer einheitlich. Wird daher lediglich von "der" Stichprobenvarianz gesprochen, so sollte immer überprüft werden, welche der Definitionen im entsprechenden Kontext gilt.

Ebenfalls als Stichprobenvarianz wird die empirische Varianz bezeichnet, ein Streumaß einer Stichprobe, also von mehreren Zahlen. Diese Stichprobenvarianz einer konkreten Stichprobe entspricht einem Schätzwert und ist damit eine Realisierung der Stichprobenvarianz als Schätzfunktion und Zufallsvariable.

Definition

Gegeben seien Zufallsvariablen {\displaystyle X_{1},X_{2},\dots ,X_{n}} und sei {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})}. In der Anwendung sind die X_{i} die Stichprobenvariablen. Es bezeichne

{\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}}

das Stichprobenmittel. In der Literatur finden sich im Wesentlichen drei unterschiedliche Definitionen der Stichprobenvarianz.

Viele Autoren nennen

{\displaystyle V_{n}^{*}(X)={\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}

die Stichprobenvarianz oder zur besseren Abgrenzung die korrigierte Stichprobenvarianz. Alternativ wird auch

{\displaystyle V_{n}(X)={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}

als Stichprobenvarianz bezeichnet, ebenso wird auch

{\displaystyle V_{n,\mu _{0}}(X)={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu _{0})^{2}}

für eine fixe reelle Zahl {\displaystyle \mu _{0}} Stichprobenvarianz genannt.

Weder die Notation noch die Sprechweise für die verschiedenen Definitionen der Stichprobenvarianz sind einheitlich und eine regelmäßige Quelle von Irrtümern. So finden sich als Notationen für {\displaystyle V_{n}^{*}} auch {\displaystyle s_{n-1}^{2},\;s^{2},\;s_{x}^{2},\;V_{x}} oder {\displaystyle V^{*}}. Für {\displaystyle V_{n}} findet sich auch die Schreibweise V oder {\displaystyle s_{n}^{2}}, für {\displaystyle V_{n,\mu }} auch S_{n}.

In diesem Artikel werden der Klarheit halber die oben aufgeführten Notationen {\displaystyle V_{n}^{*},\;V_{n}} und {\displaystyle V_{n,\mu }} verwendet. Dabei wird {\displaystyle V_{n}^{*}} als korrigierte Stichprobenvarianz bezeichnet, {\displaystyle V_{n}} als Stichprobenvarianz und {\displaystyle V_{n,\mu }} als Stichprobenvarianz mit vorgegebenen Erwartungswert. Diese Sprechweisen sind in der Literatur nicht verbreitet und hier nur der Klarheit halber eingeführt. Beim Vergleich verschiedener Quellen sollten stets die Definitionen, Notationen und Sprechweisen miteinander verglichen werden, um Irrtümer zu vermeiden!

Verwendung

Wichtiger Verwendungszweck der Stichprobenvarianz ist die Schätzung der Varianz einer unbekannten Wahrscheinlichkeitsverteilung. Je nach Rahmenbedingungen kommen dabei die verschiedenen Definitionen zum Einsatz, da diese unterschiedliche Optimalitätskriterien erfüllen (siehe unten). Als Faustregel kann gelten:

Die Schätzfunktion {\displaystyle V_{n}(X)} wird meist nicht verwendet, sie entsteht beispielsweise bei Verwendung der Momentenmethode oder der Maximum-Likelihood-Methode und erfüllt die gängigen Qualitätskriterien nicht.

Neben der Verwendung als Schätzfunktion wird die Stichprobenvarianz noch als Hilfsfunktion für die Konstruktion von Konfidenzintervallen oder statistischen Tests verwendet. Dort findet sie sich zum Beispiel als Pivotstatistik zur Konstruktion von Konfidentintervallen im Normalverteilungsmodell oder als Teststatistik bei dem Chi-Quadrat-Test.

Eigenschaften

Rahmenbedingungen

Meist wird die Stichprobenvarianz unter den Annahmen verwendet, dass die Auswertungen unabhängig identisch verteilt sind sowie entweder einen bekannten oder einen unbekannten Erwartungswert besitzen. Diese Annahmen werden durch die folgenden statistischen Modelle beschrieben:

{\displaystyle (\mathbb {R} ^{n},{\mathcal {B}}(\mathbb {R} ^{n}),(P_{\vartheta }^{\otimes n})_{\vartheta \in \Theta })}.
Hierbei bezeichnet {\displaystyle P^{\otimes n}} das n-fache Produktmaß von P und (P_{\vartheta })_{{\vartheta \in \Theta }} ist die Familie aller Wahrscheinlichkeitsmaße mit endlicher Varianz, die mit einer beliebigen Indexmenge  \Theta indiziert sind. Die Stichprobenvariablen X_{1},\dots ,X_{n} sind dann unabhängig identisch verteilt gemäß {\displaystyle P_{\vartheta }} und besitzen also eine endliche Varianz.
{\displaystyle (\mathbb {R} ^{n},{\mathcal {B}}(\mathbb {R} ^{n}),(P_{\vartheta }^{\otimes n})_{\vartheta \in \Theta })}.
Hierbei bezeichnet (P_{\vartheta })_{{\vartheta \in \Theta }} die Familie aller Wahrscheinlichkeitsmaße mit endlicher Varianz und Erwartungswert {\displaystyle \mu _{0}}, die mit einer beliebigen Indexmenge  \Theta indiziert sind. Die Stichprobenvariablen X_{1},\dots ,X_{n} sind dann unabhängig identisch verteilt gemäß {\displaystyle P_{\vartheta }} und besitzen somit eine endliche Varianz und den Erwartungswert {\displaystyle \mu _{0}}.

Erwartungstreue

Bekannter Erwartungswert

Im Falle des bekannten Erwartungswertes ist {\displaystyle V_{n,\mu _{0}}(X)} ein erwartungstreuer Schätzer für die Varianz. Das bedeutet es gilt

{\displaystyle \operatorname {E} _{\vartheta }(V_{n,\mu _{0}}(X))=\operatorname {Var} _{\vartheta }(X_{1})=\operatorname {Var} (P_{\vartheta })}.

Hierbei bezeichnet {\displaystyle \operatorname {E} _{\vartheta }(Y)} bzw. {\displaystyle \operatorname {Var} _{\vartheta }(Y)} die Erwartungswertbildung bzw. die Varianzbildung bezüglich des Wahrscheinlichkeitsmaßes {\displaystyle P_{\vartheta }}.

Die Erwartungstreue gilt, da

{\displaystyle \operatorname {E} _{\vartheta }\left(V_{n,\mu _{0}}(X)\right)={\frac {1}{n}}\sum _{i=1}^{n}\operatorname {E} _{\vartheta }\left((X_{i}-\mu _{0})^{2}\right)={\frac {1}{n}}\sum _{i=1}^{n}\operatorname {Var} (X_{i})=\operatorname {Var} _{\vartheta }(X_{1})}

ist. Hierbei folgt der erste Schritt aus der Linearität des Erwartungswertes, der zweite, da nach Voraussetzung über den bekannten Erwartungswert {\displaystyle \mu _{0}=\operatorname {E} _{\vartheta }(X_{i})} ist und somit {\displaystyle \operatorname {E} _{\vartheta }(X_{i}-\mu _{0})^{2}=\operatorname {E} _{\vartheta }(X_{i}-\operatorname {E} (X_{i}))^{2}=\operatorname {Var} _{\vartheta }(X_{i})} gilt nach Definition der Varianz. In den dritten Schrit geht ein, dass die X_{i} alle identisch verteilt sind.

Unbekannter Erwartungswert

Im Falle des unbekannten Erwartungswertes ist {\displaystyle V_{n}^{*}(X)} eine erwartungstreue Schätzfunktion für die Varianz, es gilt also

{\displaystyle \operatorname {E} _{\vartheta }(V_{n}^{*}(X))=\operatorname {Var} (P_{\vartheta })}

Im Gegensatz dazu ist {\displaystyle V_{n}(X)} nicht erwartungstreu, denn es gilt

{\displaystyle \operatorname {E} _{\vartheta }(V_{n}(X))={\frac {n-1}{n}}\operatorname {Var} (P_{\vartheta })}.

Der Schätzer {\displaystyle V_{n}(X)} ist aber noch asymptotisch erwartungstreu. Dies folgt direkt aus der obigen Darstellung, denn es ist

{\displaystyle \lim _{n\to \infty }V_{n}(X)=\lim _{n\to \infty }{\frac {n-1}{n}}\operatorname {Var} (P_{\vartheta })=\operatorname {Var} (P_{\vartheta })}.
Herleitung der Erwartungstreue

Beachte dazu zuerst, dass Aufgrund der Unabhängigkeit

{\displaystyle \operatorname {E} (X_{i}X_{j})={\begin{cases}\operatorname {E} (X_{i})\cdot \operatorname {E} (X_{j})&{\text{ falls }}i\neq j\\\operatorname {E} (X_{i}^{2})&{\text{ falls }}i=j\end{cases}}\quad (*)}

gilt und aufgrund der identischen Verteilungen

{\displaystyle \operatorname {E} (X_{i})=\operatorname {E} (X_{j})} für alle i,j und somit {\displaystyle \operatorname {E} (X_{i})\cdot \operatorname {E} (X_{j})=\operatorname {E} (X_{i})^{2}\quad (**)}.

Daraus folgt direkt

{\displaystyle {\begin{aligned}\operatorname {E} _{\vartheta }\left(X_{k}{\overline {X}}\right)&={\frac {1}{n}}\operatorname {E} _{\vartheta }\left(X_{k}\cdot \sum _{i=1}^{n}X_{i}\right)\\&={\frac {1}{n}}\operatorname {E} _{\vartheta }\left(X_{k}^{2}\right)+{\frac {1}{n}}\operatorname {E} _{\vartheta }\left(\sum _{i=1 \atop i\neq k}^{n}X_{i}X_{k}\right)\\&={\frac {1}{n}}\operatorname {E} _{\vartheta }\left(X_{k}^{2}\right)+{\frac {n-1}{n}}\operatorname {E} _{\vartheta }\left(X_{k}\right)^{2}\quad (1)\end{aligned}}}

aufgrund von {\displaystyle (*)} und {\displaystyle (**)} im letzten Schritt und unter Verwendung der Linearität des Erwartungswertes.

Analog folgt

{\displaystyle {\begin{aligned}\operatorname {E} _{\vartheta }\left({\overline {X}}^{2}\right)&={\frac {1}{n^{2}}}\operatorname {E} _{\vartheta }\left(\sum _{i=1}^{n}\sum _{j=1}^{n}X_{i}X_{j}\right)\\&={\frac {1}{n^{2}}}\operatorname {E} _{\vartheta }\left(\sum _{i=1}^{n}X_{i}^{2}+\sum _{i,j=1 \atop i\neq j}^{n}X_{i}X_{j}\right)\\&={\frac {n}{n^{2}}}\cdot \operatorname {E} _{\vartheta }(X_{k}^{2})+{\frac {n(n-1)}{n^{2}}}\operatorname {E} _{\vartheta }(X_{k})^{2}\\&={\frac {1}{n}}\operatorname {E} _{\vartheta }(X_{k}^{2})+{\frac {n-1}{n}}\cdot \operatorname {E} _{\vartheta }(X_{k})^{2}\quad (2)\end{aligned}}}

wieder mithilfe von {\displaystyle (*)} und {\displaystyle (**)} im dritten Schritt.

Mithilfe von {\displaystyle (1)} und {\displaystyle (2)} im zweiten Schritt sowie von {\displaystyle (**)} in dritten Schritt ist dann

{\displaystyle {\begin{aligned}\operatorname {E} _{\vartheta }\left(\sum _{k=1}^{n}(X_{k}-{\overline {X}})^{2}\right)&=\operatorname {E} _{\vartheta }\left(\sum _{k=1}^{n}(X_{k}^{2}-2{\overline {X}}\cdot X_{k}+{\overline {X}}^{2})\right)\\&=\sum _{k=1}^{n}\left(\operatorname {E} _{\vartheta }(X_{k}^{2})-2\left(\underbrace {{\frac {1}{n}}\operatorname {E} _{\vartheta }\left(X_{k}^{2}\right)+{\frac {n-1}{n}}\operatorname {E} _{\vartheta }\left(X_{k}\right)^{2}} _{(1)}\right)+\left(\underbrace {{\frac {1}{n}}\operatorname {E} _{\vartheta }(X_{k}^{2})+{\frac {(n-1)}{n}}\cdot \operatorname {E} _{\vartheta }(X_{k})^{2}} _{(2)}\right)\right)\\&=n\cdot \operatorname {E} _{\vartheta }(X_{1}^{2})-2\operatorname {E} _{\vartheta }\left(X_{1}^{2}\right)-2(n-1)\operatorname {E} _{\vartheta }\left(X_{1}\right)^{2}+\operatorname {E} _{\vartheta }(X_{1}^{2})+(n-1)\cdot \operatorname {E} _{\vartheta }(X_{1})^{2}\\&=(n-1)\cdot \operatorname {E} _{\vartheta }(X_{1}^{2})-(n-1)\operatorname {E} _{\vartheta }(X_{1})^{2}\\&=(n-1)\operatorname {Var} (X_{1})\end{aligned}}}

Die letzte Gleichheit folgt hier nach den Verschiebungssatz. Daraus folgt dann

{\displaystyle \operatorname {E} _{\vartheta }(V_{n}^{*}(X))={\frac {1}{n-1}}\operatorname {E} _{\vartheta }\left(\sum _{k=1}^{n}(X_{k}-{\overline {X}})^{2}\right)=\operatorname {Var} _{\vartheta }(X_{1})=\operatorname {Var} (P_{\vartheta })}

und analog

{\displaystyle \operatorname {E} _{\vartheta }(V_{n}(X))={\frac {1}{n}}\operatorname {E} _{\vartheta }\left(\sum _{k=1}^{n}(X_{k}-{\overline {X}})^{2}\right)={\frac {n-1}{n}}\operatorname {Var} (P_{\vartheta })}

Bessel-Korrektur

Direkt aus der Definition folgt der Zusammenhang

{\displaystyle V_{n}^{*}(X)={\frac {n}{n-1}}V_{n}(X)}

Der Faktor {\displaystyle {\frac {n}{n-1}}} wird hierbei als Bessel-Korrektur (nach Friedrich Wilhelm Bessel) bezeichnet. Er kann insofern als Korrekturfaktor verstanden werden, da er {\displaystyle V_{n}(X)} so korrigiert, dass die Schätzfunktion erwartungstreu wird. Dies folgt, da wie oben gezeigt

{\displaystyle \operatorname {E} _{\vartheta }(V_{n}(X))={\frac {n-1}{n}}\operatorname {Var} (P_{\vartheta })}.

und die Bessel-Korrektur genau der Kehrwert des Faktors {\displaystyle {\frac {n-1}{n}}} ist. Die Schätzfunktion {\displaystyle V_{n}^{*}(X)} geht somit aus {\displaystyle V_{n}(X)} durch die Bessel-Korrektur hervor.

Stichprobenstandardabweichung

Die Wurzel aus der Stichprobenvarianz V_{n} bzw. {\displaystyle V_{n}^{*}}, also

{\displaystyle {\sqrt {V_{n}(X)}}={\sqrt {{\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}}}

oder

{\displaystyle {\sqrt {V_{n}^{*}(X)}}={\sqrt {{\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}}}

mit

{\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}}/DD>

wird Stichprobenstandardabweichung oder Stichprobenstreuung genannt, ihre Realisierungen entsprechen der empirischen Standardabweichung. Da die Erwartungstreue bei Anwendung einer nichtlinearen Funktion wie der Wurzel in den meisten Fällen verloren geht, ist die Stichprobenstandardabweichung im Gegensatz zur korrigierten Stichprobenvarianz in keinem der beiden Fälle ein erwartungstreuer Schätzer für die Standardabweichung.

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 21.06. 2020