Empirische Verteilung (zufälliges Maß)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die empirische Verteilung ist ein zufälliges Maß in der Stochastik, einem Teilgebiet der Mathematik. Sie bildet eine diskrete Wahrscheinlichkeitsverteilung, deren genaue Struktur von mehreren Zufallsvariablen abhängt. Erst bei dem Übergang zu Realisierungen der Zufallsvariablen ist die Wahrscheinlichkeitsverteilung eindeutig bestimmt und dann die empirische Verteilung einer Stichprobe. Die empirische Verteilung spielt eine wichtige Rolle im Bereich zwischen Wahrscheinlichkeitstheorie und Statistik. So kann beispielsweise der Erwartungswert der empirischen Verteilung unter Umständen als Schätzfunktion für den Erwartungswert der zugrunde liegenden Zufallsvariable genutzt werden.

Gegeben seien reelle Zufallsvariablen .

Dann heißt

die empirische Verteilung von .[1][2] Besitzen alle Zufallsvariablen dieselbe Verteilung, so wird teils auch lediglich der Stichprobenumfang und eine Zufallsvariable angegeben.[3]

Etwas allgemeiner wird die empirische Verteilung auch für Zufallsvariablen mit Werten in polnischen Räumen definiert.[1]

Als empirische Verteilung wird auch noch die diskrete Wahrscheinlichkeitsverteilung

mit bezeichnet. Diese sei hier als empirische Verteilung der Stichprobe bezeichnet. Die empirische Verteilung der Zufallsvariablen und die empirische Verteilung der Stichprobe stehen in engem Zusammenhang. Die empirische Verteilung der Stichprobe entsteht, wenn man von der (unbestimmten) Zufallsvariable zur Realisierung der Zufallsvariable übergeht.

Der Erwartungswert der empirischen Verteilung ist das Stichprobenmittel, also

Der Median der empirischen Verteilung ist der Stichprobenmedian, also

.

Hierbei bezeichnet die i-te Ordnungsstatistik.

Die Varianz der empirischen Verteilung ist die (nicht korrigierte) Stichprobenvarianz, also

Der k-te Moment der empirischen Verteilung ist gegeben durch

.

Die Momente der empirischen Verteilung werden auch als Stichprobenmoment bezeichnet.[4]

Sind die Zufallsvariablen unabhängig identisch verteilt, so können die Kennzahlen der empirischen Verteilung als Schätzfunktion für die entsprechenden Kennzahlen der Zufallsvariablen dienen. So ist das Stichprobenmittel der Erwartungswert der empirischen Verteilung und kann als Schätzer für den Erwartungswert der Zufallsvariablen herangezogen werden.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, S. 245, doi:10.1007/978-3-642-36018-3.
  2. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 243, doi:10.1515/9783110215274.
  3. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg Dordrecht London New York 2011, ISBN 978-3-642-21025-9, S. 357, doi:10.1007/978-3-642-21026-6.
  4. Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, S. 75, doi:10.1007/978-3-642-17261-8.