Verteilungsfunktion
Die Verteilungsfunktion ist eine spezielle reelle
Funktion in der Stochastik
und ein zentrales Konzept bei der Untersuchung von
Wahrscheinlichkeitsverteilungen
auf den reellen Zahlen. Jeder
Wahrscheinlichkeitsverteilung und jeder reellwertigen
Zufallsvariable kann eine Verteilungsfunktion zugeordnet werden. Anschaulich
entspricht dabei der Wert der Verteilungsfunktion an der Stelle
der Wahrscheinlichkeit, dass die zugehörige Zufallsvariable
einen Wert kleiner oder gleich
annimmt. Ist beispielsweise die Verteilung der Schuhgrößen in Europa gegeben, so
entspricht der Wert der entsprechenden Verteilungsfunktion bei 45 der
Wahrscheinlichkeit, dass ein beliebiger Europäer die Schuhgröße 45 oder kleiner
besitzt.
Ihre Bedeutung erhält die Verteilungsfunktion durch den Korrespondenzsatz, der besagt, dass jeder Verteilungsfunktion eine Wahrscheinlichkeitsverteilung auf den reellen Zahlen zugeordnet werden kann und umgekehrt. Die Zuordnung ist bijektiv. Dies ermöglicht es, anstelle der Untersuchung von Wahrscheinlichkeitsverteilungen als Mengenfunktionen auf einem komplexen Mengensystem mit Methoden der Maßtheorie die entsprechenden Verteilungsfunktionen zu untersuchen. Diese sind reelle Funktionen und somit über die Methoden der reellen Analysis leichter zugänglich.
Als alternative Bezeichnungen finden sich unter anderem kumulierte
Verteilungsfunktion, da sie die Wahrscheinlichkeiten kleiner als
zu sein anhäuft, siehe auch kumulierte
Häufigkeit. Des Weiteren wird sie zur besseren Abgrenzung von ihrem
höherdimensionalen Pendant, der multivariaten
Verteilungsfunktion, auch als univariate Verteilungsfunktion
bezeichnet.
In Abgrenzung zum allgemeineren Maßtheoretischen
Konzept einer Verteilungsfunktion finden sich die Bezeichnungen als
wahrscheinlichkeitstheoretische Verteilungsfunktion oder als
Verteilungsfunktion im engeren Sinn.
Die Entsprechung der Verteilungsfunktion in der deskriptiven Statistik ist die empirische Verteilungs- oder Summenhäufigkeitsfunktion.
Definition
Definition mittels Wahrscheinlichkeitsmaß
Gegeben sei ein Wahrscheinlichkeitsmaß
auf dem Ereignisraum
der reellen Zahlen, d.h.
jede reelle Zahl kann als mögliches Ergebnis
aufgefasst werden. Dann heißt die Funktion
definiert durch
die Verteilungsfunktion von .
Mit anderen Worten: Die Funktion gibt an der Stelle
an, mit welcher Wahrscheinlichkeit ein Ergebnis aus der Menge
(alle reellen Zahlen kleiner oder gleich
)
eintritt.
Definition mittels Zufallsvariable
Ist
eine reelle
Zufallsvariable, so nennt man die Funktion
die Verteilungsfunktion von .
Dabei bezeichnet
die Wahrscheinlichkeit, dass
einen Wert kleiner oder gleich
annimmt.
Somit ist die Verteilungsfunktion einer Zufallsvariable genau die Verteilungsfunktion ihrer Verteilung.
Beispiele
Wahrscheinlichkeitsmaße mit Dichten
Besitzt das Wahrscheinlichkeitsmaß
eine Wahrscheinlichkeitsdichte
,
so gilt
.
Somit hat in diesem Fall die Verteilungsfunktion die Darstellung
.
Beispielsweise hat die Exponentialverteilung die Dichte
.
Ist also die Zufallsvariable
exponentialverteilt, also
,
so ist
.
Dieses Vorgehen ist jedoch nicht allgemein gangbar. Erstens besitzen nicht
alle Wahrscheinlichkeitsmaße auf den reellen Zahlen eine Dichtefunktion
(beispielsweise diskrete Verteilungen, aufgefasst als Verteilungen in ),
zweitens muss selbst bei der Existenz einer Dichtefunktion nicht
notwendigerweise eine Stammfunktion
mit geschlossener Darstellung existieren (wie beispielsweise bei der Normalverteilung).
Diskrete Wahrscheinlichkeitsmaße
Betrachtet man zu einem Parameter
eine Bernoulli-verteilte
Zufallsvariable
,
so ist
und für die Verteilungsfunktion folgt dann
Ist allgemeiner
eine Zufallsvariable mit Werten in den nichtnegativen ganzen Zahlen
,
dann gilt
.
Dabei bezeichnet
die Abrundungsfunktion,
das heißt
ist größte ganze Zahl, die kleiner oder gleich
ist.
Eigenschaften und Zusammenhang zur Verteilung

Jede Verteilungsfunktion
hat folgende Eigenschaften:
ist monoton steigend.
ist rechtsseitig stetig.
und
.
Darüber hinaus ist jede Funktion ,
die die Eigenschaften 1, 2 und 3 erfüllt, eine Verteilungsfunktion. Folglich ist
eine Charakterisierung der Verteilungsfunktion mit Hilfe der drei Eigenschaften
möglich. So gibt es zu jeder Verteilungsfunktion
genau solch ein Wahrscheinlichkeitsmaß
,
dass für alle
gilt:
Umgekehrt gibt es zu jedem Wahrscheinlichkeitsmaß
eine Verteilungsfunktion
derart, dass für alle
gilt:
Daraus folgt die Korrespondenz von
und
.
Dieser Sachverhalt wird in der Literatur auch
Korrespondenzsatz
genannt.
Jede Verteilungsfunktion besitzt höchstens abzählbar viele Sprungstellen.
Da jede Verteilungsfunktion rechtsstetig ist, existiert auch der
rechtsseitige Grenzwert und es gilt für alle :
Deswegen ist
genau dann stetig, wenn
für alle
gilt.
Rechnen mit Verteilungsfunktionen
Ist eine Verteilungsfunktion
gegeben, so kann man wie folgt die Wahrscheinlichkeiten bestimmen:
sowie
bzw.
sowie
.
Daraus folgt dann auch
und
für .
Im Allgemeinen kann hier die Art der Ungleichheitszeichen (
oder
)
beziehungsweise die Art der Intervallgrenzen (offen, abgeschlossen, links/rechts
halboffen) nicht vernachlässigt werden. Dies führt besonders bei
diskreten
Wahrscheinlichkeitsverteilungen zu Fehlern, da sich dort auch auf einzelnen
Punkten eine Wahrscheinlichkeit befinden kann, die dann versehentlich
dazugezählt oder vergessen wird.
Bei stetigen Wahrscheinlichkeitsverteilungen, also insbesondere auch bei solchen, die über eine Wahrscheinlichkeitsdichtefunktion definiert werden (Absolutstetige Wahrscheinlichkeitsverteilungen), führt eine Abänderung der Ungleichheitszeichen oder Intervallgrenzen nicht zu Fehlern.
- Beispiel
Beim Würfeln errechnet sich die Wahrscheinlichkeit, eine Zahl zwischen 2 (exklusive) und einschließlich 5 zu würfeln, zu
.
Konvergenz
Definition
Eine Folge von Verteilungsfunktionen
heißt schwach konvergent gegen die Verteilungsfunktion
,
wenn
gilt für alle
, an denen
stetig ist.
Für Verteilungsfunktionen von Zufallsvariablen finden sich auch die Bezeichnungen konvergent in Verteilung oder stochastisch konvergent.
Eigenschaften
Über die schwache Konvergenz der Verteilungsfunktionen lässt sich mit dem Satz von Helly-Bray eine Brücke zur schwachen Konvergenz von Maßen schlagen. Denn eine Folge von Wahrscheinlichkeitsmaßen ist genau dann schwach konvergent, wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert. Analog ist eine Folge von Zufallsvariablen genau denn Konvergent in Verteilung, wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert.
Einige Autoren nutzen diese Äquivalenz zur Definition der Konvergenz in Verteilung, da sie leichter zugänglich ist als die schwache Konvergenz der Wahrscheinlichkeitsmaße. Teilweise findet sich die Aussage des Satzes von Helly-Bray auch im Portmanteau-Theorem.
Für Verteilungsfunktionen im Sinne der Maßtheorie ist die oben angegebene Definition nicht korrekt, sondern entspricht der vagen Konvergenz von Verteilungsfunktionen (im Sinne der Maßtheorie). Diese fällt aber für Wahrscheinlichkeitsmaßen mit der schwachen Konvergenz von Verteilungsfunktionen zusammen. Die schwache Konvergenz von Verteilungsfunktionen wird von dem Lévy-Abstand metrisiert.
Klassifikation von Wahrscheinlichkeitsverteilungen über Verteilungsfunktionen
Wahrscheinlichkeitsverteilungen, deren Verteilungsfunktion stetig ist, werden stetige Wahrscheinlichkeitsverteilungen genannt. Sie lassen sich noch weiter unterteilen in
- Absolutstetige Wahrscheinlichkeitsverteilungen, für die eine Wahrscheinlichkeitsdichtefunktion existiert. Typische Beispiele hierfür wäre die Normalverteilung oder die Exponentialverteilung.
- Stetigsinguläre Wahrscheinlichkeitsverteilungen, die keine Wahrscheinlichkeitsdichtefunktion besitzen. Beispiel hierfür wäre die Cantor-Verteilung.
Für absolutstetige Wahrscheinlichkeitsverteilungen entspricht die Ableitung der Verteilungsfunktion der Wahrscheinlichkeitsdichtefunktion. Zwar sind auch absolutstetige Wahrscheinlichkeitsverteilungen fast überall differenzierbar, ihre Ableitung ist aber fast überall gleich null.
Verteilungsfunktionen von diskreten Wahrscheinlichkeitsverteilungen zeichnen sich durch ihre Sprünge zwischen den Bereichen mit konstanten Funktionswerten aus. Bei ihnen handelt es sich um Sprungfunktionen.
Alternative Definition
Linksseitig stetige Verteilungsfunktionen
Im Einflussbereich der Tradition Andrei Nikolajewitsch Kolmogorows, namentlich der mathematischen Literatur des ehem. „Ostblocks“, findet sich parallel zur heute vorherrschenden „Kleiner-gleich“-Konvention der Verteilungsfunktion bis in die jüngere Vergangenheit eine weitere, die statt des Kleiner-gleich-Zeichens das Echt-kleiner-Zeichen verwendet, also
Bei stetigen Wahrscheinlichkeitsverteilungen stimmen beide Definitionen praktisch überein, bei diskreten Verteilungen dagegen unterscheiden sie sich darin, dass die Verteilungsfunktion im Fall der „Echt-kleiner“-Konvention an den Sprungstellen nicht rechtsseitig, sondern linksseitig stetig ist.
Beispiel
Es ergibt sich beispielsweise für die Binomialverteilung bei der heute üblichen „Kleiner-gleich“-Konvention eine Verteilungsfunktion der Form
,
bei der „Echt-kleiner“-Konvention dagegen die Schreibweise
beziehungsweise
.
Im Prinzip sind dabei beide Konventionen, solange man sich konsequent auf dem Boden nur der einen oder anderen bewegt, gleichwertig – Vorsicht dagegen ist dann geboten, wenn mit verschiedenen Quellen gearbeitet wird, weil sich Formeln der einen Konvention vielfach nicht ohne weiteres in die andere übernehmen lassen.
Verwandte Konzepte
Empirische Verteilungsfunktion
Die empirische
Verteilungsfunktion einer Stichprobe
spielt eine wichtige Rolle in der Statistik. Formal entspricht sie der
Verteilungsfunktion einer diskreten
Gleichverteilung auf den Punkten
.
Ihre Bedeutung hat sie daher, dass nach dem Satz von
Gliwenko-Cantelli die empirische Verteilungsfunktion einer unabhängigen
Stichprobe von Zufallszahlen gegen die Verteilungsfunktion der
Wahrscheinlichkeitsverteilung konvergiert, mittels der die Zufallszahlen erzeugt
wurden.
Gemeinsame Verteilungsfunktion und Rand-Verteilungsfunktionen>
Die Gemeinsame
Verteilungsfunktion verallgemeinert das Konzept einer Verteilungsfunktion
von der Verteilung einer Zufallsvariablen
auf die Gemeinsame
Verteilung von Zufallsvariablen. Ebenso lässt sich das Konzept von der Randverteilung
zur Rand-Verteilungsfunktion
übertragen. Diese Verteilungsfunktionen haben gemeinsam, dass ihr
Definitionsbereich der
ist für
Verallgemeinerte Inverse Verteilungsfunktion
Die Verallgemeinerte inverse Verteilungsfunktion bildet unter Umständen eine Umkehrfunktion zur Verteilungsfunktion und ist wichtig zur Bestimmung von Quantilen.
Verteilungsfunktion im Sinne der Maßtheorie
Verteilungsfunktionen können nicht nur für Wahrscheinlichkeitsmaße definiert werden, sondern für beliebige endliche Maße auf den reellen Zahlen. In diesen Verteilungsfunktionen (im Sinne der Maßtheorie) spiegeln sich dann wichtige Eigenschaften der Maße wider. Sie bilden eine Verallgemeinerung der hier besprochenen Verteilungsfunktionen.
Überlebensfunktion
Die Überlebensfunktion gibt im Gegensatz zu einer Verteilungsfunktion an, wie groß die Wahrscheinlichkeit ist, einen gewissen Wert zu Überschreiten. Sie tritt beispielsweise bei der Modellierung von Lebensdauern auf und gibt dort an, wie groß die Wahrscheinlichkeit ist, einen gewissen Zeitpunkt zu „überleben“.
Multivariate und mehrdimensionale Verteilungsfunktion
Die Multivariate Verteilungsfunktion ist die Verteilungsfunktion, die multivariaten Wahrscheinlichkeitsverteilungen zugeordnet wird. Als mehrdimensionale Verteilungsfunktion wird hingegen meist die das höherdimensionale Pendant der Verteilungsfunktion im Sinne der Maßtheorie bezeichnet.



© biancahoegel.de
Datum der letzten Änderung: Jena, den: 13.01. 2023