Lexikon der Mathematik: Konvergenz in Verteilung
Konvergenzbegriff aus der Wahrscheinlichkeitstheorie.
Eine Folge (Xn)n∈ℕ von nicht notwendig auf dem gleichen Wahrscheinlichkeitsraum definierten re-ellen Zufallsvariablen konvergiert in Verteilung gegen eine auf einem beliebigen Wahrscheinlichkeitsraum definierte reelle Zufallsvariable X, wenn die Folge der zugehörigen Verteilungen (PXn)n∈ℕ schwach gegen die Verteilung PX von X konvergiert, d. h. wenn
für jede stetige und beschränkte Funktion f auf ℝ gilt. Man schreibt dann \({X}_{n}\mathop{\displaystyle \to }\limits^{d}\text{}X\) oder \({X}_{n}\mathop{\displaystyle \to }\limits^{D}\text{}X\).
Die Konvergenz \({X}_{n}\mathop{\displaystyle \to }\limits^{d}\text{}X\) ist zur sogenannten wesentlichen Konvergenz der Folge (FXn)n∈ℕ der zu (Xn)n∈ℕ gehörenden Verteilungsfunktionen gegen die Verteilungsfunktion FX von X äquivalent. Oft wird auch diese äquivalente Eigenschaft zur Definition der Konvergenz in Verteilung verwendet.
Für auf dem gleichen Wahrscheinlichkeitsraum (Ω, 𝔄, P) definierte reelle Zufallsvariablen folgt die Konvergenz in Verteilung sowohl aus der P-fast sicheren Konvergenz als auch aus der Konvergenz im p-ten Mittel, als auch aus der stochastischen Konvergenz von (Xn)n∈ℕ gegen X. Die Umkehrungen gelten i. allg. nicht (Konvergenzarten für Folgen zufälliger Größen).
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.