Zufallsexperimente, Zufallsvariable und Stochastische Prozesse

Werbung
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Zufallsexperimente, Zufallsvariable und
Stochastische Prozesse
Kurzzusammenfassung
Information Technology · University of Ulm
1
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Zufallsexperimente
Ein Zufallsexperiment oder Zufallsversuch ist ein Experiment, dessen Durchführung zufallsabhängige
(ungewisse) Resultate liefert und das sich im Prinzip unter gleichen Bedingungen (zumindest gedanklich)
beliebig oft wiederholen lässt. Die möglichen Resultate eines Zufallsversuchs heißen auch Ergebnisse,
Ausgänge oder Resultate. Beispiel: Werfen eines (fairen) Würfels.
Ein mögliches Resultat eines Zufallsexperiments heißt Ergebnis und wird im Folgenden mit ω bezeichnet. Die möglichen Ergebnisse des Experiments “Würfel” sind die Augenzahlen ω1 =“1”, ω2 =“2”, . . .,
ω6 =“6”.
Die Menge aller Versuchsausgänge wird Merkmalraum oder Ergebnisraum genannt und mit Ω={ω} bezeichnet. Für den Würfel ist der Ergebnisraum die Menge aller möglichen Augenzahlen,
Ω = {“1”,“2”,. . .,“6”}.
Jede Zusammenfassung von Ergebnissen stellt ein Ereignis dar.
Ereignisse z. B.
A = ω1
A = {ω1 , ω3}
A = {ω1 , ω3, ω5}
A = {ω4 , ω5, ω6}
Information Technology · University of Ulm
Beim Würfelbeispiel sind mögliche
Ereignis “Augenzahl 1”
Ereignis “Augenzahl ist 1 oder 3”
Ereignis “Augenzahl ist ungerade”
Ereignis “Augenzahl ist größer als 3”
2
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Sind die Ergebnisse eines Zufallsexperiments diskret wie z. B. beim Würfel, so stellen die Ergebnisse selbst
Ereignisse dar, die sog. Elementarereignisse. Wenn es k Elementarereignissen ωi gibt, so lassen sich daraus
2k verschiedene Ereignisse Aj bilden (ein Ereignis kann ein Elementareregnis enthalten oder nicht ⇒ 2k
Möglichkeiten).
Die Ergebnisse eines Zufallsexperiments können andererseits auch kontinuierlich sein (kontinuierlicher
Merkmalraum), z. B. die Abtastung eines wertkontinuierlichen Signals. Ein mögliches Ergebnis ist beispielsweise die Zahl 3.1436. . .. Das Intervall [3,4] stellt im Gegensatz dazu ein Ereignis dar. Genau den Wert
3.1436. . . wird man praktisch nie messen (die Wahrscheinlichkeit, exakt diesen Wert zu messen, ist gleich
null, wie im nächsten Kapitel deutlich wird); die Wahrscheinlichkeit für das Ereignis [3,4], d. h. das der
Abtastwert eine Zahl zwischen 3 und 4 ist, ist dagegen i. a. von null verschieden. Das ist der Grund,
warum zwischen den Begriffen “Ergebnis” und “Ereignis” sorgfältig unterschieden wird.
Ein Ereignis das nie auftreten kann, wird “unmögliches Ereignis” ∅ genannt. Die Wahrscheinlichkeit des
unmöglichen Ereignisses ist null, Prob{∅}=0.
Der Merkmalraum Ω (die Menge aller möglichen Ergebnisse) stellt das “sichere Ereignis” dar, d. h. das
Ereignis das immer auftritt. Die Wahrscheinlichkeit des sicheren Ereignisses ist gleich eins, Prob{Ω}=1.
Als komplementäres Ereignis AC wird das Ereignis “A tritt nicht auf” bezeichnet. Es ist also
AC = {ωi |ωi ∈
/ A}.
Information Technology · University of Ulm
3
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Aus zwei Ereignissen A und B lassen sich andere Ereignisse C durch folgende Verknüpfungen gewinnen:
Vereinigung: C = A ∪ B = {ωi | ωi ∈ A oder ωi ∈ B} = ”Ereignis A oder Ereignis B (oder beide)
treten auf”.
Würfelbeispiel:
“Augenzahl ungerade” ∪ “Augenzahl>3” = {ω1, ω3, ω5} ∪ {ω4, ω5, ω6 } =
{ω1, ω3 , ω4, ω5, ω6 }.
Durchschnitt: C = A ∩ B = AB = {ωi | ωi ∈ A und ωi ∈ B} = “Ereignis A und Ereignis B treten
gleichzeitig auf”.
Würfelbeispiel: “Augenzahl ungerade” ∩ “Augenzahl>3” = {ω1, ω3 , ω5} ∩ {ω4, ω5 , ω6} = {ω5}.
Differenz: C = A \ B = {ωi | ωi ∈ A und ωi ∈
/ B} = “Ereignis A tritt auf und Ereignis B
tritt nicht auf”.
Würfelbeispiel: “Augenzahl ungerade” \ “Augenzahl>3” = {ω1, ω3 , ω5} \ {ω4, ω5 , ω6} = {ω1, ω3}.
Zwei Ereignisse heißen disjunkt (unvereinbar, unverträglich), wenn sie nie gleichzeitig auftreten können,
d. h. AB = ∅. Elementarereignisse sind immer disjunkt. Weiter gilt für die Implikation A ⊂ B (A
entspricht einer Teilmenge von B) ωi ∈ A ⇒ ωi ∈ B.
Würfelbeispiel: {ω2, ω6 } ⊂“Augenzahl gerade”.
Information Technology · University of Ulm
4
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Ein sehr nützliches Hilfsmittel zur Illustration ist das so genannte Venn-Diagramm, in welchem Ereignisse
durch Flächen dargestellt werden:
Ω
Ω
A
B
Ω
A
Ω
A∪B
A
C
B
A
AB
∅
Ω
Ω
B
A\B
Ω
B
B
A
AB=∅
A⊂B
Es gilt (vgl. Venn-Diagramm) ΩC = ∅, ∅C = Ω, AC = Ω \ A, (AC )C = A, A \ B = AB C ,
A ∪ A = AA = A, A ∪ AC = Ω, AAC = ∅, A ∪ Ω = Ω, AΩ = A, A ∪ ∅ = A, A∅ = ∅.
Weiter gelten folgende Kommutativ-, Assoziativ- und Distributivgesetze: A ∪ B = B ∪ A, AB = BA,
A ∪ (B ∪ C) = (A ∪ B) ∪ C, A(BC) = (AB)C, A ∪ (BC) = (A ∪ B)(A ∪ C), A(B ∪ C) = AB ∪ AC,
A(B \ C) = AB \ AC, sowie die
De Morganschen Regeln (A ∪ B)C = AC B C , (AB)C = AC ∪ B C .
Information Technology · University of Ulm
5
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Die Wahrscheinlichkeit Prob{A} eines Ereignisses A ist axiomatisch definiert, wobei folgende Eigenschaften (Axiome) gefordert werden (Kolmogoroff, 1933):
Axiom 1:
Axiom 2:
Axiom 3:
0 ≤ Prob{A} ≤ 1
Prob{Ω} = 1
AB = ∅ ⇒ Prob{A ∪ B} = Prob{A} + Prob{B}
Aus den Axiomen folgen weitere Eigenschaften der Wahrscheinlichkeit
Prob{∅} = 0
A ⊂ B ⇒ Prob{A} ≤ Prob{B}
Prob{AC } = 1 − Prob{A}
Prob{A} = Prob{AB} + Prob{AB C }
Prob{A ∪ B} = Prob{A} + Prob{B} − Prob{AB} ≤ Prob{A} + Prob{B}
Prob{A \ B} = Prob{A} − Prob{AB}
Information Technology · University of Ulm
6
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Läßt sich ein Ereignis A als Vereinigung von paarweise disjunkten Ereignissen Ai darstellen,
A = A1 ∪ A2 ∪ . . . ∪ AK =
K
[
Ai mit AiAj = ∅ für i 6= j ,
i=1
dann gilt für die Wahrscheinlichkeit von A
Prob{A} =
K
X
Prob{Ai}.
i=1
Die bedingte Wahrscheinlichkeit Prob{A|B} eines Ereignisses A unter der Bedingung B (das heißt
unter der Bedingung daß das Ereignis B bereits eingetreten ist), ist definiert als
Prob{A|B} =
Prob{AB}
Prob{B}
wobei Prob{B} 6= 0.
Aus dieser Definition ergeben sich unmittelbar die folgenden Regeln:
AB = ∅ (A,B disjunkt) ⇒ Prob{AB} = 0 ⇒ Prob{A|B} = 0
A ⊂ B ⇒ Prob{AB} = Prob{A} ⇒ Prob{A|B} = Prob{A}/Prob{B} ⇒ Prob{A|B} ≥ Prob{A}
B ⊂ A ⇒ Prob{AB} = Prob{B} ⇒ Prob{A|B} = 1
Prob{A|A} = 1, Prob{A|Ω} = Prob{A}, Prob{Ω|B} = 1, Prob{∅|B} = 0.
Information Technology · University of Ulm
7
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Bayes Theorem: Aus der Definition für die bedingte Wahrscheinlichkeit folgt für die Verbundwahrscheinlichkeit der Ereignisse A und B
(1) Prob{AB} = Prob{A|B}Prob{B} = Prob{B|A}Prob{A}.
Daraus ergibt sich das für Berechnungen wichtige Bayessche Theorem
(2) Prob{B|A} = Prob{A|B}
Prob{B}
,
Prob{A}
(Prob{A} =
6 0).
Zwei Ereignisse A und B heißen statistisch unabängig, wenn Prob{A|B} = Prob{A} gilt. Für die
Verbundwahrscheinlichkeit folgt daraus
Prob{AB} = Prob{A}Prob{B}.
Gl.1 läßt sich auch auf K Ereignisse A1 , A2, . . . , AK verallgemeinern (Kettenregel):
Prob{A1A2 . . . AK } = Prob{AK |(AK−1 AK−2 . . . A1 )} . . . Prob{A3|(A2A1 )}Prob{A2|A1}Prob{A1}.
K Ereignisse A1 , A2, . . . , AK heißen statistisch unabhängig, wenn Prob{Ai1Ai2 . . . Ain |Aj1Aj2 . . . Ajm } =
Prob{Ai1Ai2 . . . Ain } für beliebige verschiedene Gruppen Ai1 , Ai2, . . . , Ain und Aj1, Aj2, . . . , Ajm, die
kein Ereignis gemeinsam haben, gilt. Notwendig und hinreichend ist hier
Prob{A1A2 . . . AK } = Prob{A1}Prob{A2} . . . Prob{AK }.
Information Technology · University of Ulm
8
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Läßt sich das Ereignis A als Vereinigung von K disjunkten Ereignissen Ai darstellen, dann gilt
Prob{A|B} =
K
X
Prob{Ai |B} with A =
K
[
Ai , Ai Aj = ∅ for i 6= j.
i=1
i=1
Durch Anwendung des Bayesschen Theorems gilt umgekehrt
K
X
1
Prob{B|A} =
Prob{B|Ai}Prob{Ai} =
Prob{A} i=1
K
P
Prob{B|Ai}Prob{Ai }
i=1
K
P
.
Prob{Ai}
i=1
Gilt nun speziell A = Ω, d. h.
Ai = Ω, ergibt sich der Satz von der vollständigen Wahrschein-
i=1
lichkeit
Prob{B} =
K
S
K
X
Prob{B|Ai }Prob{Ai },
i=1
Information Technology · University of Ulm
bzw. Prob{B} =
K
X
Prob{BAi}.
i=1
9
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Zufallsvariable
Wenn man den Ergebnissen ω eines Zufallsexperiments durch eine Abbildung x = x(ω) eine reelle Zahl
zuordnet, erhält man eine zufällige Zahl x, die Zufallsvariable genannt wird.
❒ Ergebnisse des Zufallserxperiments werden auf Punkte der Zahlengerade abgebildet.
❒ Den Ereignissen des Zufallsexperiments entsprechen dann Vereinigungen von Intervallen bzw. isolierter
Punkte der Zahlengerade, z. B.
A = {ω|a ≤ x(ω) < b}
B = {ω|x(ω) = c}
C = A ∪ B = {ω|(a ≤ x(ω) < b) oder (x(ω) = c)}
Disjunkte Ereignisse werden durch disjunkte (nicht überlappende) Intervalle der Zahlengerade repräsentiert.
Information Technology · University of Ulm
10
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Eine Zufallsvariable wird somit aus einem Zufallsexperiment mit Ergebnissen ω und einer Abbildung
x = x(ω) gebildet. Streng genommen ist daher eine Zufallsvariable keine Variable, sondern eine Funktion
(Abbildung) über dem Merkmalraum Ω . In vielen Fällen liefern die Ergebnisse eines Zufallsexperiments
schon automatisch eine reelle Zahl (z. B. Würfel); hier wird die Abbildung x = x(ω) inhärent mitgeliefert.
In anderen Anwendungen muss diese Abbildung explizit definiert werden. Aus dem Zufallsexperiment “Werfen einer Münze” mit den Ergebnissen ω1=“Kopf” und ω2=“Zahl” kann z. B. durch die völlig willkürliche
Festlegung x(ω1) = −1 und x(ω2) = +1 eine Zufallsvariable x gemacht werden.
Verteilungsfunktion und Verteilungsdichtefunktion
Bei einer Zufallsvariablen x entspricht jedem Intervall der Zahlengerade ein Ereignis A des zugrundeliegenden Zufallsexperiments. Die Wahrscheinlichkeit eines Intervalls ist daher durch die Wahrscheinlichkeit des
Ereignisses A gegeben. Man schreibt z. B.
Prob{A} = Prob{a ≤ x < b} für A = {ω|a ≤ x(ω) < b}.
Im weiteren wird auf das theoretisch zugrundeliegende Ereignis A nicht mehr Bezug genommen, sondern
nur noch von Wahrscheinlichkeiten von Intervallen gesprochen. Die Berechnung der Wahrscheinlichkeit
eines Intervalles erfolgt mit Hilfe der Verteilungsfunktion (cumulative distribution function) (CDF)
oder der Verteilungsdichtefunktion (probability density function) (PDF).
Information Technology · University of Ulm
11
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Die CDF einer Zufallsvariablen x, Px(ξ), ist definiert als die Wahrscheinlichkeit des Intervalles
−∞ < x ≤ ξ, d. h. die Wahrscheinlichkeit dafür, daß die Zufallsvariable einen Wert kleiner oder gleich ξ annimmt,
(3) Px(ξ) = Prob{x ≤ ξ}.
Die PDF einer Zufallsvariablen x, px(ξ), ist die erste Ableitung der CDF
(4) px(ξ) =
d
Prob{ξ < x ≤ ξ + ∆ξ}
Px(ξ) = lim
.
∆ξ→0
dξ
∆ξ
Die CDF kann durch Integration der PDF berechnet werden,
Px(ξ) =
Zξ
px(α)dα.
−∞
Eigenschaften der CDF:
Px(ξ) ≥ 0;
Px(−∞) = 0;
Px(∞) = 1;
ξa < ξb ⇒ Px(ξa ) ≤ Px(ξb );
Eigenschaften der PDF:
px(ξ) ≥ 0;
px(−∞) = px(∞) = 0;
Z∞
px(ξ)dξ = 1;
−∞
Information Technology · University of Ulm
12
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Eine Zufallsvariable x, die nur diskrete Werte xi mit Wahrscheinlichkeiten Prob{xi} = Prob{x = xi}
annimmt, heißt diskrete Zufallsvariable. Die CDF und PDF einer diskreten Zufallsvariable sind gegeben
durch
X
X
X
Px(ξ) =
Prob{xi}ǫ(ξ − xi ) =
Prob{xi}δ(ξ − xi),
Prob{xi}, px(ξ) =
i
i
(xi ≤ξ)
wobei ǫ(ξ) und δ(ξ) die Sprungfunktion und die Dirac-Funktion darstellen.
Die CDF ist eine Treppenfunktion mit Sprüngen an den Stellen xi (Sprunghöhe Prob{xi}); die PDF
besteht aus Dirac-Impulsen an den Stellen xi mit Gewichten Prob{xi};
Px(ξ)
px(ξ)
1
6
1
1
6
ξ
0 1 2
3 4 5 6
ξ
0 1 2 3
4 5 6
CDF und PDF einer diskreten Zufallsvariable (Würfel)
Information Technology · University of Ulm
13
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Eine Zufallsvariable, deren CDF stetig ist, wird kontinuierlich genannt. Im Falle einer kontinuierlichen
Zufallsvariable x ist die Wahrscheinlichkeit eines isolierten Punktes x0 stets null:
Prob{x = x0} = lim Prob{x0 − ε < x ≤ x0 + ε} = lim [Px(x0 + ε) − Px(x0 − ε)]
ε→0
ε→0
= Px(x0) − Px(x0) = 0.
Die Wahrscheinlichkeit eines Intervalles der Zufallsvariable x, Prob{a < x ≤ b}, kann gemäß
(a < x ≤ b) = (x ≤ b) \ (x ≤ a) durch die CDF bzw. PDF berechnet werden:
Prob{a < x ≤ b} = Px(b) − Px(a) =
Zb
px(ξ)dξ.
a
Mehrdimensionale Zufallsvariable: Werden bei einem zusammengesetzten Zufallsexperiment mit
Ergebnissen (ω1 ω2) mittels Abbildungen x1 = x(ω1), x2 = x(ω2) den Ergebnissen ω1 und ω2 der einzelnen
Zufallesexperimente reelle Zahlen x1 und x2 zugeordnet, erhält man eine zweidimensionale Zufallsvariable
(x1, x2). Die Verbund-Verteilungsfunktion Px1,x2 (ξ1, ξ2) ist definiert als die Wahrscheinlichkeit des zusammengesetzten Ereignisses {(ω1ω2)|(x1(ω1) ≤ ξ1), (x2(ω2 ) ≤ ξ2)}, d. h.
Px1,x2 (ξ1, ξ2 ) = Prob{x1 ≤ ξ1 ∩ (x2 ≤ ξ2 )}.
Information Technology · University of Ulm
14
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
x2
ξ2
11111
00000
00000
11111
00000
11111
00000
11111
00000ξ1
11111
00000
11111
00000
11111
00000
11111
x1
Illustration: (Verbund-) CDF einer zweidimensionalen Zufallsvariable entspricht der Wahrscheinlichkeit der schraffierten
Fläche
Die (Verbund-) PDF px1,x2 (ξ1, ξ2) erhält man durch Ableitung der (Verbund-) Verteilungsdichte
px1,x2 (ξ1, ξ2 ) =
∂ ∂
Px ,x (ξ1, ξ2),
∂ξ1 ∂ξ2 1 2
Px1,x2 (ξ1, ξ2) =
Zξ1 Zξ2
px1,x2 (α1, α2 )dα1dα2.
−∞ −∞
px1,x2 (ξ1, ξ2 ) wird auch als Verbund-Verteilungsdichte der Zufallsvariablen x1 und x2 bezeichnet. Die
Wahrscheinlichkeit des Ereignisses (a1 < x1 ≤ b1) ∩ (a2 < x2 ≤ b2) kann mit Hilfe der (Verbund-) CDF
bzw. der (Verbund-) PDF berechnet werden:
Prob{(a1 < x1 ≤ b1) ∩ (a2 < x2 ≤ b2)} = Px1,x2 (b1, b2) − Px1,x2 (a1, b2) − Px1,x2 (b1, a2) + Px1,x2 (a1, a2)
Zb1 Zb2
px1,x2 (α1 , α2)dα1dα2.
=
a1 a2
Information Technology · University of Ulm
15
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Eigenschaften der (Verbund-) CDF:
Px1,x2 (ξ1, ξ2 ) ≥ 0
Px1,x2 (−∞, ξ2) = Px1,x2 (ξ1, −∞) = 0
Px1,x2 (ξ1, ∞) = Px1 (ξ1)
Px1,x2 (∞, ∞) = 1
Px1,x2 (∞, ξ2) = Px2 (ξ2)
Eigenschaften der (Verbund-) PDF:
px1,x2 (ξ1, ξ2 ) ≥ 0
px1,x2 (±∞, ξ2) = px1,x2 (ξ1, ±∞) = 0
Z+∞
px1,x2 (ξ1, ξ2)dξ2 = px1 (ξ1)
−∞
Z+∞ Z+∞
Z+∞
px1,x2 (ξ1, ξ2)dξ1 = px2 (ξ2)
−∞
px1,x2 (ξ1, ξ2 )dξ1dξ2 = 1.
−∞ −∞
Die eindimensionalen PDFs (die sog. Randdichten) px1 (ξ1) und px2 (ξ2) lassen sich durch Integration
nach der jeweils wegfallenden Variablen aus der zweidimensionalen PDF px1,x2 (ξ1, ξ2) berechnen.
Information Technology · University of Ulm
16
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Definition Beschreibung zweidimensionaler Zufallsvariable (x1, x2) lassen sich auf den allgemeinen Fall
N -dimensionaler Zufallsvariable (x1, x2, . . . , xN ) erweitern. CDF und PDF sind dann N -dimensionale
Funktionen,
Px1,x2,...,xN (ξ1 , ξ2, . . . , ξN ) bzw. px1,x2,...,xN (ξ1, ξ2, . . . , ξN ).
Bedingte Verteilungsdichte: Analog zum Begriff der bedingten Wahrscheinlichkeit gibt es den Begriff
der bedingten PDF. Diese ist definiert als
px1|x2 (ξ1|ξ2) =
px1,x2 (ξ1, ξ2)
.
px2 (ξ2)
Die bedingte Wahrscheinlichkeit Prob{a < x1 ≤ b|x2 = ξ2} läßt sich dadurch als Integral über die
bedingte PDF anschreiben
Prob{a < x1 ≤ b|x2 = ξ2} =
Zb
px1|x2 (ξ1|ξ2)dξ1.
a
Die bedingte PDF erfüllt alle Eigenschaften herkömmlicher PDFs,
px1|x2 (ξ1|ξ2) ≥ 0,
px1|x2 (±∞|ξ2) = 0,
Z+∞
px1|x2 (ξ1|ξ2)dξ1 = 1.
−∞
Information Technology · University of Ulm
17
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Analog zu den bedingten Wahrscheinlichkeiten gelten außerdem folgende Beziehungen:
px1,x2 (ξ1, ξ2 ) = px1|x2 (ξ1|ξ2)px2 (ξ2 ) = px2|x1 (ξ2|ξ1)px1 (ξ1),
px (ξ2)
px2|x1 (ξ2|ξ1) = px1|x2 (ξ1|ξ2) 2
(Bayes Theorem),
px1 (ξ1)
Z+∞
px1|x2 (ξ1|ξ2)px2 (ξ2 )dξ2 (Satz der vollständigen Wahrscheinlichkeit).
px1 (ξ1 ) =
−∞
Statistische Unabhängigkeit: Zwei Zufallsvariable heißen statistisch unabhängig, wenn die bedingte
PDF der einen Zufallsvariable gleich der “unbedingten” PDF ist und daher nicht von der Bedindung bzw.
der anderen Zufallsvariable abhängt,
px1|x2 (ξ1|ξ2) = px1 (ξ1),
px2|x1 (ξ2|ξ1) = px2 (ξ2).
Die Verbung-PDF zweier statistisch unabhängiger Zufallsvariablen ist gleich dem Produkt der beiden
einzelnen PDFs:
px1,x2 (ξ1, ξ2 ) = px1 (ξ1)px2 (ξ2).
Information Technology · University of Ulm
18
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
!! Im allgemeinen reichen die einzelnen PDFs px1 (ξ1) und px2 (ξ2) nicht aus, um zwei Zufallsvariable
vollständig zu beschreiben, da sie nichts über die statistischen Bindungen zwischen den Zufallsvariablen
aussagen. Diese statistische Bindungen werden durch die bedingten PDFs beschrieben. Eine vollständige
Beschreibung zweier Zufallsvariable erfolgt durch die Verbund-PDF px1,x2 (ξ1, ξ2) aus der man alle anderen
PDFs berechnen kann. Nur im Spezialfall zweier statistisch unabhängiger Zufallsvariablen liefern die
einzelnen PDFs px1 (ξ1) und px2 (ξ2) eine komplette Beschreibung.
Erwartungswerte, schwache Beschreibung einer Zufallsvariable
Eine Zufallsvariable x ist durch ihre PDF px(ξ) vollständig (streng) beschrieben. Diese Beschreibung
ist jedoch manchmal zu unhandlich, bzw. ist die PDF nicht immer verfügbar. Eine zweckmäßige (aber
unvollständige) Charakterisierung einer Zufallsvariable ist durch die Momente erster und zweiter Ordnung
der PDF gegeben:
Mittelwert: Der (lineare) Mittelwert (bzw. Erwartungswert) mx einer Zufallsvariable x ist definiert
als das Moment erster Ordnung der PDF px(ξ),
Z+∞
∼∼
ξpx(ξ)dξ.
mx = x =
−∞
Information Technology · University of Ulm
19
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
∼
· ist der “Erwartungswertoperator”, der seinem Argument (hier der Zufallsvariablen x) einen Wert zuweist.
Der berechnete Erwartungswert ist keine zufällige Zahl mehr, sondern eine determinierte Größe.
Für eine diskrete Zufallsvariable x, die die Werte xi mit Wahrscheinlichkeiten Prob{xi} = Prob{x = xi}
annimmt, erhält man für den Mittelwert
Z∞ X
Z+∞
X
∼∼
ξ
Prob{xi}δ(ξ − xi )dξ =
xiProb{xi}.
ξpx(ξ)dξ =
mx = x =
−∞
−∞
i
i
Für eine determinierte Zahl, d.h. eine Zufallsvariable x, die bei jeder Versuchsdurchführung die selbe Zahl
x annimmt, ist die PDF eine Dirac-frmiger Impuls an der Stelle x, px(ξ) = δ(ξ − x); Der Mittelwert ergibt
sich dann zu
∼∼
∼∼
mx = x = x = x ;
Der Erwartungswert einer determinierten Zahl ist also die Zahl selbst.
∼
Der Erwartungswertoperator · hat zwei für die Praxis wichtige Eigenschaften:
∼
1. Der Erwartungswertoperator · ist ein linearer Operator, d. h.
∼∼∼∼∼∼∼∼∼∼∼∼∼∼
ax + by
∼∼
∼∼
= ax + b y (a,b determiniert).
Information Technology · University of Ulm
20
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
2. Der Erwartungswert der transformierten Zufallsvariable y=g(x) läßt sich mit Hilfe der PDF der ursprünglichen Zufallsvariable x berechnen,
Z+∞
g(ξ)px(ξ)dξ.
g(x) =
∼∼∼∼∼∼∼
−∞
Die Funktion g(x) = xn führ auf das Moment n-ter Ordnung der Zufallsvariable x,
∼∼∼∼
xn =
Z∞
ξ n px(ξ)dξ.
−∞
Mit n=1 erhält man den linearen Mittelwert mx; n=2 ergibt den quadratischen Mittelwert ρ2x
∼∼∼
ρ2x = x2 =
Z∞
ξ 2px(ξ)dξ.
−∞
Die Varianz σx2 ist definiert als die mittlere quadratische Abweichung der Zufallsvariable x von ihrem
linearen Mittelwert
Z∞
∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
σx2 = (x − mx)2 =
(ξ − mx)2px(ξ)dξ.
−∞
Information Technology · University of Ulm
21
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Die Varianz ist ein Maß für die Breite der PDF, die Quadratwurzel der Varianz wird auch Standardabweichung bzw. Streuung genannt.
Varianz, quadratischer Mittelwert und Mittelwert hängen zusammen über
∼∼2
∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
∼∼∼
2
2
2
2
2
σx = ρx − mx resp.
(x − mx)
=x − x .
Mittelwert mx und Varianz σx2 ergeben zusammen die schwache Beschreibung der Zufallsvariable x. Im
Gegensatz zur vollständigen (strengen) Beschreibung mittels der PDF ist die schwache Beschreibung i. a.
unvollständig (es gibt unendlich viele verschieden Zufallsvariable mit dem gleichen Mittelwert und der
gleichen Varianz). Eine Ausnahme stellen Gaussverteilte Zufallsvariable dar.
Information Technology · University of Ulm
22
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Korrelation und Kovarianz. Im Falle zweier Zufallsvariablen x1 und x2 mit Verbund PDF px1,x2 (ξ1, ξ2)
sagen die Mittelwerte mx1 , mx2 und die Varianzen σx21 , σx22 der einzelnen Zufallsvariablen nichts über die
statistischen Bindungen zwischen ihnen aus. Deshalb wird zusätzlich die Korrelation
∼∼∼∼∼∼∼
ϕx1,x2 = x1x2 =
Z∞ Z∞
ξ1ξ2 px1,x2 (ξ1, ξ2)dξ1dξ2
−∞ −∞
und die Kovarianz
∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
µx1,x2 =
(x1 − mx1 )(x2 − mx2 )
=
Z∞ Z∞
(ξ1 − mx1 )(ξ2 − mx2 )px1,x2 (ξ1, ξ2)dξ1dξ2
−∞ −∞
definiert.
Kovarianz, Korrelation und die Mittelwerte sind verknüpft über
µx1,x2 = ϕx1,x2 − mx1 mx2 .
Ist zumindest eine der beiden Zufallsvariable mittelwertfrei, dann sind Korrelation und Kovarianz identisch.
Information Technology · University of Ulm
23
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Korrelation und Kovarianz werden insbesondere zur Berechnung von quadr. Mittelwert und Varianz einer
Linearkombination z = ax + by von Zufallsvariablen benötigt:
ρ2z = a2ρ2x + b2ρ2y + 2abϕx,y,
σz2 = a2σx2 + b2σy2 + 2abµx,y.
Zwei Zufallsvariable heißen unkorreliert, wenn
µx1,x2 = 0 bzw. ϕx1,x2 = mx1 mx2 bzw..
∼∼∼∼∼∼∼
∼∼∼∼∼∼
x1x2 = x1 x2 .
Unkorreliertheit bedeutet also verschwindende Kovarianz, nicht verschwindende Korrelation. Sind zwei
Zufallsvariable statistisch unabhängig, so folgt aus px1,x2 (ξ1, ξ2) = px1 (ξ1)px2 (ξ2) das sie auch unkorreliert
sind. Umgekehrt folgt aus der Unkorreliertheit nicht automatisch die statistische Unabhängigkeit.
Zwei Zufallsvariable mit verschwindender Korrelation
ϕx1,x2 = 0
∼∼∼∼∼∼∼
werden orthogonal genannt (durch x1x2 kann ein inneres Produkt zwischen den Zufallsvariablen erklärt
werden).
Information Technology · University of Ulm
24
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Stochastische Prozesse
Bei einer Zufallsvariable x wurde jedem Ergebnis eines zugrundeliegenden Zufallsexperiments eine relle
Zahl über eine Abbildung x = x(ω) zugeordnet.
Ein Zufallssignal bzw. einen stochastische Prozess x(t) kann man sich analog generieren: Jedem Versuchsausgang (Ergebnis) ω eines Zufallsexperiments wird ein Signal x(t). über eine Abbildung x(t) = x(t, ω)
zugeordnet. Die Menge aller möglichen Signale x(t) wird Schar bzw. Ensemble genannt. Die einzelnen
Signale der Schar heißen Realisierungen bzw. Musterfunktionen
Information Technology · University of Ulm
25
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Der Abtastwert x(t0) eines stochastischen Prozesses x(t) zum Zeitpunkt t0 stellt eine Zufallsvariable dar,
x(t0; ω) = x0(ω). Zu jedem Zeitpunkt ti erhält man i. a. eine andere Zufallsvariable xi. Man kann sich
also den stochastischen Prozess x(t) auch als Abfolge von (zeitlich geordneten) Zufallsvariablen vorstellen.
Zwischen diesen Zufallsvariablen bestehen i. a. statistische Abhängigkeiten.
Es gibt also zwei Interpretationen eines stochastischen Prozesses:
1. als Schar von Signalen (den Realisierungen), aus der ein Signal zufällig in Abhängigkeit eines Zufallsexperiments ausgewählt wird oder
2. als Menge von (zeitlich geordneten) Zufallsvariablen.
Information Technology · University of Ulm
26
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Strenge Beschreibung eines stochastischen Prozesses
Der Abtastwert x(t0) eines stochastischen Prozesses x(t) zum Zeitpunkt t0 ist eine Zufallsvariable
(1)
x0 = x(t0). Jedem Zeitpunkt t entspricht somit eine Zufallsvariable xt , deren PDF px (ξ; t) Verteilungsdichtefunktion 1.Ordnung genannt wird (welche i. a. zeitabhängig ist). Diese PDF ist aber keine
vollständige Beschreibung des stochastischen Prozesses, da sie nichts über die statistischen Bindungen
zwischen den einzelnen Zeitpunkten (bzw. zwischen den den einzelnen Zeitpunkten zugeordneten Zufallsvariablen xti ) aussagt.
Die Abtastwerte eines stochastischen Prozesses zu N Zeitpunkten t1, t2, . . . , tN stellen N Zufallsvariablen x1 = x(t1), x2 = x(t2), . . . , xN = x(tN ) dar, die durch die N-dimensionale VerbundVerteilungsdichtefunktion
(N)
p(N)
x1 ,x2 ,...,xN (ξ1 , ξ2 , . . . , ξN ) = px (ξ1 , ξ2 , . . . , ξN ; t1 , t2 , . . . , tN )
beschrieben werden. Diese N-dimensionale Verbund PDF wird auch als Verteilungsdichtefunktion N-ter
Ordnung des stochastischen Prozesses x(t) bezeichnet. Ein stochastischer Prozess ist vollständig (streng)
beschrieben, wenn die PDF N-ter Ordnung für beliebige Ordnung N und beliebige Wahl der Abtastzeitpunkte t1, t2, . . . , tN bekannt ist.
Information Technology · University of Ulm
27
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Schwache Beschreibung eines stochastischen Prozesses, Erwartungswerte
Das Konzept der schwachen Beschreibung von Zufallsvariablen kann direkt auf stochastische Prozesses
angewendet werden. Der lineare (Schar-) Mittelwert mx(t) eines stochastischen Prozesses x(t) wird
definiert als der lineare Mittelwert der dem Zeitpunkt t zugeordneten Zufallsvariable xt = x(t),
∼∼∼∼∼∼∼
mx(t) = x(t) =
Z∞
ξp(1)
x (ξ; t)dξ.
−∞
Der (Schar-) Mittelwert ist i. a. eine zeitabhängige Größe. Analog wird der quadratische Mittelwert ρ2x (t)
des stochastischen Prozesses definiert als
Z∞
∼∼∼∼∼∼∼∼∼∼∼∼
ρ2x (t) = (x(t))2 =
ξ 2p(1)
x (ξ; t)dξ,
−∞
und die Varianz σx2 (t) als
∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
σx2 (t) =
[x(t) − mx(t)]2
=
Z∞
[ξ − mx(t)]2 p(1)
x (ξ; t)dξ.
−∞
Die Mittelung erfolgt dabei immer in Scharrichtung und nicht über die Zeit. Man spricht deshalb von
Scharmittelwerten.
Information Technology · University of Ulm
28
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
(2)
Zwei Zeitpunkte des stochastischen Prozesses werden durch die PDF 2-ter Ordnung px (ξ1, ξ2; t1, t2)
streng beschrieben. Die Autokorrelationsfunktion (AKF) ϕx,x (t1, t2) eines stochastischen Prozesses
ist definiert als die Korrelation zwischen den den beiden Zeitpunkten t1 und t2 zugeordneten Zufallsvariablen,
Z∞ Z∞
∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
ξ1 ξ2p(2)
ϕx,x (t1, t2) = x(t1)x(t2) =
x (ξ1 , ξ2 ; t1 , t2 )dξ1 dξ2 .
−∞ −∞
Die AKF ist eine Funktion der beiden Zeitpunkte t1 und t2.
Die Autokovarianzfunktion µx,x(t1, t2) eines stochastischen Prozesses ist definiert als
∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
µx,x(t1, t2) =
=
[x(t1) − mx(t1)] [x(t2) − mx(t2)]
Z∞ Z∞
[ξ1 − mx (t1)] [ξ2 − mx(t2)] p(2)
x (ξ1 , ξ2 ; t1 , t2 )dξ1 dξ2 .
−∞ −∞
Die unvollständige Charakterisierung eines stochastischen Prozesses durch den Mittelwert mx (t) und die
AKF ϕx,x (t1, t2) heißt die schwache Beschreibung des stochastischen Prozesses (es gibt wie bei den
Zufallsvariablen i. a. unendlich viele stochastische Prozesse, die den gleichen Mittelwert und die gleiche
AKF besitzen).
Information Technology · University of Ulm
29
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Stationarität
Ein stationärer stochastischer Prozess ist ein Prozess, dessen statistische Eigenschaften invariant gegen
eine beliebige zeitliche Verschiebung des stochastischen Prozesses sind.
(N)
Ein stochastischer Prozess heißt streng stationär, wenn seine PDF px (ξ1, . . . , ξN ; t1, . . . , tN ) (für
beliebiges N) invariant gegen eine beliebige Zeitverschiebung T ist,
(N)
p(N)
x (ξ1 , . . . , ξN ; t1 + T, . . . , tN + T ) = px (ξ1 , . . . , ξN ; t1 , . . . , tN ).
D. h. das die PDF N-ter Ordnung nicht mehr von den absoluten Zeitpunkten t1, . . . , tN abhängt, son(1)
dern nur noch von den zeitlichen Differenzen ti − tj (i, j = 1, . . . , N ). Die PDF 1.Ordnung px (ξ; t)
insbesondere ist überhaupt nicht mehr vom betrachteten Zeitpunkt t abhängig, und die PDF 2.Ordnung
(2)
px (ξ1 , ξ2; t1, t2) wird nur noch durch die Differenz t2 − t1 bestimmt,
(1)
p(2)
x (ξ1 , ξ2 ; t1 , t2 ) = px (ξ1 , ξ2 ; τ ).
(1)
p(1)
x (ξ; t) = px (ξ),
Daraus folgt für die Elemente der schwachen Beschreibung eines stochastischen Prozesses
❒ mx (t) = mx ,
ρ2x(t) = ρ2x,
σx2 (t) = σx2 ,
❒ ϕx,x (t1, t2 ) = ϕx,x (t2 − t1) = ϕx,x (τ ),
µx,x(t1, t2) = µx,x(t2 − t1) = µx,x (τ ).
Der lineare (Schar-) Mittelwert, der quadratische (Schar-) Mittelwert und die Varianz sind zeitunabhängig
und die Autokorrelation und Autokovarianz sind Funktionen der Zeitdifferenz τ = t2 − t1.
Information Technology · University of Ulm
30
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Ein stochastischer Prozess heißt schwach stationär wenn die Elemente der schwachen Beschreibung die
vorhergenannten Eigenschaften besitzen (d. h. dass ein streng stationärer Prozess auch immer schwach
stationär ist, aber schwache Stationarität impliziert noch nicht die strenge Stationarität)
Mittelung im Zeitbereich, Ergodizität
Bis jetzt wurden alle Erwartungswerte wie
∼∼∼∼∼∼∼
der (lineare) Mittelwert
mx = x(t) =
Z∞
ξ p(1)
x (ξ) dξ
−∞
oder
∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
ϕx,x (τ ) =
die AKF
x(t + τ )x(t)
=
Z∞ Z∞
ξ1 ξ2 p(2)
x (ξ1 , ξ2 ; τ ) dξ1 dξ2
−∞ −∞
(1)
(2)
mittels der PDF px (ξ) bzw. der PDF px (ξ1, ξ2; τ ) berechnet. D. h. dass alle Erwartungswerte durch
eine Mittelung über alle Realisierungen des stochastischen Prozesses gewonnen werden. Die berechneten
Werte werden deshalb auch Scharmittelwerte genannt.
Information Technology · University of Ulm
31
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
In der Praxis kann jedoch i. a. nur eine einzige Realisierung x(t) des SP x(t) beobachtet, bzw. gemessen
werden. Es stellt sich daher die Frage, ob man die Scharmittelwerte durch entsprechende Zeitmittelwerte,
die aus einer einzigen Realisierung gewonnen werden, ersetzen kann. Die Zeitmittelwerte für eine gegebene
Realisierung x(t) des SP x(t) (bzw. für ein determiniertes Signal x(t)) sind wie folgt definiert:
EmpirischerMittelwert :
mx;T =
ZT /2
1
T
x(t) dt
−T /2
Emp.mittlereLeistung :
ρ2x;T =
1
T
ZT /2
x2(t) dt
−T /2
Emp.Varianz :
2
σx;T
=
1
T
ZT /2
[x(t) − mx,T ]2 dt
−T /2
Emp.AKF :
ϕx,x;T (τ ) =
1
T
ZT /2
x(t + τ )x(t) dt
−T /2
Information Technology · University of Ulm
32
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
µx;T (τ ) =
Emp.Autokovarianz :
1
T
ZT /2
[x(t + τ ) − mx,T ][x(t) − mx,T ] dt
−T /2
Emp.Leistungsdichtespektr :
Φx;T (f ) = F {ϕx,T (τ )}
Diese Größen heißen empirisch, weil sie aus einer einzigen beobachteten Realisierung berechnet werden
können. Die obigen Definitionen tragen dem Umstand Rechnung, daß in der Praxis die Realisierung
x(t) nur in einem endlichen Zeitintervall (-T/2,T/2) beobachtet wird, bzw. die Integration nur in einem
endlichen Zeitraum durchgeführt werden kann. Für theoretische Betrachtungen benötigt man auch Zeitmittelwerte, die durch Integration über die gesamte Zeitachse gebildet werden; diese erhält man durch den
Grenzübergang T → ∞. Z. B. gilt dann
1
T →∞ T
mx;∞ = lim mx;T = lim
T →∞
ZT /2
x(t) dt
−T /2
1
T →∞ T
2
2
σx;∞
= lim σx;T
= lim
T →∞
ZT /2
[x(t) − mx;T ] dt
−T /2
usw..
Information Technology · University of Ulm
33
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Dualität von Schar- und Zeitmittelwerten: Mit den empirischen Größen kann eine Theorie schwach
stationärer Prozesse gebildet werden, die völlig strukturgleich der auf der Wahrscheinlichkeits-basierenden
Theorie ist. Aus der ”probabilistischen” Theorie (die auf dem Wahrscheinlichkeitsbegriff basiert und daher
Scharmittelwerte verwendet) läßt sich also eine duale Theorie bilden, wenn man die Scharmittelwerte durch
die entsprechenden Zeitmittelwerte ersetzt. Das bedeutet insbesondere, daß die Beziehungen zwischen
den Zeitmittelwerten mit den Beziehungen zwischen den entsprechenden Scharmittelwerten vollkommen
übereinstimmen. Insbesondere gilt z. B. auch im Fall der Zeitmittelwerte für beliebige Mittelungsdauer T
ρ2x;T = ϕx;T (0),
ϕx;T (−τ ) = ϕx;T (τ )
2
σx;T
= µx,T (0),
2
σx;T
= ρ2x;T − m2x;T ,
Für unendliche Mittelungsdauer T → ∞ gilt weiter
µx;∞ = ϕx;∞ − m2x;∞
Φx;∞ (f ) ≥ 0
und auch die Eingangs-Ausgangs-Beziehungen für LTI-Systeme können übertragen werden: für
y(t) = (x ∗ h)(t) erhält man
my;∞ = mh · mx;∞ = H(0) · mx;∞
ϕy;∞ = (ϕh ∗ ϕx;∞ )(t),
Information Technology · University of Ulm
Φy;∞(f ) = |H(f )|2 · Φx;∞ (f ).
34
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Empirische Wahrscheinlichkeiten: Die Dualität von Schar- und Zeitmittelwerten läßt sich auch mathematisch charakterisieren. Alle Zeitmittelwerte können formal als Erwartungswerte (Scharmittelwerte)
geschrieben werden, wenn man auf geeignete Weise ”empirische Verteilungsdichtefunktionen” einführt.
Zunächst kann man für eine gegebene Realisierung x(t) die empirische Verteilungsfunktion 1.Ordnung,
(1)
Px;T (ξ), als die ”empirische Wahrscheinlichkeit” des ”Ereignisses” x(t) ≤ ξ im Zeitintervall (-T/2,T/2)
definieren:
(1)
Px;T (ξ) = PT [x(t) ≤ ξ] =
Summe der Längen der Zeitintervalle in (-T/2,T/2), auf denen x(t) ≤ ξ
=
T=gesamte zeitliche Länge von (-T/2,T/2)
Mit der Indikatorfunktion (ǫ(ξ) ist die Sprungfunktion)
1, x(t) ≤ ξ
ǫ (ξ − x(t)) =
0, x(t) > ξ
(1)
des ”Ereignisses” x(t) ≤ ξ läßt sich die empirische Verteilungsfunktion Px;T (ξ) anschreiben als
(1)
Px;T (ξ) =
1
T
ZT /2
ǫ (ξ − x(t)) dt.
−T /2
Information Technology · University of Ulm
35
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Indikatorfunktion des ”Ereignisses” x(t) ≤ ξ
Die empirische Verteilungsdichtefunktion 1.Ordnung ist dann wie gewohnt als Ableitung der empirischen Verteilungsfunktion 1.Ordnung definiert:
(1)
px;T (ξ) =
d (1)
P (ξ)
dξ x;T
.
Die empirische Verteilungsdichtefunktion 1.Ordnung kann somit ausgedrückt werden als


T
/2
Z
ZT /2 1
d
1
d


(1)
ǫ (ξ − x(t)) dt =
ǫ (ξ − x(t)) dt =
px;T (ξ) =

dξ T
T
dξ
−T /2
=
1
T
ZT /2
−T /2
δ (ξ − x(t)) dt;
−T /2
Information Technology · University of Ulm
36
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
ihre Eigenschaften stimmen mit denen einer ”echten” Verteilungsdichtefunktion überein:
Z∞
(1)
px;T (ξ) ≥ 0,
(1)
px;T (ξ) dξ = 1,
(1)
px;T (±∞) = 0.
−∞
Analog zur empirischen Verteilungsdichtefunktion 1.Ordnung können auch empirische Verteilungsdichtefunktionen höherer Ordnung definiert werden, insbesondere die empirische Verteilungsdichtefunktion
2.Ordnung:
(2)
px;T (ξ1, ξ2; τ ) =
1
T
ZT /2
δ (ξ1 − x(t + τ )) δ (ξ2 − x(t)) dt.
−T /2
Mit den empirischen Verteilungsdichtefunktionen ist nun formal der Anschluß an die probabilistische Theorie stationärer Stochastischer Prozesse hergestellt worden. Unter Verwendung der Verteilungsdichtefunktionen 1. und 2. Ordnung lassen sich insbesondere alle Zeitmittelwerte formal als ”Scharmittelwerte”
anschreiben.
Information Technology · University of Ulm
37
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Für den empirischen Mittelwerte gilt z. B.:


ZT /2
ZT /2 Z∞
1
1
 ξ δ (ξ − x(t)) dξ  dt =
mx;T =
x(t) dt =
T
T
−T /2
−T /2 −∞


T
/2
∞
Z
Z∞
Z
1

(1)
ξ
=
ξ px;T (ξ) dξ,
δ (ξ − x(t)) dt dξ =
T
−∞
−∞
−T /2
und für die empirische Autokorrelationsfunktion erhält man auf analoge Weise
ϕx;T (τ ) =
1
T
ZT /2
x(t + τ )x(t) dt =
−T /2
Z∞ Z∞
(2)
ξ1 ξ2 px;T (ξ1, ξ2; τ ) dξ1 dξ2.
−∞ −∞
Zeitmittelwerte als Zufallsgrößen: Die oben definierten Zeitmittelwerte werden aus einer einzigen
Realisierung x(t) des Stochastischen Prozesses x(t) berechnet. Für verschiedene Realisierungen werden
sich daher i. a. unterschiedliche Zeitmittelwerte ergeben. Da die Realisierungen zufällig ausgewählt werden,
sind also auch die Zeitmittelwerte zufällig. Z. B. ist dann das empirische Mittel selbst eine Zufallsvariable:
mx;T =
1
T
ZT /2
x(t) dt.
−T /2
Information Technology · University of Ulm
38
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Durch Auswählen einer bestimmten Realisierung x(t) von x(t) erhält man eine entsprechende Realisierung
mx;T von mx;T . Ebenso sind die empirischen Verteilungsdichtefunktionen zufällig. Diese als Zufallsgrößen
aufgefaßten Zeitmittelwerte haben (ebenso wie jede andere Zufallsgröße) bestimmte statistische Eigenschaften.
Für (zumindest) schwach stationäre Stochastische Prozesse gilt für beliebige Mittelungsdauer T:
∼∼∼∼∼∼∼∼∼∼∼∼∼∼
∼∼∼∼∼∼∼∼∼
mx;T = mx,
ϕx;T (τ )
∼∼∼∼∼∼∼∼∼∼∼∼∼∼
= ϕx(τ ),
Φx;T (f ) = Φx(f ),
usw.
Für streng stationäre Stochastische Prozesse gilt weiter auch:
∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
∼∼∼∼∼∼∼∼∼∼∼∼∼
(1)
px;T (ξ)
= p(1)
x (ξ),
(2)
px;T (ξ1, ξ2; τ )
= p(2)
x (ξ1 , ξ2 ; τ ),
usw.
Die Erwartungswerte der ”zufälligen Zeitmittelwerte” stimmen also mit den Scharmittelwerten überein;
ebenso sind die Erwartungswerte der empirischen Verteilungsdichtefunktionen beliebiger Ordnung gleich den tatsächlichen Verteilungsdichtefunktionen des Stochastischen Prozesses. Im statistischen Mittel ergeben die Zeitmittelwerte (empirische Verteilungsdichtefunktionen) somit die Scharmittelwerte
(Verteilungsdichtefunktionen). Für eine einzelne Realisierung kann man jedoch daraus noch nicht schließen.
Information Technology · University of Ulm
39
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Ergodizität: Von einem ergodischen Prozeß spricht man dann, wenn für unendliche Mittelungsdauer
T → ∞ die Zeitmittelwerte bzw. empirischen Verteilungsdichtefunktionen selbst und nicht bloß ihre Erwartungswerte mit den entsprechenden Scharmittelwerten bzw. Verteilungsdichtefunktionen im folgenden
Sinn übereinstimmen:
Man nennt einen streng stationären Stochastischen Prozeß streng ergodisch, wenn für fast jede Realisierung x(t) gilt:
(1)
(1)
p(1)
x;∞ (ξ) = lim px;T (ξ) = px (ξ),
T →∞
(2)
(2)
p(2)
x;∞ (ξ1 , ξ2 ; τ ) = lim px;T (ξ1 , ξ2 ; τ ) = px (ξ1 , ξ2 ; τ ),
T →∞
usw.
Aus der strengen Ergodizität folgt insbesondere auch die Gleichheit von Zeitmittelwerten und Scharmittelwerten für beliebige Realisierungen x(t),
mx;∞ = lim mx;T = mx,
T →∞
ϕx;∞ (τ ) = lim ϕx;T (τ ) = ϕx (τ ),
T →∞
usw.,
die als schwache Ergodizität bezeichnet wird. Aus der strengen Ergodizität folgt somit die schwache
Ergodizität; der Umkehrschluß ist i. a. nicht zulässig.
Information Technology · University of Ulm
40
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Die strenge bzw. schwache Ergodizität bedeutet also, daß die empirischen Verteilungsdichtefunktionen
bzw. Zeitmittelwerte von beliebigen Realisierungen x1(t), x2(t), . . . gleich sind und somit die als Zufallsgrößen aufgefaßten empirischen Verteilungsdichtefunktionen bzw. Zeitmittelwerte determiniert sind,
d. h.
(1)
(1)
p(1)
x;∞ (ξ) = lim px;T (ξ) = px (ξ),
T →∞
(2)
(1)
p(2)
x;∞ (ξ1 , ξ2 ; τ ) = lim px;T (ξ1 , ξ2 ; τ ) = px (ξ1 , ξ2 ; τ ),
T →∞
usw.
bzw.
mx;∞ = lim mx;T = mx,
T →∞
ϕx;∞ (τ ) = lim ϕx;T (τ ) = ϕx(τ )
T →∞
usw.
Eine notwendige und hinreichende Bedingung für die strenge Ergodizität ist somit, daß die Varianz der auf
(-T/2,T/2) gebildeten empirischen Verteilungsdichtefunktionen für T → ∞ gegen Null geht,
o
o
n
n
(2)
(1)
usw.
lim var px;T (ξ1, ξ2; τ ) = 0,
lim var px;T (ξ) = 0,
T →∞
T →∞
Ebenso erhält man als notwendige und hinreichende Bedingung für die schwache Ergodizität:
lim var {mx;T } = 0,
T →∞
Information Technology · University of Ulm
lim var {ϕx;T (τ )} = 0,
T →∞
usw.
41
Zufallsexperimente, Zufallsvariable und Stochastische Prozesse
Die Eigenschaft der Ergodizität ist in der Praxis von sehr großer Bedeutung, da sie es erlaubt, statistische
Kenngrößen von Stochastischen Prozessen aus einer einzigen, beliebigen Realisierung zu bestimmen. Die
Überprüfung der Ergodizität ist allerdings nicht trivial, da dazu Kenntnis über die statistischen Eigenschaften des SP (also der gesamten Schar) notwendig ist und sich nicht mit einer einzigen Realisierung
durchführen läßt. In der Praxis ist man daher oft gezwungen, die Eigenschaft der Ergodizität einfach zu
postulieren.
Der Begriff der strengen bzw. schwachen Ergodizität ist nur für streng bzw. schwach stationäre Stochastische Prozesse sinnvoll, denn bei der Zeitmittelung fällt jegliche Zeitabhängigkeit weg - ein Zeitmittelwert
kann nie einem zeitabhängigen Scharmittelwert eines instationären Prozesses gleich sein.
Literaturverzeichnis:
[1] Weinrichter H., Hlawatsch F.: Stochastische Grundlagen nachrichtentechnischer Signale., Springer
Verlag, ISBN 3-211-82-303-4, 1991
Information Technology · University of Ulm
42
Herunterladen