Grundlagen der Stochastik

Werbung
Grundlagen der Stochastik
1 Wahrscheinlichkeiten
Definitionen wichtiger Begriffe:
• Die Elemente ω der Menge Ω nennt man Elementarereignisse, Ω die Ergebnismenge
• F(Ω) ist die Menge aller zugelassenen zusammengesetzten Ereignisse aus Ω - also meist
die Potenzmenge - und wird Ereignisfeld genannt
• Eine Funktion X : Ω → R nennen wir Zufallsvariable
• Eine Funktion P : F → [0, 1] wird Wahrscheinlichkeitsmaß genannt. Ein Tripel (Ω, F, P )
nennt man einen Wahrscheinlichkeitsraum.
• Eine Funktion FX (x) = P (X(ω) ≤ x) heißt Wahrscheinlichkeitsverteilungsfunktion.
Diese
P
Funktion können wir im diskreten Fall angeben mit: FX (x) = k≤x fX (X = k).
Rx
• Lässt sich FX (x) als FX (x) = −∞ fX (t)dt darstellen, so nennt man die Zufallsvariable X
stetig und fX (t) die zugehörige Wahrscheinlichkeitsdichte.
2 Momente und Kumulanten
(R +∞
−∞ g(t)fX (t)dt
P
i g(i)fX (i)
nennt man den Erwartungwert der Funktion g bezüglich der Wahrscheinlichkeitsdichte fX (t).
Damit führen wird die sogenannten n-ten Momente mn = EX n einer Zufallvariablen X ein.
Definieren wir die charakteristische ( oder momentenerzeugende) Funktion als
φ(t) = EeitX so kann man diese in eine Reihe entwickeln und erhält durch Koeffizientenvergleich
mit der Taylorreihe:
Die Größe Eg(X) = hg(x)i = g(x) =
mn =
dn φ
(0)
d(it)n
(1)
Definiert man nun eine sogenannte 2. Charakteristische ( kumulantenerezeugende) Funktion
Ψ(t) = Log (φ(t)) und fordert eine Darstellung der Form
P
(it)n
Ψ(t) = ∞
n=0 κn n! , dann nennt man κn die n-te Kumulante von fX (t) und wir finden analog
zum obigen Vorgehen:
dn Ψ
κn =
(0)
(2)
d(it)n
Man findet so:
κ1 = m1 = Ex , κ2 = m2 − m21 =: σ 2 = V ar(x)
Hauptseminar Statistische Physik - SS2010 - Matthias Reisser - Emmanuel Klinger
1
3 Verteilungen
3.1 Binomialverteilung
Die Wahrscheinlichkeit, bei einem Experiment mit zwei möglichen Ausgängen (mit den Wahrscheinlichkeiten p bzw. (1-p)) bei n Durchführungen k mal einen spezielles Ergebnis zu erhalten,
ist gegeben durch:
n k
fB (k) :=
p (1 − p)n−k .
(3)
k
Damit gilt für die Verteilungsfunktion:
FB (x) =
bxc
X
fB (n)
(4)
n=0
3.2 Poisson
Definieren wir eine Konstante λ = n · p = const. und betrachten den Grenzwert n → ∞ in der
Binomialverteilung, so erhalten wir die sog. Poissonverteilung:
λk −λ
e
(5)
k!
Wie man aus der Definition von λ sieht, gehen wir zu einem Zufallsexperiment mit zwei Ausgängen
(Ereignis tritt ein oder nicht), sehr geringen Wahrscheinlichkeiten aber einer großen Anzahl von
Versuchen über. Dieser Fall tritt bei seltenen Eregnissen ein, die aber über einen langen Zeitraum
beobachtet werden.
fP (k) =
3.3 Zentraler Grenzwertsatz und Normalverteilung
Man kann zeigen, dass für eine normierte Summe Z =
riablen yi :=
xi −µ
σ
√1
n
Pn
i=1 yi
von n normierten Zufallsva-
von gleichverteilten Zufallsvariablen xi , mit Ex = µ, V ar(x) = σ 2 gilt:
2
−t
n→∞
φZ (t) −→ exp
2
(6)
Wir wissen jedoch, dass die charakteristische Funktion die Fourier-Transformierte der Wahrscheinlichkeitsdichte ist, somit gilt für die Wahrscheinlichkeitsdichte selbst:
1 −x2
fG (x) = √ e 2
2π
(7)
Dieses Verhalten wird vom sog. Zentralen Grenzwertsatz beschrieben. Man nennt allgemeiner
eine Zufallsvariable normal- oder gaußverteilt, wenn ihre Wahrscheinlichkeitsdichte die Form
−(x−µ)2
fG (x) = σ√12π e 2σ2 annimmt.
Die Aussage des zentralen Grenzwertsatzes ist also, dass jede hinreichend große Summe von
Zufallvariablen annähernd normalverteilt ist. Das heißt, wenn wir ein Experiment betrachten,
dessen Ausgang von vielen Faktoren ähnlich stark abhängt, werden wir näherungsweise eine
Normalverteilung beobachten.
Hauptseminar Statistische Physik - SS2010 - Matthias Reisser - Emmanuel Klinger
2
4 Stochastische Prozesse und Ergodizität
Als stochastischen Prozess bezeichnen wir eine Abbildung mit
X : Ω × T → R, X(ω, t), ω ∈ Ω, t ∈ T Man nennt
X0 := X(ω, t0 ) die Zufallvariable für festes t0
X(t) := X(ω0 , t) eine Musterfunktion für festes ω0
Außerdem bezeichnet man einen stochastischen Prozess als ergodisch, falls für alle ω0 , t0 gilt:
1
lim
T →∞ T
Z
T
X(t, ω0 )dt = EX(t0 , ω)
(8)
0
In physikalischem Kontext wird diese Eigenschaft mit Zeitmittel = Scharmittel bezeichnet.
5 Übergangswahrscheinlichkeiten und Markovprozesse
Die Wahrscheinlichkeit, dass ein Ereignis A unter der Voraussetzung eintritt, dass zuvor ein
Ereignis B eingetreten ist, wird bedingte Wahrscheinlichkeit von A genannt, man schreibt für
sie P (A|B). Übertragen wir diese Vorstellung auf einen diskreten stochastischen Prozess, dann
lautet die Wahrscheinlichkeit, dass eine Zufallsvariable X(ω, tn+1 ) =: Xn+1 zum Zeitpunkt tn+1
einen Wert vn+1 annimmt, unter den Bedingungen, dass sie in den vorherigen Zeitschritten die
Werte vn , vn−1 , ...v0 angenommen hat:
P [Xn+1 = vn+1 |Xn = vn , Xn−1 = vn−1 , ..., X0 = v0 ]
Man nennt sie die Übergangswahrscheinlichkeit des stochastischen Prozesses.
Erfüllt diese Wahrscheinlichkeit die Bedingung:
P [Xn+1 = vn+1 |Xn = vn , Xn−1 = vn−1 , ..., X0 = v0 ] =
P [Xn+1 ) = vn+1 |Xn ) = vn ],
so nennt man diesen stochastischen Prozess einen M arkov − P rozess. D.h. bei einem MarkovProzess hängt der zukünftige Zustand nur vom jetzigen ab, nicht von den früheren Zuständen.
Man kann dann zeigen, dass für einen Markov-Prozess die sog. Chapman-Kolmogrow-Gleichung
gilt:
P [X
R n+m = vn+m |X0 = v0 ]
= dyP [Xn+m = vm+n |Xtm = y] · P [Xtm = y|X0 = v0 ]
6 Wiener-Chintschin-Theorem
Man bezeichnet die Größe rXX = E(X(ω, t + τ )X(ω, t)) als die Autokorrelationsf unktion eines
stochastischen Prozesses. Für sie gilt dann, falls der stochastische Prozess ergodisch ist:
Z
2 Z ∞
1 T
ikt lim
X(ω0 , t)e dt =
rXX e−ikτ dτ
T →∞ 2T
−T
−∞
(9)
Das heißt, die spektrale Dichte einer Zufallsvariablen ist gleich der Fouriertransformierten ihrer
Autokorrelationsfunktion.
Hauptseminar Statistische Physik - SS2010 - Matthias Reisser - Emmanuel Klinger
3
Herunterladen