0 ≤ P ≤ 1 - Fakultät für Physik

Werbung
Vorlesung:
Rechnernutzung in der Physik
Zusammenfassung Vorlesung 09
Günter Quast
Fakultät für Physik
Institut für Experimentelle Kernphysik
KIT – Universität des Landes Baden-Württemberg und
nationales Forschungszentrum in der Helmholtz-Gemeinschaft
WS 2016/17
www.kit.edu
Zufall und Wahrscheinlichkeit
Das Eintreten von Zufallsereignissen wird durch
die Wahrscheinlichkeit P (mit 0 ≤ P ≤ 1) quantifiziert.
In der Praxis
Häufigkeitsdefinition über Zahl k der günstigen Fälle
in einer Stichprobe der Größe n:
Bayes'sches
Theorem:
Besonders wichtig durch die Interpretation
A: Richtigkeit einer Theorie
B: Wahrscheinlichkeit der Beobachtung bestimmter Daten
Benötigt “Prior-Annahme über Wahrscheinlichkeit P(A) !!!
Häufigkeitsverteilung
Beispiel Messen:
Häufigkeit von N Messergebnissen
in bestimmten Intervallen („Bins“)
Erwartete
Verteilung
hi
bin i
Für eine große Anzahl von
Messungen nähert sich die
Häufigkeitsverteilung der
erwarteten Verteilung
immer mehr an
Intervallgrenzen
(„bin edges“)
Erwartungswert
der Verteilung
Häufigkeitsdefinition der Wahrscheinlichkeit:
Histogramm ↔ Verteilungsdichte
Wahrscheinlichkeitsdichte f(x):
angenähert durch Histogramm mit
- unendlicher Statistik,
- Bin-Breite 0,
- normiert auf Fläche 1
script animated_Gauss.py
Histogramm veranschaulicht Verteilungsdichte,
nähert sich ihr für sehr kleine Bin-Breite an.
Wahrscheinlichkeitsdichte
Dichteverteilung p(x)
„kumulativen Verteilungsfunktion“
Kumulative Verteilung P(x)
zur Dichteverteilung p(x)
Achtung:
aus der Wahrscheinlichkeitsdichte erhält man eine
Wahrscheinlichkeit erst
durch Integration:
Anm: für diskrete Verteilungen
Integral durch Summe ersetzen
Charakterisierung von Verteilungen
– Lage- oder Lokalisations- Parameter
Mittelwert μ,
Modus = Maximum der Verteilung
Median m: 50% der Wahrscheinlichkeit < m
Gaußverteilung mit
Erwartungswert =0 und Varianz =1
68%
– Streuung („Skalierungsparameter“)
Varianz V=σ²
Standardabweichung σ („Breite“)
V ist invariant bei Verschiebung der Verteilung,
bei Variation von V „dehnt“ bzw. „staucht“ sich
die Verteilung um den Mittelwert.
drei Verteilungen mit
Erwartungswert =0 und Varianz =1
– Form: Schiefe und Kurtosis (=Wölbung)
Parameter γ1 und γ2
(beide =0 für Gaußverteilung)
γ1 und γ2 sind invariant
bei Verschiebung und
Dehnung / Stauchung der Verteilung
Quelle:
Bohm-Zech
Charakterisierung v. Verteilungen: Formeln
Stichprobe
diskrete Verteilung
kontinuierliche Vert.
Erwartungswert
Varianz
*
Schiefe
* „Bessel-Korrektur“: N → N-1 vermeidet Verzerrung
Plausibilitätsargument: für N=1 ist V nicht definiert !
Kurtosis
nennt man das n-te Moment der Verteilung
γ2 = 0 für Gauß-Vert.
+ höhere ...
Eine Verteilung ist über ihre Momente vollständig charakterisiert
Projektion auf x-Achse
py (y)
Mehrdimensionale Verteilungen
0.7
0.6
0.5
0.4
0.3
A
0.2
B
0.1
0
0
1
2
3
4
5
6
8
9
10
y
Projektion auf y-Achse
px (x)
Ausintegrieren einer der Zufallsvariablen
7
Randverteilungen
engl.: marginal distribution
1
0.9
0.8
0.7
0.6
0.5
kumulativ
0.4
0.3
Sind die zwei Zufallsvariablen x und y unabhängig,
dann gilt für die Wahrscheinlichkeitsdichte:
0.2
0.1
0
0
1
2
3
4
5
6
7
8
9
10
x
Kovarianz - der Zusammenhang zwischen Variablen
Kovarianz zweier Zufallsvariablen ist Erwartungswert von
(Abweichung vom Erwartungswert in Variable x) *
(Abweichung vom Erwartungswert in Variable y)
Analog auch bei mehr als zwei Variablen:
cov(xi, xj) sind die Elemente der Kovarianzmatrix V
Diagonalwerte sind die Varianzen !
Anm.: für mehrere Variable
kann man die Kovarianzmatrix
auch sehr kompakt in Matrix-Schreibweise darstellen:
das ist formal identisch zur Definition der Varianz:
statt Produkt zweier Zahlen das „dyadische Produkt“ von Vektoren
2d-Histogramme in matplotlib
python
python/ /numpy
numpy/ /matplotlib:
matplotlib:
numpy.histogram(),
numpy.histogram(),
numpy.histogram2d()
numpy.histogram2d()
matplotlib.pyplot.bar(),
matplotlib.pyplot.bar(),
matplotlib.pyplot.pcolormesh()
matplotlib.pyplot.pcolormesh()
siehe
sieheauch:
auch:
matplotlib.pyplot.hist()
matplotlib.pyplot.hist()
matplotlib.pyplot.hist2d()
matplotlib.pyplot.hist2d()
Beispielscript
Beispielscript Histogram.py
Histogram.py
(auch enthalten in PhyPraKit)
Kovarianzmatrix von korrelierten Messungen
Mehrere (n) Messwerte mi , jede Messung hat
- eine individuelle, zufällige Unsicherheit zi
- sowie eine gemeinsame Unsicherheit zg
→ mi = w + zi + zg
ein gemeinsamer wahrer Wert und n+1 Zufallszahlen
(eine allen Messungen gemeinsame sowie n individuelle)
Für n Messwerte mi erhält man die KovarianzMatrix, indem man die Varianz der gemeinsamen
Unsicherheit zg, (σg)², in die Nebendiagonale setzt.
Die Diagonalelemente sind die Varianzen der
Gesamtunsicherheiten, (σi)² + (σg)².
Die vollständige Kovarianzmatrix sieht so aus:
Herunterladen