Vorlesung: Rechnernutzung in der Physik Zusammenfassung Vorlesung 09 Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik KIT – Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft WS 2016/17 www.kit.edu Zufall und Wahrscheinlichkeit Das Eintreten von Zufallsereignissen wird durch die Wahrscheinlichkeit P (mit 0 ≤ P ≤ 1) quantifiziert. In der Praxis Häufigkeitsdefinition über Zahl k der günstigen Fälle in einer Stichprobe der Größe n: Bayes'sches Theorem: Besonders wichtig durch die Interpretation A: Richtigkeit einer Theorie B: Wahrscheinlichkeit der Beobachtung bestimmter Daten Benötigt “Prior-Annahme über Wahrscheinlichkeit P(A) !!! Häufigkeitsverteilung Beispiel Messen: Häufigkeit von N Messergebnissen in bestimmten Intervallen („Bins“) Erwartete Verteilung hi bin i Für eine große Anzahl von Messungen nähert sich die Häufigkeitsverteilung der erwarteten Verteilung immer mehr an Intervallgrenzen („bin edges“) Erwartungswert der Verteilung Häufigkeitsdefinition der Wahrscheinlichkeit: Histogramm ↔ Verteilungsdichte Wahrscheinlichkeitsdichte f(x): angenähert durch Histogramm mit - unendlicher Statistik, - Bin-Breite 0, - normiert auf Fläche 1 script animated_Gauss.py Histogramm veranschaulicht Verteilungsdichte, nähert sich ihr für sehr kleine Bin-Breite an. Wahrscheinlichkeitsdichte Dichteverteilung p(x) „kumulativen Verteilungsfunktion“ Kumulative Verteilung P(x) zur Dichteverteilung p(x) Achtung: aus der Wahrscheinlichkeitsdichte erhält man eine Wahrscheinlichkeit erst durch Integration: Anm: für diskrete Verteilungen Integral durch Summe ersetzen Charakterisierung von Verteilungen – Lage- oder Lokalisations- Parameter Mittelwert μ, Modus = Maximum der Verteilung Median m: 50% der Wahrscheinlichkeit < m Gaußverteilung mit Erwartungswert =0 und Varianz =1 68% – Streuung („Skalierungsparameter“) Varianz V=σ² Standardabweichung σ („Breite“) V ist invariant bei Verschiebung der Verteilung, bei Variation von V „dehnt“ bzw. „staucht“ sich die Verteilung um den Mittelwert. drei Verteilungen mit Erwartungswert =0 und Varianz =1 – Form: Schiefe und Kurtosis (=Wölbung) Parameter γ1 und γ2 (beide =0 für Gaußverteilung) γ1 und γ2 sind invariant bei Verschiebung und Dehnung / Stauchung der Verteilung Quelle: Bohm-Zech Charakterisierung v. Verteilungen: Formeln Stichprobe diskrete Verteilung kontinuierliche Vert. Erwartungswert Varianz * Schiefe * „Bessel-Korrektur“: N → N-1 vermeidet Verzerrung Plausibilitätsargument: für N=1 ist V nicht definiert ! Kurtosis nennt man das n-te Moment der Verteilung γ2 = 0 für Gauß-Vert. + höhere ... Eine Verteilung ist über ihre Momente vollständig charakterisiert Projektion auf x-Achse py (y) Mehrdimensionale Verteilungen 0.7 0.6 0.5 0.4 0.3 A 0.2 B 0.1 0 0 1 2 3 4 5 6 8 9 10 y Projektion auf y-Achse px (x) Ausintegrieren einer der Zufallsvariablen 7 Randverteilungen engl.: marginal distribution 1 0.9 0.8 0.7 0.6 0.5 kumulativ 0.4 0.3 Sind die zwei Zufallsvariablen x und y unabhängig, dann gilt für die Wahrscheinlichkeitsdichte: 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 x Kovarianz - der Zusammenhang zwischen Variablen Kovarianz zweier Zufallsvariablen ist Erwartungswert von (Abweichung vom Erwartungswert in Variable x) * (Abweichung vom Erwartungswert in Variable y) Analog auch bei mehr als zwei Variablen: cov(xi, xj) sind die Elemente der Kovarianzmatrix V Diagonalwerte sind die Varianzen ! Anm.: für mehrere Variable kann man die Kovarianzmatrix auch sehr kompakt in Matrix-Schreibweise darstellen: das ist formal identisch zur Definition der Varianz: statt Produkt zweier Zahlen das „dyadische Produkt“ von Vektoren 2d-Histogramme in matplotlib python python/ /numpy numpy/ /matplotlib: matplotlib: numpy.histogram(), numpy.histogram(), numpy.histogram2d() numpy.histogram2d() matplotlib.pyplot.bar(), matplotlib.pyplot.bar(), matplotlib.pyplot.pcolormesh() matplotlib.pyplot.pcolormesh() siehe sieheauch: auch: matplotlib.pyplot.hist() matplotlib.pyplot.hist() matplotlib.pyplot.hist2d() matplotlib.pyplot.hist2d() Beispielscript Beispielscript Histogram.py Histogram.py (auch enthalten in PhyPraKit) Kovarianzmatrix von korrelierten Messungen Mehrere (n) Messwerte mi , jede Messung hat - eine individuelle, zufällige Unsicherheit zi - sowie eine gemeinsame Unsicherheit zg → mi = w + zi + zg ein gemeinsamer wahrer Wert und n+1 Zufallszahlen (eine allen Messungen gemeinsame sowie n individuelle) Für n Messwerte mi erhält man die KovarianzMatrix, indem man die Varianz der gemeinsamen Unsicherheit zg, (σg)², in die Nebendiagonale setzt. Die Diagonalelemente sind die Varianzen der Gesamtunsicherheiten, (σi)² + (σg)². Die vollständige Kovarianzmatrix sieht so aus: