Verteilungen von Zufallsgrößen: – Wahrscheinlichkeitsverteilungen – Wahrscheinlichkeitsdichten – Kumulative Verteilungen Zufallsvariable & Wahrscheinlichkeitsdichte Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der Körpergröße von 5000 männlichen Einwohnern über 18 Jahre in Karlsruhe vor. ● ● x ist eine (kontinuierlich verteilte) Zufallsvariable, deren Wert jeweils der Ergebnis eines Zufallsexperiments ist. Mit Hilfe der Methoden, die Sie in der letzten Vorlesung kennengelernt haben, können sie die Messreihe in Form von Histogrammen erfassen: (2) Normiert auf 1 und geteilt durch die bin-Breite 5000 Erfassungen(2) 150 – 210 cm in 15 bins Zufallsvariable & Wahrscheinlichkeitsdichte Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der Körpergröße von 5000 männlichen Einwohnern über 18 Jahre in Karlsruhe vor. ● ● x ist eine (kontinuierlich verteilte) Zufallsvariable, deren Wert jeweils der Ergebnis eines Zufallsexperiments ist. Mit Hilfe der Methoden, die Sie in der letzten Vorlesung kennengelernt haben, können sie die Messreihe in Form von Histogrammen erfassen: (2) Normiert auf 1 und geteilt durch die bin-Breite 5000 Erfassungen(2) 150 – 210 cm in 45 bins Zufallsvariable & Wahrscheinlichkeitsdichte Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der Körpergröße von 5000 männlichen Einwohnern über 18 Jahre in Karlsruhe vor. ● ● x ist eine (kontinuierlich verteilte) Zufallsvariable, deren Wert jeweils der Ergebnis eines Zufallsexperiments ist. Mit Hilfe der Methoden, die Sie in der letzten Vorlesung kennengelernt haben, können sie die Messreihe in Form von Histogrammen erfassen: (2) Normiert auf 1 und geteilt durch die bin-Breite 5000 Erfassungen(2) 150 – 210 cm in 90 bins Zufallsvariable & Wahrscheinlichkeitsdichte Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der Körpergröße von 5000 männlichen Einwohnern über 18 Jahre in Karlsruhe vor. ● ● ● x ist eine (kontinuierlich verteilte) Zufallsvariable, deren Wert jeweils der Ergebnis eines Zufallsexperiments ist. Mit Hilfe der Methoden, die Sie in der letzten Vorlesung kennengelernt haben, können sie die Messreihe in Form von Histogrammen erfassen: 5000 Erfassungen(2) 150 – 210 cm in 90 bins Wahrscheinlichkeitsdichte: Wahrscheinlichkeitsdichte (2) Normiert auf 1 und geteilt durch die bin-Breite Wahrscheinlichkeitsdichte Dichteverteilung p(x) Mit Hilfe der „kumulativen Verteilungsfunktion“ P (x ∈ [179cm, 181]) = P(181 cm) – P(179 cm) ) Kumulative Verteilung P(x) zur Dichteverteilung p(x) Achtung: p(x) ist eine Wahrscheinlichkeitsdichte Eine Wahrscheinlichkeit P erhält man durch Integration über ein Intervall: P ( x ∈ [x, dx] ) = p(x) dx P ( x ∈ [179cm, 181] ) = Anm: für diskrete Verteilungen Integral durch Summe ersetzen Verteilungsfunktion und Quantile Verteilungsdichte p(x) Verteilungsfunktion (oder kumulative Verteilung) erlaubt einfache Berechnung von Wahrscheinlichkeiten α=P(x>xα), sog. „Quantile“ Quantil der Ordnung α : Umkehrfunktion von P(x) P-1(α) Verteilungsfunktion P(x) Beispiele: ● ● ● ● Median = xα=½ Ranking von Abschlussnoten Hypothesentests (s. später) Qualitätskontrolle Charakterisierung von Verteilungen – Lage- oder Lokalisations- Parameter Mittelwert μ, Modus = Maximum der Verteilung Median m: 50% der Wahrscheinlichkeit < m Gaußverteilung mit Erwartungswert =0 und Varianz =1 68% – Streuung („Skalierungsparameter“) Varianz V=σ² Standardabweichung σ („Breite“) V ist invariant bei Verschiebung der Verteilung, bei Variation von V „dehnt“ bzw. „staucht“ sich die Verteilung um den Mittelwert. drei Verteilungen mit Erwartungswert =0 und Varianz =1 – Form: Schiefe und Kurtosis (=Wölbung) Parameter γ1 und γ2 (beide =0 für Gaußverteilung) γ1 und γ2 sind invariant bei Verschiebung und Dehnung / Stauchung der Verteilung Quelle: Bohm-Zech p(x) Nachtrag: Lokalisationsparameter 1 ● Modus 0.9 Maximum der Verteilung (= wahrscheinlichster Wert) → einfach. Median 0.8 Erwartungswert 0.7 Modus: ● Median ( ): Gleich viele Werte kleiner als → robust 0.6 0.5 größer als auch ( z.B. Maß für die Verteilung der Studiendauer). 0.4 0.3 ● 0.2 ): Abgeschätzt durch das arithmetische Mittel 0.1 0 0 Erwartungswert ( Standard in der Datenanalyse 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 x Diese drei Maße müssen nicht gleich sein ! Charakterisierung v. Verteilungen: Stichprobe diskrete Verteilung Formeln kontinuierliche Vert. Erwartungswert Varianz * Schiefe * „Bessel-Korrektur“: N → N-1 vermeidet Verzerrung Plausibilitätsargument: für N=1 ist V nicht definiert ! Kurtosis nennt man das n-te Moment der Verteilung γ2 = 0 für Gauß-Vert. + höhere ... Eine Verteilung ist über ihre Momente vollständig charakterisiert Einschub: Rechenregeln für Erwartungswerte Die Berechnung von Erwartungswerten ist eine lineare Prozedur: seien a,b Konstanten und x, x1, x2 Zufallszahlen; es gilt (mit E[x] = <x>): <a>=a d.h. auch <<x>>=<x> <ax> = a <x> <x1+x2>= <x1> + <x2> und damit <ax1 + bx2> = a <x1> +b <x2> insb. gilt i. A.: <x1 x2> ≠ <x1><x2> ( „=“ nur, wenn x1, x2 unabhängige Zufallszahlen sind) diese Regeln ersparen u. U. viel Rechnerei! Kleine Nebenrechnung: Varianz Umformung der Formel für die Varianz (als Beispiel für das Rechnen mit Erwartungswerten) : Die umgeformte, äquivalente Formulierung ist numerisch effizienter, weil nur ein Durchlauf durch die Zufallszahlen (=Daten) notwendig ist, wenn man dabei sowohl E[x] als auch E[x2] bestimmt. Beispiel: Mittelwert und Varianz Mittelwert: „Position“ der Verteilung Standardabweichung: „Breite“ der Verteilung Verteilung der Augenzahl bei Würfelspiel mit drei Würfeln Mittelwert Standardabweichung Mehrdimensionale Verteilungen Der Ausgang einer Messung kann durch mehrere Zufallsgrößen charakterisiert sein. In diesem Fall ist auch die Wahrscheinlichkeitsdichte mehrdimensional. Visualisierung als „Streudiagramm“ (engl „Scatter Plot“) Normierung A kumulativ B Mehrdimensionale Verteilungen py (y) Projektion auf x-Achse Ausintegrieren einer der Zufallsvariablen 0.7 0.6 0.5 0.4 0.3 A B 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 y Randverteilungen engl.: marginal distribution px (x) Projektion auf y-Achse 1 0.9 0.8 0.7 kumulativ 0.6 0.5 0.4 Sind die zwei Zufallsvariablen x und y unabhängig, dann gilt für die Wahrscheinlichkeitsdichte: 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 x Bedingte Wahrscheinlichkeiten Integration in einem Intervall : Das Bsp. rechts zeigt, dass sich für A und A‘ i.A. verschiedene Wahrscheinlichkeitsdichten ergeben 2d-Histogramme in matplotlib python python/ /numpy numpy/ /matplotlib: matplotlib: numpy.histogram(), numpy.histogram(), numpy.histogram2d() numpy.histogram2d() matplotlib.pyplot.bar(), matplotlib.pyplot.bar(), matplotlib.pyplot.pcolormesh() matplotlib.pyplot.pcolormesh() siehe sieheauch: auch: matplotlib.pyplot.hist() matplotlib.pyplot.hist() matplotlib.pyplot.hist2d() matplotlib.pyplot.hist2d() Beispielscript Beispielscript Histogram.py Histogram.py (auch enthalten in PhyPraKit) (auch enthalten in PhyPraKit) Weitere Darstellungsformen: Profil-Darstellung Abhängigkeiten der Variablen werden deutlicher, wenn man Mittelwert und Standardabweichung der y-Verteilung für jedes x-Bin darstellt: → Profil-Darstellung Beispielscript Beispielscript Histogram.py, Histogram.py, profile2d() profile2d() Programmpakete – Root Klassen KlassenininROOT: ROOT: TH1, TH2 TH1, TH2 (TH3 (TH3 für für 33 dim.) dim.) ROOT ROOThat hatalles alles„an „anBoard“, Board“,was wasfür für die dieDatenanalyse Datenanalysegebraucht gebrauchtwird wird (s. nächste Vorlesung) (s. nächste Vorlesung) Beispielscript ranGauss2d.C bzw. ranGauss2d-pyroot.py Kovarianz - der Zusammenhang zwischen Variablen Kovarianz zweier Zufallsvariablen ist Erwartungswert von (Abweichung vom Erwartungswert in Variable x) * (Abweichung vom Erwartungswert in Variable y) Analog auch bei mehr als zwei Variablen: cov(xi, xj) sind die Elemente der Kovarianzmatrix V Diagonalwerte sind die Varianzen ! Anm.: für mehrere Variable kann man die Kovarianzmatrix auch sehr kompakt in Matrix-Schreibweise darstellen: das ist formal identisch zur Definition der Varianz: statt Produkt zweier Zahlen das „dyadische Produkt“ von Vektoren Kovarianz und Korrelation Normiere Kovarianzmatrix, so dass die Diagonalelemente alle 1 sind: Streudiagramme von zwei korrelierten Zufallsvariablen Korrelationskoeffizienten sind anschaulicher als Kovarianzen ! Korrelation und Unabhängigkeit von Variablen Wenn x, y unabhängig, d.h. , dann gilt und man sagt: „x und y sind unkorreliert“ Achtung: 1. ) Die umgekehrte Aussage gilt nicht: Beispiel: 2.) eine Korrelation ≠ 0 bedeutet nicht unbedingt, dass es auch einen kausalen Zusammenhang gibt. Bsp.: Was halten Sie von folgender Aussage: “Biertrinken erzeugt Sonnenbrand“ Bierkonsum und das Auftreten von Sonnenbrand sind zwar korreliert, aber glauben Sie an einen kausalen Zusammenhang ? Wie oft wird das in der (Boulevard-)Presse verwechselt ? x, y - unkorreliert ≠ unabhängig - korreliert ≠ kausal verknüpft – Korrelation kann zufällig sein, – x ⇒ y möglich – y ⇒ x möglich – z ⇒ (x, y) möglich Kovarianzmatrix von korrelierten Messungen Mehrere (n) Messwerte mi , jede Messung hat - eine individuelle, zufällige Unsicherheit zi - sowie eine gemeinsame Unsicherheit zg → mi = w + zi + zg ein gemeinsamer wahrer Wert und n+1 Zufallszahlen (eine allen Messungen gemeinsame sowie n individuelle) Für n Messwerte mi erhält man die KovarianzMatrix, indem man die Varianz der gemeinsamen Unscherheit zg, (σg)², in die Nebendiagonale setzt. Die Diagonalelemente sind die Varianzen der Gesamtunsicherheiten, (σi)² + (σg)². Die vollständige Kovarianzmatrix sieht so aus: praktisches Beispiel: Konstruktion einer Kovarianzmatrix 6 Studenten in 3 Gruppen messen mit jeweils eigenem Messgerät vom gleichen Typ, von allen angewandte „Theorie-Korrektur“ mit Unsicherheit, 6 Einzelergebnisse. Fehlerbeiträge: - Systematischer Fehler eines Messgeräts: Δs (korreliert innerhalb einer Gruppe, d.h. Studierende 1-2, 3-4 und 5-6, unabhängig zwischen den Gruppen) - Theoriefehler: Δt (korreliert für allen Messungen) - Unabhängiger Messfehler jedes einzelnen: Δf1, … , Δf6 Jede Messung hat die Gesamtunsicherheit Konstruktionsprinzip: – Quadrate der Gesamtunsicherheiten stehen in der Diagonalen – gemeinsame Unsicherheiten werden zu den betreffenden Nebendiagonalelementen quadratisch addiert Anm:: unabhängige Unsicherheiten tauchen nur in der Diagonalen auf Grundlegende Verteilungen U(x) Gleichverteilung 1 verschoben u0,1 [0.0 , 1.0] [2.0 , 3.0] [0.0 , 7.0] [4.0 , 6.0] 0.8 0.6 verschoben & skaliert 0.4 Aus Zufallszahlen u0,1, die gemäß U(x; 0,1) verteilt sind, lassen sich in [a,b] gleichmäßig verteilte Zahlen U(x;a,b) erzeugen: ua,b = (b - a) u0,1 + a a : Verscheibung b-a: Skalierung 0.2 0 skaliert 0 1 2 3 4 5 6 7 x gleichverteilte Zufallszahlen in python: numpy.random.rand() Anm: Jede beliebig verteilte Zufallsvariable x lässt sich über die VerteilungsFunktion P(x) auf eine uniform verteilte Zufallsvariable u(x) transformieren: ist gleichverteilt in [0,1] (Erwartungswert) (Varianz) exp(x, λ) Exponentialverteilung 1 λ=0.5 0.9 λ=1.0 λ=2.0 0.8 λ=5.0 0.7 0.6 0.5 0.4 0.3 ● Exponentialverteiljng tritt sehr häufig in der Physik auf: – Energieverteilung in der Therodynamik – „Wartezeit“ zwischen zufälligen Ereignissen mit gleicher mittlerer Rate – Zahl der Zerfälle beim radioaktiven Zerfall eines Präparats mit mittlerer Lebensdauer λ 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 x Binomialverteilung Wahrscheinlichkeit für die Beobachtung eines bestimmten Ereignisses sei p. Was ist die Wahrscheinlichkeit, bei n Versuchen k solcher Ereignisse zu beobachten ? z.B. - bei 10 Versuchen 3 mal eine 6 würfeln. - bei 100 Einträgen in einem Histogramm 10 Einträge im ersten Bin Binomialverteilung ist die Anzahl der Kombinationen, k aus N Elementen ohne Berücksichtigung der Reihenfolge auszuwählen („Binomialkoeffizient“) Erwartungswert Varianz B(p, n, k) Binomialverteilung (2) 0.5 p=0.5, n=5 p=0.5, n=10 p=0.5, n=20 p=0.5, n=30 0.45 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 0 2 4 6 8 10 12 14 16 18 20 k Poisson-Verteilung Binomialverteilung B(k;p,n) im Grenzfall n →∞ , p → 0, n∙p = μ fest: → Poisson-Verteilung Erwartungswert Varianz Grenzwert bedeutet: Gesamtzahl beobachteter Ereignisse k in n → ∞ Intervallen Δx , in denen jeweils ein Ereignis mit der (sehr kleinen) konstanten Wahrscheinlichkeit p erwartet wird . Beispiele für Poisson- verteilte Zahlen: - ein Klassiker: Zahl der pro Jahr durch Huftritt getöteten preußischen Kavallerieoffiziere - näherungsweise: Zahl der Einträge in einem Bin eines Histogramms mit vielen Bins - Zahl der bei fester Ereignisrate im Zeitintervall T beobachteten Ereignisse, übrigens: die Zeitdifferenz Δt zwischen zwei Poisson-Ereignissen mit mittlerem zeitlichen Abstand τ folgt einer Exponenitalverteilung: P(μ, k) Poisson-Verteilung (2) 0.3 Erwartungswert: μ Standarabweichung: √μ μ=2.0 μ=5.0 μ=10.0 μ=25.0 0.25 0.2 0.15 0.1 0.05 0 0 „Statistischer Fehler“ auf 5 10 15 20 25 30 35 40 45 50 eine Anzahl n von Beobachtungen wird häufig abgeschätzt zu k Verteilung für kleine μ sehr asymmetrisch Problem: dabei wird n ≈ μ angenommen Abwärtsfluktuation von n → Fehler zu klein Aufwärtsfluktuation von n → Fehler zu groß Gauß- oder Normal-Verteilung Erwartungswert Varianz Quantile N(x; 0, 1) N(x; 0, 2) N(x; -1, 2) standard-normalverteilte Zufallszahlen N(x;0,1) in python mit numpy.random.randn() Gauß-Verteilung (2) Der Name „Normalverteilung“ und die Widmung des 10D DM Geldscheins an Gauß und seine „Glockenkurve“ deuten auf die besondere Bedeutung der Gaußverteilung hin. Die Gauß-Verteilung ist die Grenzverteilung, gegen die viele andere bei großer Anzahl von Zufallsereignissen konvergieren. Außerdem sind Mittelwerte aus hinreichende vielen Zufallszahlen unter schwachen Voraussetzungen näherungsweise Gauß-verteilt (siehe „zentraler Grenzwertsatz“) Anwendungen: Quantile der Gaußverteilung in Medizin, den empirischen Geisteswissenschaften, bei der Qualitätskontrolle ... Messunsicherheiten in Ingenieur- und Naturwissenschaften fundamentale Verteilung in vielen Naturgesetzen: Brown'sche Molekularbewegung und Maxwell'sche Geschwindigkeitsverteilung, „Ortsunschärfe“ in den Quantenphysik in vielen statistischen Verfahren werden implizit Gaußverteilte Größen vorausgesetzt z. B. „normalverteilte Klausurnoten “ (?) Binomial- ↔ Poisson- ↔ Gauss-Verteilung für große n nähert sich die Poisson-Vert. einer Gauß-Verteilung an für kleine p und große n nähert sich die Binomial- der Poissonverteilung an mit μ= np import numpy as np, matplotlib.pyplot as plt, scipy.special as sp def fGauss(x,mu=0.,sigma=1.): # Gauss distribution return (np.exp(-(x-mu)**2/2/sigma**2)/np.sqrt(2*np.pi)/sigma) def fPoisson(x,mu): # Poisson distribution k=np.around(x) return (mu**k)/np.exp(mu)/sp.gamma(k+1.) def fBinomial(x,n,p): # Binomial distribution k=np.around(x) return sp.binom(n,k) *p**k *(1.-p)**(n-k) #-------------------------------------------------------------# plot basic distributions mu, sig = 50., np.sqrt(mu) x = np.arange(20, 80., 0.1) plt.plot(x, fGauss(x,mu,sig), 'r-') plt.plot(x, fPoisson(x,mu), 'b-') p, n = 0.1, mu/p plt.plot(x, fBinomial(x,n,p), 'g-') # ( … ) # produce nice text plt.show() basicDistributions.py ← einige spezielle Funktionen in scipy.special [ n! = gamma(n+1) ] Einschub: Binomial → Poisson Etwas Mathematik für theoretisch Interessierte: 0.5 p=0.5, n=5 p=0.5, n=10 p=0.5, n=20 p=0.5, n=30 0.45 0.4 0.35 - Verteilung P(μ, k) B(p, n, k) Gauss ↔ Poisson ↔ Binomial 0.3 μ=2.0 μ=5.0 μ=10.0 μ=25.0 0.25 0.2 0.3 0.15 0.25 0.2 0.1 0.15 Binomial n, p 0.1 0.05 0 0 2 4 6 8 10 12 14 16 18 20 k p→ 0 np=μ n→ ∞ μ→ ∞ Gauß μ, σ N(x; 0, 1) N(x; 0, 2) N(x; -1, 2) Poisson μ 0.05 0 0 5 10 15 20 25 30 35 40 45 50 k Zentraler Grenzwertsatz oder warum sind Messfehler Gauß-verteilt ? Im Grenzfall von großen N ist die Summe von N unabhängigen Zufallszahlen eine Zufallszahl, die einer Gauß-Verteilung folgt. xi aus beliebiger Verteilung mit Mittelwert μi und endlicher Varianz σi Bedingung von Lyapunov: endlich für alle N ⇒ x ist Gauß-verteilt mit Erwartungswert Beweis im Prinzip einfach; erfordert neues Konzept: die „charakteristische Funktion“ einer Verteilung, s. z.B. S. Brand, Datenanalyse und Varianz s. Vorlesungs-Demo u. Übungsaufgabe Beispiel 1: zentraler Grenzwertsatz Gleichverteilung und Verteilung der Summen von 2, 3 und 10 gleichverteilten Zufallszahlen. Anm.: Addition von Zufallszahlen ist eine sogenannte „Faltung“ Summe von 10 Zufallszahlen ist gute Annäherung einer Gauß-Kurve Beispiel 2: zentraler Grenzwertsatz funktioniert auch in mehreren Dimensionen, hier am Beispiel der Elefantenverteilung: Beliebige Verteilung Verteilung der Summe von 3 Zufallszahlen wie erwartet: Ergebnis → Gaußverteilung weitere Verteilungen χ2 (x, n) xi standard-normalverteilt, χ2-Verteilung 0.5 n=1 0.45 n=2 n=5 0.4 n=10 0.35 folgt der sogenannten 0.3 χ2-Verteilung mit n Freiheitsgraden: 0.25 0.2 0.15 0.1 0.05 0 0 Erwartungswert 2 4 6 8 10 12 14 für große n ist Varianz standard-normalverteilt es gilt: Anwendung: Summe der quadratischen Abweichungen von Messwerten von einer Funktion folgt einer χ2-Verteilung (für Gauß-förmige Fehler σi, s. auch später: „χ2-Anpassung“) 16 18 20 x weitere Verteilungen Cauchy (=Breit-Wigner) -Verteilung Erwartungswert (aber schlecht definiert!) Varianz existiert nicht, statt dessen Halbwertsbreite („FWHM“) = Γ – tritt bei Resonanzphänomenen auf, – ist Fouriertransformierte der Exponentialverteilung – Unschärferelation: Resonanzbreite = h/Lebensdauer Generalisierte Poisson-Verteilung: Gamma-Verteilung Verteilung des Erwartungswertes einer Poissonverteilung, bestimmt aus der mit dem Faktor α skalierten Beobachtung von N Poisson-verteilten Ereignissen, n = αN, z.B: - N simulierte Ereignisse, α N Ereignisse in Daten erwartet - Untergrundbeobachtung in Seitenband, α N Ereignisse im Signalbereich erwartet Spezialfall einer Gamma-Verteilung n=αN folgt Maximum bei αN Mittelwert α(N+1) Varianz α2(N+1) Logarithmische Normalverteilung wenn Logarithmus einer Zufallsgröße normalverteilt ist: Anwendung: Größen, die sich als Produkt von fehlerbehafteten Faktoren ergeben Bsp: Aussage „Faktor zwei Unsicherheit“ gut beschrieben durch Log-Normalverteilung mit κ=2 NB: Variablensubstitution: führt Log-Normalverteilung in Normalverteilung über: Log-Normal-Verteilung Eigenschaften: - f(x=0) = 0; längere Ausläufer als Gaußverteilung für große x - geht für Werte von κ≈ 1 mit κ=exp(ε)≈ 1+ε und ε= σ/μ asymptotisch in die Gaußverteilung G(x;μ,σ) über x Logarithmische Normalverteilung f(x, σ , μ) Produkt vieler, unabhängiger, identisch verteilter Messungen: 1 μ=0.0, σ =0.5 μ=0.0, σ =1.0 μ=0.0, σ =1.5 μ=1.0, σ =1.0 0.9 0.8 0.7 (Erwartungswert) (Varianz) 0.6 0.5 0.4 0.3 NB: Variablensubstitution: führt Log-Normalverteilung in Normalver-teilung über: 0.2 0.1 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 x Multinomial-Verteilung Verallgemeinerung der Binomialverteilung von zwei auf k mögliche Ergebnisse, Verteilung der Anzahlen nk für die Beobachtung von Ereignis k bei N Versuchen Eigenschaften: Erwartungswert Varianz Kovarianz Korrelationskoeffizient Beschreibt z.B. Verteilung der Bin-Inhalte eines Histogramms mit k Bins und N Einträgen Randverteilung P(ni ) = Binomial( ni; N, pi ) Grenzverteilung für große N und k: P(ni ) = Poisson( ni; Npi ) Multidimensionale Gaußverteilung 2d Gauß μi=0, σi=1, ρ=0.5 allg. Kovarianzmatrix mit Korrelationskoeffizienten ρij 2-dimensional Script: plot3dGauss.py Kovarianz-Ellipse Kontur konstanter Wahrscheinlichkeitsdichte („Höhenlinie“) bei 2d-Gaußverteilung ist eine Ellipsengleichung x2 Kovarianz-Ellipse Winkel zwischen x-Achse und Hauptachse der Ellipse hängt von ρ12 ab: σ2 α=0° für ρ12=0 σ2 Fläche innerhalb der 1-σ Ellipse entspricht ~39% Wahrscheinlichkeit σ1 σ1 x1 gebräuchliche Darstellung bei Problemen mit vielen Variablen: Kovarianz-Ellipsen von Variablen-Paaren Kovarianz in ROOT Standard-normalverteilte Zufallszahlen mit ρ=0.75 TH2::Draw(“surf3“); „scatter plot“ TH2::Draw(); Methoden TH2::GetCovariance und TH2:GetCorrelationFactor zur Berechnung der Kovarianz oder des Korrelations-Koeffizienten Anhang & Nachtrag für mathematisch Interessierte Ergebnis- und Ereignisraum Eine Menge heißt Ergebnisraum eines Zufsallsexperiments, wenn jedem Versuchsausgang höchstens ein Element zugeordnet ist. Die heißen dann die Ergebnisse des Zufallsexperiments. ● Beispiele: ● Münzwurf ● Würfelwurf ● Bestimmung der Fallbeschleunigung (wie lautet der Ergebnisraum?). ● ● . . Bestimmung der Anzahl radioaktiver Atome nach einer Zeitspanne Ergebnisraum?). (wie lautet der Zerfall eines -Leptons in der Teilchenphysik. Jede Teilmenge heißt Ereignis. tritt genau dann ein, wenn sich ein Ergebnis einstellt, das in enthalten ist. Die Menge aller Ereignisse heißt Ereignisraum .(4) (4) Beachte: Interpretation des Ereignisraums noch offen! Wahrscheinlichkeitsverteilung (nach Kolmogorov) Eine auf dem Ereignisraum definierte Funktion (5) heißt Wahrscheinlichkeitsverteilung über dem Ergebnisraum die folgenden Eigenschaften erfüllt: ● ● ● Für jedes Ereignis gilt ( Nichtnegativität). Für die Wahrscheinlichkeit zweier disjunkter Ereignisse gilt: ( Linearität). Die Wahrscheinlichkeit , wenn sie und (Normierungsbedingung). ( ) Bedingte Wahrscheinlichkeit Sei eine Wahrscheinlichkeitsverteilung über dem Ergebnisraum Ereignis mit und ein beliebiges Ereignis. Dann heißt die (bedingte) Wahrscheinlichkeit von ● unter Bedingung , ein . Anmerkungen: ● genügt). ● ● ist selbst eine Wahrscheinlichkeitsverteilung über kann selbst als bedingte Wahrscheinlichkeit . (die den Axiomen von Kolmogorov betrachtet werden für . Satz von der totalen Wahrscheinlichkeit Bilden die Ereignisse mit für alle eine Zerlegung des Ergebnisraums (mit den Eigenschaften und ) dann gilt für die Wahrscheinlichkeit eines beliebigen Ereignisses : ● ● Oft sieht man den Satz von der totalen Wahrscheinlichkeit auch in einer Formulierung in Kombination mit dem Satz von Bayes: Oder etwas eingängiger für den Spezialfall und : Stochastische Unabhängigkeit Zwei Ereignisse und heißen stochastisch unabhängig, wenn gilt und stochastisch abhängig sonst. ● Im Rahmen bedingter Wahrscheinlichkeiten bekommt stochastische Unabhängikeit eine sehr anschauliche Bedeutung: (und umgekehrt) D.h. die Wahrscheinlichkeit für das Eintreten von Ereignis vom Eintreten des Ereignisses . is unabhängig Bedingte Wahrscheinlichkeit Sei eine Wahrscheinlichkeitsverteilung über dem Ergebnisraum Ereignis mit und ein beliebiges Ereignis. Dann heißt die (bedingte) Wahrscheinlichkeit von ● ein . Anmerkungen: ● ● ● 55 unter Bedingung , ist selbst eine Wahrscheinlichkeitsverteilung über kann selbst als bedingte Wahrscheinlichkeit (die den Axiomen von Kolmogorov genügt ). betrachtet werden für . . ● Institute of Experimental Particle Physics (IEKP) ●