Verteilung

Werbung
Verteilungen von Zufallsgrößen:
– Wahrscheinlichkeitsverteilungen
– Wahrscheinlichkeitsdichten
– Kumulative Verteilungen
Zufallsvariable & Wahrscheinlichkeitsdichte
Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der
Körpergröße von 5000 männlichen Einwohnern über 18 Jahre in Karlsruhe vor.
●
●
x ist eine (kontinuierlich verteilte) Zufallsvariable,
deren Wert jeweils der Ergebnis eines Zufallsexperiments ist.
Mit Hilfe der Methoden, die
Sie in der letzten Vorlesung kennengelernt haben,
können sie die Messreihe
in Form von Histogrammen
erfassen:
(2) Normiert auf 1 und geteilt durch die bin-Breite
5000 Erfassungen(2)
150 – 210 cm in 15 bins
Zufallsvariable & Wahrscheinlichkeitsdichte
Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der
Körpergröße von 5000 männlichen Einwohnern über 18 Jahre in Karlsruhe vor.
●
●
x ist eine (kontinuierlich verteilte) Zufallsvariable,
deren Wert jeweils der Ergebnis eines Zufallsexperiments ist.
Mit Hilfe der Methoden, die
Sie in der letzten Vorlesung kennengelernt haben,
können sie die Messreihe
in Form von Histogrammen
erfassen:
(2) Normiert auf 1 und geteilt durch die bin-Breite
5000 Erfassungen(2)
150 – 210 cm in 45 bins
Zufallsvariable & Wahrscheinlichkeitsdichte
Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der
Körpergröße von 5000 männlichen Einwohnern über 18 Jahre in Karlsruhe vor.
●
●
x ist eine (kontinuierlich verteilte) Zufallsvariable,
deren Wert jeweils der Ergebnis eines Zufallsexperiments ist.
Mit Hilfe der Methoden, die
Sie in der letzten Vorlesung kennengelernt haben,
können sie die Messreihe
in Form von Histogrammen
erfassen:
(2) Normiert auf 1 und geteilt durch die bin-Breite
5000 Erfassungen(2)
150 – 210 cm in 90 bins
Zufallsvariable & Wahrscheinlichkeitsdichte
Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der
Körpergröße von 5000 männlichen Einwohnern über 18 Jahre in Karlsruhe vor.
●
●
●
x ist eine (kontinuierlich verteilte) Zufallsvariable,
deren Wert jeweils der Ergebnis eines Zufallsexperiments ist.
Mit Hilfe der Methoden, die
Sie in der letzten Vorlesung kennengelernt haben,
können sie die Messreihe
in Form von Histogrammen
erfassen:
5000 Erfassungen(2)
150 – 210 cm in 90 bins
Wahrscheinlichkeitsdichte:
Wahrscheinlichkeitsdichte
(2) Normiert auf 1 und geteilt durch die bin-Breite
Wahrscheinlichkeitsdichte
Dichteverteilung p(x)
Mit Hilfe der
„kumulativen Verteilungsfunktion“
P (x ∈ [179cm, 181]) =
P(181 cm) – P(179 cm) )
Kumulative Verteilung P(x)
zur Dichteverteilung p(x)
Achtung:
p(x) ist eine Wahrscheinlichkeitsdichte
Eine Wahrscheinlichkeit P erhält man
durch Integration über ein Intervall:
P ( x ∈ [x, dx] ) = p(x) dx
P ( x ∈ [179cm, 181] ) =
Anm: für diskrete Verteilungen
Integral durch Summe ersetzen
Verteilungsfunktion und Quantile
Verteilungsdichte p(x)
Verteilungsfunktion (oder kumulative Verteilung)
erlaubt einfache Berechnung von Wahrscheinlichkeiten α=P(x>xα), sog. „Quantile“
Quantil der Ordnung α :
Umkehrfunktion von P(x)
P-1(α)
Verteilungsfunktion
P(x)
Beispiele:
●
●
●
●
Median = xα=½
Ranking von Abschlussnoten
Hypothesentests (s. später)
Qualitätskontrolle
Charakterisierung von Verteilungen
– Lage- oder Lokalisations- Parameter
Mittelwert μ,
Modus = Maximum der Verteilung
Median m: 50% der Wahrscheinlichkeit < m
Gaußverteilung mit
Erwartungswert =0 und Varianz =1
68%
– Streuung („Skalierungsparameter“)
Varianz V=σ²
Standardabweichung σ („Breite“)
V ist invariant bei Verschiebung der Verteilung,
bei Variation von V „dehnt“ bzw. „staucht“ sich
die Verteilung um den Mittelwert.
drei Verteilungen mit
Erwartungswert =0 und Varianz =1
– Form: Schiefe und Kurtosis (=Wölbung)
Parameter γ1 und γ2
(beide =0 für Gaußverteilung)
γ1 und γ2 sind invariant
bei Verschiebung und
Dehnung / Stauchung der Verteilung
Quelle:
Bohm-Zech
p(x)
Nachtrag:
Lokalisationsparameter
1
●
Modus
0.9
Maximum der Verteilung
(= wahrscheinlichster Wert)
→ einfach.
Median
0.8
Erwartungswert
0.7
Modus:
●
Median (
):
Gleich viele Werte
kleiner als
→ robust
0.6
0.5
größer als auch
( z.B. Maß für die Verteilung der
Studiendauer).
0.4
0.3
●
0.2
):
Abgeschätzt durch das
arithmetische Mittel
0.1
0
0
Erwartungswert (
Standard in der Datenanalyse
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
x
Diese drei Maße müssen nicht gleich sein !
Charakterisierung v. Verteilungen:
Stichprobe
diskrete Verteilung
Formeln
kontinuierliche Vert.
Erwartungswert
Varianz
*
Schiefe
* „Bessel-Korrektur“: N → N-1 vermeidet Verzerrung
Plausibilitätsargument: für N=1 ist V nicht definiert !
Kurtosis
nennt man das n-te Moment der Verteilung
γ2 = 0 für Gauß-Vert.
+ höhere ...
Eine Verteilung ist über ihre Momente vollständig charakterisiert
Einschub:
Rechenregeln für Erwartungswerte
Die Berechnung von Erwartungswerten ist eine lineare Prozedur:
seien a,b Konstanten und x, x1, x2 Zufallszahlen;
es gilt (mit E[x] = <x>):
<a>=a d.h. auch <<x>>=<x>
<ax> = a <x>
<x1+x2>= <x1> + <x2>
und damit <ax1 + bx2> = a <x1> +b <x2>
insb. gilt i. A.: <x1 x2> ≠ <x1><x2>
( „=“ nur, wenn x1, x2 unabhängige Zufallszahlen sind)
diese Regeln ersparen u. U. viel Rechnerei!
Kleine Nebenrechnung: Varianz
Umformung der Formel für die Varianz
(als Beispiel für das Rechnen mit Erwartungswerten) :
Die umgeformte, äquivalente Formulierung ist numerisch effizienter,
weil nur ein Durchlauf durch die Zufallszahlen (=Daten) notwendig ist,
wenn man dabei sowohl E[x] als auch E[x2] bestimmt.
Beispiel: Mittelwert und Varianz
Mittelwert:
„Position“ der Verteilung
Standardabweichung: „Breite“ der Verteilung
Verteilung der Augenzahl bei
Würfelspiel mit drei Würfeln
Mittelwert
Standardabweichung
Mehrdimensionale Verteilungen
Der Ausgang einer Messung kann durch mehrere Zufallsgrößen charakterisiert sein.
In diesem Fall ist auch die Wahrscheinlichkeitsdichte mehrdimensional.
Visualisierung als „Streudiagramm“ (engl „Scatter Plot“)
Normierung
A
kumulativ
B
Mehrdimensionale Verteilungen
py (y)
Projektion auf x-Achse
Ausintegrieren einer der Zufallsvariablen
0.7
0.6
0.5
0.4
0.3
A
B
0.2
0.1
0
0
1
2
3
4
5
6
7
8
9
10
y
Randverteilungen
engl.: marginal distribution
px (x)
Projektion auf y-Achse
1
0.9
0.8
0.7
kumulativ
0.6
0.5
0.4
Sind die zwei Zufallsvariablen x und y unabhängig,
dann gilt für die Wahrscheinlichkeitsdichte:
0.3
0.2
0.1
0
0
1
2
3
4
5
6
7
8
9
10
x
Bedingte Wahrscheinlichkeiten
Integration in einem Intervall
:
Das Bsp. rechts zeigt, dass sich für A und A‘ i.A.
verschiedene Wahrscheinlichkeitsdichten ergeben
2d-Histogramme in matplotlib
python
python/ /numpy
numpy/ /matplotlib:
matplotlib:
numpy.histogram(),
numpy.histogram(),
numpy.histogram2d()
numpy.histogram2d()
matplotlib.pyplot.bar(),
matplotlib.pyplot.bar(),
matplotlib.pyplot.pcolormesh()
matplotlib.pyplot.pcolormesh()
siehe
sieheauch:
auch:
matplotlib.pyplot.hist()
matplotlib.pyplot.hist()
matplotlib.pyplot.hist2d()
matplotlib.pyplot.hist2d()
Beispielscript
Beispielscript Histogram.py
Histogram.py
(auch enthalten in PhyPraKit)
(auch enthalten in PhyPraKit)
Weitere Darstellungsformen: Profil-Darstellung
Abhängigkeiten der Variablen
werden deutlicher, wenn man
Mittelwert und Standardabweichung der y-Verteilung
für jedes x-Bin darstellt:
→
Profil-Darstellung
Beispielscript
Beispielscript
Histogram.py,
Histogram.py,
profile2d()
profile2d()
Programmpakete – Root
Klassen
KlassenininROOT:
ROOT:
TH1,
TH2
TH1, TH2 (TH3
(TH3 für
für 33 dim.)
dim.)
ROOT
ROOThat
hatalles
alles„an
„anBoard“,
Board“,was
wasfür
für
die
dieDatenanalyse
Datenanalysegebraucht
gebrauchtwird
wird
(s.
nächste
Vorlesung)
(s. nächste Vorlesung)
Beispielscript
ranGauss2d.C
bzw. ranGauss2d-pyroot.py
Kovarianz - der Zusammenhang zwischen Variablen
Kovarianz zweier Zufallsvariablen ist Erwartungswert von
(Abweichung vom Erwartungswert in Variable x) *
(Abweichung vom Erwartungswert in Variable y)
Analog auch bei mehr als zwei Variablen:
cov(xi, xj) sind die Elemente der Kovarianzmatrix V
Diagonalwerte sind die Varianzen !
Anm.: für mehrere Variable
kann man die Kovarianzmatrix
auch sehr kompakt in Matrix-Schreibweise darstellen:
das ist formal identisch zur Definition der Varianz:
statt Produkt zweier Zahlen das „dyadische Produkt“ von Vektoren
Kovarianz und Korrelation
Normiere Kovarianzmatrix, so dass die Diagonalelemente alle 1 sind:
Streudiagramme von zwei korrelierten Zufallsvariablen
Korrelationskoeffizienten sind anschaulicher als Kovarianzen !
Korrelation und Unabhängigkeit von Variablen
Wenn x, y unabhängig, d.h.
, dann gilt
und
man sagt: „x und y sind unkorreliert“
Achtung:
1. ) Die umgekehrte Aussage gilt nicht:
Beispiel:
2.) eine Korrelation ≠ 0 bedeutet nicht unbedingt,
dass es auch einen kausalen Zusammenhang gibt.
Bsp.: Was halten Sie von folgender Aussage:
“Biertrinken erzeugt Sonnenbrand“
Bierkonsum und das Auftreten von Sonnenbrand
sind zwar korreliert, aber glauben Sie an einen
kausalen Zusammenhang ?
Wie oft wird das in der (Boulevard-)Presse verwechselt ?
x, y
- unkorreliert ≠ unabhängig
- korreliert ≠ kausal verknüpft
– Korrelation kann zufällig sein,
– x ⇒ y möglich
– y ⇒ x möglich
– z ⇒ (x, y) möglich
Kovarianzmatrix von korrelierten Messungen
Mehrere (n) Messwerte mi , jede Messung hat
- eine individuelle, zufällige Unsicherheit zi
- sowie eine gemeinsame Unsicherheit zg
→ mi = w + zi + zg
ein gemeinsamer wahrer Wert und n+1 Zufallszahlen
(eine allen Messungen gemeinsame sowie n individuelle)
Für n Messwerte mi erhält man die KovarianzMatrix, indem man die Varianz der gemeinsamen
Unscherheit zg, (σg)², in die Nebendiagonale setzt.
Die Diagonalelemente sind die Varianzen der
Gesamtunsicherheiten, (σi)² + (σg)².
Die vollständige Kovarianzmatrix sieht so aus:
praktisches Beispiel: Konstruktion einer Kovarianzmatrix
6 Studenten in 3 Gruppen messen mit jeweils eigenem Messgerät vom gleichen Typ,
von allen angewandte „Theorie-Korrektur“ mit Unsicherheit, 6 Einzelergebnisse.
Fehlerbeiträge:
- Systematischer Fehler eines Messgeräts:
Δs (korreliert innerhalb einer Gruppe, d.h. Studierende
1-2, 3-4 und 5-6, unabhängig zwischen den Gruppen)
- Theoriefehler:
Δt (korreliert für allen Messungen)
- Unabhängiger Messfehler jedes einzelnen: Δf1, … , Δf6
Jede Messung hat die Gesamtunsicherheit
Konstruktionsprinzip:
– Quadrate der Gesamtunsicherheiten stehen in
der Diagonalen
– gemeinsame Unsicherheiten
werden zu den betreffenden
Nebendiagonalelementen
quadratisch addiert
Anm:: unabhängige Unsicherheiten tauchen nur in der
Diagonalen auf
Grundlegende Verteilungen
U(x)
Gleichverteilung
1
verschoben
u0,1
[0.0 , 1.0]
[2.0 , 3.0]
[0.0 , 7.0]
[4.0 , 6.0]
0.8
0.6
verschoben
& skaliert
0.4
Aus Zufallszahlen u0,1, die gemäß
U(x; 0,1) verteilt sind, lassen sich
in [a,b] gleichmäßig verteilte Zahlen
U(x;a,b) erzeugen:
ua,b = (b - a) u0,1 + a
a : Verscheibung
b-a: Skalierung
0.2
0
skaliert
0
1
2
3
4
5
6
7
x
gleichverteilte Zufallszahlen in python:
numpy.random.rand()
Anm: Jede beliebig verteilte Zufallsvariable x lässt sich über die VerteilungsFunktion P(x) auf eine uniform verteilte Zufallsvariable u(x) transformieren:
ist gleichverteilt in [0,1]
(Erwartungswert)
(Varianz)
exp(x, λ)
Exponentialverteilung
1
λ=0.5
0.9
λ=1.0
λ=2.0
0.8
λ=5.0
0.7
0.6
0.5
0.4
0.3
●
Exponentialverteiljng
tritt sehr häufig in der Physik auf:
– Energieverteilung in der Therodynamik
– „Wartezeit“ zwischen zufälligen
Ereignissen mit gleicher mittlerer Rate
– Zahl der Zerfälle beim radioaktiven
Zerfall eines Präparats mit mittlerer
Lebensdauer λ
0.2
0.1
0
0
1
2
3
4
5
6
7
8
9
10
x
Binomialverteilung
Wahrscheinlichkeit für die Beobachtung eines bestimmten Ereignisses sei p.
Was ist die Wahrscheinlichkeit,
bei n Versuchen k solcher Ereignisse zu beobachten ?
z.B. - bei 10 Versuchen 3 mal eine 6 würfeln.
- bei 100 Einträgen in einem Histogramm 10 Einträge im ersten Bin
Binomialverteilung
ist die Anzahl der Kombinationen, k aus N Elementen ohne Berücksichtigung der Reihenfolge auszuwählen („Binomialkoeffizient“)
Erwartungswert
Varianz
B(p, n, k)
Binomialverteilung (2)
0.5
p=0.5, n=5
p=0.5, n=10
p=0.5, n=20
p=0.5, n=30
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
12
14
16 18 20
k
Poisson-Verteilung
Binomialverteilung B(k;p,n) im Grenzfall n →∞ , p → 0, n∙p = μ fest:
→
Poisson-Verteilung
Erwartungswert
Varianz
Grenzwert bedeutet:
Gesamtzahl beobachteter Ereignisse k in n → ∞ Intervallen Δx ,
in denen jeweils ein Ereignis mit der (sehr kleinen) konstanten
Wahrscheinlichkeit p erwartet wird .
Beispiele für Poisson- verteilte Zahlen:
- ein Klassiker: Zahl der pro Jahr durch Huftritt getöteten preußischen Kavallerieoffiziere
- näherungsweise: Zahl der Einträge in einem Bin eines Histogramms mit vielen Bins
- Zahl der bei fester Ereignisrate im Zeitintervall T beobachteten Ereignisse,
übrigens: die Zeitdifferenz Δt zwischen zwei Poisson-Ereignissen mit mittlerem
zeitlichen Abstand τ folgt einer Exponenitalverteilung:
P(μ, k)
Poisson-Verteilung (2)
0.3
Erwartungswert: μ
Standarabweichung: √μ
μ=2.0
μ=5.0
μ=10.0
μ=25.0
0.25
0.2
0.15
0.1
0.05
0
0
„Statistischer Fehler“ auf
5
10
15
20 25
30
35
40 45 50
eine Anzahl n von Beobachtungen
wird häufig abgeschätzt zu
k
Verteilung für kleine μ sehr asymmetrisch
Problem:
dabei wird n ≈ μ angenommen
Abwärtsfluktuation von n → Fehler zu klein
Aufwärtsfluktuation von n → Fehler zu groß
Gauß- oder Normal-Verteilung
Erwartungswert
Varianz
Quantile
N(x; 0, 1)
N(x; 0, 2)
N(x; -1, 2)
standard-normalverteilte Zufallszahlen N(x;0,1)
in python mit numpy.random.randn()
Gauß-Verteilung (2)
Der Name „Normalverteilung“ und die
Widmung des 10D DM Geldscheins an
Gauß und seine „Glockenkurve“ deuten
auf die besondere Bedeutung der
Gaußverteilung hin.
Die Gauß-Verteilung ist die Grenzverteilung, gegen die viele andere bei
großer Anzahl von Zufallsereignissen konvergieren.
Außerdem sind Mittelwerte aus hinreichende vielen Zufallszahlen unter
schwachen Voraussetzungen näherungsweise Gauß-verteilt
(siehe „zentraler Grenzwertsatz“)
Anwendungen:
Quantile der Gaußverteilung in Medizin, den empirischen
Geisteswissenschaften, bei der Qualitätskontrolle ...
Messunsicherheiten in Ingenieur- und Naturwissenschaften
fundamentale Verteilung in vielen Naturgesetzen:
Brown'sche Molekularbewegung und Maxwell'sche Geschwindigkeitsverteilung, „Ortsunschärfe“ in den Quantenphysik
in vielen statistischen Verfahren werden implizit Gaußverteilte
Größen vorausgesetzt
z. B. „normalverteilte Klausurnoten “ (?)
Binomial- ↔ Poisson- ↔ Gauss-Verteilung
für große n nähert sich die Poisson-Vert. einer Gauß-Verteilung an
für kleine p und große n nähert sich die Binomial- der Poissonverteilung an mit μ= np
import numpy as np, matplotlib.pyplot as plt, scipy.special as sp
def fGauss(x,mu=0.,sigma=1.): # Gauss distribution
return (np.exp(-(x-mu)**2/2/sigma**2)/np.sqrt(2*np.pi)/sigma)
def fPoisson(x,mu): # Poisson distribution
k=np.around(x)
return (mu**k)/np.exp(mu)/sp.gamma(k+1.)
def fBinomial(x,n,p): # Binomial distribution
k=np.around(x)
return sp.binom(n,k) *p**k *(1.-p)**(n-k)
#-------------------------------------------------------------# plot basic distributions
mu, sig = 50., np.sqrt(mu)
x = np.arange(20, 80., 0.1)
plt.plot(x, fGauss(x,mu,sig), 'r-')
plt.plot(x, fPoisson(x,mu), 'b-')
p, n = 0.1, mu/p
plt.plot(x, fBinomial(x,n,p), 'g-')
# ( … ) # produce nice text
plt.show()
basicDistributions.py
← einige spezielle Funktionen in
scipy.special [ n! = gamma(n+1) ]
Einschub:
Binomial → Poisson
Etwas Mathematik für theoretisch Interessierte:
0.5
p=0.5, n=5
p=0.5, n=10
p=0.5, n=20
p=0.5, n=30
0.45
0.4
0.35
- Verteilung
P(μ, k)
B(p, n, k)
Gauss ↔ Poisson ↔ Binomial
0.3
μ=2.0
μ=5.0
μ=10.0
μ=25.0
0.25
0.2
0.3
0.15
0.25
0.2
0.1
0.15
Binomial
n, p
0.1
0.05
0
0
2
4
6
8
10
12
14
16
18 20
k
p→ 0
np=μ
n→ ∞
μ→ ∞
Gauß
μ, σ
N(x; 0, 1)
N(x; 0, 2)
N(x; -1, 2)
Poisson
μ
0.05
0
0
5
10
15
20 25
30
35
40
45
50
k
Zentraler Grenzwertsatz
oder warum sind Messfehler Gauß-verteilt ?
Im Grenzfall von großen N ist die Summe von N unabhängigen
Zufallszahlen eine Zufallszahl, die einer Gauß-Verteilung folgt.
xi aus beliebiger Verteilung mit
Mittelwert μi und endlicher Varianz σi
Bedingung von Lyapunov:
endlich für alle N
⇒
x ist Gauß-verteilt mit
Erwartungswert
Beweis im Prinzip einfach; erfordert neues Konzept:
die „charakteristische Funktion“ einer Verteilung,
s. z.B. S. Brand, Datenanalyse
und Varianz
s. Vorlesungs-Demo
u. Übungsaufgabe
Beispiel 1:
zentraler Grenzwertsatz
Gleichverteilung und
Verteilung der Summen
von 2, 3 und 10 gleichverteilten Zufallszahlen.
Anm.: Addition von
Zufallszahlen ist eine
sogenannte „Faltung“
Summe von 10 Zufallszahlen ist gute
Annäherung einer Gauß-Kurve

Beispiel 2:
zentraler Grenzwertsatz
funktioniert auch in mehreren Dimensionen, hier am Beispiel der Elefantenverteilung:
Beliebige Verteilung
Verteilung der Summe von 3 Zufallszahlen
wie erwartet:
Ergebnis → Gaußverteilung
weitere Verteilungen
χ2 (x, n)
xi standard-normalverteilt,
χ2-Verteilung
0.5
n=1
0.45
n=2
n=5
0.4
n=10
0.35
folgt der sogenannten
0.3
χ2-Verteilung mit n Freiheitsgraden:
0.25
0.2
0.15
0.1
0.05
0
0
Erwartungswert
2
4
6
8
10
12
14
für große n ist
Varianz
standard-normalverteilt
es gilt:
Anwendung: Summe der quadratischen Abweichungen von Messwerten von einer
Funktion folgt einer χ2-Verteilung
(für Gauß-förmige Fehler σi, s. auch später: „χ2-Anpassung“)
16 18 20
x
weitere Verteilungen
Cauchy (=Breit-Wigner) -Verteilung
Erwartungswert
(aber schlecht definiert!)
Varianz existiert nicht, statt dessen
Halbwertsbreite („FWHM“) = Γ
– tritt bei Resonanzphänomenen auf,
– ist Fouriertransformierte der Exponentialverteilung
– Unschärferelation: Resonanzbreite = h/Lebensdauer
Generalisierte Poisson-Verteilung:
Gamma-Verteilung
Verteilung des Erwartungswertes einer Poissonverteilung,
bestimmt aus der mit dem Faktor α skalierten Beobachtung von N
Poisson-verteilten Ereignissen, n = αN,
z.B:
- N simulierte Ereignisse, α N Ereignisse in Daten erwartet
- Untergrundbeobachtung in Seitenband, α N Ereignisse im
Signalbereich erwartet
Spezialfall einer
Gamma-Verteilung
n=αN folgt
Maximum bei αN
Mittelwert α(N+1)
Varianz α2(N+1)
Logarithmische Normalverteilung
wenn Logarithmus einer Zufallsgröße normalverteilt ist:
Anwendung: Größen, die sich als Produkt
von fehlerbehafteten Faktoren ergeben
Bsp: Aussage „Faktor zwei Unsicherheit“
gut beschrieben durch Log-Normalverteilung mit κ=2
NB: Variablensubstitution:
führt Log-Normalverteilung in
Normalverteilung über:
Log-Normal-Verteilung
Eigenschaften:
- f(x=0) = 0; längere Ausläufer als Gaußverteilung für große x
- geht für Werte von κ≈ 1 mit κ=exp(ε)≈ 1+ε und ε= σ/μ
asymptotisch in die Gaußverteilung G(x;μ,σ) über
x
Logarithmische Normalverteilung
f(x, σ , μ)
Produkt vieler, unabhängiger, identisch verteilter Messungen:
1
μ=0.0, σ =0.5
μ=0.0, σ =1.0
μ=0.0, σ =1.5
μ=1.0, σ =1.0
0.9
0.8
0.7
(Erwartungswert)
(Varianz)
0.6
0.5
0.4
0.3
NB:
Variablensubstitution:
führt Log-Normalverteilung in
Normalver-teilung über:
0.2
0.1
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
x
Multinomial-Verteilung
Verallgemeinerung der Binomialverteilung von zwei auf k mögliche Ergebnisse,
Verteilung der Anzahlen nk für die Beobachtung von Ereignis k bei N Versuchen
Eigenschaften:
Erwartungswert
Varianz
Kovarianz
Korrelationskoeffizient
Beschreibt z.B. Verteilung der Bin-Inhalte eines Histogramms mit k Bins und N Einträgen
Randverteilung
P(ni ) = Binomial( ni; N, pi )
Grenzverteilung für große N und k:
P(ni ) = Poisson( ni; Npi )
Multidimensionale Gaußverteilung
2d Gauß
μi=0, σi=1, ρ=0.5
allg. Kovarianzmatrix
mit Korrelationskoeffizienten ρij
2-dimensional
Script: plot3dGauss.py
Kovarianz-Ellipse
Kontur konstanter Wahrscheinlichkeitsdichte („Höhenlinie“) bei 2d-Gaußverteilung
ist eine Ellipsengleichung
x2
Kovarianz-Ellipse
Winkel zwischen
x-Achse und Hauptachse der Ellipse
hängt von ρ12 ab:
σ2
α=0° für ρ12=0
σ2
Fläche innerhalb der 1-σ Ellipse
entspricht ~39% Wahrscheinlichkeit
σ1
σ1
x1
gebräuchliche Darstellung bei Problemen mit vielen Variablen:
Kovarianz-Ellipsen von Variablen-Paaren
Kovarianz in ROOT
Standard-normalverteilte Zufallszahlen mit ρ=0.75
TH2::Draw(“surf3“);
„scatter plot“
TH2::Draw();
Methoden TH2::GetCovariance und TH2:GetCorrelationFactor
zur Berechnung der Kovarianz oder des Korrelations-Koeffizienten
Anhang & Nachtrag
für mathematisch Interessierte
Ergebnis- und Ereignisraum
Eine Menge
heißt Ergebnisraum eines Zufsallsexperiments, wenn jedem Versuchsausgang höchstens ein Element
zugeordnet ist. Die heißen dann die Ergebnisse des Zufallsexperiments.
●
Beispiele:
●
Münzwurf
●
Würfelwurf
●
Bestimmung der Fallbeschleunigung (wie lautet der Ergebnisraum?).
●
●
.
.
Bestimmung der Anzahl radioaktiver Atome nach einer Zeitspanne
Ergebnisraum?).
(wie lautet der
Zerfall eines -Leptons in der Teilchenphysik.
Jede Teilmenge
heißt Ereignis. tritt genau dann ein, wenn sich ein
Ergebnis
einstellt, das in enthalten ist. Die Menge aller Ereignisse heißt
Ereignisraum
.(4)
(4)
Beachte: Interpretation des Ereignisraums noch offen!
Wahrscheinlichkeitsverteilung (nach Kolmogorov)
Eine auf dem Ereignisraum
definierte Funktion
(5)
heißt Wahrscheinlichkeitsverteilung über dem Ergebnisraum
die folgenden Eigenschaften erfüllt:
●
●
●
Für jedes Ereignis
gilt
( Nichtnegativität).
Für die Wahrscheinlichkeit zweier disjunkter Ereignisse
gilt:
( Linearität).
Die Wahrscheinlichkeit
, wenn sie
und
(Normierungsbedingung).
(
)
Bedingte Wahrscheinlichkeit
Sei eine Wahrscheinlichkeitsverteilung über dem Ergebnisraum
Ereignis mit
und ein beliebiges Ereignis. Dann heißt
die (bedingte) Wahrscheinlichkeit von
●
unter Bedingung
,
ein
.
Anmerkungen:
●
genügt).
●
●
ist selbst eine Wahrscheinlichkeitsverteilung über
kann selbst als bedingte Wahrscheinlichkeit
.
(die den Axiomen von Kolmogorov
betrachtet werden für
.
Satz von der totalen Wahrscheinlichkeit
Bilden die Ereignisse
mit
für alle eine Zerlegung des
Ergebnisraums (mit den Eigenschaften
und
) dann gilt
für die Wahrscheinlichkeit eines beliebigen Ereignisses :
●
●
Oft sieht man den Satz von der totalen Wahrscheinlichkeit auch in einer
Formulierung in Kombination mit dem Satz von Bayes:
Oder etwas eingängiger für den Spezialfall
und
:
Stochastische Unabhängigkeit
Zwei Ereignisse
und
heißen stochastisch unabhängig, wenn gilt
und stochastisch abhängig sonst.
●
Im Rahmen bedingter Wahrscheinlichkeiten bekommt stochastische Unabhängikeit eine sehr anschauliche Bedeutung:
(und umgekehrt)
D.h. die Wahrscheinlichkeit für das Eintreten von Ereignis
vom Eintreten des Ereignisses .
is unabhängig
Bedingte Wahrscheinlichkeit
Sei eine Wahrscheinlichkeitsverteilung über dem Ergebnisraum
Ereignis mit
und ein beliebiges Ereignis. Dann heißt
die (bedingte) Wahrscheinlichkeit von
●
ein
.
Anmerkungen:
●
●
●
55
unter Bedingung
,
ist selbst eine Wahrscheinlichkeitsverteilung über
kann selbst als bedingte Wahrscheinlichkeit
(die den Axiomen von Kolmogorov genügt ).
betrachtet werden für
.
.
●
Institute of Experimental Particle Physics (IEKP)
●
Herunterladen