Wahrscheinlichkeitstheorie und Statistik

Werbung
wst
Wahrscheinlichkeitstheorie und Statistik
Dr. D. Adams
Fachhochschule Nordwestschweiz
Hochschule für Technik
IMN
FS 2017
[email protected]
wst
1/119
wst
Bibliographie
Lothar Papula.
Mathematik für Ingenieure und Naturwissenschaftler – Ein
Lehr- und ArbeitsBuch für das Grundstudium, volume 2.
Vieweg + Teubner, Wiesbaden, 2009.
T. Sigg.
Grundlagen der Differentialgleichungen für Dummies.
Für Dummies Series. Wiley VCH Verlag GmbH, 2012.
ISBN 9783527707959.
[email protected]
wst
2/119
wst
Griechisches Alphabet
Grossbuchst.
A
B
Γ
∆
E
Z
H
Θ
I
K
Kleinbuchst.
α
β
γ
δ
, ε
ζ
η
θ, ϑ
ι
κ, κ
[email protected]
Λ
M
N
Alpha Ξ
Beta
O
Gamma Π
Delta P
Epsilon Σ
Zeta
T
Eta
Y
Theta Φ
Iota
X
Kappa Ψ
Ω
λ
µ
ν
ξ
o
π, $
ρ, %
σ, ς
τ
υ
φ, ϕ
χ
ψ
ω
wst
Lambda
My
Ny
Xi
Omikron
Pi
Rho
Sigma
Tau
Ypsilon
Phi
Chi
Psi
Omega
3/119
wst
Beschreibende Statistik
Beschreibende Statistik
[email protected]
wst
4/119
wst
Beschreibende Statistik
Was ist Stochastik
Definition (Stochastik)
Beschreibung und Untersuchung
von Ereignissen, die vom Zufall
beeinflusst werden.
Wahrscheinlichkeitstheorie +
Statistik
Einsatzgebiete Statistik:
Technik, Physik
Meteorologie
Ökonomie
Definition (Statistik)
Analyse von Daten, die durch
Zufall beeinfluss sind
[email protected]
wst
5/119
wst
Beschreibende Statistik
Arbeitsweise Statistik
Formulierung Problem
Planung Experiment
Ausführung Experiment
Beschreibung experimentelle
Daten
Schluss von Stichprobe auf
Grundgesamtheit
[email protected]
wst
6/119
wst
Beschreibende Statistik
Beispiel Neonröhren
Formulierung Problem:
Wie gross ist Lebensdauer der Neonröhren, die an FHNW
verwendet werden?
Planung Experiment:
Test einer Röhre genügt nicht. Alle können nicht getestet
werden. Wir testen 11 Röhren.
Ausführung Experiment:
x1 x2 x3 x4 x5 x6
24 39 45 51 55 62
Angaben in Monaten
x7
64
x8
65
x9
67
x10
76
x11
123
Beschreibung experimentelle Daten:
Lageparameter: Durchschnitt und Standartabweichung
x = 61 ± 25.25
Schluss von Stichprobe auf Grundgesamtheit:
Durchschnittliche Lebensdauer 61 Monate
[email protected]
wst
7/119
wst
Beschreibende Statistik
b
x1
b
b
b
b
x2 x3 x4 x5
x6 x8
b bb b
x7 x9
b
b
x10
x11
b
|
|
0 Aunten = 22
|
Q0.25 = 45
[email protected]
x
e = 62
| |
Q0.75 = 67
|
Aoben = 100
Ausreisser
|
wst
8/119
wst
Beschreibende Statistik
Definition (Mittelwert)
Pn
xi
x = i=1
n
Stichprobenumfang: n
Definition
(Standart-Abweichung)
sP
n
2
i=1 (xi − x)
s=
n−1
[email protected]
Definition (Grundgesamtheit)
Menge der Elemente, die
untersucht werden soll.
Definition (Stichprobe)
Teilmenge der Grundgesamtheit,
die untersucht wird.
wst
9/119
wst
Beschreibende Statistik
Metrische vs. diskrete Grössen
Quantitative Merkmale unterteilt in diskrete und metrische
diskrete Merkmale werden meistens von mehreren
Merkmalsträgern angenommen
bei diskreten Merkmalen ist es sinnvoll zu zählen wie of eine
Merkmals-Ausprägung angenommen wird
bei metrischen Grössen gibt es zu fast jedem Merkmalsträger
eine eine, von anderen verschiedene Merkmal-Ausprägung
(sogar bei grossen Stichproben)
[email protected]
wst
10/119
wst
Beschreibende Statistik
Metrische (stetige) Grössen (m), diskrete Grössen (d),
qualitative Merkmale (q)
Ordnen sie zu:
Windgeschwindigkeit
Sonnenschein-Dauer am letzten Tag im Monat
Anzahl Regentage im April
Luftdruck
Stau-Stunden am Gotthard
Anzahl Lastwagen durch Belchentunnnel
Zivilstand
steuerbares Einkommen
abgeschlossene Diplome.
[email protected]
wst
11/119
wst
Beschreibende Statistik
Metrische (stetige) Grössen (m), diskrete Grössen (d),
qualitative Merkmale (q)
Ordnen sie zu:
Windgeschwindigkeit (m)
Sonnenschein-Dauer am letzten Tag im Monat (m)
Anzahl Regentage im April (d)
Luftdruck (m)
Stau-Stunden am Gotthard (m)
Anzahl Lastwagen durch Belchentunnnel (d/m)
Zivilstand (q)
steuerbares Einkommen (m)
abgeschlossene Diplome (q)
[email protected]
wst
12/119
wst
Beschreibende Statistik
Darstellung von Daten
Häufigkeitstabellen:
Graphische Darstellung
Häufigkeitstabellen (Tabelle,
m/d)
Histogramme (Plot, m/d)
Kreisdiagramme (q)
[email protected]
Anzahl Klassen (Richtwert)
√
k≈ n
Klassenbreite d ≈
xmax −xmin
k
Intervalle [ai , ai+1 [ (Daten
auf Grenzen konsistent zu
rechten Klasse gezählt)
wst
13/119
wst
Beschreibende Statistik
Häufigkeitsverteilungen
Erstellen Sie ein Histogramm zu den Anzahl Betriebsstörungen an
Baumaschinen.
i
hi
0
48
1
38
2
10
3
4
Erstellen Sie ein Diagramm zum Verhältnis Studentinnen zu
Studenten in der Klasse
Erstellen Sie eine Häufigkeitstabelle und ein Histogramm zu den
Daten der Zugfestigkeit (Walzdraht, S. 6)
[email protected]
wst
14/119
wst
Beschreibende Statistik
Lageparameter
Definition (Arithmetisches Mittel)
n
x=
1X
xi
n
i=1
Definition (Harmonisches Mittel)
x h = n/
n
X
1
xi
i=1
Definition (Geometrisches Mittel)
x g = (x1 · x2 . . . xn )1/n =
[email protected]
n
Y
i=1
xi
!1/n
wst
15/119
wst
Beschreibende Statistik
Lageparameter
Definition (Median)

x n+1
( 2 )h
i
x̃ =
1/2 · x n + x n
( )
( +1)
2
n gerade
n ungerade
2
Definition (Quartile Q0.25 , Q0.75 )
Oberhalb von Q0.75 , liegt 1/4 der Messungen, unterhalb von Q0.25
liegt 1/4 der Messungen
Definition (Ausreissergrenzen)
Aunten = Q0.25 − 1.5 · dQ und Aoben = Q0.75 + 1.5 · dQ
Quartilsweite: dQ = Q0.75 − Q0.25
[email protected]
wst
16/119
wst
Beschreibende Statistik
Mittlere Geschwindigkeit?
Strecke [km]
Geschwindigkeit [km/h]
20
40
20
120
20
80
Pn
Pn
si
i si
P
P
ṽ = n = ni si
t
i i
i vi
v h = 65.45 km/h
Mittlere Verzinsung?
Jahr
Zins %
1
8.5
2
12.2
3
-4.5
K = K0 · (1 + r1 ) · (1 + r2 ) · (1 + r3 )
v g = 5.15 %
[email protected]
wst
17/119
wst
Beschreibende Statistik
Median/Quartile/Ausreisser
5.3
3.8
4.0
19.5
3.1
3.8
4.0
5.0
4.9
2.2
4.1
3.1
5.5
Ordnen:
2.2
4.1
4.9
5.0
5.3
5.5
19.5
Mittelwert: x = 5.74
Median: x̃ = 12 (4.1 + 4.9) = 4.5
Quartile: Q0.25 = 3.8 und Q0.75 = 5.3
Aussreissergrenzen: Aunten = Q0.25 − 1.5 · dQ = 1.55 und
Aoben = Q0.75 + 1.5 · dQ = 7.55 ⇒ 19.5 ist Ausreisser
Erstelle Box- und Whiskperplot
Ohne Ausreisser (Mittelwert/Median):
Mittelwert: x = 4.2
Median: x̃ = 12 (4.1 + 4.9) = 4.1
[email protected]
wst
18/119
wst
Beschreibende Statistik
Mittelwert vs. Median
Median ist stabiler gegenüber Ausreissern.
[email protected]
wst
19/119
wst
Zufall und Ereignis
Zufall und Ereignis
[email protected]
wst
20/119
wst
Zufall und Ereignis
Definition (Zufallsexperiment)
Vorgang
beliebig oft wiederholbar und
Ausgang ungewiss
(innerhalb einer Menge möglicher Ergebnisse).
Definition (Stichprobenraum )
Menge S aller Ausfallsmöglichkeiten.
[email protected]
wst
21/119
wst
Zufall und Ereignis
Geben Sie den Stichprobenraum an
Werfen einer Münze
Werfen eines Würfels
Ziehung einer Lottozahl
Kontrolle eines (unangemeldeten) Haushalts durch die Bilag
Werfen einer Münze S = {K , Z }
Werfen eines Würfels S = {1, 2, 3, 4, 5, 6}
Ziehung einer Lottozahl S = {1, 2, 3, . . . , 44, 45}
Bilag S = {Fernseher, Radio, 0}
[email protected]
wst
22/119
wst
Zufall und Ereignis
S
A∩B
B
A
Definition (Verknüpfung von
Ereignissen)
S
und-Verknüpfung A ∩ B
A∪B
oder-Verknüpfung A ∪ B
B
A
Gegenereignis A
S
A
[email protected]
A̅
wst
23/119
wst
Zufall und Ereignis
Theorem (Morgansche Regeln)
A∪B =A∩B
A∩B =A∪B
[email protected]
wst
24/119
wst
Zufall und Ereignis
Beschreiben Sie in Worten und Mengen
S = {1, 2, 3, 4, 5, 6}, A = {1, 3, 5}, B = {2, 4, 6}, C = {3, 6}
A= {2, 4, 6} = B, Würfeln einer geraden Zahl
B= {1, 3, 5} = A, Würfeln einer ungeraden Zahl
A ∪ B ={1, 2, 3, 4, 5, 6} = S, Sicheres Ereignis
A ∩ B =∅, unmögliches Ereignis
A ∩ C ={3}, Würfeln der 3
[email protected]
wst
25/119
wst
Zufall und Ereignis
Er eignisbaum
.
1 . Teilversuch
K
2. Teilversuch
3. Teilversuch
4. Teilversuch
Z
K
K
K
Z
Z
K
Z
K
K
Z
K
Z
Z
K
Z
K
Z
K
Z
Z
K
K
Z
K
Z
Z
K
Z
Theorem (Produktregel)
Besteht ein zusammengesetzter Versuch aus m unabhängigen
Teilversuchen mit jeweils [n1 , n2 , n3 , n4 , . . . , nm
Ausfallsmöglichkeiten, dann besitzt der Versuch
n1 · n2 . . . · nm Ausfälle.
[email protected]
wst
26/119
wst
Zufall und Ereignis
Permutationen der Ziffern 1 bis 5?
P(5) = 5 · 4 · 3 · 2 · 1 = 720
Variation 3-ter Ordnung mit Zurücklegen.
[email protected]
wst
27/119
wst
Zufall und Ereignis
Anzahl mögliche dreistellige Zahlen?
Ziffern 1 bis 9.
V (9; 3) = 93 = 729
Variation 3-ter Ordnung mit Zurücklegen.
[email protected]
wst
28/119
wst
Zufall und Ereignis
Anzahl mögliche Schaltungen
5 verschiedene Widerstände R1 , . . . , R5
Jeder Widerstand nur ein Mal verwenden
5!
5
C (5; 3) =
=
= 10
3
3! · 2!
Kombination 3-ter Ordnung ohne Zurücklegen.
[email protected]
wst
29/119
wst
Zufall und Ereignis
Anzahl mögliche Stichproben einer Lieferung von Batterien?
Gelieferte Batterien: 100, Stichprobe: 10
100!
100
C (12; 3) =
=
= 17 310 309 456 440
10
10! · 90!
Kombination 10-ter Ordnung ohne Zurücklegen.
[email protected]
wst
30/119
wst
Zufall und Ereignis
Anzahl mögliche dreistellige Zahlen?
Ziffern 1 bis 9. Jeder Ziffer nur ein Mal verwenden. (Ziffern 1 bis 9:
kein Probleme mit führenden 0)
V (9; 3) =
9!
= 7 · 8 · 9 = 504
(9 − 3)!
Variation 3-ter Ordnung ohne Zurücklegen.
[email protected]
wst
31/119
wst
Zufall und Ereignis
Pferdetoto
Dreierwette: Zieleinflauf der ersten drei Pferde. Anzahl
Möglichkeiten bei 10 Pferden?
V (10; 3) =
10!
= 720
(10 − 3)!
Variation 3-ter Ordnung ohne Wiederholungen.
[email protected]
wst
32/119
wst
Zufall und Ereignis
Anzahl mögliche Schaltungen
5 verschiedene Widerstände R1 , . . . , R5
Jeder Widerstand bis zu 3 Mal verwenden
7!
5+3−1
Cw (5; 3) =
=
= 35
3
4! · 3!
Kombination 3-ter Ordnung mit Zurücklegen.
[email protected]
wst
33/119
wst
Zufall und Ereignis
Kombination
k-ter
Ordnung
Variation
k-ter
Ordnung
ohne
Wiederholung
n
C (n; k) =
k
V (n; k) =
n!
(n−k)!
Ziehung
ohne
Zurücklegen
mit
Wiederholung
n+k −1
Cw (n; k) =
k
Vw (n; k) = nk
ungeordnete
Stichproben
geordnet
Stichproben
Ziehung
mit
Zurücklegen
Definition (Binomialkoeffizient)
n!
n
=
k
k! · (n − k)!
[email protected]
wst
34/119
wst
Wahrscheinlichkeit
Definition (Wahrscheinlichkeit (theoretisch))
g
p=
m
g : Anzahl günstige Fälle
m: Anzahl mögliche Fälle
Wahrscheinlichkeit 6 beim Würfeln?
m = 6,
g =1 ⇒ p=
1
6
Wahrscheinlichkeit Kopf beim Werfen Münze?
m = 2,
[email protected]
g =1 ⇒ p=
1
2
wst
35/119
wst
Wahrscheinlichkeit
6 Richtige Zahlen beim Lotto (6 mal 45 Zahlen)?
45
m=
= 8 145 060
6
g =1 ⇒ p=
1
= 0.000 000 123
m
Vergleiche Wahrscheinlichkeit mit Strecke Brugg-Paris
Strecke: 611 000 m.
0.07
p≈
611 000
ca. 7 cm!
[email protected]
wst
36/119
wst
Wahrscheinlichkeit
10 Nüsse davon 3 verdorben.
Wahrscheinlichkeit mit einem Griff 2 gute Nüsse zu finden.
10
m=
= 45
2
7
g=
= 21
2
Hier ist es einfacher mit geordneten Stichproben zu rechnen,
obwohl eine ungeordnete Stichprobe !
Geordnete Stichprobe vs. ungeordnete Stichprobe
Bei vielen Experimenten können geordnete Stichproben betrachtet
werden. Das vereinfach oft die Rechnungen. Dabei muss m und g
konsequent für geordnete Stichproben berechnet werden
[email protected]
wst
37/119
wst
Wahrscheinlichkeit
Definition (Wahrscheinlichkeit (experimentell))
h(si ) =
Anz.desAuftretensvonsi
ni
=
Anz.Versuche
N
Für Wahrscheinlichkeiten p(si ) (oder h(si ) gilt:)
Theorem ( Axiome der Wahrscheinlichkeit )
Sei S = {s1 , s2 , . . . sn } der Stichprobenraum des Versuchs (d.h.
si ∪ sj = 0 für i 6= j):
0 ≤ p(si ) ≤ 1
p(s1 ) + p(s2 ) + . . . + p(sn ) = 1
Spezielles Ereignis, z.B A = {s1 , s2 , s3 }:
p(A) = p(s1 ) + p(s2 ) + p(s3 )
[email protected]
wst
38/119
wst
Experimentelle Wahrscheinlichkeit
Experimentelle Wahrscheinlichkeit (Simulation)
Führen Sie mit matlab folgenden Versuch durch: Mit einem Würfel
wird 1000 mal gewürfelt. Bei jedem Wurf wird notiert, wie viele
mal insgesamt eine 3 gewürfelt wurde.
Befehle: for i=1:mmax ... end, r>0, randi([1 3])
mmax=10ˆ3;
s t a =(1:mmax+1)∗0; % l e e r e L i s t e
f o r i =1:mmax
r = randi ([1 6]);
% W ü r f e l n
s t a ( i +1)=( s t a ( i )+( r ==3));
end
initialisieren
Berechnen und plotten Sie die Wahrscheinlichkeit, dass eine 3
gewürfelt wird als Funktion der Versuchsnummer.
Gegen welchen Wert konvergiert die relative Häufigkeit? Befehle:
plot, ./ , end
[email protected]
wst
39/119
wst
Experimentelle Wahrscheinlichkeit
Experimentelle Wahrscheinlichkeit forts.
r e l h=s t a . / ( 1 : mmax+1);
p l o t ( ( 1 : mmax+1) , r e l h )
r e l h ( end −2: end )
[email protected]
wst
40/119
wst
Experimentelle Wahrscheinlichkeit
Theorem (Additionssatz)
allgemein:
p(A ∪ B) = p(A) + p(B) − p(A ∩ B)
also für A und B elementfremd:
p(A ∪ B) = p(A) + p(B)
Wahrscheinlich Gegenereignis
q = p(A) = 1 − p(A)
S
A∪B
A
[email protected]
B
wst
41/119
wst
Experimentelle Wahrscheinlichkeit
Theorem (Multiplikationssatz)
A und B beziehen sich auf Teilversuche:
p(A ∩ B) = p(A) · p(B)
[email protected]
wst
42/119
wst
Experimentelle Wahrscheinlichkeit
Würfel
A = {1, 3, 5} und B = {3, 4, 5, 6}. Berechnen Sie p(A ∪ B).
p(A ∪ B) = p(A) + p(B) − p(A ∩ B)
1 1 1
1 1 1 1
1 1
=
+ +
+
+ + +
−
+
6 6 6
6 6 6 6
6 6
5
=
6
Wahrscheinlichkeit drei mal hintereinander Sechs zu würfeln.
1 1 1
1
p(A1 ∩ A2 ∩ A3 ) = · · = 3 = 0.00463
6 6 6
6
[email protected]
wst
43/119
wst
Experimentelle Wahrscheinlichkeit
Beispiel Versuch mit p und q
p Wahrscheinlichkeit für Erfolg, q = 1 − p Wahrscheinlichkeit für
MissErfolg. Für n Versuche berechnen Sie
Wahrsch. für n Erfolge p n
Wahrsch. für n Misserfolge q n = (1 − p)n
Wahrsch. mind. ein Erfolg 1 − q n
Wahrsch. erster Erfolg beim letzten Versuch: q n−1 · p
[email protected]
wst
44/119
wst
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen: Münze
Versucht: zwei unabhängige Münzwürfe.
Erstellen Sie eine Tabelle (Resultat ungeordnet notiert):
Ausgang Experiment
Wahrscheinlichkeit
Aufsummieren
[email protected]
(K,K)
0.25
0.25
(K,Z)
0.5
0.75
wst
(Z,Z)
0.25
1
45/119
wst
Wahrscheinlichkeitsverteilungen
Definition (Zufallsgrösse)
X :S
si
→ R
7→ X (si ) = xi
S = {s1 , s2 , . . . }: Stichprobenraum Zufallsgrösse X kann Werte xi
annehmen.
Definition (Wahrscheinlichkeitsverteilung: )
Jedem Ausfall si wird eine Wahrscheinlichkeit zugeordnet:
P(xi ) = pi .
Definition (Verteilfunktion)
Summe der Wahrscheinlichkeiten
von links
P
P(X ≤ xi ) = kxi P(X = xi ) Synonym: Summenfunktion
[email protected]
wst
46/119
wst
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen: Münze
Versucht: zwei unabhängige Münzwürfe. Resultat geordnet
notiert. Erstellen Sie eine Tabelle mit dem Stichprobenraum, der
Wahrscheinlichkeitsverteilung und Verteilfunktion des
Stichprobenraums.
Stichprobenraum
Wahrscheinlichkeitv.
Verteilf.
[email protected]
(K,K)
0.25
0.25
(K,Z)
0.25
0.5
(Z,K)
0.25
0.75
wst
(Z,Z)
0.25
1
47/119
wst
Wahrscheinlichkeitsverteilungen
Wahrsch.-Vert.
Visualisieren Sie für die Beispiele Wahrscheinlichkeitsverteilung und
die Verteilfunktion.
Geordnet:
0.25

(K,K) (K,Z) (Z,K) (Z,Z)
1.0
0.20
0.8
0.15
0.6
0.10
0.4
0.05
0.00
(K,K) (K,Z) (Z,K)
(Z,Z)
0.5
0.4
0.3
0.2
0.1
0.0
0.2
(K,K) (K,Z) (Z,K) (Z,Z)
0.0
(K,K) (K,Z) (Z,K)
(Z,Z)
(K,K) (K,Z) (Z,K) (Z,Z)
(K,K) (K,Z) (Z,K) (Z,Z)
1.0
0.8
0.6
0.4
0.2
0.0
(K,K) (K,Z) (Z,K) (Z,Z)
(K,K) (K,Z) (Z,K) (Z,Z)
Ungeordnet:
0.5

(K,K)
(K,Z)
(Z,Z)
1.0
0.4
0.8
0.3
0.6
0.2
0.4
0.1
0.0
(K,K)
(K,Z)
(Z,Z)
0.5
0.4
0.3
0.2
0.1
0.0
0.2
(K,K)
(K,Z)
(Z,Z)
[email protected]
0.0
(K,K)
(K,Z)
(Z,Z)
(K,K)
(K,Z)
(Z,Z)
(K,K)
(K,Z)
(Z,Z)
wst
1.0
0.8
0.6
0.4
0.2
0.0
(K,K)
(K,Z)
(Z,Z)
(K,K)
(K,Z)
(Z,Z)
48/119
wst
Erwartungswert und Varianz
Erwartungswert Münze
Max wirft einen Würfel und gewinnt Geld, falls er mehr als 3
würfelt. Wieviel Geld gewinnt er pro Wurf durchschnittlich?
Resultat
Gewinn (CHF)
µ = E (X ) =
1
0
2
0
3
0
4
4
5
5
6
6
1
1
1
· 4 + · 5 + · 6 = 2.5
6
6
6
Streuung des Gewinns?
σ
2
=
n
X
i=1
pi (xi − µ)2 = (−2.5)2 ·
+1.52 ·
≈ 6.58
[email protected]
1
1
+ (−2.5)2 · + (−2.5)2
6
6
1
1
1
+ 2.52 · + 3.52 ·
6
6
6
wst
49/119
wst
Erwartungswert und Varianz
Definition (Erwartungswert)
µ = E (X ) =
n
X
i=1
pi · xi
Definition (Varianz)
2
2
σ = Var (X ) = E ((X − µ) ) =
Standardabweichung: σ =
[email protected]
√
n
X
i=1
pi · (xi − µ)2
σ2
wst
50/119
wst
Erwartungswert und Varianz
Varianz: Zeigen Sie dass gilt
σ2 =
=
=
n
X
i=1
n
X
i=1
n
X
i=1
Pn
i=1 pi (xi
− µ)2 =
Pn
2
i=1 pi (xi )
− µ2
n
X
pi (xi )2 − 2xi µ + µ2 =
pi (xi )2 − 2xi pi µ + pi µ2
i=1
pi (xi )2 − 2µ
n
X
i=1
xi · pi + µ2
n
X
pi
i=1
pi (xi )2 − 2µµ + µ2 · 1
σ 2 = −µ2 +
[email protected]
n
X
pi (xi )2
i=1
wst
51/119
wst
Binomialverteilung
Definition ( Binomialverteilung)
n x
P(X = x) =
p · (1 − p)n−x
x
Oft auch q := (1 − p)
p
p
p
q
q
q
p
p
q
p
q
q
p
p3 p2q p2q pq2 p2q pq2 pq2
[email protected]
q
q
wst
52/119
wst
Binomialverteilung
Glücksrad (Simulation)
Führen Sie mit matlab folgenden Versuch durch. Am Glücksrad
werden 10 zufällige Zahlen zwischen 1 und 3 erzeugt. Der
Hellseher gibt vor der Ziehung jeweils seinen Tip ab. Zählen Sie die
richtigen Tips.
Befehle: 1:10, randi([1 5],1,6), sum
n=10
r= r a n d i ( [ 1 3 ] , 1 , n ) % Z a h l e n vom Rad
t= r a n d i ( [ 1 3 ] , 1 , n ) % T i p s von H e l l s e h e r
i n x=sum ( r==t )
% Anz r i c h t i g e T i p s
Notieren Sie in einer Liste (0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0), dass ein
richtiger Tipp abgegeben wurde (hier also 2 richtige Tipps).
Führen sie dann den Versuch 1000 mal durch (jedes Mal richtige
Tips in Liste hinzufügen!). Erstellen Sie so eine
Häufigkeitsverteilung. Befehle: for i=1:mmax ... end
[email protected]
wst
53/119
wst
Binomialverteilung
Glücksrad forts.
n=10 ; mmax=10ˆ3;
s t a =(1: n +1)∗0; %
f o r i =1:mmax
r= r a n d i ( [ 1 3 ] , 1 , n ) ;
t= r a n d i ( [ 1 3 ] , 1 , n ) ;
i n x=sum ( r==t ) ;
s t a ( i n x +1)= s t a ( i n x +1)+1;
end
[email protected]
wst
54/119
wst
Binomialverteilung
Glücksrad forts.
Berechnen Sie die Summenfunktion. Notieren Sie die
Wahrscheinlichkeitsverteilung und die Summenfunktion in einer
Tabelle und stellen Sie die Daten graphisch dar.
Befehle: sum, plot, hold on/off
x i =(1: n+1)−1;
% Legende f ü r
s t a : Anzahl der T r e f f e r
pp=s t a /sum ( s t a ) ; % p r o b a b b i l i t y d i s t r i b u t i o n from e
p l o t ( x i , pp )
ppv =[ pp ( 1 ) , sum ( pp ( 1 : 2 ) ) , . . . , sum ( pp ( 1 : 1 1 ) ) ]
h o l d on
p l o t ( x i , ppv )
hold o f f
Treffer
W.verteil.
Summenf.
0
0.014
0.014
1
0.076
0.090
[email protected]
2
0.210
0.300
3
0.265
0.565
4
0.216
0.781
5
0.141
0.922
6
0.054
0.976
wst
7
0.021
0.997
8
0.003
1.0
9
0
1.0
10
0
1.0
55/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Benutzen Sie das Model für das Glücksrad. Berechnen Sie den
Erwartungswert der Anzahl Treffer und die Varianz. Befehle: * ’
mu=x i ∗pp ’
% mean
%mu =
3.3120
s i g =( x i −mu ) . ˆ 2 ∗ pp ’ % s t a n d a r d dev
%s i g =
2.2707
Ändern Sie nun das Spiel: Am Glücksrad werden n zufällige Zahlen
zwischen 1 und 3 erzeugt (mit n=10,20,50,100). Machen Sie
wieder 1000 Durchläufe und notieren Sie Erwartungswert und
Varianz der Treffer.
n
µ
σ2
10
3.3120
2.2707
20
6.7150
4.3518
50
16.5310
11.2490
100
33.3400
23.9944
[email protected]
wst
Stellen
Sie die Tabelle grafisch dar und formulieren
Sie eine
56/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Vermutung:
µ(n) ∝ n und σ 2 (n) ∝ n
[email protected]
wst
57/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Ändern Sie nun das Spiel: Am Glücksrad werden 10 zufällige
Zahlen zwischen 1 und l erzeugt (mit l=2,3,5,10,20). Machen Sie
wieder 1000 Durchläufe und notieren Sie Erwartungswert und
Varianz der Treffer.
l
µ
σ2
p
2
2.4133
5.0260
0.5
3
2.1275
3.3500
0.33
5
1.6220
2.0550
0.2
10
0.9160
0.9940
0.1
20
0.4938
0.5140
0.02
Stellen Sie die Tabelle grafisch dar und formulieren Sie eine
Vermutung für µ(p) ( und evtl. σ 2 (p) in Abhängigkeit von
p · (1 − p)).
[email protected]
wst
58/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
p*q
Vermutung:
µ(n, p) ∝ n · p und σ 2 (n, p) ∝ n · p · (1 − p )
| {z }
q
[email protected]
wst
59/119
wst
Binomialverteilung
Theorem (Binomialverteilung: Erwartungswert und Varianz)
µ=n·p
2
σ =n·p·q
Berechnen Sie Erwartungswert und Varianz für die Punktesumme
bei 3 Würfen mit einem Würfel
µ = 3 · 0.5 = 1.5
σ 2 = 3 · 0.25 = 0.75
[email protected]
wst
60/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Berechnen Sie die Wahrscheinlichkeitsverteilung und die
Summenfkt. für das Glücksrad (p = 1/3, n = 10) und vergleichen
Sie mit den Resultaten aus der Simulation.
Befehle : f a c t o r i a l ( n ) , nchoosek (n , x ) .∗ ./ .ˆ
Simulation:
Treffer
W.verteil.
Summenf.
0
0.014
0.014
1
0.076
0.090
2
0.210
0.300
3
0.265
0.565
4
0.216
0.781
5
0.141
0.922
6
0.054
0.976
7
0.021
0.997
8
0.003
1.0
9
0
1.0
10
0
1.0
Theorie:
Treffer
W.verteil.
Summenf.
0
0.0173
0.0173
1
0.0867
0.1040
[email protected]
2
0.1951
0.2991
3
0.2601
0.5593
4
0.2276
0.7869
5
0.1366
0.9234
6
0.0569
0.9803
wst
7
0.0163
0.9966
8
0.0030
0.9996
9
0.0003
1.0000
61/119
wst
Binomialverteilung
Herleitung µ und σ Binomialverteilung: wichtige Ausdrücke
Vereinfache:
n n−x x
P(X = x) =
q
·p
x
n
X
µ =
x · P(X = x)
x=1
n
X
(xi )2 P(X = xi ) = σ 2 + µ2
x=1
p+q = 1
X
g 0 (t) =
4k 2 · t k−1
k=1
[email protected]
wst
62/119
wst
Binomialverteilung
Herleitung Erwartungswert µ
f (t) = (q + p · t)
n
=
f 0 (t) = n · (q + p · t)n−1 · p =
f 0 (1) = n · (q + p)n−1 · p =
n · (q + p)n−1 ·p =
| {z }
=1
n X
n
x
x=0
n X
n
x
x=0
n X
n
x
x=0
n
X
x=0
|
q n−x · p x · x · t x−1
q n−x · p x · x
P(X = x) · x
µ = n·p
[email protected]
q n−x · p x · t x
{z
=µ
wst
}
63/119
wst
Binomialverteilung
Herleitung Varianz σ 2 : f (t) = (q + p · t)n =
Pn
x=0
n
x
q n−x · p x · t x
f 00 (t) = n · (n − 1) · (q + p · t)n−1 · p 2
P
n n−x x
= nx=0
q
· p · x · (x − 1) · t x−2
x
f 00 (1) = n · (n − 1) · p 2
=
x=0
n2 · p 2 − n · p 2
| {z } | {z }
=
µ2 − µ · p
=
n
X
x=0
=µ·p
=µ2
n X
n
−µ · p + µ =
| {z }
|
x
q n−x · p x · x · (x − 1)
P(X = x) · x 2 −
{z
+ µ2
| {z }
=σ
2
σ 2 + µ2 − µ
σ2
}
n
X
x=0
|
P(X = x) · x
{z
=µ
}
µ·(−p+1)
[email protected]
wst
64/119
wst
Binomialverteilung
Glücksrad (Erwartungswert, Varianz)
Berechnen Sie Erwartungswert und Varianz das Glücksrad
(p = 1/3) und Vergleichen Sie mit den Resultaten aus der
Simulation.
Simulation:
n
µ
σ2
n
Theorie: µ
σ2
10
3.3120
2.2707
10
3.33333
2.1
[email protected]
20
6.7150
4.3518
20
6.66667
4.2
50
16.5310
11.2490
50
16.6667
10.5
100
33.3400
23.9944
100
33.3333
21
wst
65/119
wst
Binomialverteilung
Statitische Tests: Hühner
In Versuch kann Huhn Dreiecke oder Kreise picken. Es pickt 15
mal ein Dreieck und 5 mal einen Kreis. Zieht es Dreiecke vor?
Nullhypothese H0 : Es kann D/K nicht unterscheiden, p = 0.5.
Wahrscheinlichkeit, dass es 15 mal D pickt?
P(15 ≤ X ≤ 20) =
2
X
x=15
20 x 20−x
0
p ·q
= 0.020695
x
Signifikanzniveau: 5%
2% < 5% ⇒ Hühner können Dreiecke und Kreise unterscheiden
(und ziehen Dreiecke vor).
[email protected]
wst
66/119
wst
Binomialverteilung
Definition (Poissonverteilung)
µx −µ
e
x!
mit µ > 0 und x ∈ N0
P(X = x) =
Für die Poisson-Verteilung benutze
µ=n·p
Annäherung für diskrete Zufallgrössen und p ≤ 0.1 und n ≥ 100.
Theorem (Standart-Abweichung der Poissonverteilung)
σ2 = µ = n · p
[email protected]
wst
67/119
wst
Stetige Zufallsgrössen
y
y = f (x)
P
a
x1
x2 b
x
Definition (Verteilfunktion)
Die Wahrscheinlichkeit für das
Eintreten eines Ereignisses einer
stetigen Zufallgrösse X ist
gegeben durch die
Verteilfunktion F (x):
Z x
f (t)·dt .
F (x) = P(X ≤ x) =
Definition
(Wahrscheinlichkeitsdichte)
Die Funktion f (t), mit
Z x
P(X ≤ x) =
f (t) · dt
a
heisst
Wahrscheinlichkeitsdichte
a
[email protected]
wst
68/119
wst
Stetige Zufallsgrössen
Gleichverteilung
(
1/5
f (x) =
0
wenn 1 ≤ x ≤ 6
sonst
Zufallsgenerator für reelle Zahlen zwischen 1 und 6.
R∞
−∞ f (x)dx = 1


x <1
0
Rx
F (x) = −∞ f (t)dt = (x − 1)/5 1 ≤ x ≤ 6


1
sonst
F (−∞) = 0 und F (∞) = 1
d
dx F (x)
= F 0 (x) = f (x)
die Stellen, wo f (x) < 0 oder F 0 (x) < 0 gibt es nicht. Es gilt
f (x) ≥ 0
P(x1 ≤ X ≤ x2 ) = F (x2 ) − F (x1 )
[email protected]
wst
69/119
wst
Stetige Zufallsgrössen
y = f (x)
1
1
y = F (x)
P
x1
[email protected]
x2 1
1
wst
70/119
wst
Stetige Zufallsgrössen
Wahrscheinlichkeitsdichte/Verteilfunktion
Die Funktion F ist stetig, monoton wachsend, d.h.
f (x) = F 0 (x) ≥ 0
F (−∞) = 0 und F (∞) = 1
Der Gesamtflächeninhalt unter der
Wahrscheinlichkeitsdichtekurve
ist gleich 1, d.h.
R∞
f
(x)dx
=
1
−∞
d
dx F (x)
= f (x)
Die Wahrscheinlichkeit ein Ereignis zwischen x1 und x2 zu
erhalten, beträgt
Z x2
P(x1 ≤ X ≤ x2 ) =
f (t) · dt = F (x2 ) − F (x1 )
x1
[email protected]
wst
71/119
wst
Stetige Zufallsgrössen
Definition (Erwartungswert)
Definition (Varianz)
X sei stetige Zufallsgrösse:
Z ∞
µ = E (X ) =
x · f (x)dx
X sei stetige Zufallsgrösse:
Z ∞
2
2
σ = E (X −µ) =
(x−µ)2 f (x)dx
−∞
−∞
Integrationsgrenzen/praktische Berechnung
Bei einem beschränkten Intervall sind die Integrationsgrenzen
entsprechend abzuändern:
−∞ → a und ∞ → b
Ausserdem gilt:
2
σ =
Z
∞
−∞
[email protected]
x 2 · f (x)dx − µ2
wst
72/119
wst
Stetige Zufallsgrössen
1.0
e-
0.8
0.6
0.4
0.2
-1
1
2
3
4
Ein Elektron in einem Potentialkasten (mit unendlich hohen
Wänden)
[email protected]
wst
73/119
wst
Stetige Zufallsgrössen
Gleichverteilung
(
1/5
f (x) =
0
1
µ= ·
5
1
σ = ·
5
2
Z
1
[email protected]
6
Z
1
6
wenn 1 ≤ x ≤ 6
sonst
1 1 2 6 7
x · dx = · x
=
5 2
2
1
2
1 1 3 6 49
25
7
x · 1dx −
= · x
=
−
2
5 3
4
12
1
2
wst
74/119
wst
Normalverteilung
Funktionen verschieben und strecken
Berechnen Sie die Lage des Scheitelpunktes von
f (x) = x 2 , g (x) = (x −2)2 , h(x) = (x +1)2 −3, k(x) = (3+x)2 +1
f 0 (x) = 2x ⇒ f 0 (x) = 0 = 2x ⇒ x = 0 y = 0
g 0 (x) = 2(x − 2) ⇒ g 0 (x) = 0 = 2(x − 2) ⇒ x = 2 y = 0
h0 (x) = 2(x + 1) ⇒ h0 (x) = 0 = 2(x + 1) ⇒ x = −1 y = −3
k 0 (x) = 2(x + 3) ⇒ k 0 (x) = 0 = 2(x + 3) ⇒ x = −3 y = 1
Translationen
Die Transformation f (x) → f (x −l) +p verschiebt den Graphen
+l
der Funktion f (x) um den Vektor
in der x − y -Ebene
p
x
x +l
→
f (x)
f (x) + p
[email protected]
wst
75/119
wst
Normalverteilung
Funktionen verschieben und strecken
1
Skizzieren Sie die Funktion f (x) = x 21+4 − 16
auf dem Intervall
x ∈ [−15, 15] und bestimmen Sie die Schnittpunkte mit der
x-Achse.
Bestimmen Sie die Schnittpunkt mit der x-Achse der folgenden
Funktionen
g (x) =
1
2
( x8 )
+4
−
1
16 ,
h(x) =
1
(2x)2 +4
−
1
16 ,
k(x) =
1
( x2 )+4
−
1
16
g (x) = 0 ⇒ 768 = x 2 ⇒ x = ±27.712 (= 8 · 3.464)
h(x) = 0 ⇒ 3 = x 2 ⇒ x = ±1.732 (= 0.5 · 3.464)
k(x) = 0 ⇒ 48 = x 2 ⇒ x = ±6.928 (= 2 · 3.464)
[email protected]
wst
76/119
wst
Normalverteilung
R
0.15
g(x)
f(x)
0.10
0.05
k(x)
f(x)
0.00
-0.05
-15
-10
-5
h(x)
0
5
10
15
x
Streckung
Die Transformation f (x) → f (x/σ) streckt den Graphen der
Funktion f (x) um den Faktor σ entlang der x-Achse.
[email protected]
wst
77/119
wst
Normalverteilung
f(x)
Ordnen Sie zu
3
4
0
5 10 15
f(x)
x
1.0
0.8 B
0.6
0.4
0.2
0.0
-0.2
-15 -10 -5
0
5 10 15
x
f(x)
2
sin(x)
(A)
x
x+5
2 sin( 2 )
(D)
x+5
sin(2x)
− 5 (C)
2x
sin(3−x)
− x−3 (B)
-4.0
-4.2 C
-4.4
-4.6
-4.8
-5.0
-5.2
-15 -10 -5
0
5 10 15
x
f(x)
1
1.0
0.8 A
0.6
0.4
0.2
0.0
-0.2
-15 -10 -5
1.0
0.8 D
0.6
0.4
0.2
0.0
-0.2
-15 -10 -5
0
5 10 15
x
[email protected]
wst
78/119
wst
Normalverteilung
Integrieren
Berechnen Sie mit der Stammfunktion
ϕ(x) =
√
1
x2
+1
Z
p
2
Φ(x) = log x + x + 1 = ϕ(x)dx
Z
0
6
1
p
dx
(x/2)2 + 1
[email protected]
Z
5
1
p
dx = 2
(x/2)2 + 1
0
3
= 2 Φ(x) 0
= 2 Φ(3) − Φ(0) ≈ 3.637
=
wst
Z
0
3
√
1
z2
+1
dz
79/119
wst
Normalverteilung
Integrieren, forts.
Z
0
3
1
√
dx
4x 2 + 5
=
3
0
=
=
=
[email protected]
Z
1
√
5
p
Z
0
1
5 · (4/5 · x 2 + 1)
3
r
2x
√
5
1
2
dx
dx
+ 1)
√
2·3
Z √
5
1
5
1
√
√
dz
2
2
5 0
z +1
√6
1 · Φ(x) 0 5 ≈ 0.856615
2
wst
80/119
wst
Normalverteilung
Drücken Sie mit Hilfe der Stammfunktion aus F (x) =
Z
b
a
x −µ
)dx
f(
σ
=
Z
b−µ
σ
a−µ
σ
R
f (x)dx
f (z) · σ · dz
b−µ
σ
= σ F (x) a−µ
σ
Stammfunktion und Substitution
Sei F (x) die Stammfunktion von f (x). Dann gilt
Z
a
b
f(
b−µ
x −µ
a−µ )dx = σ F (
) − F(
)
σ
σ
σ
[email protected]
wst
81/119
wst
Normalverteilung
φ(z,0,1)
1
−1
φ(z,0,1)
ϕ(z,0,1)
1
0
1
z
z
0
z
Definition (Standardisierte Normalverteilung)
besitzt Wahrscheinlichkeitsdichte
z2
1
f (z) = ϕ(z, 0, 1) = √ e − 2
2π
und die Verteilungsfunktion
1
P(Z ≤ z) = Φ(z, 0, 1) = √
2π
[email protected]
Z
z
x2
e − 2 dx
−∞
wst
82/119
wst
Normalverteilung
Standardisierte Normalverteilung
R∞
−∞ f (z) = 1
Wir nennen die standartisierte Normalverteilung Φ(z, 0, 1)
auch N (0, 1) oder
1
1
x
+
Φ(z, 0, 1) = erf √
2
2
2
Φ(z, 0, 1) ist die Stammfunktion von ϕ(z, 0, 1), deshalb gilt
Z z2
x2
1
P(z1 ≤ Z ≤ z2 ) = √
e − 2 dx = Φ(z2 , 0, 1)−Φ(z1 , 0, 1)
2π z1
ϕ(z, 0, 1) hat keine Elementare Stammfunktion, Φ(z, 0, 1)
findet man aufgelistet in Tabellen (z.B. T.1)
[email protected]
wst
83/119
wst
Normalverteilung
Z ∼ N (0, 1)
Z 3.21
x2
1
√
e − 2 dx
2π 1
= Φ(3.21, 1, 0) − Φ(1, 1, 0) = 0.9993 − 0.8413
P(1 ≤ Z ≤ 3.21) =
P(Z ≤ 2) = Φ(2, 1, 0) − Φ(−∞, 1, 0) = 0.97725 − 0
P(0.11 ≤ Z ≤ 0.33) = Φ(0.33, 1, 0) − Φ(0.11, 1, 0) = 0.6293 − 0.5437
P(Z ≥ 0.33) = Φ(∞, 1, 0) − Φ(0.33, 1, 0) = 1 − 0.6293
[email protected]
wst
84/119
wst
Normalverteilung
φ(x,μ, σ2)
σ
φ(x,μ, σ2 )
σ
ϕ(x,μ, σ2)
μ-σ
μ μ+σ
x2
x
x
Definition (Normalverteilung mit den Parametern µ und σ 2 )
besitzt Wahrscheinlichkeitsdichte (−∞ < x < ∞):
f (x) = ϕ(x, µ, σ 2 ) = √
1
2πσ 2
e−
(z−µ)2
2σ 2
und die Verteilungsfunktion
2
P(Z ≤ x) = Φ(x, µ, σ ) = √
1
2πσ 2
Z
x
e−
(t−µ)2
2σ 2
dt
−∞
Kurvendiskussion: Maximum, Symmetrien, Wendepunkt
[email protected]
wst
85/119
wst
Normalverteilung
Normalverteilung
Maximum von f (x) bei x = µ, f (µ) =
√ 1
2πσ 2
Symmetrisch bezüglich Maximum
Wendepunkte bei x = µ ± σ
Je grösser σ desto breiter f (x)
[email protected]
wst
86/119
wst
Normalverteilung
Für Normalverteilung gilt
(x−µ)2
R∞
E(X ) = √ 1 2 −∞ xe − 2σ2 dx = µ
2πσ
Var(X ) =
√ 1
2πσ 2
R∞
2 −
−∞ x e
(x−µ)2
2σ 2
dx = σ 2
“Die Parameter der Normalverteilung lassen sich damit leicht
deuten: µ ist der Erwartungswert der Zufallsgrösse X und σ 2 die
Varianz.”
[email protected]
wst
87/119
wst
Normalverteilung
Transformation auf die standardisierte Normalverteilung
Führen sie die Transformation z = t−µ
σ für das Integral aus und
drücken sie den Wert mit der standardisierte Normalverteilung aus:
Z x2
(t−µ)2
1
P(x1 ≤ X ≤ x2 ) = √
e − 2σ2 dt
2πσ 2 x1
Wir erhalten dt = dz · σ und also
P(x1 ≤ X ≤ x2 ) =
√
1
Z
x2 −µ
σ
−z 2
2
· σ · dz
2πσ 2 x1σ−µ
x2 − µ
x1 − µ
= Φ(
, 0, 1) − Φ(
, 0, 1)
σ
σ
[email protected]
e
wst
88/119
wst
Normalverteilung
Standardisierte Normalverteilung
Drücke P mit Φ(z, 0, 1) aus.
x2 − µ
x2 − µ
, 0, 1) − Φ(−∞, 0, 1) = Φ(
, 0, 1)
σ
σ
x1 − µ
x1 − µ
P(x1 ≤ X ) = Φ(∞, 0, 1) − Φ(
, 0, 1) = 1 − Φ(
, 0, 1)
σ
σ
P(X ≤ x2 ) = Φ(
φ(x,μ, σ2 )
φ(x,μ, σ2 )
φ(x,μ, σ2 )
ϕ(x,μ, σ2)=P(X≤x2)
x2
[email protected]
P (x1 ≤ X)
x
x1
P (x1 ≤ X ≤ x2 )
x
x1
wst
x2
x
89/119
wst
Normalverteilung
Theorem ( Grenzwertsatz von de Moivre und Laplace)
Eine binomialverteilte Zufallsgrösse X mit Erwartungswert
E (X ) = np und Varianz Var (X ) = np(1 − p) ist näherungsweise
normalverteilt mit den Parametern µ = n · p und σ 2 = n · p · (1 − p)
Gültigkeit
Annäherung nur zulässig für
n · p · (1 − p) > 9
[email protected]
wst
90/119
wst
Normalverteilung
Näherung der Binomialverteilung
= x)
0.15
P (X = x)
p=q=0.5
n=50
p=0.75, q=0.25
n=50
0.15
0.10
0.10
0.05
0.05
5
10
15
20
25
30
35
40
45
50
x
5
10
15
20
25
30
35
40
45
50
x
Ist die Näherung durch die Normalverteilung zulässig?
n · p · (1 − p) = 12.5 > 9
n · p · (1 − p) = 9.375 > 9
[email protected]
wst
91/119
wst
Statitische Tests
Werden Sechsen bevorzugt gewürfelt?
12000 Würfe, x = 2107 Sechsen.
1
Nullhypothese H0 , und Alternativhypothese H1
2
Näherung durch Normalverteilung?
3
Darstellung mit x, Darstellung mit z, (vorausgesetzt H0 )
4
Statistischer Schluss (Signifikanzniveau α = 0.01).
5
Irrtumswahrscheinlichkeit
H0 : p(X = 6) = 1/6
H1 : p(X = 6) > 1/6
Einseitiger Test (>)
n · p · (1 − p) = 1666.6 > 9
Näherung mit Binomialverteilung zulässig
[email protected]
wst
92/119
wst
Statitische Tests
Werden Sechsen bevorzugt gewürfelt? (forts.)
12000 Würfe, x = 2107 Sechsen. Näherung mit Binomialverteilung:
µ = n · p = 2000, σ 2 = n · p(1 − p) = 1666.6
Annahmebereich für H0 auslesen aus Tabelle T.2:
z(P = 0.99) = 2.326
x = 2107 “übersetzen” in z:
z=
2107 − 2000
√
= 2.621
1666.6
Liegt ausserhalb Annahmebereich ⇒ H0 verwerfen.
Irrtumswahrscheinlichkeit:
P(X ≥ 2107) = 1 − Φ(2.621, 0, 1) = 0.0044
[email protected]
wst
93/119
wst
Statitische Tests
Werden Sechsen bevorzugt gewürfelt? (forts.)
φ
Annahmebereich
1%
x
μ = 2000
x=2107
φ
1%
μ=0
[email protected]
z
z=2.326
z=2.621
wst
94/119
wst
Statitische Tests
Weniger/mehr Halbtax-Abos?
2016: 75%
2017: 270 von 350 Befragte
1
Nullhypothese H0 , und Alternativhypothese H1
2
Näherung durch Normalverteilung?
3
Darstellung mit x, Darstellung mit z, (vorausgesetzt H0 )
4
Statistischer Schluss (Signifikanzniveau α = 0.1).
H0 : p(X = HA) = 0.75
H1 : p(X = HA) 6= 0.75
Zweiseitiger Test (6=)
n · p · (1 − p) = 218.75 > 9
Näherung mit Binomialverteilung zulässig
[email protected]
wst
95/119
wst
Statitische Tests
Weniger/mehr Halbtax-Abos? (forts.)
2016: 75%
2017: 270 von 350 Befragte Näherung mit Binomialverteilung:
µ = n · p = 262.5, σ 2 = n · p(1 − p) = 218.75
Annahmebereich für H0 auslesen aus Tabelle T.2 (α, symmetrisch
verteilen):
z(P = 0.95) = 1.645
x = 270 “übersetzen” in z:
z=
270 − 262.5
√
= 0.92582
218.75
Liegt innerhalb Annahmebereich ⇒ H0 annehmen.
[email protected]
wst
96/119
wst
Statitische Tests
Weniger/mehr Halbtax-Abos? (forts.)
φ
0.5 %
0.5 %
x
μ = 262.5
x= 270
φ
0.5 %
0.5 %
z1= -1.645 μ = 0
z2= 1.645
z= 0.92582
[email protected]
wst
z
97/119
wst
Statitische Tests
Weniger/mehr Halbtax-Abos? (forts.)
σ 2 = 218.75, µ = 262.5
z1 = −1.645, z2 = 1.645
Annahmebereich ausgedrück in x
x1 = z1 · σ + µ = 250, x2 = z2 · σ + µ = 276,
[email protected]
wst
98/119
wst
Statitische Tests
Stichproben aus normalverteilten Grundgesamtheit
P
geschätzer Mittelwert x̄ = N1 N
i=1 xi
1 PN
2
geschätze Varianz s = N−1 i=1 (xi − x̄)2
√
N
Testgrösse t = x̄−µ
s
Testgrösse ist verteilt nach Student t-Verteilung mit n = N − 1
Freiheitsgraden.
fn (t)
1 −α
α
2
α
2
tn, α2 = −tn,1− α2
Ablehnungsbereich
[email protected]
tn,1− α2
Annahmebereich
t
Ablehnungsbereich
wst
99/119
wst
Statitische Tests
Stichprobe N = 10, Student-t-Verteilung
5 −5 7 4 15 −7 5 10 18 16
Aus Grundgesamtheit mit µ =P0? Signifikanzniveau α = 0.05.
geschätzer Mittelwert x̄ = N1 N
i=1 xi = 6.80
1 PN
2
geschätze Varianz s = N−1 i=1 (xi − x̄)2 = 70.18
√
Testgrösse t = x̄−µ
N = 2.567
s
Krititsche Grösse aus T.3 auslesen (n = N − 1 = 9, zweiseitig: 0.05
symmetrisch verteilen):
t9;0.975 = 2.262
Schluss: Abweichung ist grösser als kritische Grösse, d.h.
Stichprobe hat µ 6= 0
[email protected]
wst
100/119
wst
Allgemeine Regression
Repetition LinAlg
Repetition LinAlg
Matrix-Multiplikation, Transponierte
Lineares Gleichungssystem geschrieben als erweiterte
Koeffizienten-Matrix
Lineares Gleichungssystem (LGS) lösen mit Gauss-Elimination
LGS lösen mit Cramerschen-Regel
Linalg mit Matlab
Matlab Funktionen plotten
[email protected]
wst
101/119
wst
Allgemeine Regression
Repetition LinAlg
Matrix-Multiplikation, berechnen Sie die Matrix-Produkte (falls
möglich)


2 −1
M = −3 4  ,
6 −5
40 50 32
N=
,
39 64 19
0 3 0
P=
1 0 5
N M, P M| ; M M, P N|
122 0
NM=
0 122
150 192
|
PN =
200 134
[email protected]
wst
102/119
wst
Allgemeine Regression
Repetition LinAlg
Lösungen Sie die linearen Gleichungssysteme mit dem
Gauss-Verfahren
2x − y
−3x + y
= 2
= 1
Schreibe das LGS mit einer erweiterten Koeffizienten-Matrix,
eliminiere und setze von unten nach oben ein.
x
2
=
y
1
[email protected]
wst
103/119
wst
Allgemeine Regression
Repetition LinAlg
Lösungen Sie die linearen Gleichungssysteme mit der Cramerschen
Regel
2x − y = 2
−3x + y = 1
x
2
=
y
1
[email protected]
wst
104/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression
f (x) = a1 · f1 (x) + a2 · f2 (x) soll möglichst nahe durch die
gemessenen Punkte verlaufen.
x2 x3 x1
y1 ,
y2 ,
y3
Stellen sie das überbestimmte Gleichungssystem auf.
bei
bei
bei
x1 :
x2 :
x3 :
a1 · f1 (x1 )
a1 · f1 (x2 )
a1 · f1 (x3 )
+
+
+
a2 · f2 (x1 )
a2 · f2 (x2 )
a2 · f2 (x3 )
=
=
=
y1
y2
y3
Bei x1 : quadrieren Sie den Abstand von f (x1 ) von y1 . Fahren Sie
mit x2 und x3 fort und addieren Sie die Abstandsquadrate.
[a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ]2 + [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ]2
+ [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ]2
[email protected]
wst
105/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
Wir benennen den letzten Ausdruck mit S. Leiten Sie S nach a1 ab
∂S
∂a1
=
2 · [a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ] · f1 (x1 )
+ 2 · [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ] · f1 (x2 )
+ 2 · [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ] · f1 (x3 )
Leiten Sie S nach a2 ab
∂S
∂a2
=
2 · [a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ] · f2 (x1 )
+ 2 · [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ] · f2 (x2 )
+ 2 · [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ] · f2 (x3 )
[email protected]
wst
106/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
∂S
∂S
= 0 und ∂a
= 0.
Da wir S minimieren wollen, setzen wir ∂a
1
2
Multiplizieren Sie die beiden vorherigen Ausdrücke aus, teilen Sie
durch 2 und stellen Sie das lineare Gleichungssystem auf
(Koeffizienten a1 und a2 links und Inhomogenität rechts):
+
+
a1 · f1 (x1 ) · f1 (x1 ) + a2 · f2 (x1 ) · f1 (x1 ) − y1 · f1 (x1 )
a1 · f1 (x2 ) · f1 (x2 ) + a2 · f2 (x2 ) · f1 (x2 ) − y2 · f1 (x2 )
a1 · f1 (x3 ) · f1 (x3 ) + a2 · f2 (x3 ) · f1 (x3 ) − y3 · f1 (x3 )
also
+
a1 · [f1 (x1 ) · f1 (x1 ) + f1 (x2 ) · f1 (x2 ) + f1 (x3 ) · f1 (x3 )]
a2 · [f2 (x1 ) · f1 (x1 ) + f2 (x2 ) · f1 (x2 ) + f2 (x3 ) · f1 (x3 )]
= y1 · f1 (x1 ) + y2 · f1 (x2 ) + y3 · f1 (x3 )
und genau gleich
+
a1 · [f1 (x1 ) · f2 (x1 ) + f1 (x2 ) · f2 (x2 ) + f1 (x3 ) · f2 (x3 )]
a2 · [f2 (x1 ) · f2 (x1 ) + f2 (x2 ) · f2 (x2 ) + f2 (x3 ) · f2 (x3 )]
[email protected]
= y1 · f2 (x1 ) + y2 · f2 (x2 ) + y3 · f2 (x3 )
wst
107/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
Schreiben Sie das lineare Gleichungssystem mit einer
Koeffizientenmatrix
f1 (x1 ) f1 (x1 ) + f1 (x2 ) f1 (x2 ) + f1 (x3 ) f1 (x3 ) f2 (x1 ) f1 (x1 ) + f2 (x2 ) f1 (x2 ) + f2 (x3 ) f1 (x3 ) a1 f1 (x1 ) f2 (x1 ) + f1 (x2 ) f2 (x2 ) + f1 (x3 ) f2 (x3 )
f2 (x1 )f2 (x1 ) + f2 (x2 ) f2 (x2 ) + f2 (x3 ) f2 (x3 )
a2
y1 f1 (x1 ) + y2 f1 (x2 ) + y3 f1 (x3 )
=
y1 f2 (x1 ) + y2 f2 (x2 ) + y3 f2 (x3 )
P
Verallgemeinern Sie das Resultat für f (x) = m
i=1 ai · fi (x) und die
Punkte P1 (x1 , y1 ), . . . , Pn (xn , yn )
 Pn
 
Pn
" Pn
#
a1
i=1 f1 (xi ) f1 (xi ) . . .
i=1 fm (xi ) f1 (xi )
i=1 yi f1 (xi )

  .. 
..
..
.

  .  = P ..
.
.
n
Pn
Pn
i=1 yi fm (xi )
am
i=1 fm (xi ) fm (xi )
i=1 f1 (xi ) fm (xi ) . . .
[email protected]
wst
108/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
Multiplizieren Sie die die Transponierte der Koeffizientenmatrix F|
mit dem Messvektor ~y
x1 :
x2 :
x3 :
f1 (x) f2 (x)
f1 (x1 ) f2 (x1 )
f1 (x2 ) f2 (x2 )
f1 (x3 ) f2 (x3 )
 
y1
~y = y2 
y3
y1 · f1 (x1 ) + y2 · f1 (x2 ) + y3 · f1 (x3 )
F ~y =
y1 · f2 (x1 ) + y2 · f2 (x2 ) + y3 · f2 (x3 )
|
[email protected]
wst
109/119
wst
Allgemeine Regression
Repetition LinAlg
Allgemeine Regression (forts.)
Multiplizieren Sie die die Transponierte der Koeffizientenmatrix F|
mit der Koeffizientenmatrix F


f1 (x1 ) f2 (x1 )
F = f1 (x2 ) f2 (x2 )
f1 (x3 ) f2 (x3 )
F| F =
f1 (x1 ) · f1 (x1 ) + f1 (x2 ) · f1 (x2 ) + f1 (x3 ) · f1 (x3 )
f1 (x1 ) · f2 (x1 ) + f1 (x2 ) · f2 (x2 ) + f1 (x3 ) · f2 (x3 )
[email protected]
f2 (x1 ) · f1 (x1 ) + f2 (x2 ) · f1 (x2 ) + f2 (x3 ) · f1 (x3 )
f2 (x1 )f2 (x1 ) + f2 (x2 ) · f2 (x2 ) + f2 (x3 ) · f2 (x3 )
wst
110/119
wst
Korrelation
Theorem (Korrelationskoeffizient)
Der Korrelationskoeffizient zwischen den Datensätzen ~x und ~y ist
rxy = ~x 00 ~y 00 .
Zu seiner Berechnung wird ein Datensatz mit Erwartunswert 0
erzeugt:
~x 0 = ~x − µx und ~y 0 = ~y − µy .
Und dieser Datensatz wird normiert:
~x 00 =
~y 0
~x 0
00
~
und
y
=
.
|~x 0 |
|~y 0 |
Hinweise
Negative Korrelation: rxy < 0, wenn x wächst, nimmt y ab
Positive Korrelation: rxy > 0, wenn x wächst, nimmt auch y zu
[email protected]
wst
111/119
wst
Korrelation
Theorem (Signifikante Korrelation)
Die Korrelation zwischen den Datensätzen ~x und ~y ist signifikant ,
falls die Testgrösse
√
rxy · n − 2
.
treg = p
1 − (rxy )2
im Betrag grösser ist als die kritische Grösse
tn−2;1−α/2
der Student-t-Verteilung.
Korrelation 6= Kausalität
Korrelation entsteht nur durch einen kausalen Zusammenhang. Oft
besteht eine Korrelation durch einen Zusammenhang mit einer
versteckten dritten Grösse.
[email protected]
wst
112/119
wst
Fehlerfortpflanzung
Theorem (Fehlerfortpflanzung)
Fehler bei funktionaler Abhängigkeit
∂F (a) F (a) ⇒ ∆F =
· ∆a
∂a a=a
Mehrere Veränderliche F (a, b)
s
2 2 ∂F (b)
∂F (a)
∆F =
· ∆a +
· ∆b ∂a
∂b
a=a; b=b
[email protected]
wst
113/119
wst
Fehlerfortpflanzung
Theorem (Fehlerfortpflanzung (forts.))
Fehler bei Summe/Differenz S(a, b) = a + b oder
S(a, b) = a − b
q
|∆S| = (∆a)2 + (∆b)2
Relativer Fehler bei Produkt/Quotient P(a, b) = aα · b β und
α, β ∈ Z
s
∆P ∆a 2
∆b 2
=
α
+ β
P a
b
[email protected]
wst
114/119
wst
Fehlerfortpflanzung
Oberfläche eines Zylinders
r = 10.5 ± 0.2 cm; r = 15.5 ± 0.3 cm
Berechne Standardabweichung der Oberfläche A = 2πr 2 + 2πr · h
∂A
∂A
= 4πr + 2πh;
= 2πr
∂r
∂h
Mittelwerte einsetzen:
∂A
∂A
= 4πr + 2πh = 226.19 cm;
= 2πr = 65.97 cm
∂r
∂h
∆A =
q
(226.19 cm · 0.2 cm)2 + (65.97 cm · 0.3 cm)2
= 49 cm2
[email protected]
wst
115/119
wst
Fehlerfortpflanzung
Federkonstante c = 4π 2 Tm2
Berechne Standardabweichung der Federkonstante
m = 200 ± 0.68 g; T = 2, 00 ± 0.0105 s
∂c
∂m
∂c
∂T
m
= 9.8696 s−2
T2
m
= −8π 2 · 3 = −1973.9 g/s3
T
q
= 4π 2 ·
∆c =
(9.8696 s−2 · 0.68 g)2 + (−1973.9 g/s3 · 0.0105 s)2
= 21.79 g/s2 = 0.022 N/m
Federkonstante:
c = 1.974 ± 0.022 N/m
[email protected]
wst
116/119
wst
Fehlerfortpflanzung
Federkonstante (kurzer Weg)
c = 4π 2
m
T2
m = 200 ± 0.68 g; T = 2, 00 ± 0.0105 s
Berechne Standardabweichung der Federkonstante
q
∆c = c · (1 · 0.68/200)2 + (−2 · 0.0105/2)2
= 0.022
Federkonstante:
c = 1.974 ± 0.022 N/m
[email protected]
wst
117/119
wst
Fehlerfortpflanzung
Reihenschaltung Widerstände
R1 = 100 ± 2Ω; R2 = 150 ± 2Ω; R3 = 50 ± 1Ω
Gesamtwiderstand?
Rtot = 100 + 150 + 50 = 300
Fehler:
∆Rtot =
[email protected]
q
(2Ω)2 + (2Ω)2 + (1Ω)2 = 3 Ω
Rtot = 300 ± 3 Ω
wst
118/119
wst
Fehlerfortpflanzung
Fehler der Regressions-Koeffizienten
Theorem (Fehler der Regressions-Koeffizienten)
Für den Datensatz (xi , yi ) mit n Punkten und den linearen
Regressions-Koeffizienten a und b (y = a · x + b und
i = a · xi − b), sind die Standard-Fehler der
Regressions-Koeffizienten
v
s
Pn
u n
1
2
u1 X
·
(
)
i=1 i
n−2
t
P
;
s
=
s
(xi )2
sa =
a
b
n
2
n
i=1 (xi − x)
i=1
und die Konfidez-Intervalle zur Irrtums-Wahrscheinlichkeit α und
dem Quantil tn−2; 1−α/2 sind
a ∈ [a − sa · tn−2; 1−α/2 , a + sa · tn−2; 1−α/2 ]
b ∈ [b − sb · tn−2; 1−α/2 , b + sb · tn−2; 1−α/2 ]
[email protected]
wst
119/119
Herunterladen