1 Mathe Formeln Statistik und Wahrscheinlichkeitsrechnung

Werbung
1
Mathe Formeln Statistik und Wahrscheinlichkeitsrechnung
Jörn Horstmann, 26.10.2003. Alle Angaben ohne Gewähr.
http://www.ba-stuttgart.de/∼wi02172/
1.1
Grundlagen
• Einzelklassen
[ai ; bi [
• Klassenweite
bi − ai = wi
• Klassenmitte
x̃i =
ai +bi
2
• Mittelwert
n
x̄ =
n
X
1X
xi · ni =
xi · hi ≈
n i=1
i=1
{z
}
|
gruppierte Werte
• Absolute Häufigkeit
ni
• Relative Häufigkeit
hi =
• Kumulierte Häufigkeit
n
X
x̃i · hi
i=1
|
{z
}
klassierte Daten
ni
n
Hi =
P
hj
• Median, analog für Q1 (0, 25) und Q3 (0, 75)
z = ai +
hi
wi
• Modalklasse (klassierte Daten)
0, 5 − Hi−1
· wi
hi
= max
• Geometrisches Mittel (bei Wachstumsraten)
√
x̄g = n x1 · x2 · x3 . . . xn
• Histogramm: Fläche des Rechtecks proportional zu hi
1.2
h∗i =
hi
wi
Streuungsmaße
R =
Q =
dm
=
dz
=
dx̄
=
σ2
=
=
σ
=
V
=
Spannbreite = xmax − xmin
Quartilsabstand = Q3 − Q1
1X
|xi − m|
n
X
1
|xi − z|
n
X
1
|xi − x̄|
n
1X
2
Varianz =
(xi − x̄)
n
X
1X 2
xi − x̄2 =
x2i hi − x̄2
n
√
Standardabweichung = σ 2
σ
Variationskoeffizient =
x
• Der Gini-Koeffizient
P
DG
=
≈
(Hk−1 + Hk ) · nk · x̄k
− 1 (grup. Daten)
n · x̄
P
(Hi−1 + Hi ) · ni · x̃i
− 1 (klass. Daten)
n · x̃
1
DG
0 < DG
0, 4 ≤ DG
0, 6 ≤ DG
DG
=0
< 0, 4
< 0, 6
<1
=1
absolute Gleichverteilung
geringe Konzentration
mittlere Konzentration
hohe Konzentration
absolute Konzentration
• Die Lorenz-Kurve
ci
Ci
ni · x̄i
ni · x̃i
≈
n · x̄
n · x̃
i
X
=
cj
=
Anteile der Merkmalssumme
j=1
Schutzkoeffizient S = max (Si )
Si = Hi − Ci
P (Hi ; Ci ) ist ein Punkt auf der Lorenzkurve
DG = 2 · Fläche zw. Winkelhalbierender und Lorenzkurve
1.3
Korrelation und Regression
• Bedingte Häufigkeiten
h (xi |yj fest) = hi|j =
nij
hij
=
h·j
n·j
• Kovarianz Cov(x, y) = σxy
σxy
=
=
1X
(xi − x̄) · (yi − ȳ)
n
1X
xi · yi − x̄ · ȳ
n
x, y sind unabhängig ⇒ Cov(x, y) = 0
Cov(x, y) 6= 0 ⇒ x, y sind abhängig
x, y sind unahängig wenn für alle i, j gilt: nij =
ni· ·n·j
n
• Korrelationskoeffizient
r
σxy
σxy
σx · σy
= r · σx · σy
=
• Regressionsgerade
Linearer Zusammenhang zw. x und y, Suche einer Geraden ỹ = a + bx nach der Methode der
kleinsten Quadrate
X
2
f=
(a + bxi − yi )
f wird am kleinsten wenn
P
(yi − ȳ) · (xi − x̄)
σxy
= 2
P
2
σx
(xi − x̄)
a = ȳ − bx̄
b
1.4
=
Indizes
• Index nach Laspeyres
L
I0,t
(p)
=
L
Mengenindex I0,t
(q)
=
Preisindex
2
P i i
p ·q
P it 0i · 100
p0 · q 0
P i i
p ·q
P i0 it · 100
p0 · q 0
• Index nach Paasche
P
Preisindex I0,t
(p)
=
P
Mengenindex I0,t
(q)
=
P i i
p ·q
P it ti · 100
p0 · q t
P i i
p ·q
P it it · 100
pt · q 0
• Index nach Fischer
F
Preisindex I0,t
(p)
F
Mengenindex I0,t
(q)
1.5
q
L (p) · I P (p)
I0,t
0,t
q
L (q) · I P (q)
=
I0,t
0,t
=
Wahrscheinlichkeiten
• Klassische Definition der Wahrscheinlichkeit (Laplace)
nur bei Zufallsexperimenten, deren Ergebnisse gleiche Wahrscheinlichkeit haben
P (A) =
Anzahl der zu A gehörenden Ereignisse
|A|
=
Anzahl aller Ereignisse
|G|
• Bedinge Wahrscheinlichkeit (Wahrscheinlichkeit von A wenn B eingetreten ist)
P (A|B) =
P (A ∩ B)
P (B)
• Additionssatz
P (A ∪ B)
= P (A) + P (B) − P (A ∩ B)
= P (A \ B) + P (A ∩ B) + P (B \ A)
• Spezieller Additionssatz wenn A ∩ B = {}
P (A ∪ B) = P (A) + P (B)
• Multiplikationssatz
P (A ∩ B) = P (A|B) · P (B)
P (A ∩ B) = P (A) · P (B|A)
• Satz der totalen Wahrscheinlichkeit
A1 , A2 , A3 , . . . , An seien disjunkte Ereignisse mit A1 ∪ A2 ∪ A3 ∪ . . . ∪ An = G
B
P (B)
(B ∩ A1 ) ∪ (B ∩ A2 ) ∪ (B ∩ A3 ) ∪ . . . ∪ (B ∩ An )
n
X
=
P (Ai ) · P (B|Ai )
=
i=1
• Satz von Bayes
A1 , A2 , A3 , . . . , An seien disjunkte Ereignisse mit A1 ∪ A2 ∪ A3 ∪ . . . ∪ An = G
P (Ai |B) =
P (Ai ) · P (B|Ai )
P (Ai ∩ B)
=
P (B)
P (B)
3
1.6
Kombinatorik
Permutation
Variation (Reihenfolge wichtig)
ohne Wiederholung
verschiedene Elemente
P (n) = n!
mit Wiederholung
gruppenweise identische Elemente
n1 , n 2 , n 3 , . . .
P
( ni )!
P (n1 , n2 , . . .) =
n1 ! · n2 ! · . . .
m Elemente nacheinander aus n Elementen ziehen.
nm
V (m, n) =
Kombination (Reihenfolge unwichtig)
1.7
1.7.1
n!
(n − m)!
gleichzeitiges Ziehen (mit einem
Griff) m aus n
n
n!
C(m, n) =
=
m
m!(n − m)!
n+m−1
m
Zufallsverteilungen
Diskrete ZV
E(X)
V ar(x)
=
X
f (xi ) · xi
=
X
f (xi ) · x2i − µ2
• Diskrete Gleichverteilung (Laplace)
x nimmt n verschiedene Werte an
f (x = xi ) =
1
n
• Binomialverteilung (Bernoulli - Experiment)
Ein Zufallsexperiment mit zwei möglichen Ausgängen wird n-mal wiederholt, p ist Wahrscheinlichkeit des günstigen Ausgangs und k ist die Anzahl der günstigen Ausgänge
P (A) = p
P (Ā) = 1 − p = q
n
P (X = k) =
· pk · (1 − p)n−k
k
E(X) = n · p
V ar(X) = n · p · (1 − p)
• Poisson-Verteilung
Approximation der Binomialverteilung B(n, p) wenn n > 50 und p < 0, 05
P (X = k)
=
µk · e−µ
k!
= P (k − 1) ·
µ
k
• Hypergeometrische Verteilung
Eine Urne enthält N Elemente, davon M günstige. Es werden n Elemente ohne zurücklegen (mit
4
einem Griff) gezogen. X = Anzahl der dabei gezogenen günstigen Elemente.
M N −M
P (X = k)
E(X)
V ar(X)
1.7.2
k
=
n−k
N
n
M
N
M N −M N −n
= n·
·
·
N
N
N −1
= n·
Stetige ZV
Z
E(X)
=
f (x) x dx
Z
V ar(x)
=
f (x) x2 dx − µ2
• Normalverteilung
−
1
P (X = k) = √ · e
σ 2π
(x − µ)2
2σ 2
• Standardnormalverteilung, Verteilungsfunktion Φ
X −µ
σ
E(Z) = 0
V ar(Z) = 1
a−µ
a−µ
P (X ≤ a) = P Z ≤
=Φ
σ
σ
Φ(−Z) = 1 − Φ(Z)
c
−1
P (µ − c ≤ X ≤ µ + c) = 2 · Φ
σ
Z
=
• Lineare Transformation
Y = aX + b
E(Y ) = a + E(X)
V ar(Y ) = b2 · V ar(X)
• X, Y unabhängig
E(X + Y )
V ar(X + Y )
= E(X) + E(Y )
= V ar(X) + V ar(Y )
• xi ist N (µ, σ 2 ) für i = 1 . . . n
x1 + x2 + . . . + xn
n
E(x̄) = µ
σ2
V ar(x̄) =
n
x̄ =
1.8
ist ebenfalls normalverteilt
Hypothesentest
• Fehler 1. Art: Die richtige Hypothese wird abgelehnt
• Fehler 2. Art: Die falsche Hypothese wird angenommen
5
Herunterladen