Statistik für Wirtschaftswissenschaftler

Werbung
Statistik für Wirtschaftswissenschaftler
Jürgen Dippon
Institut für Stochastik und Anwendungen (ISA)
Universität Stuttgart
13. September 2010
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
1 / 464
Teil I
Deskriptive Statistik
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
2 / 464
Deskriptive Statistik
1
Einführung
2
Deskriptive Statistik univariater Daten
3
Deskriptive Statistik multivariater Daten
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
3 / 464
1. Einführung
1
Einführung
2
Deskriptive Statistik univariater Daten
3
Deskriptive Statistik multivariater Daten
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
4 / 464
1. Einführung
Einführung
Grundaufgabe der Statistik
Beschreiben (Deskription)
Suchen (Exploration)
Schlieÿen (Induktion)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
5 / 464
1. Einführung
Die deskriptive Statistik dient zur beschreibenden und graschen
Aufarbeitung und Komprimierung von Daten. Beschrieben werden
Merkmale oder Variablen, die gewisse Ausprägungen oder Werte besitzen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
6 / 464
1. Einführung
Unterschiedliche Typen von Variablen
Zielgröÿen
Einussgröÿen oder Faktoren
Störgröÿen oder latente Gröÿen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
7 / 464
1. Einführung
Deskriptive Statistik wird zur Datenvalidierung eingesetzt.
Deskriptive Statistik verwendet im Gegensatz zur induktiven Statistik keine Wahrscheinlichkeitstheorie.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
8 / 464
1. Einführung
Die explorative Statistik, welche auch nicht auf der
Wahrscheinlichkeitstheorie basiert, sucht Strukturen oder Besonderheiten in
den Daten und dient zur Hypothesengewinnung.
Hypothesen können schlieÿlich in der induktiven Statistik formal mit
wahrscheinlichkeitstheoretischen Methoden überprüft werden, z.B. kann mit
groÿerSicherheit geschlossen werden, dass ein in der Stichprobe gefundener
Zusammenhang auch in der Grundgesamtheit vorliegt ?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
9 / 464
1. Einführung
Wichtige Grundbegrie
Statistische Einheit: Objekte, an denen interessierende Gröÿen erfasst
werden
Grundgesamtheit, Population: Menge aller für die Fragestellung
relevanten statistischen Einheiten
Teilgesamtheit: Teilmenge der Grundgesamtheit
Stichprobe: tatsächlich untersuchte Teilmenge der Grundgesamtheit
Merkmal: interessierende Gröÿe, Variable
Merkmalsausprägung: konkreter Wert des Merkmals für eine statistische
Einheit
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
10 / 464
1. Einführung
Charakterisierung von Merkmalen
diskretes Merkmal: Menge der Merkmalsausprägung ist abzählbar
stetiges Merkmal: Merkmale nehmen Werte aus einem Intervall an
quasistetige Merkmale: Merkmal ist von seiner Natur her stetig,
mögliche Werte aber, z.B. aufgrund des Messprozesses, abzählbar
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
11 / 464
1. Einführung
Unterscheidung von Merkmalen aufgrund ihrer Skalenniveaus:
1
Norminalskala: Merkmalsausprägungen sind Namen oder Kategorien
(z.B. Haarfarbe, Religion) (endliche Menge)
2
Ordinalskala: Ausprägungen können geordnet werden (z.B. Ratings
AAA,AA,A,BBB,. . .,D)
3
Intervallskala: Abstände zwischen Ausprägungen können interpretiert
werden (z.B. Temperatur auf der Celsius-Skala, Jahreszahlen,
IQ-Skala)
4
Verhältnisskala: Quotienten zwischen Ausprägungen können
interpretiert werden (z.B. Temperatur in Kelvin, Gewicht in kg, Preis
in Euro)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
12 / 464
1. Einführung
Weitere Unterscheidung:
Qualitative Merkmale (endlich viele Ausprägungen, höchstens ordinal
skaliert)
versus
quantitative Merkmale (spiegeln eine Intensität wider)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
13 / 464
1. Einführung
Elemente der Versuchsplanung
Notwendigkeit eines Versuchsplans
Wie lautet das Ziel der Studie oder des Experiments ?
Wie soll das Ziel erreicht werden ?
Statistische Methoden
Fallzahl
Wie lassen sich Störvariablen kontrollieren ? (z.B. durch
Homogenisierung, Randomisierung, Parallelisierung, Kontrolle der
Störvariablen im Rahmen eines statistischen Modells)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
14 / 464
1. Einführung
Datengewinnung kann erfolgen
in einem Experiment
einer Erhebung
I
I
im Rahmen einer Vollerhebung
einer Stichprobe
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
15 / 464
1. Einführung
Verschiedene Methoden der Stichprobenbildung
einfache Zufallsstichprobe
systematische Ziehung
geschichtete Zufallsstichproben
Klumpenstichprobe
mehrstuge Auswahlverfahren
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
16 / 464
1. Einführung
Studiendesigns
Querschnittstudie: mehrere Objekte werden zu einem Zeitpunkt
beobachtet
Zeitreihe: ein Objekt wird zu mehreren Zeitpunkten beobachtet
Längsschnittstudie, Panel: mehrere Objekte und zwar immer die
gleichen werden zu mehreren Zeitpunkten beobachtet
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
17 / 464
2. Deskriptive Statistik univariater Daten
1
Einführung
2
Deskriptive Statistik univariater Daten
Verteilungen und ihre Darstellungen
Beschreibung von Verteilungen
Lagemaÿe
Quantile und Box-Plot
Streuungsmaÿe
Maÿzahlen für Schiefe und Wölbung
Konzentrationsmaÿe
Relative Konzentration: Lorenzkurve und Gini-Koezient
Alternative Konzentrationsmaÿe
Dichtekurven und Normalverteilung
3
Deskriptive Statistik multivariater Daten
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
18 / 464
2. Deskriptive Statistik univariater Daten
Deskriptive Statistik univariater Daten
In diesem Kapitel betrachten wir Merkmalsträger mit nur einem Merkmal.
Im nächsten Kapitel betrachten wir auch Merkmalsträger mit mehreren
Merkmalen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
19 / 464
2. Deskriptive Statistik univariater Daten
2.1. Verteilungen und ihre Darstellungen
Häugkeitsverteilung
X
x| , .{z. . , xn}
Ein Merkmal
werde an
n
Untersuchungseinheiten beobachtet:
1
sog. Urliste, Roh- oder Primärdaten
Problem: schon bei moderatem Stichprobenumfang unübersichtlich
a , . . . , ak
h(aj ) = hj
f (aj ) = fj = hnj
h , . . . , fk
f , . . . , fk
k n
Die dabei auftretenden verschiedenen Merkmalsausprägungen werden mit
bezeichnet
1
( ≤ )
xi
x , . . . , xn
aj
Anzahl der
aus
1
mit
d.h.
relative Häugkeit von
1
absolute Häugkeitsverteilung
1
relative Häugkeitsverteilung
Jürgen Dippon (ISA)
aj
xi = aj
absolute Häugkeit der Ausprägung
Statistik für Wirtschaftswissenschaftler
13. September 2010
20 / 464
2.1. Verteilungen und ihre Darstellungen
2. Deskriptive Statistik univariater Daten
Grasche Methoden für univariate Daten
Stabdiagramm: Trage über
a , . . . , ak
h , . . . , hk
1
senkrechten Strich (Stab) mit Höhe
f
jeweils einen zur
1
x
fk
-Achse
(oder 1 , . . . ,
) ab.
Säulendiagramm: Wie Stabdiagramm, aber mit Rechtecken statt Strichen
x
Balkendiagramm: Wie Säulendiagramm, aber mit vertikal statt horizontal
gelegter
-Achse
j : fj ·
Kreisdiagramm: Flächen der Kreissektoren proportional zu den
Häugkeiten: Winkel des Kreissektors
Jürgen Dippon (ISA)
360
◦
Statistik für Wirtschaftswissenschaftler
13. September 2010
21 / 464
2. Deskriptive Statistik univariater Daten
2.1. Verteilungen und ihre Darstellungen
Stamm-Blatt-Diagramm: Die Urliste wird bis auf Rundungen in einer dem
Histogramm ähnlichen Darstellung reproduziert.Das Diagramm wird
erzeugt mittels:
<− c ( 2 . 4 6 ,
stem ( x ) ;
x
2.3 , 3.1 , 3.6 , 3.8 , 4.4 , 2.7 , 5.9 , 5.9 , 4.1 , 4.4 , 3
Das ausgegebene Diagramm ist:
2
3
4
5
|
|
|
|
357
1668
144
99
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
22 / 464
2. Deskriptive Statistik univariater Daten
Jürgen Dippon (ISA)
2.1. Verteilungen und ihre Darstellungen
Statistik für Wirtschaftswissenschaftler
13. September 2010
23 / 464
2. Deskriptive Statistik univariater Daten
2.1. Verteilungen und ihre Darstellungen
Abbildung: Weitere Methoden zur Datenvisualisierung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
24 / 464
2. Deskriptive Statistik univariater Daten
2.1. Verteilungen und ihre Darstellungen
Histogramm
Für gröÿere Datensätze besser geeignet:
c c ), [c , c ), . . . , [ck , ck )
Histogramme: Gruppiere die Daten in Klassen, bestehend aus benachbarten
[ 0,
Intervallen
1
1
2
−1
Zeichne über diesen Klassen Rechtecke mit:
dj = cj − cj
Breite
:
Höhe
:
gleich (oder proportional zu)
Fläche
:
gleich (oder proportional zu)
Jürgen Dippon (ISA)
−1
hj
dj
hj
bzw
bzw
Statistik für Wirtschaftswissenschaftler
fj
dj
fj
13. September 2010
25 / 464
2. Deskriptive Statistik univariater Daten
2.1. Verteilungen und ihre Darstellungen
Histogramm ist so konstruiert, dass die dargestellten Flächen proportional
zu den absoluten bzw. relativen Häugkeiten (Prinzip der Flächentreue).
Wähle, falls möglich, die Klassenbreiten
d , . . . , dk
1
gleich.
Faustregeln für die Klassenzahl:
k = [n], k = [n], k = [
2
Jürgen Dippon (ISA)
10 log10
Statistik für Wirtschaftswissenschaftler
n]
13. September 2010
26 / 464
2. Deskriptive Statistik univariater Daten
2.1. Verteilungen und ihre Darstellungen
Viele empirische Verteilungen sind unimodal (eingipig), es sind aber auch
bi- oder multimodale (zwei- oder mehrgipige) Verteilungen zu beobachten
(z.B. bei geschichteten Daten)
Symetrische Verteilung
linkssteife oder rechtsschiefe Verteilungen
rechtssteife oder linksschiefe Verteilungen
Ist das betrachtete Merkmal ordinalskaliert, so lassen sich die beobachteten
Ausprägungen ordnen:
Jürgen Dippon (ISA)
a
1
a
< ... < k
Statistik für Wirtschaftswissenschaftler
13. September 2010
27 / 464
2.1. Verteilungen und ihre Darstellungen
2. Deskriptive Statistik univariater Daten
Kumulierte Häugkeitsverteilung
Absolute kumulierte Häugkeitsverteilung:
∀
x ∈R
H (x )
Hierbei ist
=
=
aj
xi
ha
ha
mit
die gröÿte Ausprägung mit
Jürgen Dippon (ISA)
x x
h
aj ≤ x
i≤
P
( 1 ) + . . . + ( j ) = i : ai ≤ x i
Anzahl der Werte
(also ist
Statistik für Wirtschaftswissenschaftler
aj
+1
>
x
)
13. September 2010
28 / 464
2. Deskriptive Statistik univariater Daten
2.1. Verteilungen und ihre Darstellungen
Empirische Verteilungsfunktion
Wichtiger: Relative kumutierte Häugkeitsverteilung oder
Verteilungsfunktion
F (x ) = H (nx ) =
= f (a ) + . . . + f (aj ) =
relativer Anzahl der Werte
1
wobei
aj ≤ x
und
Jürgen Dippon (ISA)
aj
+1
>
x
X
i : ai ≤ x
fi
xi
empirische
mit
xi ≤ x
.
Statistik für Wirtschaftswissenschaftler
13. September 2010
29 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Lagemaÿe
Gesucht sind Maÿzahlen oder Parameter von Verteilungen
Ein
L
L(x + a, . . . , xn + a) = L(x , . . . , xn) + a
Lagemaÿ (im engeren Sinne) ist eine Abbildung : Rn → R, falls
∀
a∈R
∀
x1 ,...,xn ∈R
Jürgen Dippon (ISA)
1
Statistik für Wirtschaftswissenschaftler
1
13. September 2010
30 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Arithmetisches Mittel
Beispiele für Lagemaÿe:
Arithmetisches Mittel:
x̄ = n (x
1
1
f
fk
=1
Für Häugkeitsdaten mit Ausprägungen
Häugkeiten 1 , . . . ,
gilt
x̄ = a f
1
n
X
x n xi
i
a , . . . , ak
+ . . . + n) =
1
und relativen
1
af
1 + ... + k k =
k
X
j =1
aj fj
(gewichtetes Mittel)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
31 / 464
2.2. Beschreibung von Verteilungen
2. Deskriptive Statistik univariater Daten
Das arithmetische Mittel ist i.a. nur für quantitative Merkmale sinnvoll
deniert.
Für das arithmetische Mittel gilt
i =1
(Schwerpunkteigenschaft)
n
n , . . . , nr
x̄ = n (n x̄
Stichprobe vom Umfang
Umfängen
1
n
X
x x̄
( i− )=0
r
x̄ . . . , x̄r
r
X
+ . . . + nr x̄r ) =
n ni x̄i
, verteilt auf
und arith. Mitteln
1
1 1
Schichten mit jeweiligen
, so gilt
1
1
i =1
Beobachtung: arithmetische Mittel reagieren empndlich gegen Ausreiÿer,
wohingegen der Median ein
Jürgen Dippon (ISA)
robustes Lagemaÿ ist.
Statistik für Wirtschaftswissenschaftler
13. September 2010
32 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Median
Urliste
x , . . . , xn
1
x ≤ ... ≤ x n
x , . . . , xn
(
xmed = x (nx n + x n
geordnete Urliste
Der
Median von
(1)
( )
ist deniert durch
1
1
( +
2 )
1
2
(2)
( 2 +1) )
für
für
n
n
ungerade
gerade
Denition sinnvoll für ordinale Merkmale (oder besser)
Eigenschaften des Medians:
Mindestens 50% der Daten sind
x
x
(
≤ med
≥ med
Median häug einfacher zu interpretieren als das arithmetische Mittel
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
33 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Modus
Der
x , . . . , xn
xmod =
Modus von
1
ist deniert durch
Ausprägung mit gröÿter Häugkeit
Modus nur eindeutig, falls die Häugkeitsverteilung ein eindeutiges
Maximum besitzt.
Denition schon für nominalskalierte Merkmale sinnvoll.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
34 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Eigenschaften der drei genannten Lageparameter
1
Arithm. Mittel und Median stimmen bei diskreten Merkmalen i.a. mit
xi
keiner der möglichen Ausprägungen überein.
2
Werden die Daten
linear transformiert, d.h.
yi = a + bxi
so gilt dies auch für die drei oben genannten Lageparameter
3
Das arithmetische Mittel minimiert die Funktion
n
Q (z ) = X(xi − x )
2
i =1
Der Median minimiert die Funktion
n
A(z ) = X |xi − x |
i =1
Der Modus minimiert die Funktion
Jürgen Dippon (ISA)
n
I (z ) = X
1[x 6=z ]
i
i
=
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
35 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Lageregeln
Symetrische Verteilungen
Linkssteile Verteilungen
Rechtssteile Verteilungen
Jürgen Dippon (ISA)
x̄ ≈ xmed ≈ xmod
x̄ > xmed > xmod
x̄ < xmed < xmod
Statistik für Wirtschaftswissenschaftler
13. September 2010
36 / 464
2.2. Beschreibung von Verteilungen
2. Deskriptive Statistik univariater Daten
Im Folgenden stellen wir noch weitere Maÿe für die Lage einer Verteilung
vor, die jedoch keine Lageparameter im oben genannten Sinne sind
ri
i
Zur Motivation ein Beispiel:
Sei
der Zins im
n
Kn = K ( + r ) · . . . · ( + rn)
n
Y
=K
( + ri )
-ten Jahr
Dann beträgt das Kapital im
-ten Jahr
0 1
0
Jürgen Dippon (ISA)
1
1
1
i =1
Statistik für Wirtschaftswissenschaftler
13. September 2010
37 / 464
2.2. Beschreibung von Verteilungen
2. Deskriptive Statistik univariater Daten
Geometrisches Mittel
Das
x , . . . , xn
xgeom = (x · . . . · xn) n
geometrische Mittel zu den Faktoren
1
ist
1
1
!1
n
n
Y
(1 + i )
i =1
r
Da
xgeom ≤ x̄
ist der mittlere jahrliche Zinsfaktor.
täuscht
Jürgen Dippon (ISA)
x̄
statt
xgeom
überhöhte Wachstumsraten vor.
Statistik für Wirtschaftswissenschaftler
13. September 2010
38 / 464
2.2. Beschreibung von Verteilungen
2. Deskriptive Statistik univariater Daten
Harmonisches Mittel
Das
harmonische Mittel
xharm =
1
Pn 1
n i = 1 xi
1
ist z.B. zur Ermittlung der Durchschnittsgeschwindigkeit geeignet.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
39 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Quantile und Box-Plot
x
Jeder Wert
≤ p
xp
mit 0
p
<
p<
Damit gilt für das
np]
[
Dabei ist
Speziell:
x
x
x
0.25
0.5
=
=
0.75
p
x
1, für den mindestens ein Anteil
und mindestens ein Anteil 1
−
-Quantil:
xp = x np ,
xp ∈ [x np , x np
([
]+1)]
(
)
(
wenn
der Daten
np
p
p
der Daten
ist, heiÿt
-Quantil.
nicht ganzzahlig
np
≤ np
+1) ], wenn
die gröÿte ganze Zahl mit
≥ p
ganzzahlig
25%-Quantil = unteres Quartil
50%-Quantil = Median
=
75%-Quantil = oberes Quartil
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
40 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Quantile und Box-Plot
Abbildung: Darstellung der Quantile
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
41 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
dQ = x
Interquartilsabstand:
0.75
−
x
0.25
5-Punkte-Zusammenfassung einer Verteilung:
x ,x ,x ,x ,x
min
0.25
med
0.75
max
Grasche Darstellung der 5-Punkte-Zusammenfassung einer Verteilung
mittels eines Box-Plots
Abbildung: Box Plot
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
42 / 464
2.2. Beschreibung von Verteilungen
2. Deskriptive Statistik univariater Daten
Streuungsmaÿe
Ein
S : Rn → R
S (x + a, . . . , xn + a) = S (x , . . . , xn)
Streuungsmaÿ (im engeren Sinne) ist eine Abbildung
die
∀
a∈R
∀
x1 ,...,xn
1
Beispiele für Streuungsmaÿe:
x
1
x
Stichprobenspannweite (n) − (1)
Interquartilsabstand Q = 0.75 −
Standardabweichung
d x
s̃
, für
x
0.25
wobei
s̃ = n {(x − x )
2
die sog.
1
1
2
x x
2
+ ... + ( n − ) } =
n
X
n i (xi − x )
1
2
=1
empirische Varianz der Stichprobe.
Beachte:
s̃
ist nur für metrische Merkmale deniert!
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
43 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Im Falle von Häugkeitsdaten gilt:
s̃
2
a − x) f
=(
1
2
1
a x f
2
+ ... + ( k − ) k =
s̃
n
X
(xi − x )
Häug wird statt der empirischen Varianz
s = n−
2
1
2
k
X
j =1
auch die
a x f
( j − )2 j
Stichprobenvarianz
2
1
i =1
verwendet.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
44 / 464
2.2. Beschreibung von Verteilungen
2. Deskriptive Statistik univariater Daten
Da
x x
x x
n
n
( n − ) bereits durch die ersten ( − 1)
festgelegt. ( − 1) ist deshalb auch die Anzahl der
P
( i − ) = 0,
Abweichungen
ist
Freiheitsgrade.
Verschiebungssatz:
∀
Für
c=
i ∈R
n
X
i =1
x c
2
( i− ) =
n
X
i =1
x x
nx c
( i − )2 + ( − )2
0 folgt die praktische Darstellung
s̃
(
2
=
n
X
n i xi − x
xi yi = a + bxi
1
s̃y = b s̃x
2
Jürgen Dippon (ISA)
2
=1
Bei linearer Transformation der Daten
Transformationssatz
)
2
2 2
bzw.
zu
folgt der
s̃y = |b|s̃x
Statistik für Wirtschaftswissenschaftler
13. September 2010
45 / 464
2.2. Beschreibung von Verteilungen
2. Deskriptive Statistik univariater Daten
Standardabweichung und Varianz sind sehr empndlich gegen Ausreiÿer.
Robuste Alternativen:
Mittlere Abweichung vom Median
n
X
n i |xi − x
1
0.5
|
=1
Mediane Abweichung vom Median
Median von
{
x −x
1
0.5
Ein Streumaÿ im weiteren Sinne ist der
x x
,..., n −
0.5
}
Variationskoezient
v = xs̃
welcher für Merkmale mit nichtnegativen Ausprägungen und positivem
arithmetischem Mittel sinnvoll deniert ist.
Der Variationskoezient liefert ein maÿstabsunabhängiges Streumaÿ.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
46 / 464
2.2. Beschreibung von Verteilungen
2. Deskriptive Statistik univariater Daten
Maÿzahlen für Schiefe und Wölbung
Verteilungen können sich nicht nur hinsichtlich Lage und Schiefe, sondern
auch in Bezug auf Symmetrie oder Schiefe und durch ihre Wölbung
(Kurtosis) unterscheiden.
Quantilskoezient der Schiefe:
gp = (x
p= .
1−
Für
x
x
x
x
0 25 erhält man den
Bei
x
p − med ) − ( med − p )
1−p − p
symmetrischen
linkssteilen
rechtssteilen
Jürgen Dippon (ISA)
für ein festes
p∈( ,
0 0.5)
Quartilskoezienten.
Verteilungen gilt
gp ≈
gp >
gp <
0
0
0
Statistik für Wirtschaftswissenschaftler
13. September 2010
47 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Maÿzahlen für Schiefe und Wölbung
Der Nenner in
gp
stellt sicher, dass
g
−1 ≤ p ≤ 1.
Quantilskoezienten sind robust im Gegensatz zum
der Schiefe:
gm = ms̃
3
3
s̃
mit
n
X
Momentenkoezient
m = n (xi − x̄ )
i
1
3
3
=1
gm
Interpretation wie beim Quantilskoezienten.
Division mit
3
macht
Jürgen Dippon (ISA)
maÿstabsunabhängig.
Statistik für Wirtschaftswissenschaftler
13. September 2010
48 / 464
2. Deskriptive Statistik univariater Daten
2.2. Beschreibung von Verteilungen
Wölbungsmaÿ von Fisher
γ=
m
s̃
4
4
−3
mit
n
m = n X(xi − x̄ )
i
1
=1
Bei Normalverteilung gilt
bei spitzeren Verteilungen gilt
bei acheren Verteilungen gilt
Jürgen Dippon (ISA)
4
4
Statistik für Wirtschaftswissenschaftler
γ≈0
γ>0
γ<0
13. September 2010
49 / 464
2.3. Konzentrationsmaÿe
2. Deskriptive Statistik univariater Daten
Konzentrationsmaÿe
Seien
x , ..., xn
1
x
x
die geordneten Messwerte eines kardinal skalierten
nicht-negativen Merkmals (also 0
interpretiert werden).
≤
1
≤ ... ≤ n ,
Dierenzen können
Frage: Wie kann die Konzentration der gemessenen Werte auf die
Merkmalsträger beschrieben werden?
Beispiel: Marktkonzentration in den Städten A, B, C.
Umsätze in 1000 EUR/Monat
Anbieter Nr.
A
B
C
1
50
170
20
2
50
10
40
3
50
10
60
4
50
10
80
In A Umsätze gleichmäÿig über Anbieter verteilt.
In B Umsätze konzentriert auf Anbieter Nr. 1.
In C Umsätze variieren über die Anbieter.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
50 / 464
2. Deskriptive Statistik univariater Daten
2.3. Konzentrationsmaÿe
Relative Konzentration: Lorenzkurve und Gini-Koezient
Für die geordnete Uriste
x
1
x
≤ ... ≤ n
Streckenzug durch die Punkte
ergibt sich die
Lorenzkurve als
u v ), ..., (un, vn) = ( ,
(0, 0), ( 1 ,
mit
uj = nj
Pj
vj = Pnii xxii
=1
1
1 1)
Anteil der Merkmalsträger
kummulierte relative Merkmalssumme
=1
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
51 / 464
2. Deskriptive Statistik univariater Daten
2.3. Konzentrationsmaÿe
Zum Eingangsbeispiel
j nj xi
xi vj
PA
xi
xi vj xi
PB
xi vj
PC
1
0,25
50
50
0,25
10
10
0,05
20
20
2
0,5
50
100
0,5
10
20
0,1
40
60
0,1
0,3
3
0,75
50
150
0,75
10
30
0,15
60
120
0,6
4
1
50
200
1
170
200
1
80
200
1
Abbildung: Lorenzkurve
Eigenschaften
der Lorenzkurve:
Monotonie
und Konvexität
(Wölbung
Jürgen Dippon (ISA)
Statistik für
Wirtschaftswissenschaftler
13. September
2010 nach
52 / 464
2. Deskriptive Statistik univariater Daten
2.3. Konzentrationsmaÿe
Gini-Koezient
Der
Gini-Koezient ist deniert durch
G
Gmin =n
zwischen Diagonale und Lorenzkurve
= Fläche
Fläche zwischen Diagonale und u-Achse
= 2 · Fläche zwischen Diagonale und Lorenzkurve
x
Extreme Ausprägungen des Gini-Koezienten:
Gmax =
0
n
xn 6=
bei maximaler
und
x
= ... = n
Konzentration 1 = ... = n−1 = 0
bei Nullkonzentration
−1
0
1
x
x
Normierter Gini-Koezient:
G
∗
=
Jürgen Dippon (ISA)
G
Gmax
=
n G
n−
1
mit Wertebereich [0, 1]
Statistik für Wirtschaftswissenschaftler
13. September 2010
53 / 464
2. Deskriptive Statistik univariater Daten
2.3. Konzentrationsmaÿe
Gini-Koezient
Zur Interpretation
Gini-Koezient und Lorenzkurve sollten immer gemeinsam
interpretiert werden, da zwei sehr unterschiedliche Lorenzkurven zu
demselben Gini-Koezienten führen können.
Lorenzkurve und Gini-Koezient zielen auf die relative Konzentration
G=
ab. Haben zwei Anbieter jeweils einen 50%igen Anteil so liefert der
Gini- Koezient
0, also keine Konzentration. Der Gini-Koezient
berücksichtigt nicht die Anzahl der Marktteilnehmer.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
54 / 464
2.3. Konzentrationsmaÿe
2. Deskriptive Statistik univariater Daten
Alternative Konzentrationsmaÿe
Wieviel Prozent der Marktteilnehmer teilen sich wieviel Prozent des
Volumens?
CRg
Wieviele Marktteilnehmer teilen sich wieviel Prozent des
Volumens?
g ∈ { , ..., n}
Konzentrationsrate CRg
n
CRg = X pi ,
pi = Pnjxi xj
i n g
Lorenzkurve und Gini-Koezient zielen auf die relative Konzentration:
Die Konzentrationsrate
berücksichtigt die absolute Anzahl der
Anbieter:
Für vorgegebenes
1
ist die
deniert
durch:
wobei
= − +1
CRg
=1
den Merkmalsanteil der i-ten Einheit bezeichnet.
gibt also den relativen Anteil der g gröÿten Merkmalsträger in der
Merkmalssumme wieder.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
55 / 464
2.3. Konzentrationsmaÿe
2. Deskriptive Statistik univariater Daten
Herndahl-Index
Der
Herndahl-Index ist deniert durch
n
X
H = pi ,
2
wobei
i =1
pi = Pnjxi xj
=1
den Merkmalsanteil der i-ten Einheit bezeichnet.
Extremkonstellationen:
Hmin = n
Hmax =
1
1
pi = n
pn =
bei gleichen Marktanteilen, d.h.
(also
1
)
bei Monopolisten, d.h.
(also
1)
x
1
x
1
x
, xn >
= ... = n
x
= ... = n−1 = 0
0
H umso kleiner, je mehr Anbieter mit groÿem Marktanteil. Gini-Koezient
in diesem Fall immer gleich Null.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
56 / 464
2. Deskriptive Statistik univariater Daten
2.4. Dichtekurven und Normalverteilung
Dichtekurven und Normalverteilung
Zur Darstellung der Verteilung eines metrischen Merkmals kann z.B. die
empirische Verteilungsfunktion oder - instruktiver - das Histogramm
verwendet werden.
Abbildung: Empirische Verteilungsfunktion
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
57 / 464
2. Deskriptive Statistik univariater Daten
2.4. Dichtekurven und Normalverteilung
Nachteil: selbst bei stetigen Merkmalen ist das Histogramm eine
Treppenfunktion, die u.U. groÿe Sprünge ausweist.
f
fx
Deshalb: Approximiere das Histogramm durch eine stetige Dichtefunktion.
f x dx
p∈( ,
REine stetige Funktion
=1
R ( )
Für
0 1) ist
p=
xp
Z xp
−∞
Jürgen Dippon (ISA)
ist eine
das
Dichte(kurve), wenn ( ) ≥ 0 und
p-Quantil
f (x )dx
der Dichte
und
1
−
f
, falls
p=
Statistik für Wirtschaftswissenschaftler
Z
∞
xp
f (x )dx
!
13. September 2010
58 / 464
2.4. Dichtekurven und Normalverteilung
2. Deskriptive Statistik univariater Daten
Dichte der Normalverteilung
Wichtiges Beispiel einer Dichtekurve:
Dichte der Normalverteilung
f (x |µ, σ) = σ√ π
1
2
µ∈R
heiÿt Mittelwert,
exp
σ>0
−
1
x − µ
2
2
σ
,
Standardabweichung von
Denitionen dieser beiden Begrie später)
Jürgen Dippon (ISA)
x ∈R
!
Statistik für Wirtschaftswissenschaftler
f (x |µ, σ)
(genaue
13. September 2010
59 / 464
2. Deskriptive Statistik univariater Daten
2.4. Dichtekurven und Normalverteilung
Viele in der Anwedung auftretende Verteilungen können unter Verwendung
einer Normalverteilung gut approximiert werden.
Sind
und
x , . . . , xn
s̃
1
σ
durch
Beobachtungen eines solchen Merkmals, so wird
µ
durch
approximiert.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
x̃
60 / 464
2.4. Dichtekurven und Normalverteilung
2. Deskriptive Statistik univariater Daten
Ist
f
die Dichtekurve einer normalverteilten Variablen
und Standardabweichung
σ,
mit Mittelwert
µ
Z = X σ− µ
die Dichtekurve einer Normalverteilung mit
Z
X
dann besitzt die standardisierte Variable
µ=0
und
σ=1
Standardnormalverteilung und die Variable
standardnormalverteilt.
Diese Normalverteilung heiÿt
entsprechend
Die zugehörige Dichtekurve wird mit
z
φ
1
φ( ) = √
2π
bezeichnet, also
exp
−
z
2
2
Quantile der Standardnormalverteilung ndet man in Tabellen oder mittels
Statistiksoftware.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
61 / 464
2. Deskriptive Statistik univariater Daten
Quantile
xp
zp
2.4. Dichtekurven und Normalverteilung
einer Normalverteilung mit Mittelwert
mit den den Quantilen
Transformation
µ
und Varianz
σ
stehen
der Standardnormalverteilung über die lineare
xp = µ + σzp
in Beziehung.
-σ -Regel für normalverteilte Merkmale:
Daraus ergibt sich die 3
68%
der Beobachtungen liegen im Intervall
95%
der Beobachtungen liegen im Intervall
99, 7%
der Beobachtungen liegen im Intervall
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
µ±σ
µ ± 2σ
µ ± 3σ
13. September 2010
62 / 464
2. Deskriptive Statistik univariater Daten
2.4. Dichtekurven und Normalverteilung
Normal-Quantil-Plots
Statt die Häugkeitsverteilung der Beobachtungen einer Variablen
X
direkt
mit einer Normalverteilung zu vergleichen, werden bei Normal-Quantil-Plots
die Quantile der Häugkeitsverteilung mit den entsprechenden Quantilen
der Standardnormalverteilung verglichen:
x
z
x
z
(1) , . . . , (n)
(1) , . . . , (n)
geordnete Stichprobe
1
n -Quantil,
1−0,5
n
n -Quantil oder besser
n
n−0,5 -Quantil der
...,
n
...,
-Quantil,
Standardnormalverteilung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
63 / 464
2. Deskriptive Statistik univariater Daten
Der
Normal-Quantil-Plot besteht aus den Punkten
z ,x
(
im
2.4. Dichtekurven und Normalverteilung
zx
(1)
z x
(1) ), . . . , ( (n) , (n) )
- -Koordinatensystem.
z x
Ist die empirische Verteilung der Beobachtung approximativ
z =x
standard-normalverteilt, liegen die Punkte
oder auf der Winkelhalbierenden
Jürgen Dippon (ISA)
( (i ) , (i ) )
Statistik für Wirtschaftswissenschaftler
des NQ-Plots nahe an
13. September 2010
64 / 464
3. Deskriptive Statistik multivariater Daten
1
Einführung
2
Deskriptive Statistik univariater Daten
3
Deskriptive Statistik multivariater Daten
Diskrete multivariate Daten
Quantitative multivariate Merkmale
Grasche Darstellungen quantitativer Merkmale
Zusammenhangsmaÿe bei quantitativen Merkmalen
Lineare Regression
R Beispiel
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
65 / 464
3. Deskriptive Statistik multivariater Daten
Deskriptive Statistik multivariater Daten
In diesem Abschnitt stellen wir grasche und rechnerische Methoden zur
Darstellung multivariater Daten vor. Insbesondere geht es um die Frage,
wie eventuelle Zusammenhänge von Merkmalen erkannt werden können.
Gemäÿ dem deskriptive Ansatz können wir diese Frage hier nur recht
vorläug beantworten. Erst unter Verwendung von
wahrscheinlichkeitstheoretischen Methoden kann im Rahmen der induktiven
Statistik diese Frage zufriedenstellend gelöst werden.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
66 / 464
3. Deskriptive Statistik multivariater Daten
3.1. Diskrete multivariate Daten
Diskrete multivariate Daten
Eine Sonntagsfrage lieferte folgende Häugkeitstabelle oder Kontigenztafel:
CDU/CSU
SPD
FDP
Grüne
Rest
Männer
144
153
17
26
95
435
Frauen
200
145
30
50
71
496
344
298
47
76
166
931
Y
Besteht ein Zusammenhang zwischen dem Geschlecht
Parteipräferenz
?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
X
und der
13. September 2010
67 / 464
3. Deskriptive Statistik multivariater Daten
3.1. Diskrete multivariate Daten
Kontingenztafel der absoluten Häugkeiten
a . . . , ak
X
b , . . . , bm
Y
(k × m)-Kontingenztafel der absoluten Häugkeiten
1
Merkmalswerte der Variablen
1
Merkmalswerte der Variablen
X
hij = h(ai , bj )
h , . . . , hk
h ,...,hm
n
1·
·1
·
·
b
a h
ak hk
h
Y
1
...
1
11
...
.
.
.
.
.
.
1
...
·1
...
bm
hm h
hkm hk
hm
1
1·
.
.
.
.
.
.
·
n
X
Y
·
absolute Häugkeit der Kombination
Randhäugkeiten der Variablen
Randhäugkeiten der Variablen
Stichprobenumfang
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
ab
( i, j)
(Zeilensummen)
(Spaltensummen)
13. September 2010
68 / 464
3.1. Diskrete multivariate Daten
3. Deskriptive Statistik multivariater Daten
Kontingenztafel der relativen Häugkeiten
k m)-Kontingenztafel der relativen Häugkeiten
( ×
X
fij = Phnij m
fi = j fij = hni
f j = Pki fij = fnj
·
·
·
=1
·
=1
Jürgen Dippon (ISA)
b
a f
a k fk
f
Y
1
...
1
11
...
.
.
.
.
.
.
1
...
·1
...
bm
fm f
fkm fk
fm
1
1·
.
.
.
.
.
.
·
n
·
relative Häugkeit der Kombination
ab
X
Y
( i, j)
relative Randhäugkeiten der Variablen
(Zeilensummen)
relative Randhäugkeiten der Variablen
(Spaltensummen)
Statistik für Wirtschaftswissenschaftler
13. September 2010
69 / 464
3.1. Diskrete multivariate Daten
3. Deskriptive Statistik multivariater Daten
X = ai
Y
bedingte relative
X = ai
Y |X = ai
fy (b |ai ) = hhii , . . . , fy (bm|ai ) = hhimi
X
Y = bj X |Y = bj
fX (a |bj ) = hh jj , . . . , fX (ak |bj ) = hhkjj
Y
X=
h = / = =
fY (
|
)=
h
/
h = / = =
fY ( |
)=
h
/
Wählt man
fest, so erhält man die
Häugkeitsverteilung von
, gegeben durch
unter der Bedingung
, kurz
1
1
·
·
Analog: Die bedingte relative Häugkeitsverteilung von
Bedingung
, kurz
unter der
, gegeben durch
1
1
·
·
Beispiel: Bedinte relative Häugkeit von
(Parteienpräferenz), gegeben
männlich,
CDU/CSU männlich
SPD männlich
usw.
Jürgen Dippon (ISA)
11
144 931
144
·1
344 931
344
12
153 931
153
·2
298 931
298
Statistik für Wirtschaftswissenschaftler
0.42
0.51
13. September 2010
70 / 464
3. Deskriptive Statistik multivariater Daten
3.1. Diskrete multivariate Daten
Grasche Darstellung von (k × m)-Kontingenztafeln
Säulendiagramm Säulenhöhe proportional zu
hij
bzw.
fij
Mosaikplot Flächeninhalt der Rechtecke proportional zu
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
hij
13. September 2010
bzw.
fij
71 / 464
3. Deskriptive Statistik multivariater Daten
3.1. Diskrete multivariate Daten
Zusammenhangsanalyse in Kontingenztafeln
Wie kann ein Zusammenhang von nominalen Merkmalen quantiziert
werden?
b
a h
ak hk
h
X
Sind die beiden Merkmale
Y
1
...
1
11
...
.
.
.
.
.
.
X
und
1
...
·1
...
Y
bm
hm h
hkm hk
hm
1
1·
.
.
.
.
.
.
·
n
·
unabhängig, würde man erwarten, dass
die Spalten proportional proportional zur Spalte der Zeilensummen sind.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
72 / 464
3.1. Diskrete multivariate Daten
3. Deskriptive Statistik multivariater Daten
Also:

h
j


≈

hkj

∀
j ∈{1,...,m}
.
.
.
h


hk

1
proportional zu

1·
.
.
.


·
oder äquivalent

h
j /h j


≈

hkj /h j
X

∀
j ∈{1,...,m}
Y = bj
1
.
.
.
·
Kurz:
∀
i ,j
Jürgen Dippon (ISA)
proportional zu
·
Denn dann wäre die Verteilung von

h
/n




hk /n

·
1·
.
.
.
·
unabhängig von der Ausprägung
hij ≈ hi n· h j
·
·
Statistik für Wirtschaftswissenschaftler
13. September 2010
73 / 464
3. Deskriptive Statistik multivariater Daten
3.1. Diskrete multivariate Daten
Wir bezeichnen jetzt mit
h
h
ij
eij = hi · ·h·j
n
die beobachteten Häugkeiten
Zusammenhang zwischen den Merkmalen
vorliegt
Der sog.
X
Y
die Häugkeiten, die zu erwarten sind, wenn kein
χ2 -Koezient
χ2 =
und
ist deniert durch
h h
h
k X
m
X
( ij − eij )2
eij
i =1 j =1
∈ [0, ∞)
und dient zur Messung der Diskrepanz zwischen der beobachteten
Verteilung und der Verteilung, die man bei Unabhängigkeit der beiden
Merkmale erwarten würde.
Der Nenner dient zur Normierung.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
74 / 464
3. Deskriptive Statistik multivariater Daten
Zur Interpretation des
Hängen
Hängen
X
X
und
und
Y
Y
Jürgen Dippon (ISA)
3.1. Diskrete multivariate Daten
χ2 -Koezienten:
voneinander ab, sollte
χ2
groÿ sein.
nicht voneinander ab, sollte
χ2
nahe bei Null sein.
Statistik für Wirtschaftswissenschaftler
13. September 2010
75 / 464
3.1. Diskrete multivariate Daten
3. Deskriptive Statistik multivariater Daten
Da
χ2
noch vom Stichprobenumfang
Kontingenzkoezienten
K= n
s
und den
χ2
+ χ2
" r
∈
0,
n
abhängt, betrachtet man auch den
M−
M
1
#
wobei
M=
min{
k , m}
korrigierten Kontingenzkoezienten
K
∗
=q
K
M −1
M
∈ [0, 1]
Erst die induktive Statistik stellt Methoden zur Verfügung, um zu
X
Y
entscheiden, ob die beobachteten Daten Anlass geben, an der
Unabhängigkeit der Merkmale
Jürgen Dippon (ISA)
und
zu zweifeln.
Statistik für Wirtschaftswissenschaftler
13. September 2010
76 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Multivariate quantitative Merkmale
Zur Untersuchung quantitativer multivariater Daten sind die im letzten
Abschnitt vorgestellten Methoden zur Untersuchung qualitativer
multivariater Daten meist ungeeignet.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
77 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Grasche Darstellungen quantitativer Merkmale
Für bivariate Daten:
Streudiagramme
2-dimensionale Histogramme und Dichten
Für multivariate Daten:
Matrix von Streudiagrammen
Matrix von 2-dimensionalen Histogrammen und Dichten
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
78 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Zusammenhangsmaÿe bei quantitativen Merkmalen
Bravais-Pearson-Korrelationskoezient zur Stichprobe
x y ), . . . , (xn, yn)
Pn
r = pPn (ixi −(xx̄i )−px̄ )(Pyin −(ȳy)i − ȳ )
Der
( 1,
ist deniert durch
1
=1
i =1
2
i =1
2
∈ [−1, 1]
Der Bravais-Pearson-Korrelationskoezient ist ein Maÿ für die Stärke des
linearen Zusammenhangs zweier metrischer Merkmale.
r>
r<
r=
|r | <
0
positive Korrelation, gleichsinniger linearer
Zusammenhang
0
negative Korrelation, gegensinniger linearer
Zusammenhang
0
keine Korrelation, kein linearer Zusammenhang
0.5
< | | < 0.8
0.8 < | |
0.5
r
r
Jürgen Dippon (ISA)
schwache Korrelation
mittlere Korrelation
starke Korrelation
Statistik für Wirtschaftswissenschaftler
13. September 2010
79 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Beispiel
Obwohl der Bravais-Pearson-Koezient nur für metrische Variablen
deniert ist, liefert er auch für dichotome, d.h. binäre, Variablen X und Y
ein sinnvolles Ergebnis, falls man 0 und 1 als Kodierung für die
Merkmalsvariable verwendet. Damit lassen sich die Ergebnisse in einer
(2 × 2)-Tabelle
zusammenfassen:
Y
X
Jürgen Dippon (ISA)
0
1
0
1
11
12
21
22
·1
·2
h h h
h h h
h h
1·
2·
n
Statistik für Wirtschaftswissenschaftler
13. September 2010
80 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Beispiel
Der Bravais-Pearson-Korrelationskoezient stimmt in diesem Fall mit dem
sog.
φ-Koezienten
überein:
r = φ = h√hh h−hh hh
11 22
1· 2·
12 21
·1 ·2
Es gilt übrigens:
φ2 =
wobei
2
χ
der
2
χ
χ2
n
-Koezient für Häugkeitstabellen ist.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
81 / 464
3.2. Quantitative multivariate Merkmale
3. Deskriptive Statistik multivariater Daten
Korrelationskoezient von Spearman
Stichprobe
x , ..., xn
1
Geordnete Stichprobe
Der
x
Rang rg( i ) von
x
xi
x
(1) , ..., (n)
ist denitert als die Position von
geordneten Stichprobe. Es gilt also:
x
rg( (i ) )
=
xi
in der
i
Beispiel:
Stichprobe
4, 2, 5, 0
geordnete Stichprobe
0, 2, 4, 5
Ränge der Stichprobe
3, 2, 4, 1
Ränge der geordneten Stichprobe
1, 2, 3, 4
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
82 / 464
3.2. Quantitative multivariate Merkmale
3. Deskriptive Statistik multivariater Daten
Korrelationskoezient von Spearman
Treten gewisse Werte mehrfach in der Stichprobe auf, verwendet man den
mittleren Rang:
Stichprobe
4, 3, 2, 3, 5
geordnete Stichprobe
2, 3, 3, 4, 5
Ränge
1, 2.5, 2.5, 4, 5
x̄
ȳ
Ersetzt man im Korrelationskoezienten von Bravais-Pearson die X- und
Y-Werte durch ihre Ränge und
1
(= n+
),
2
so erhält man den
rsp = qPn
Pn
i =1
i =1
Jürgen Dippon (ISA)
und
durch die Mittelwerte der Ränge
Korrelationskoezient von Spearman:
xi ) − n
y
1
· rg( i ) − n+
2
q
∈ [−1, 1]
n+1 2 · Pn rg( ) − n+1 2
rg( i ) −
i
i =1
2
2
rg(
x
+1
2
y
Statistik für Wirtschaftswissenschaftler
13. September 2010
83 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Korrelationskoezient von Spearman
Der Korrelationskoezient von Spearman ist ein Maÿ für die Stärke des
monotonen Zusammenhangs zweier ordinaler Merkmale.
rsp >
rsp <
rsp =
0
gleichsinniger monotoner Zusammenhang
0
gegensinniger monotoner Zusammenhang
0
kein monotoner Zusammenhang
Der Spearmansche Korrelationskoezient eignet sich oensichtlich auch für
Messungen, die nur als Rangreihen vorliegen.
Beispiel: Vergleich zweier Weinkenner, die zehn Weinproben der Qualität
nach ordnen.
(R-Beispiel)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
84 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Invarianzeigenschaften
Werden die ursprünglichen Merkmale x und y linear transformiert zu:
x̃ = ax x + bx
ỹ = ay y + by
mit
mit
ax 6=
ay 6=
0
0
so folgt für die Bravais-Pearson-Korrelation zwischen
rx̃ ỹ = · · · = |aaxx||aayy | rxy
rx̃ ỹ = +rxy
ax ay
also
(je nach Vorzeichen von
Jürgen Dippon (ISA)
und
oder
x̃
und
ỹ
rx̃ ỹ = −rxy
).
Statistik für Wirtschaftswissenschaftler
13. September 2010
85 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Invarianzeigenschaften
g
h
Werden die ursprünglichen Merkmale x und y mittels zweier streng
monotoner (wachsender oder fallender) Transformationen
x̃ = g (x )
ỹ = h(y )
transformiert zu:
x̃ ỹ
rsp (x̃ , ỹ ) = −rsp (x , y )
so folgt für die Spearman-Korrelation zwischen
rsp (x̃ , ỹ ) = +rsp (x , y )
g h
(je nachdem, ob
Jürgen Dippon (ISA)
und
oder
und
und
sich gleich- oder gegenseitig verhalten)
Statistik für Wirtschaftswissenschaftler
13. September 2010
86 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Korrelation und Kausalität
y
Korrelation ist ein Maÿ für die Stärke des Zusammenhangs zwischen
x
und
. Über die Richtung der Wirkung falls überhaupt vorhanden kann
damit prinzipiell keine Aussage getroen werden.
Probleme
Scheinkorrelation: Eine hohe Korrelation zweier Merkmale
entsteht dadurch, dass
korreliert sind.
x
und
y
x
und
über ein drittes Merkmal hoch
y
Beispiel:
Gesundheitszustand
∼
Abstand zur Hochspannungsleitung
Verdeckte Korrelation: Obwohl keine statistische Korrelation
berechnet wurde, besteht sachlich eine eindeutige Korrelation.
Beispiel: Blutdrucksenkung und Dosierung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
87 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Beispiel
Abbildung: Blutdrucksenkung und Dosierung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
88 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Lineare Regression
Y
f :R→R
X
Y = f (X )
Problem: Gesucht ist eine Funktion
Merkmal
f
in Abhängigkeit des Merkmals
, welche das metrische
beschreibt.
Im Allgemeinen existiert jedoch kein solch klarer Zusammenhang. Deshalb:
Suche
Y
so, dass obiger Zusammenhang nur ungefähr erfüllt ist:
mit einem
von
Y = f (X ) + Fehlerterm , wobei ein möglichst groÿer Anteil der Variabilität
durch
f
erklärt werden soll.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
89 / 464
3.2. Quantitative multivariate Merkmale
3. Deskriptive Statistik multivariater Daten
Ein solches Modell heiÿt
Bei einem
Regressionsmodell.
linearen Regressionsmodell nimmt man
f (X ) = α + βX
an.
Für eine Stichprobe
und eine Steigung
β
x y ), . . . , (xn, yn)
( 1,
1
sind also ein
gesucht, so dass
y
-Achsenabschnitt
α
yi = |α +{zβx}i +i
ŷi
mit möglichst kleinen Fehlern (Residuen)
Jürgen Dippon (ISA)
i .
Statistik für Wirtschaftswissenschaftler
13. September 2010
90 / 464
3.2. Quantitative multivariate Merkmale
3. Deskriptive Statistik multivariater Daten
Methode der kleinsten Quadrate
Wähle
α
und
β
so, dass
n
Q (α, β) = n X i
1
i =1
n
1 X
2
n i (yi − ŷi )
n
X
=
n (yi − (α + βxi ))
=
2
=1
1
2
i =1
minimal.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
91 / 464
3.2. Quantitative multivariate Merkmale
3. Deskriptive Statistik multivariater Daten
Nullstellen der partiellen Ableitung von
Q
α̂
Q
Ermittle die Kleinste-Quadrate-Schätzer
β̂ von α bzw. β
nach α und β :
und
als
n
2 X
∂ (α, β)
!
=−
( i − (α + β i )) = 0
∂α
i =1
n
X
∂ (α, β)
2
!
=−
( i − (α + β i )) i = 0
∂β
i =1
Q
n
y
x
n
y
x x
(1)
(2)
(sog. Normalengleichungen).
Also
n
X
n
X
y
i − α̂ − β̂
ni
n i xi =
n
n
n
X
X
X
n yi xi − n α̂ xi − n β̂ xi =
1
1
=1
1
Jürgen Dippon (ISA)
(3)
0
(4)
=1
1
i =1
0
1
i =1
2
i =1
Statistik für Wirtschaftswissenschaftler
13. September 2010
92 / 464
3.2. Quantitative multivariate Merkmale
3. Deskriptive Statistik multivariater Daten
(3):
Aus
α̂ =
Eingesetzt in
ȳ − β̂x̄
(4):
n
X
n
X
n
X
n
X
n i yi xi − n ȳ i xi + n β̂x̄ i xi − n β̂ i xi
1
1
1
=1
=1
1
=1
2
=0
=1
Dies ist äquivalent zu
n
X
n i yi xi − ȳ x̄ = n β̂
1
1
=1
Also
i =1
xi − nx̄
2
!
2
y x ȳ x̄ = n PniP(nxi − x̄ )(yi − ȳ ) = s̃xy
s̃x
x nx̄
n i (xi − x̄ )
Pn
i i−
β̂ = Pin=1 2
i =1 i −
Jürgen Dippon (ISA)
n
X
1
2
=1
1
=1
Statistik für Wirtschaftswissenschaftler
2
2
13. September 2010
93 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Bestimmtheitsmaÿ und Residualanalyse
Zerlegung der
Gesamtstreuung (sum of squares total)
SQT =
=
=
n
X
i =1
n
X
i =1
n
X
i =1
=
y ȳ
( i − )2
y ŷ ŷ ȳ
( i − i + i − )2
y ŷ
( i − i )2 +
n
X
i =1
(ŷi − ȳ )
2
+2
n
X
|i =1
SQR + SQE
y ŷ )(ŷi − ȳ )
( i− i
{z
= 0 mit (1) und (2)
}
Residualstreuung (sum of squares residual) und
erklärte Streuung (sum of squares explained).
in die
die
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
94 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Der dritte Term ist gleich Null, da
n
X
y ŷ )ȳ ȳ
n
X
y ŷ
( i − i ) = 0 mit (1)
( i− i =
i =1
i =1
n
n
n
X
X
X
( i − i )β̂ i
( i − i )α̂ +
( i− i i=
i =1
i =1
i =1
n
n
X
X
( i − i) i
= α̂
( i − i ) +β̂
i|=1 {z
i
=1
}
|
{z
}
y ŷ )ŷ
y ŷ
y ŷ
= 0 mit (1)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
y ŷ x
y ŷ x
= 0 mit (2)
13. September 2010
95 / 464
3. Deskriptive Statistik multivariater Daten
Das
3.2. Quantitative multivariate Merkmale
Bestimmtheitsmaÿ
n (ŷ − ȳ )
SQE = P
i
Pin
R = SQT
(
y
i − ȳ )
i
2
2
=1
2
=1
∈ [0, 1]
gibt den relativen Anteil der erklärten Streuung an der Gesamtstreuung an.
Beziehung zum Korrelationskoezienten:
R = rxy
2
Jürgen Dippon (ISA)
2
Statistik für Wirtschaftswissenschaftler
13. September 2010
96 / 464
3.2. Quantitative multivariate Merkmale
3. Deskriptive Statistik multivariater Daten
Begründung: Es gilt
n
X
n
X
ŷ n ŷi = n
i
i
= (ȳ − β̂x̄ ) + β̂x̄
= ȳ
¯=
1
1
=1
x
(α̂ + β̂ i ) = α̂ +
=1
mit
β̂x̄
(3)
daraus
n
X
i =1
(ŷi − ȳ )
2
=
=
n
X
i =1
n
X
(ŷi − ŷ¯)
2
x
(α̂ + β̂ i − α̂ −
2
β̂x̄ )
i =1
n
X
= β̂ 2
( i − )2
i =1
x x̄
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
97 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
und schlieÿlich
R
Je näher
R
2
2
(ŷ ȳ
y ȳ
x x̄
y ȳ
P
Pn
2
β̂ 2 ni=1 ( i − )2
i
=
1 i − )
= Pn
= Pn
2
2
i =1 ( i − )
i =1 ( i − )
2
2 2
xy x
xy
2
= xy
=
=
2 )2 2
x y
x y
s̃ s̃
(s̃ s̃
s̃
s̃ s̃
r
bei 1 liegt, umso besser ist die Modellanpassung.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
98 / 464
3.2. Quantitative multivariate Merkmale
3. Deskriptive Statistik multivariater Daten
Graphische Methode zur Überprüfung der Modellanpassung
x
i
n
Residualplots {( i , ˆi ) : ∈ {1, . . . , }}
(Hier Grak einfügen)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
99 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
R Beispiel
Jürgen Dippon (ISA)
Abbildung: Beispiel mit trees Datensatz
Statistik für Wirtschaftswissenschaftler
13. September 2010
100 / 464
3. Deskriptive Statistik multivariater Daten
3.2. Quantitative multivariate Merkmale
Abbildung: Scatterplot
Erstellung der Grak mittels:
attach ( t r e e s ) ; p a i r s ( t r e e s ) ;
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
101 / 464
Teil II
Wahrscheinlichkeitstheorie
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
102 / 464
Wahrscheinlichkeitstheorie
4
Wahrscheinlichkeitsrechnung
5
Diskrete Zufallsvariablen
6
Stetige Zufallsvariablen
7
Grenzwertsätze
8
Mehrdimensionale Zufallsvariablen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
103 / 464
4. Wahrscheinlichkeitsrechnung
4
Wahrscheinlichkeitsrechnung
Denition und Begri der Wahrscheinlichkeit
Laplace-Experimente
Zufallsvariablen und Kombinatorik
Modell mit Zurücklegen
Modell ohne Zurücklegen
Permutation
Modell ohne Zurücklegen und ohne Berücksichtigung der Reihenfolge
Modell mit Zurücklegen und ohne Berücksichtigung der Reihenfolge
Bedingte Wahrscheinlichkeiten
Unabhängigkeit von zwei Ereignissen
Totale Wahrscheinlichkeit
Der Satz von Bayes
Unendliche Grundgesamtheit
5
Diskrete Zufallsvariablen
6
Stetige Zufallsvariablen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
104 / 464
4. Wahrscheinlichkeitsrechnung
Wahrscheinlichkeitsrechnung
Problem der Generalisierung: Besteht eine oensichtliche Korrelation zweier
Merkmale (oder eine andere Eigenschaft) nur zufällig in der Stichprobe
oder aber auch mit hoher Sicherheit in der Gesamtpopulation?
Dieses Problem kann nur gelöst werden, wenn man in der Lage ist,
zufälligen Ereignissen eine Wahrscheinlichkeit zuzuweisen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
105 / 464
4. Wahrscheinlichkeitsrechnung
4.1. Denition und Begri der Wahrscheinlichkeit
Denition und Begri der Wahrscheinlichkeit
Ein
Zufallsvorgang führt zu einem von mehreren sich gegenseitig
ausschlieÿenden Ereignissen. Es ist vor der Durchführung ungewiss, welches
Ergebnis tatsächlich eintreten wird.
Der
Ergebnisraum oder Stichprobenraum Ω ist die Menge aller
Ereignisse
ω
des Zufallsvorgangs.
Ereignisse. Die einelementigen
Teilmengen ω von Ω werden als Elementarereignisse bezeichnet.
Teilmengen von
Ω
Jürgen Dippon (ISA)
heiÿen (Zufalls-)
Statistik für Wirtschaftswissenschaftler
13. September 2010
106 / 464
4. Wahrscheinlichkeitsrechnung
4.1. Denition und Begri der Wahrscheinlichkeit
Denition und Begri der Wahrscheinlichkeit
Sei
A⊂Ω
ein Ereignis. Das Ergebnis
A
ω ∈ Ā
A=∅
A=Ω
Ā = Ω \ A
A∪B
A∩B
Falls
ω∈
ω∈Ω
werde beobachtet.
, so sagt man, dass das Ereignis A eintritt.
Falls
, so sagt man A tritt nicht ein.
Falls
, ist A das unmögliche Ereignis
Falls
, ist A das sichere Ereignis
ist das Ereignis, dass A nicht eintritt.
ist das Ereignis, dass A oder B eintritt (im nichtexklusiven Sinne).
ist das Ereignis, dass A und B eintritt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
107 / 464
4. Wahrscheinlichkeitsrechnung
4.1. Denition und Begri der Wahrscheinlichkeit
Denition und Begri der Wahrscheinlichkeit
Beispiel:
Einmaliges Werfen eines Würfels.
Ω = {1, 2, 3, 4, 5, 6}
= {2 , 4 , 6 }
= {1 , 2 }
∩ = {4 , 6 }
A
B
A B̄
Jürgen Dippon (ISA)
Grundraum, gleichzeitig das sichere Ereignis
Ereignis, dass eine gerade Zahl geworfen wird
Ereignis, dass eine Zahl
≤2
geworfen wird
Ereignis, dass eine gerade Zahl
Statistik für Wirtschaftswissenschaftler
≥3
geworfen wird
13. September 2010
108 / 464
4. Wahrscheinlichkeitsrechnung
4.1. Denition und Begri der Wahrscheinlichkeit
Denition und Begri der Wahrscheinlichkeit
A⊂Ω
P : {A : A ⊂ Ω}
A
Um den unsicheren Ausgang eines Zufallsvorganges zu bewerten, ordnet
man jedem Ereignis
P (A)
heiÿt
eine reelle Zahl
∈ [0, 1]
zu:
→ [0, 1]
7→
P (A)
Wahrscheinlichkeit des Ereignisses A.
Diese Abbildung P, das sog.
Wahrscheinlichkeitsmaÿ, muss die Axiome
von Kolmogorov erfüllen (hier für Ω endlich)
(K1)
(K2)
(K3)
P (A) ≥
P (Ω) =
A∩B =∅
0
1
Falls
, dann gilt
P (A ∪ B ) = P (A) + P (B )
Diese Axiome werden motiviert durch die Eigenschaften relativer
Häugkeiten, die zur Interpretation der Wahrscheinlichkeit herangezogen
werden.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
109 / 464
4. Wahrscheinlichkeitsrechnung
4.1. Denition und Begri der Wahrscheinlichkeit
Beispiel
Beispiel:
n-malige unabhängige Wiederholung eines Würfelexperiments, das den
Ergebnissraum
Ω = {1, ..., 6}
fi
A={
≤
f (A)
f (A) = f + f + f
besitzt.
relative Häugkeit, dass die Zahl i oben liegt
eine Zahl
3 liegt oben}
= {1, 2, 3}
relative Häugkeit des Eintretens von Ereignis A
1
Jürgen Dippon (ISA)
2
3
Statistik für Wirtschaftswissenschaftler
13. September 2010
110 / 464
4.1. Denition und Begri der Wahrscheinlichkeit
4. Wahrscheinlichkeitsrechnung
Beispiel
Oder für allgemeines
A⊂Ω
f (A) =
f (Ω) =
:
X
i ∈A
f
i
|{z}
∈ [0, 1]
≥0
1
Für wachsendes n erwarten wir, dass sich f(A) bei einem gewissen Wert
P (A)
stabilisiert (empirisches Gesetz der groÿen Zahlen). Dieser Wert wird als
Wahrscheinlichkeit
des Eintretens von A angesehen (frequentistische
oder objektivistische Interpretation des Wahrscheinlichkeitsbegris).
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
111 / 464
4. Wahrscheinlichkeitsrechnung
4.1. Denition und Begri der Wahrscheinlichkeit
Rechenregeln für Wahrscheinlichkeiten
1
2
3
4
5
0
PA
≤ ( )≤1
für alle
A⊂Ω
P (∅) =
P (A) ≤ P (B ) A ⊂ B A, B ⊂ Ω
P (Ā) = − P (A) Ā = Ω \ A
P (A ∪ ... ∪ An) = P (A ) + ... + P (An)
Ai ⊂ Ω
P (A ∪ B ) = P (A) + P (B ) − P (A ∩ B )
0
falls
1
1
und
mit
1
falls
disjunkt und
6
A , ..., An
A, B ⊂ Ω
paarweise
1
für beliebige
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
112 / 464
4. Wahrscheinlichkeitsrechnung
4.2. Laplace-Experimente
Laplace-Experimente
N
Bei manchen Zufallsexperimenten mit endlichem Grundraum (also
Ω = {1, ..., })
ist es sinnvoll davon auszugehen, dass alle
Elementarereignisse dieselbe Wahrscheinlichkeit, die sog.
Laplace-Wahrscheinlichkeit, besitzen:
P ({j }) = pj = N = |Ω|
1
1
für alle
j ∈ { , ..., N }
1
Unter Verwendung der 5. Rechenregel folgt für jedes Ereignis A in einem
Laplace-Experiment
P (A)
=
X
j ∈A
=
|A|
P ({j }) = |Ω|
Anzahl der für A günstigen Ergebnisse
Anzahl aller möglichen Ergebnisse
Achtung: Es gibt viele Zusallsexperimente, in denen die
Elementarereignisse nicht gleichwahrscheinlich sind.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
113 / 464
4. Wahrscheinlichkeitsrechnung
4.2. Laplace-Experimente
Laplace-Experimente
Beispiel:
Wie groÿ ist die Wahrscheinlichkeit bei dreimaligem Münzwurf mindestens
einmal Wappen zu erzielen.
Ergebnisraum:
W , W , W ), (W , W , Z ), ..., (Z , Z , Z )}
P ({ω}) = |Ω| =
∀
} |A| =
|A|
P (A) = |Ω|
=
} |A| =
P (Ā) = − P (A) = − =
Ω = {(
|Ω| = 8
1
1
A={
8
ω∈Ω
mindestens einmal Wappen ,
7. Also
7
Ā = {
8
keinmal Wappen ,
1. Also
1
Jürgen Dippon (ISA)
1
7
1
8
8
Statistik für Wirtschaftswissenschaftler
13. September 2010
114 / 464
4. Wahrscheinlichkeitsrechnung
4.3. Zufallsvariablen und Kombinatorik
Zufallsvariablen und Kombinatorik
Modell:
N
n
Kugeln mit Nummern 1,...,N benden sich in einer Urne. Ziehe in
zufälliger Weise
Kugeln, entweder mit oder ohne Zurücklegen.
Ergebnis: geordnetes n-Tupel
E , ..., En)
(
1
mit
Besitzt jede dieser Stichproben vom Umfang
Ei ∈ G = { , ..., N }
n
1
.
dieselbe Wahrscheinlichkeit,
so spricht man von einer einfachen Stichprobe.
Aufgabe: Bestimme diese Wahrscheinlichkeit
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
115 / 464
4. Wahrscheinlichkeitsrechnung
4.3. Zufallsvariablen und Kombinatorik
Modell mit Zurücklegen
N
n
Bei einer Ziehung mit Zurücklegen aus einer Grundgesamtheit vom Umfang
ist die Anzahl der möglichen Stichproben vom Umfang
N| · N{z· ... · N} = N n
gegeben als:
n−mal
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
116 / 464
4. Wahrscheinlichkeitsrechnung
4.3. Zufallsvariablen und Kombinatorik
Modell ohne Zurücklegen
N
n
Bei einer Ziehung ohne Zurücklegen aus einer Grundgesamtheit vom
Umfang
ist die Anzahl der möglichen Stichproben vom Umfang
gegeben als:
N · (N −
|
1)
N −n+
· ... · (
{z
n−Faktoren
1)
=
}
=
Jürgen Dippon (ISA)
N · (N − ) · ... ·
(N − n) · ... ·
N!
(N − n)!
Statistik für Wirtschaftswissenschaftler
1
1
1
13. September 2010
117 / 464
4.3. Zufallsvariablen und Kombinatorik
4. Wahrscheinlichkeitsrechnung
Permutation
Werden alle
N
N
Permutation der Nummern {1, ..., }.
Bei
N
E , ..., EN )
Kugeln aus der Urne ohne Zurücklegen gezogen und gemäÿ
der Reihenfolge des Ziehens angeordnet, so ist
(
1
eine
unterscheidbaren Objekten gibt es
N · (N −
1)
· ··· · 1 =
N!
verschiedene Permutationen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
118 / 464
4.3. Zufallsvariablen und Kombinatorik
4. Wahrscheinlichkeitsrechnung
Modell ohne Zurücklegen und ohne Berücksichtigung der
Reihenfolge
N
n
Bei einer Ziehung ohne Zurücklegen aus einer Grundgesamtheit vom
Umfang
ist die Anzahl der möglichen Stichproben vom Umfang
Nichtbeachten der Reihenfolge:
N · (N −
1)
N −n+
· ... · (
!
n
1)
=
=
N
n
heiÿt
N
n
N · (N − ) · ... ·
n!(N − n)!
N
n
1
bei
1
Binomialkoezient und es gilt:
N
N
= 0,
Jürgen Dippon (ISA)
N
= 1,
1
=
N, N =
0
Statistik für Wirtschaftswissenschaftler
1, falls
N<n
13. September 2010
119 / 464
4. Wahrscheinlichkeitsrechnung
4.3. Zufallsvariablen und Kombinatorik
Beispiel
Ziehung der Lottozahlen
Anzahl der Möglichkeiten 6 Zahlen aus 49 Zahlen zu ziehen, wobei die
Reihenfolge nicht beachtet wird,
49
6
Alle diese
49
6
=
49!
43!6!
= 13983816
Zahlen können als gleichwahrscheinliche Elementarereignisse
angesehen werden. Damit
P(
6 Richtige )
=
=
Jürgen Dippon (ISA)
Anzahl der günstigen Ergebnisse
Anzahl der möglichen Ergebnisse
1
13983816
= 0.000000072
Statistik für Wirtschaftswissenschaftler
13. September 2010
120 / 464
4. Wahrscheinlichkeitsrechnung
4.3. Zufallsvariablen und Kombinatorik
Modell mit Zurücklegen und ohne Berücksichtigung der
Reihenfolge
N
n
Bei einer Ziehung mit Zurücklegen aus einer Grundgesamtheit vom Umfang
ist die Anzahl der möglichen Stichprobem vom Umfang
Nichtbeachten der Reihenfolge gegeben durch:
Begründung: Durch
N−
N +n−
n
1
N
Ei
N
1 Trennzeichen können
voneinander abgegrenzt werden. Auf diese
bei
n
verschiedene Zellen
Zellen werden insgesamt
i
Kreuze verteilt, wobei Mehrfachbesetzungen erlaubt sind. Die Anzahl der
Kreuze gibt an, wieviele Kugeln vom Typ
in Zelle
liegen, z.B.
×|| × ×| × | . . . | × ×|
Die Anzahl solcher Aufteilungen der Kreuze ist
Jürgen Dippon (ISA)
N +n−1.
n
Statistik für Wirtschaftswissenschaftler
13. September 2010
121 / 464
4. Wahrscheinlichkeitsrechnung
4.3. Zufallsvariablen und Kombinatorik
Übersicht
ohne Zurücklegen
mit
Berücksichtigen
der Reihenfolge
ohne Berücksichtigen
der Reihenfolge
Jürgen Dippon (ISA)
N!
(N −n)!
N
n
mit Zurücklegen
Statistik für Wirtschaftswissenschaftler
Nn
N +n−1
n
13. September 2010
122 / 464
4. Wahrscheinlichkeitsrechnung
4.4. Bedingte Wahrscheinlichkeiten
Bedingte Wahrscheinlichkeiten
Analog zum (empirischen) Begri der bedingten relativen Häugkeit
A
B
denieren wir den (theoretischen) Begri der bedingten Wahrscheinlichkeit
eines Ereignisses
Jürgen Dippon (ISA)
gegeben ein Ereignis
.
Statistik für Wirtschaftswissenschaftler
13. September 2010
123 / 464
4. Wahrscheinlichkeitsrechnung
4.4. Bedingte Wahrscheinlichkeiten
Beispiel: einmaliges Werfen eines Würfels
A
B
Ereignis, dass Augenzahl gerade
Ereignis, dass Augenzahl
≤3
P (A) =
3
6
Wie groÿ ist die Wahrscheinlichkeit von
Augenzahl
≤ 3?
P (A|B ) =
=
Jürgen Dippon (ISA)
Anzahl der für
A
Anzahl der für
1
=
A
2
, wenn bekannt ist, dass
und
B
1
B
günstigen Ergebnisse
möglichen Ergebnisse
3
Statistik für Wirtschaftswissenschaftler
13. September 2010
124 / 464
4. Wahrscheinlichkeitsrechnung
4.4. Bedingte Wahrscheinlichkeiten
Allgemein denieren wir (unter Verwendung der Beziehung zwischen
relativen Häugkeiten und Wahrscheinlichkeiten):
A, B ⊂ Ω
A B
Seien
von
unter
und
P (B ) >
deniert als
Jürgen Dippon (ISA)
0. Dann ist die bedingte Wahrscheinlichkeit
P (A|B ) = P (PA(∩B )B )
Statistik für Wirtschaftswissenschaftler
13. September 2010
125 / 464
4. Wahrscheinlichkeitsrechnung
4.4. Bedingte Wahrscheinlichkeiten
Rechenregeln für bedingte Wahrscheinlichkeiten
Seien
A, B ⊂ Ω
und
P (B ) >
P (·|B ) : {A : A ⊂ Ω} → [ , ]
A 7→ P (A|B )
P (B |B ) =
0. Dann gilt bei fest gehaltenem
B
0 1
ist wieder eine Wahrscheinlichkeit mit
Jürgen Dippon (ISA)
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
126 / 464
4.4. Bedingte Wahrscheinlichkeiten
4. Wahrscheinlichkeitsrechnung
Die Axiome von Kolmogorov gelten entsprechend für
Wahrscheinlichkeiten
Zu
bedingte
K ) A , A , B ⊂ Ω, A ∩ A = ∅, P (B ) >
P (A ∪ A |B ) = P ((A P∪(BA )) ∩ B )
P ((A ∩ B ) ∪ (A ∩ B ))
=
P (B )
P
(A ∩ B ) + P (A ∩ B )
=
P (B )
= P (A |B ) + P (A |B )
(
3 :
1
2
1
1
0:
2
1
2
2
1
2
1
1
Jürgen Dippon (ISA)
2
2
Statistik für Wirtschaftswissenschaftler
13. September 2010
127 / 464
4. Wahrscheinlichkeitsrechnung
4.4. Bedingte Wahrscheinlichkeiten
Aus der Denition der bedingten Wahrscheinlichkeit folgt sofort der
A B ⊂ Ω P (B ) >
P (A ∩ B ) = P (A|B ) · P (B )
Produktsatz: Seien ,
Jürgen Dippon (ISA)
und
0. Dann gilt
Statistik für Wirtschaftswissenschaftler
13. September 2010
128 / 464
4. Wahrscheinlichkeitsrechnung
4.5. Unabhängigkeit von zwei Ereignissen
Unabhängigkeit von zwei Ereignissen
B
Ist die Wahrscheinlichkeit des Ereignisses
Ereignis
eingetreten ist, d.h.
A
unabhängig davon, ob das
P (A|B ) = P (A)
A B
P (A ∩ B ) = P (A) ⇐⇒ P (A ∩ B ) = P (A) · P (B )
( ) ⇐⇒
P (B )
so werden die Ereignisse
Da
und
(1)
als stochastisch unabhängig angesehen.
1
denieren wir:
Zwei Ereignisse
falls
A⊂Ω
Jürgen Dippon (ISA)
B ⊂Ω
(stochastisch) unabhängig
P (A ∩ B ) = P (A) · P (B )
und
heiÿen
Statistik für Wirtschaftswissenschaftler
,
13. September 2010
129 / 464
4. Wahrscheinlichkeitsrechnung
4.5. Unabhängigkeit von zwei Ereignissen
Beispiel: Zweimaliges Würfeln
Ω = {(1, 1), . . . , (1, 6), (2, 1), . . . , (6, 6)}
|Ω| = 36
1
∀ ({ω}) = 36
P
A = {( , ), . . . , ( , )}
B = {( , ), . . . , ( , )}
P (A) = P (B ) = =
A ∩ B = {( , )}
ω∈Ω
1 1
1 6
1 1
6 1
6
36
1 1
⇒
A
und
B
eine 1 im ersten Wurf
eine 1 im zweiten Wurf
1
6
eine 1 im ersten und im zweiten Wurf
P| (A{z∩ B}) = P| {z(A}) · P| {z(B})
1
36
1
6
1
6
sind stochastisch unabhängige Ereignisse
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
130 / 464
4. Wahrscheinlichkeitsrechnung
4.5. Unabhängigkeit von zwei Ereignissen
Beispiel: Urne mit den Zahlen 1, 2, 3, 4
Zweimaliges Ziehen mit Zurücklegen:
Ω = {(1, 1), (1, 2), . . . , (4, 4)}
mit
|Ω| = 16
Zweimaliges Ziehen ohne Zurücklegen:
Ω = {(1, 2), (1, 3), . . . , (4, 3)}
mit
|Ω| = 12
A={
B ={
Die Eins wird beim ersten Mal gezogen}
Die Zwei wird beim zweiten Mal gezogen}
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
131 / 464
4. Wahrscheinlichkeitsrechnung
4.5. Unabhängigkeit von zwei Ereignissen
Ziehen mit Zurücklegen
P (A)
P (B )
P (A) · P (B )
P (A ∩ B )
A B
Also sind
und
4
16
4
16
=
=
1
16
1
16
Ziehen ohne Zurücklegen
1
4
1
4
3
12
3
12
=
=
1
16
1
12
1
4
1
4
beim Ziehen mit Zurücklegen stochastisch unabhängig,
nicht jedoch beim Ziehen ohne Zurücklegen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
132 / 464
4. Wahrscheinlichkeitsrechnung
4.6. Totale Wahrscheinlichkeit
Totale Wahrscheinlichkeit
A A
Ω = 1 ∪ 2 eine disjunkte Zerlegung des
( 1 ∩ 2 = ∅), so gilt für ein Ereignis ⊂ Ω
Ω
A A
B
B = (B ∩ A ) ∪ (B ∩ A )
(B ∩ A ) ∩ (B ∩ A ) = ∅
(K )
P (B ) = P (B ∩ A ) + P (B ∩ A )
= P (B |A ) · P (A ) + P (B |A ) · P (A )
Ist
1
und mit Axiom
wobei
2
1
2
3
1
1
Jürgen Dippon (ISA)
Ergebnisraumes
2
1
2
Statistik für Wirtschaftswissenschaftler
2
13. September 2010
133 / 464
4. Wahrscheinlichkeitsrechnung
Etwas allgemeiner gilt der
Sei
Satz der totalen Wahrscheinlichkeit:
A , . . . , Ak
B ⊂Ω
1
4.6. Totale Wahrscheinlichkeit
eine disjunkte Zerlegung von
Ω.
Dann gilt für
k
P (B ) = X P (B |Ai ) · P (Ai )
i =1
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
134 / 464
4. Wahrscheinlichkeitsrechnung
4.6. Totale Wahrscheinlichkeit
Beispiel: Alarmanalyse
A={ } E ={
P (A|E ) = ,
P (A|Ē ) = ,
P (E ) = ,
Einbruch},
Alarm ,
Ē = {
kein Einbruch}
0 99
W für Alarm bei Einbruch
0 005
W für Fehlalarm
0 001
W für Einbruch
Wie groÿ ist die Wahrscheinlichkeit für einen Alarm?
P (A) = P (A|E ) · P (E ) + P (A|Ē ) · P (Ē )
= 0, 99 · 0, 001 + 0, 005 · (1 − 0, 001)
≈ 0, 006
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
135 / 464
4. Wahrscheinlichkeitsrechnung
4.7. Der Satz von Bayes
Der Satz von Bayes
Ist
A
1
∪ ...
A
2
=Ω
Ω
P (Ai ) >
j ∈ { , . . . , k}
P (Aj |B ) = P (PA(j B∩)B )
P (B |Aj ) · P (Aj )
=
P (B )
P
(B |Aj ) · P (Aj )
= Pk
i P (B |Ai ) · P (Ai )
eine Zerlegung von
Ereignis, so gilt für jedes
1
mit
0 und
B
ein
=1
wobei im letzten Schritt der Satz von der totalen Wahrscheinlichkeit
verwendet wurde.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
136 / 464
4. Wahrscheinlichkeitsrechnung
4.7. Der Satz von Bayes
Satz von Bayes
A , . . . , Ak
B ⊂Ω
1
ein Ereignis mit
Dann gilt für alle
Ω
P (A ) >
0, . . . ,
P (B ) >
j ∈ { , . . . , k}
P (Aj |B ) = PkP (BP|(ABj )|A· P) (· APj()A )
disjunkte Zerlegung von
0
1
P (Ak ) >
0
1
i =1
Jürgen Dippon (ISA)
mit
i
Statistik für Wirtschaftswissenschaftler
i
13. September 2010
137 / 464
4. Wahrscheinlichkeitsrechnung
4.7. Der Satz von Bayes
Interpretation:
A , . . . , Ak
P (B |Ai )
Ai
Werden die Ereignisse
angesehen, so gibt
Vorliegen von Ereignis
1
als mögliche Ursachen für das Ereignis
B
B
die (bedingte) Wahrscheinlichkeit an, dass bei
die Wirkung
B
eintritt.
Aj
Die Formel von Bayes erlaubt jetzt einen wahrscheinlichkeitstheoretischen
Rückschluss von der Wirkung
Jürgen Dippon (ISA)
auf die mögliche Ursache
Statistik für Wirtschaftswissenschaftler
13. September 2010
138 / 464
4. Wahrscheinlichkeitsrechnung
4.7. Der Satz von Bayes
Beispiel: Fortsetzung Alarmanalyse
Wie groÿ ist die Wahrscheinlichkeit, dass ein Einbruch im Gange ist, wenn
ein Alarm ertönt?
P (E |A) = P (A|E ) ·PP((AE|)E+) ·PP((AE|)Ē ) · P (Ē )
≈
0, 99
· 0, 001
0, 006
≈ 0.165
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
139 / 464
4.8. Unendliche Grundgesamtheit
4. Wahrscheinlichkeitsrechnung
Unendliche Grundgesamtheit
Beispiel: Anzahl der Würfe eines Würfels bis zur ersten 6.
Ω = {1, 2, 3, ...},
also
P ({
= P(
= P(
|Ω| = ∞
2 Würfe bis zur ersten 6})
P
) · P(
1. Wurf keine 6)
1. Wurf keine 6
=
5
6
·
· (2.
Wurf eine 6|1. Wurf keine 6)
2. Wurf eine 6)
1
6
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
140 / 464
4.8. Unendliche Grundgesamtheit
4. Wahrscheinlichkeitsrechnung
Unendliche Grundgesamtheit
Ai = {
Bi = {
Ci = {
Allgemeiner:
i-ter Wurf keine 6}
i-ter Wurf eine 6}
Spiel endet nach i Würfen}
P (Ci ) = P (A ∩ ... ∩ Ai ∩ Bi )
= P (A ) · P (A ) · ... · P (Ai
1
−1
1
=
5
6
·
5
6
2
i − 1
=
5
6
5
1
6
6
· ... ·
·
−1 )
PB
· ( i)
1
6
Da hier i beliebig groÿ werden kann, sollte das 3. Axiom von Kolmogorov
auch für abzählbar unendliche Vereinigungen von Ereignissen
verallgemeinert werden.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
141 / 464
4. Wahrscheinlichkeitsrechnung
4.8. Unendliche Grundgesamtheit
Axiome von Kolmogorov
K
K
K
P (A) ≥
P (Ω) =
P (A ∪ A
A⊂Ω
A⊂Ω
P (Ai )
Axiome von Kolmogorov für unendliche Ergebnisräume:
( 1)
( 2)
( f3)
0 für alle Ereignisse
1
Für paarweise disjunkte Ereignisse
1
2 ∪ ...) =
P∞
i =1
gilt:
Alle bislang hergeleiteten Rechenregeln gelten auch für unendliche
Ergebnisräume.
Später werden wir sehen, dass sich die Wahrscheinlichkeit eines
überabzählbaren Ereignisses nicht als Summe der Wahrscheinlichkeiten der
einzelnen Ergebnisse darstellen lässt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
142 / 464
5. Diskrete Zufallsvariablen
4
Wahrscheinlichkeitsrechnung
5
Diskrete Zufallsvariablen
Zufallsvariablen
Verteilungen und Parameter von diskreten Zufallsvariablen
Spezielle diskrete Verteilungsmodelle
Die Binomialverteilung
Die hypergeometrische Verteilung
Die Poisson-Verteilung
6
Stetige Zufallsvariablen
7
Grenzwertsätze
8
Mehrdimensionale Zufallsvariablen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
143 / 464
5. Diskrete Zufallsvariablen
Diskrete Zufallsvariablen
In den Kapiteln 57 werden grundlegende Begrie und Eigenschaften von
univariaten (d.h. eindimensionalen) Zufallsvariablen eingeführt.
Insbesondere wird zwischen diskreten und stetigen Zufallsvariablen
unterschieden.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
144 / 464
5.1. Zufallsvariablen
5. Diskrete Zufallsvariablen
Zufallsvariablen
Beispiel: 2-maliges Würfeln
Ω = {(1, 1), ..., (6, 6)}, |Ω| = 36
Summe der Augenzahlen werde beschrieben durch die Variable:
X : Ω → { ,..., }
ω 7→ X (ω) = i + j
|{z}
2
X
12
( i ,j )
ist Beispiel einer Zufallsvariablen, die jedem Ergebnis
ω∈Ω
eine reelle
Zahl zuordnet.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
145 / 464
5. Diskrete Zufallsvariablen
5.1. Zufallsvariablen
Zufallsvariablen
P (A)
Frage: Wie groÿ ist die Wahrscheinlichkeit, dass die Augensumme
Gesucht ist also
A = {X ≤ } = {( , ), ( , ), ( ,
P (A) = P| ({X{z= })} + P| ({X{z=
4
1 1
1 2
ist?
2 1), ..., (1, 3), (2, 2), (3, 1)}
2
1
36
Jürgen Dippon (ISA)
≤4
mit:
2
36
3}) +
}
P| ({X{z=
Statistik für Wirtschaftswissenschaftler
3
36
4})
}
=
1
6
13. September 2010
146 / 464
5. Diskrete Zufallsvariablen
5.1. Zufallsvariablen
Zufallsvariablen
Eine Variable oder ein Merkmal X, dessen Werte oder Ausprägungen die
Ergebnisse eines Zufallsvorgangs sind, heiÿt
Die Zahl
heiÿt
x ∈R
Zufallsvariable X.
, die X bei Durchführung des Zufallsvorgangs annimmt,
Realisierung oder Wert von X.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
147 / 464
5. Diskrete Zufallsvariablen
5.1. Zufallsvariablen
Zufallsvariablen
Von Interesse sind oft Ereignisse der Form:
X = x } = {ω ∈ Ω|X (ω) = x }
{X 6= x } = {ω ∈ Ω|X (ω) 6= x }
{X ≤ x } = {ω ∈ Ω|X (ω) ≤ x }
B ⊂R
{X ∈ B } = {ω ∈ Ω|X (ω) ∈ B }
P (X ∈ B )
{
oder allgemein für einen Bereich
Die Menge aller Wahrscheinlichkeiten
:
Wahrscheinlichkeitsverteilung von X.
Jürgen Dippon (ISA)
für Bereiche B nennt man
Statistik für Wirtschaftswissenschaftler
13. September 2010
148 / 464
5.2. Verteilungen diskreter Zufallsvariablen
5. Diskrete Zufallsvariablen
Verteilungen und Parameter von diskreten Zufallsvariablen
unendlich viele Werte
diskret, falls sie nur endlich oder abzählbar
x , x , ...
Eine Zufallsvariable X heiÿt
1
2
annehmen kann. Die
Wahrscheinlichkeitsverteilung von X ist durch die Wahrscheinlichkeiten:
P (X = xi ) = pi = f (xi ),
gegeben.
Die Wertemenge von X wird auch als
i=
1, 2, ..
Träger von X bezeichnet:
x x , . . .}
T = { 1,
2
Ist B eine Teilmenge des Trägers von X, so folgt mit Axiom
P (X ∈ B ) =
Jürgen Dippon (ISA)
X
i : xi ∈ B
pi
Statistik für Wirtschaftswissenschaftler
K
( f3):
13. September 2010
149 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Verteilungen und Parameter von diskreten Zufallsvariablen
x
p p
x
{ 1 , . . . , k } ist die
Wahrscheinlichkeitsverteilung 1 , ... k das wahrscheinlichkeitstheoretische
Analogon zur relativen Häugkeitsverteilung 1 , ..., k .
Bei einem endlichen Wertebereich
Jürgen Dippon (ISA)
f
Statistik für Wirtschaftswissenschaftler
f
13. September 2010
150 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Bernoulli-Verteilung
Besitzt der Wertebereich von X nur zwei Werte
binäre oder dichothome Zufallsvariable.
Beispiel:
Sei
X=
x
1 und
x
2 , so ist X eine
1,
falls Kunde kreditwürdig
0,
falls Kunde nicht kreditwürdig
A={
P (A) = P (X =
Kunde kreditwürdig}. Dann
X ist eine
1)
=
p
P (Ā) = P (X =
X ∼ ( , p)
und
Bernoulli-Variable, kurz
Bernoulli-Verteilung.
Verteilung heiÿt
Bin 1
0)
=1−
p
. Die dazugehörige
Grasche Darstellung durch ein Stab- oder Säulendiagramm oder ein
Wahrscheinlichkeitsdiagramm.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
151 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Verteilungsfunktion
Verteilungsfunktion einer diskreten Zufallsvariable:
F (x ) = P (X ≤ x ) =
X
i : xi ≤ x
f (xi )
Diese Verteilungsfunktion besitzt viele Eigenschaften der empirischen
Verteilungsfunktion:
monoton wachsende Treppenfunktion
F (x ) →
F (x ) →
F (x )
F (x )
0 für
1 für
x → −∞
x →∞
macht Sprünge der Höhe
f (xi ) = pi xi
an
rechtsstetig an den Sprungstellen
(Die empirische Verteilungsfunktion macht Sprünge der Höhe
Vielfache davon.)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
1
n
oder
13. September 2010
152 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Abbildung: Zähldichte und Verteilungsfunktion
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
153 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Gleichverteilung
x
x
X∼
Eine diskrete Zufallsvariable X heiÿt
T = { 1 , ..., n }
kurz
∀
i ∈{1,...,k }
Jürgen Dippon (ISA)
gleichverteilt auf dem Träger
Unif (T ), falls gilt:
P (X = xi ) = k
Statistik für Wirtschaftswissenschaftler
1
13. September 2010
154 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Geometrische Verteilung
X∼
p)
Eine diskrete Zufallsvariable X heiÿt
Geo(
, falls gilt:
P (X = i ) = ( − p)i p
∀
i ∈N0
p)
Eine Geo(
geometrisch(p)-verteilt, kurz
−1
1
-verteilte Zufallvariable X zählt die Anzahl der Versuche in
p∈( ,
einer Folge von unabhängigen Zufallsexperimenten mit jeweiliger
Erfolgswahrscheinlichkeit
A=(
0 1) bis zum ersten Erfolg:
0, 0, ..., 0
| {z }
)
, |{z}
1
i −1 Misserfolge 1. Erfolg
( ) = (1 − ) · (1 − ) · ... · (1 − ) ·
PA
Jürgen Dippon (ISA)
p
p
p p = ( − p)i p
Statistik für Wirtschaftswissenschaftler
1
−1
13. September 2010
155 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Unabhängigkeit
y y , ...}
TY = { 1 ,
y ∈ TY
und
2
heiÿen
unabhängig, wenn für
x x
TX = { 1 , 2 , ...}
beliebige
∈ TX und
Zwei diskrete Zufallsvariablen X und Y mit den Trägern
gilt:
x
P (X = x , Y = y ) = P (X = x ) · P (Y = y )
X , ..., Xn unabhängig
x , ..., xn
P (X = x , ..., Xn = xn) = P (X = x ) · ... · P (Xn = xn)
Allgemeiner heiÿen n diskrete Zufallsvariablen
wenn für beliebige Werte
1
Jürgen Dippon (ISA)
1
1
1
,
aus den jeweiligen Trägern gilt:
1
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
156 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Unabhängigkeit
X ∈ A} {Y ∈ B }
P (X ∈ A, Y ∈ B ) = P (X ∈ A) · P (Y ∈ B )
f)
(K
Sind zwei diskrete Zufallsvariablen X und Y unabhängig, folgt die
Unabhängigkeit der Ereignisse
Nachweis mit Axiom
{
und
, d.h.
3 .
Beispiel:Unabhängigkeit beim Werfen zweier Würfel
X
Augenzahl im 1. Wurf, Y Augenzahl im 2. Wurf
P (X ={zi , Y = j}) = P| (X{z= i}) · P| (Y{z= j})
|
Jürgen Dippon (ISA)
1
36
1
6
Statistik für Wirtschaftswissenschaftler
1
6
13. September 2010
157 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Lageparamter einer diskreten Verteilung
Analog zum arithmetischen Mittel einer Stichprobe denieren wir:
1
EX
Erwartungswert ( ) einer diskreten Zufallsvariable mit den Werten
x , x , ...
Der
2
f (x )
E (X ) = X xi pi
i
X
=
xi f (xi )
und der Wahrscheinlichkeitsverteilung
Wahrscheinlichkeitsfunktion
p , p , ...
1
2
bzw. der
ist deniert durch:
≥1
i ≥1
Der Erwartungswert einer Zufallsvariable X ist damit das mit der
Wahrscheinlichkeit des Auftretens gewichtete Mittel der Werte.
fi
xi
Beim arithmetischen Mittel
relative Häugkeit
Jürgen Dippon (ISA)
von
x̄
einer Stichprobe wird statt
in der Stichprobe verwendet.
Statistik für Wirtschaftswissenschaftler
pi
bzw.
f (xi )
13. September 2010
die
158 / 464
5.2. Verteilungen diskreter Zufallsvariablen
5. Diskrete Zufallsvariablen
Beispiel
Beispiel: Erwartungswert beim Würfel
Die Variable
X
gebe die Augenzahlen an
E (X ) = xi pi = i ·
X
6
X
i =1
Jürgen Dippon (ISA)
1
6
1
21
6
6
= (1 + ... + 6) =
Statistik für Wirtschaftswissenschaftler
= 3, 5
13. September 2010
159 / 464
5.2. Verteilungen diskreter Zufallsvariablen
5. Diskrete Zufallsvariablen
Beispiel
Beispiel: Mittlere Augenzahl der Versuche bis zum 1. Erfolg bei
p∈( , )
X ∼ (p)
unabhängigen Bernoulli-Versuchen mit jeweiliger Erfolgswahrscheinlichkeit
0 1
Geo
, d.h.
P (X = i ) = ( − p)i p, i ∈ { ,
−1
1
1 2, ...}
E (X ) = X i ( − p)i p = p X i ( − p)i
∞
∞
−1
1
i =0
p
∞
X
1
p
i =0
−1
pp
p
p pp p p
∞
d
d X
(1 − )i = −
(1 − )i
d
d
i =0
i =0
d
1
d 1
1
=−
=−
= · 2
d 1 − (1 − )
d
=−
=
Jürgen Dippon (ISA)
1
pp
p>
p
p
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
160 / 464
5.2. Verteilungen diskreter Zufallsvariablen
5. Diskrete Zufallsvariablen
Erwartungswert
Ist
g (x )
eine reelle Funktion, dann gilt für die Zufallsvariable
Y = g (X )
:
E (Y ) = E (g (X )) = X g (xi )pi = X g (xi )f (xi )
i ≥1
gx x
Beispiel: ( ) =
i ≥1
2
E (X ) = X xi pi = x p
2
2
i ≥1
2
1 1
+ ...
g x ax + b
E (aX + b) = X(axi + b)pi = a X xi pi +b X pi = aE (x ) + b
Beispiel: ( ) =
i ≥1
i ≥1
| {z }
E (X )
i ≥1
| {z }
1
Erwartungswertbildung ist also linear.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
161 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Beispiel
fx
Beispiel: Ist die Wahrscheinlichkeitsfunktion ( ) symmetrisch um c, so
gilt:
E (X ) = X
E (X − c ) + Ec
=
(xi − c )f (xi ) +c
i ≥1
|
=
Jürgen Dippon (ISA)
c
{z
0
}
Statistik für Wirtschaftswissenschaftler
13. September 2010
162 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Weitere Eigenschaften
Die folgende Tatsache ist aufwändig zu zeigen:
Für zwei diskrete Zufallsvariablen X und Y gilt:
E (X + Y ) = E (X ) + E (Y )
a , ..., an
E (a X + ... + anXn) = a E (X ) + ... + anE (Xn)
und allgemeiner für beliebige Konstanten
1
Jürgen Dippon (ISA)
1
1
:
1
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
163 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Produktregel
Für zwei unabhängige diskrete Zufallsvariablen gilt die Produktregel:
E (X · Y ) = E (X ) · E (Y )
Beispiel: Beim 2-maligen Würfeln gilt für die Augenzahlen X (erster Wurf )
und Y (zweiter Wurf ):
E (X · Y ) = E (X ) · E (Y ) =
Jürgen Dippon (ISA)
7
2
·
7
2
Statistik für Wirtschaftswissenschaftler
=
49
4
13. September 2010
164 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Weitere Lageparameter
Der
x
Modus mod
macht.
ist derjenige
x
-Wert, der
p ∈ ( , ) xp
P (X ≤ xp ) = F (xp ) ≥ p
xp
Für jeden Wert
0 1
Mit dieser Denition ist
ist
ein
f (x ) = P (X = x )
maximal
p-Quantil, falls
und
P (X ≥ xp ) ≥
1
−
p
u.U. nicht eindeutig deniert. Sind mehrere
Werte möglich, so kann man z.B. den mittleren Wert wählen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
165 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Streungsparameter für eine diskrete Zufallsvariable X
Die
Varianz einer diskreten Zufallsvariable ist:
σ2 =
wobei
Die
EX
Var (X ) = X(xi − µ) f (xi ) = E ((X − µ) )
2
2
i ≥1
µ = ( ).
Standardabweichung ist:
p
σ=+
Jürgen Dippon (ISA)
Var (X )
Statistik für Wirtschaftswissenschaftler
13. September 2010
166 / 464
5. Diskrete Zufallsvariablen
5.2. Verteilungen diskreter Zufallsvariablen
Streuungsparameter für eine diskrete Zufallsvariable X
Wie bei empirischen Varianzen gilt die
Verschiebungsregel:
Var (X ) = E (X ) − (E (X )) = E (X ) − µ
Y = aX + b
Var (Y ) = Var (aX + b) = a Var (X )
σY = |a|σX
2
2
2
2
und für
2
Jürgen Dippon (ISA)
und
Statistik für Wirtschaftswissenschaftler
13. September 2010
167 / 464
5.2. Verteilungen diskreter Zufallsvariablen
5. Diskrete Zufallsvariablen
Beispiel
Augenzahl X beim Würfeln
Var (X ) = E (X ) − (E (X ))
2
2
=1 ·
=
1
6
1
6
2
2
+2 ·
1
6
2
+ ... + 6 ·
· (12 + 22 + ... + 62 ) −
|
{z
}
1
6
2
−
7
2
2
7
2
91
= ... =
Jürgen Dippon (ISA)
70
24
= 2, 92
Statistik für Wirtschaftswissenschaftler
13. September 2010
168 / 464
5. Diskrete Zufallsvariablen
5.3. Spezielle diskrete Verteilungsmodelle
Die Binomialverteilung
Folge von
n
p
unabhängigen Bernoulli-Versuchen
Erolgswahrscheinlichkeiten
Xi =
, wobei
X , . . . , Xn
1
p
0
mit Wahrscheinlichkeit 1
1
mit Wahrscheinlichkeit
Gesucht ist nun die Wahrscheinlichkeit für genau
k
−
mit jeweiligen
p
Erfolge:
0...0 1...1
|{z} |{z}
n −k k
Wahrscheinlichkeit für genau dieses Ergebnis:
Anzahl verschiedener Permutationen:
p
p
(1 − )n−k · k
n
k
Alle Permutatonen sind gleich wahrscheinlich. Also:
P ({
n pk ( − p)n
k
k Erfolge bei n Versuchen})
Jürgen Dippon (ISA)
=
Statistik für Wirtschaftswissenschaftler
1
−k
13. September 2010
169 / 464
5. Diskrete Zufallsvariablen
5.3. Spezielle diskrete Verteilungsmodelle
Die Binomialverteilung
X = X + ... + Xn
E (X ) = E (X
1
sei die Anzahl der Erfolge bei n Versuchen. Dann ist:
1
=
X
E X ) + ... + E (Xn) = n |E ({zX })
+ ... + n ) = (
1
1
0·(1−
np
p)+1·p
X , ..., Xn
Var (X ) = Var (X + ... + Xn) = Var (X ) + ... + Var (Xn) = nVar (X )
= n(E (X ) − (E (X )) )
= n( · ( − p ) + · p − p ) = np ( − p )
Wegen Unabhängigkeit der
folgt:
1
1
1
2
1
0
2
Jürgen Dippon (ISA)
1
1
1
2
1
2
2
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
170 / 464
5. Diskrete Zufallsvariablen
5.3. Spezielle diskrete Verteilungsmodelle
Die Binomialverteilung
Additionseigenschaft der Binomialverteilung
Sind
X∼
n, p )
Bin(
und
Y ∼ (m, p)
X + Y ∼ (n + m, p)
Bin
unabhängig, so gilt:
Bin
Symmetrieeigenschaft
Sei
X∼
n, p )
Bin(
und
Y =n−X
Y ∼ (n, − p)
, dann gilt
Bin
Jürgen Dippon (ISA)
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
171 / 464
5.3. Spezielle diskrete Verteilungsmodelle
5. Diskrete Zufallsvariablen
Beispiel
Beispiel: Qualitätskontrolle
p=
Bei der Produktion von Speicherchips ist ein Bauteil mit Wahrscheinlichkeit
von
0.9 fehlerfrei.
Aus der laufenden Produktion werden
n=
20 Stücke entnommen. Sei
die Anzahl der fehlerfreien Stücke, also:
X∼
Bin(20, 0.9)
und
Y =n−X ∼
X
Bin(20, 0.1)
Wie groÿ ist die Wahrscheinlichkeit, dass höchstens 18 der 20 Bauteile
fehlerfrei sind?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
172 / 464
5.3. Spezielle diskrete Verteilungsmodelle
5. Diskrete Zufallsvariablen
Beispiel
P (X ≤
18)
PX
X
= 1 − ( = 19 oder = 20)
20
20
19
1
20
=1−
0.9
· 0.1 −
0.9
· 0.10
19
20
= 1 − 20 · 0.9
19
· 0.1 − 0.9
20
≈ 0.61
P (X = ) = · . · . ≈
E (X ) = n · p = · . =
Var (X ) = n · p( − p) = · .
18
20
0 9
18
20
1
18
0 1
0 9
2
0.285
18
20
0 9
· 0.1 = 1.8,
also
σ ≈ 1.34
Im Zusammenhang mit dem zentralen Grenzwertsatz werden wir sehen,
dass X ungefähr normalverteilt ist mit Erwartungswert 18 und Varianz 1.8
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
173 / 464
5. Diskrete Zufallsvariablen
5.3. Spezielle diskrete Verteilungsmodelle
Die hypergeometrische Verteilung
In einer Kiste benden sich
N
Bauteile,
M
davon sind defekt.
00 . . . 0 11 . . . 1
Es werden
n
| {z } | {z }
M
N −M
|
{z
}
N
Bauteile
ohne Zurücklegen herausgezogen.
Wie groÿ ist die Wahrscheinlichkeit, genau
Stichprobe
X =k
defekte Teile zu ziehen?
0...0 1...1
| {z } | {z }
k
n −k
|
{z
}
n
P (X = k ) =
Jürgen Dippon (ISA)
Anzahl der günstigen Ergebnisse
Anzahl der möglichen Ergebnisse
M · N −M = k N n−k
M
Statistik für Wirtschaftswissenschaftler
13. September 2010
174 / 464
5. Diskrete Zufallsvariablen
X
X
5.3. Spezielle diskrete Verteilungsmodelle
n,
(M ,
(
kann nicht gröÿer werden als
Jürgen Dippon (ISA)
falls
n≤M
n>M
0,
n − (N − M ),
X T = {( , n − (N − M )) , min(n, M )}
kann nicht kleiner werden als
Also gilt für den Träger von
falls
:
0
Statistik für Wirtschaftswissenschaftler
13. September 2010
175 / 464
5. Diskrete Zufallsvariablen
n, M , N
hypergeometrisch verteilt mit Parametern
X ∼ Hyp(n, M , N )
Eine Zufallsvariable heiÿt
, kurz
5.3. Spezielle diskrete Verteilungsmodelle
, wenn sie die Wahrscheinlichkeitsfunktion
 M N −M
 ( k )( n−k )
(Nn )
( )=

fk
Es gilt
0
, falls
x ∈T
, sonst
E (X ) = n MN , Var (X ) = n MN − MN NN −− n
n
X
n
N ≤ .
Y ∼ N , MN E (Y ) = n MN = E (X )
M
M
Var (Y ) = n N − N > Var (X )
1
Ist
N M
N, N )
groÿ im Vergleich yu
Bin(
(Faustregel
1
0 05), so kann
als nahezu
-verteilt angesehen werden.
Zum Vergleich: Sei
Bin
. Dann
1
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
176 / 464
5. Diskrete Zufallsvariablen
5.3. Spezielle diskrete Verteilungsmodelle
Abbildung: Zähldichte- und Verteilungsfunktion der
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
Hyp(6, 6, 10)-Verteilung
13. September 2010
177 / 464
5. Diskrete Zufallsvariablen
5.3. Spezielle diskrete Verteilungsmodelle
Die Poisson-Verteilung
n
n
Binomial- und hypergeometrisch verteilte Zufallsvariablen zählen, wie oft
bei
-maligem Ziehen ein bestimmtes Ereignis eintritt:
T = {0 , 1 , . . . , }
Die geometrische Verteilung zählt, wie lange man warten muss bis ein
bestimmtes Ereignis zum ersten Mal eintrit:
Eine
T =N
Poisson-verteilte Zufallsvariable zählt, wie oft ein bestimmtes
Ereignis innerhalb eines (Zeit-)Intervalles eingetreten ist:
T = N0
Die Poisson-Verteilung lässt sich herleiten
1
als Grenzfall der Binomial-Verteilung oder
2
aus den Poisson-Annahmen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
178 / 464
5.3. Spezielle diskrete Verteilungsmodelle
5. Diskrete Zufallsvariablen
zu
1): Die Wahrscheinlichkeit, in einem Jahr mit dem Auto einen
Totalschaden zu erleiden, sei
Eine Versicherung habe
n=
p=
1
.
1000
500000 Versicherungsverträge.
Wie groÿ ist die Wahrscheinlichkeit, dass der Versicherung in einem Jahr
Totalschäden gemeldet werden?
X=
k
Anzahl der Totalschäden
P (X = k ) = kn pk ( − p)n k
n · . . . · (n − k + pk
=
k!
|
{z
}
−
1
1
k
≈ nk !
Jürgen Dippon (ISA)
p
p
(1 − )n (1 − )−k
|
{z –} | {z }
»
1
(1−p ) p
Statistik für Wirtschaftswissenschaftler
np
≈1
13. September 2010
179 / 464
5. Diskrete Zufallsvariablen
Da
1
+ n1
n
→
e n→∞
für
5.3. Spezielle diskrete Verteilungsmodelle
folgt für kleines
k
p
und groÿes
n
und
λ=
np
P (X = k ) ≈ λk ! e , k ∈ { , , . . . , n}
X
( k
k ∈N
f (k ) = P (X = k ) = k e
Eine Zufallsvariable
−λ
0 1
mit der Wahrscheinlichkeitsfunktion
λ
λ
!
0
für
sonst
heiÿt Poisson-verteilt mit Parameter (oder Rate)
Es gilt
Jürgen Dippon (ISA)
0
λ > 0,
E (X ) = λ, Var (X ) = λ
Statistik für Wirtschaftswissenschaftler
kurz
X∼
13. September 2010
Pois(λ)
180 / 464
5.3. Spezielle diskrete Verteilungsmodelle
5. Diskrete Zufallsvariablen
Finden im Zeitintervall [0, 1] zufällig Ereignisse statt, so ist die Anzahl
X
der in [0, 1] beobachteten Ereignisse Pois(λ)-verteilt, falls die folgenden
Poisson-Annahmen gelten:
Zwei Erreignisse können nicht gleichzeitig auftreten
P(
P(
N
Anzahl der Ereignisse in
Anzahl der Ereignisse in
N
tt t
[t , t + ∆t ])
I ,I ⊂ [ ,
[ , + ∆ ]) ≈ λ∆
Für zwei disjunkte Intervalle 1
1 und
Ii
2
t
für
∆
t
kein
nur abhängig von
0 1] gilt:
2 sind zwei unabhängige Zufallsvariablen, wobei
der Ereignisse in
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
∆
t
Ni =
13. September 2010
Anzahl
181 / 464
5.3. Spezielle diskrete Verteilungsmodelle
5. Diskrete Zufallsvariablen
X∼
Ähnlich wie bei der Binomial-Verteilung gilt eine
Poisson-verteilte Zufallsvariablen sind
X +Y ∼
unabhängig, so gilt
X
Additionseigenschaft für
Pois(λ) und
Pois(λ
Y∼
Pois(µ)
+ µ)
Damit lässt sich dann zeigen:
Z
Ist die Anzahl
von Ereignissen in [0, 1] Pois(λ)-verteilt, so ist die Anzahl
von Ereignissen in [0,
t]
Pois(λ
t)
-verteilt.
Beispiele für Poisson-verteilten Zufallsvariablen:
Anzahl radioaktiver zerfälle in einem gegebenen Zeitintervall
Anzahl der Blitzeinschläge in einem Jahr
Anzahl von Morden in einer Groÿstandt
Anzahl von Kreditausfällen in einem Monat bei einer Bank
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
182 / 464
5. Diskrete Zufallsvariablen
5.3. Spezielle diskrete Verteilungsmodelle
Abbildung: Zähldichte- und Verteilungsfunktion der
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
Pois (3)-Verteilung
13. September 2010
183 / 464
6. Stetige Zufallsvariablen
4
Wahrscheinlichkeitsrechnung
5
Diskrete Zufallsvariablen
6
Stetige Zufallsvariablen
Spezielle stetige Verteilungsmodelle
Gleichverteilung
Exponentialverteilung
Lageparameter, Quantile und Varianz von stetigen Zufallsvariablen
Erwartungswert
Modus, Quantil und Median
Varianz und Standardabweichung
Normalverteilung
7
Grenzwertsätze
8
Mehrdimensionale Zufallsvariablen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
184 / 464
6. Stetige Zufallsvariablen
Stetige Zufallsvariablen
Zur Erinnerung: Eine diskrete Zufallsvariable
X
Für deren Verteilungsfunktion
F
T = { 1,
2
an.
gilt
F (x ) = P (X ≤ x ) =
Jürgen Dippon (ISA)
x x ,...}
nimmt Werte in einer
endlichen oder abzählbaren, also diskreten, Menge
X
i : xi ≤ x
f (xi )
Statistik für Wirtschaftswissenschaftler
13. September 2010
(1)
185 / 464
6. Stetige Zufallsvariablen
Eine stetige Zufallsvariable
kontinuierlichen Menge
T,
X
z.B.
nimmt Werte in einer überabzählbaren
T = R, T = [0, 1]
Für deren Verteilungsfunktion kann die Gleichung
oder
(1)
T = (0, ∞)
an.
jetzt NICHT mehr
gelten.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
186 / 464
6. Stetige Zufallsvariablen
Stattdessen und genauer:
X stetig
f (t ) ≥
x ∈R
Z x
F (x ) = P (X ≤ x ) = f (t ) dt
Eine Zufallsvariable
dass für jedes
f (x )
heiÿt
, wenn es eine Funktion
0 gibt, so
−∞
heiÿt Wahrscheinlichkeitsdichte
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
187 / 464
6. Stetige Zufallsvariablen
Für stetige Zufallsvariablen gilt:
P (a ≤ X ≤ b) = P (a < X < b)
= P (a ≤ X < b)
Z b
f (t ) dt = F (b) − F (a)
= P (a < X ≤ b) =
a
P (X = x ) =
x ∈R
P (−∞ < X < ∞) =
Z
f (t ) dt =
und
Da
0 für jedes
1 gilt auch
∞
1
−∞
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
188 / 464
6. Stetige Zufallsvariablen
Weitere Eigenschaften der Verteilungsfunktion einer stetigen Zufallsvariable:
1
2
3
F (x )
limx F (x ) = limx F (x ) =
x
f (x )
F (x ) = dFdx(x ) = f (x )
ist stetig und monoton wachsend mit Werten in [0, 1]
0,
→−∞
Für Werte
→∞
, an denen
1
stetig ist, gilt
0
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
189 / 464
6. Stetige Zufallsvariablen
x ∈R
X
Y
y ∈R
P (X ≤ x , Y ≤ y ) = P (X ≤ x ) · P (Y ≤ y ) = FX (x ) · FY (y )
X , . . . , Xn
x , . . . , xn ∈ R
P (X ≤ x , . . . , Xn ≤ xn) = P (X ≤ x ) · · · · · P (Xn ≤ xn)
Zwei stetige Zufallsvariablen
und
und
sind unabhängig, wenn für alle
Allgemeiner: Die stetigen Zufallsvariablen
für alle
sind unabhängig, falls
1
1
1
Jürgen Dippon (ISA)
1
1
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
190 / 464
6. Stetige Zufallsvariablen
6.1. Spezielle stetige Verteilungsmodelle
Gleichverteilung
X ∼ Unif ([a, b])
f (x ) = b
Eine stetige Zufallsvariable heiÿt
kurz
ab
gleichverteilt auf dem Intervall [ , ],
, wenn sie eine Dichte
1
−a
0
für
a≤x ≤b
sonst
besitzt.
Dazugehörige Verteilungsfunktion
x <a
a≤x ≤b
x >b
x =b F


f (x ) =  xb
An den Knickstellen
Jürgen Dippon (ISA)
x =a
und
0
−a
−a
1
ist
nicht dierenzierbar.
Statistik für Wirtschaftswissenschaftler
13. September 2010
191 / 464
6. Stetige Zufallsvariablen
6.1. Spezielle stetige Verteilungsmodelle
Abbildung: Dichte- und Verteilungsfunktion der Gleichverteilung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
192 / 464
6. Stetige Zufallsvariablen
6.1. Spezielle stetige Verteilungsmodelle
Exponentialverteilung
Die geometrische Verteilung dient zur Beschreibung der Wartezeit bis zu
einem bestimmten Ereignis. Ein stetiges Analogon hierzu ist die
Exponentialverteilung:
Eine stetige Zufallsvariable
X
die Dichte
f (x ) =
X ∼ Exp(λ)
mit nichtnegativen Werten heiÿt
exponentialverteilt mit dem Parameter λ > 0, kurz
λ
e
−λx
für
0
für
x≥
x<
, wenn sie
0
0
besitzt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
193 / 464
6. Stetige Zufallsvariablen
6.1. Spezielle stetige Verteilungsmodelle
Exponentialverteilung
Dazugehörige Verteilungsfunktion
F (x ) =
1
−
e
0
−λx
für
für
x≥
x<
0
0
t Pois (λt )
Man kann zeigen, dass die Anzahl von Ereignissen in einem Zeitintervall der
Länge
-verteilt ist, wenn die Zeitdauern zwischen aufeinander
folgenden Ereignissen unabhängig und exponentialverteilt mit Parameter
λ
sind.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
194 / 464
6. Stetige Zufallsvariablen
6.1. Spezielle stetige Verteilungsmodelle
Abbildung: Dichte- und Verteilungsfunktion der Exponentialverteilung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
195 / 464
6. Stetige Zufallsvariablen
6.2. Lageparameter, Quantile und Varianz
Lageparameter, Quantile und Varianz von stetigen
Zufallsvariablen
Approximation der Dichte
f
x
einer stetigen Zufallsvariablen
Histogramm mit Intervallbreite
∆
E (Xd ) = X xi pi = X
xi f (xi )∆x
Z
→ xf (x ) dx
Jürgen Dippon (ISA)
X
für
Statistik für Wirtschaftswissenschaftler
Xd
durch ein
zu einer diskreten Zufallsvariable
:
x
∆ →0
13. September 2010
196 / 464
6. Stetige Zufallsvariablen
6.2. Lageparameter, Quantile und Varianz
Erwartungswert
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
197 / 464
6.2. Lageparameter, Quantile und Varianz
6. Stetige Zufallsvariablen
Erwartungswert
Der Erwartungswert
E (X )
einer stetigen Zufallsvariable
ist deshalb deniert als
E (X ) =
Jürgen Dippon (ISA)
Z
∞
−∞
X
mit Dichte
f (x )
xf (x ) dx
Statistik für Wirtschaftswissenschaftler
13. September 2010
198 / 464
6. Stetige Zufallsvariablen
6.2. Lageparameter, Quantile und Varianz
Eigenschaften von Erwartungswerten
1
Ist
g (x )
eine reelle Funktion, dann gilt für
Y = g (X )
g (x )f (x ) dx
E (Y ) = E (g (X )) =
Y = aX + b
E (Y ) = E (aX + b) = aE (X ) + b
f
c f (c − x ) = f (c + x )
E (X ) = c
X Y
E (X + Y ) = E (X ) + E (Y )
a , . . . , an
E (a X + . . . + anXn) = a E (X ) + . . . + anE (Xn)
Z
∞
−∞
2
Für
3
Ist
4
Additivität: Für zwei Zufallsvariablen
5
Linearität: Für beliebige Konstanten
gilt
symmetrisch um
1
Jürgen Dippon (ISA)
1
, d.h.
, so gilt
und
gilt
1
1
gilt
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
199 / 464
6. Stetige Zufallsvariablen
Beispiele
1
X
gleichverteilt auf
ab
[ , ].
E (X ) =
6.2. Lageparameter, Quantile und Varianz
Dann
Z b
xf (x ) dx = a x b − a dx
b
a
(b − a)(b + a)
−
=
=
b−a
(b − a)
a+b
=
Z
∞
−∞
2
1
2
2
X ∼ Exp(λ)
2
2
2
2
E (X ) =
Z
∞
−∞
xf (x ) dx =
= ··· =
Jürgen Dippon (ISA)
1
Z
∞
0
xe x dx
−λ
1
λ
Statistik für Wirtschaftswissenschaftler
13. September 2010
200 / 464
6. Stetige Zufallsvariablen
6.2. Lageparameter, Quantile und Varianz
Modus, Quantil und Median
Ist
X
dem
f (x )
<p<
eine stetige Zufallsvariable mit Dichte
ein (lokales) Maximum annimmt,
Für 0
p-Quantil
X
. Der
X
xmod
, so heiÿt der Wert, an
Modus von
xp
F (xp ) = p
Median xmed
F (xmed ) = .
p
1 heiÿt der Wert
von
f (x )
, kurz
.
mit
ist das 50%-Quantil, also
0 5
Ist
F
streng monoton, so sind das
Jürgen Dippon (ISA)
-Quantil und der Median eindeutig.
Statistik für Wirtschaftswissenschaftler
13. September 2010
201 / 464
6.2. Lageparameter, Quantile und Varianz
6. Stetige Zufallsvariablen
Varianz und Standardabweichung
Die
Varianz einer stetigen Zufallsvariable ist deniert als die mittlere oder
EX
(x − µ) f (x ) dx
erwartete quadratische Abweichung vom Erwartungswert
2
σ =
Var (X ) = E ((X − µ) ) =
2
Z
∞
−∞
µ = ( ):
2
Die Standardabweichung ist
Var (X )
p
σ=+
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
202 / 464
6.2. Lageparameter, Quantile und Varianz
6. Stetige Zufallsvariablen
Wie im diskreten Fall gelten
1
2
3
Var (X ) = E (X ) − (E (X )) = E ((X − c ) ) − (µ − c )
Var (aX + b) = a Var (X )
X Y
Var (X + Y ) = Var (X ) + Var (Y )
2
2
2
2
2
für unabhängige Zufallsvariablen
X [a, b]
Var (X ) = E| ({zX })
Beispiel: Sei
auf
und
gleichverteilt
2
EX
− ( ( ))2 = · · · =
| {z }
Rb
2
2 1 dx
x
( a+2 b )
a b−a
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
b a
( − )2
12
13. September 2010
203 / 464
6.3. Normalverteilung
6. Stetige Zufallsvariablen
Normalverteilung
Eine Zufallsvariable
X
mit Dichte
f (x ) = √ πσ
1
2
exp
x
( − µ)2
−
2σ 2
,
x ∈ R,
normalverteilt mit den Parametern µ ∈ R und σ 2 > 0, kurz
X ∼ N (µ, σ )
heiÿt
2
.
Es gilt
E (X ) = √ πσ
1
Z
2
∞
−∞
xe x dx = · · · = µ
( −µ)2
2σ2
Var (X ) = E (X ) − (E (X ))
2
Jürgen Dippon (ISA)
2
= · · · = σ2
Statistik für Wirtschaftswissenschaftler
13. September 2010
204 / 464
6.3. Normalverteilung
6. Stetige Zufallsvariablen
Die Verteilungsfunktion von
X ∼ N (µ, σ )
2
Z x
ist gegeben durch
F (X ) = P (X ≤ x ) = √ πσ e t dt
Z x
t
x
−µ
X
−µ
=P
e
≤
=√
dt
σ
σ
πσ
Z z
t
x − µ ,
Φ(z ) = √
e
dt
=Φ
σ
π
1
2
( −µ)2
2σ2
−∞
−µ
σ
1
2
wobei
Also gilt
−∞
2
−2
1
2
−∞
X ∼ N (µ, σ ) ⇐⇒ X σ− µ ∼ N ( ,
2
Jürgen Dippon (ISA)
2
−2
Statistik für Wirtschaftswissenschaftler
0 1)
13. September 2010
205 / 464
6. Stetige Zufallsvariablen
6.3. Normalverteilung
Abbildung: Dichte- und Verteilungsfunktion der Normalverteilung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
206 / 464
7. Grenzwertsätze
4
Wahrscheinlichkeitsrechnung
5
Diskrete Zufallsvariablen
6
Stetige Zufallsvariablen
7
Grenzwertsätze
Gesetz der groÿen Zahlen
Hauptsatz der Statistik
Der zentrale Grenzwertsatz
8
Mehrdimensionale Zufallsvariablen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
207 / 464
7. Grenzwertsätze
Grenzwertsätze
Fragen:
1
Unter welchen Voraussetzungen liegt die relative Häugkeit für das
Eintreten eines Ereignisses nahe bei der Wahrscheinlichkeit für das
Ereignis?
2
Unter welchen Voraussetzungen kann die Verteilung einer Summe von
Zufallsvariablen durch eine einfachere Verteilung approximiert werden?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
208 / 464
7.1. Gesetz der groÿen Zahlen
7. Grenzwertsätze
Gesetz der groÿen Zahlen
Sei
X
Also
A
A
X=
A
X ∼ Bin( , p) p = P (A) = P (X =
eine binäre Zufallsvariable und
1
ein Ereignis mit
1
falls
eintritt
0
falls
nicht eintritt
mit
Wir nehmen an, dass das Zufallsexperiment
wiederholt werden kann:
Xi = ,,
Xi ∼ Bin( , p)
Klar:
1
Jürgen Dippon (ISA)
1
falls
0
falls
für alle
A i
A i
1).
n
-mal und in identischer Weise
im
-ten Versuch eintritt
im
-ten Versuch nicht eintritt
i ∈ { , . . . , n}
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
209 / 464
7. Grenzwertsätze
7.1. Gesetz der groÿen Zahlen
Empirisches Gesetz der groÿen Zahlen
Für groÿes
n
liegt die relative Häugkeit
nahe bei der Wahrscheinlichkeit von A:
fn(A) → P (A)
Da
fn(A)
für
für das Eintreten von
n→∞
fn(A) = n Pni Xi = X̄n P (A) = E (X )
X̄i → E (X ) n → ∞
1
=1
und
kann
A
(1)
(1)
auch in die Form
für
(2)
gebracht werden.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
210 / 464
7. Grenzwertsätze
7.1. Gesetz der groÿen Zahlen
Fragen:
1
Wie ist die Konvergenz in
2
Gilt
(2)
(1)
und
(2)
zu verstehen?
auch für nicht-binäre Zufallsvariablen?
Auf beide Fragen gibt das Gesetz der groÿen Zahlen eine Antwort.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
211 / 464
7.1. Gesetz der groÿen Zahlen
7. Grenzwertsätze
Sei
X
σ2 =
Seien
Var (X )
X , . . . , Xn
eine Zufallsvariable mit Erwartungswert
.
1
unabhängige wie
Dann gilt
n
X
X
µ=
EX
und Varianz
verteilte Zufallsvariablen.
n
n
E X̄n = E n Xi = n X EXi = n X µ = µ
i
i
i
!
n
n
n
Var (X̄n) = Var n X Xi = n X Var (Xi ) = n X σ
1
=1
1
Für groÿe
n X̄n
ist
Jürgen Dippon (ISA)
!
1
1
=1
=1
1
i =1
2
1
2
i =1
damit immer mehr um
µ
2
=
i =1
σ2
n
herum konzentriert.
Statistik für Wirtschaftswissenschaftler
13. September 2010
212 / 464
7. Grenzwertsätze
7.1. Gesetz der groÿen Zahlen
Gesetz der groÿen Zahlen
Für beliebig kleines
In Worten:
X̄n
c>
P (|X̄n − µ| ≤ c ) →
0 gilt
1
für
n→∞
konvergiert nach Wahrscheinlichkeit gegen
µ.
Zum Beweis verwenden wir die Ungleichung von Tschebyschev
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
213 / 464
7.1. Gesetz der groÿen Zahlen
7. Grenzwertsätze
Ungleichung von Tschebyschev
Für jede Zufallsvariable
X
∀
c >0
mit endlicher Varianz gilt
P (|X − E (X )| > c ) ≤ Varc(X )
2
Beweis: Setze
Y=
0,
falls
1,
falls
(3)
X − E (X )| ≤ c
X − E (X )| > c
|
|
Damit
P (|X − E (X )| > c ) = E (Y ) = E (Y ) |X − E (X )|
≤E
= Var (X )
c
c
2
2
2
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
1
2
13. September 2010
214 / 464
7.1. Gesetz der groÿen Zahlen
7. Grenzwertsätze
Beweis des Gesetzes der groÿen Zahlen
P (|X̄n − µ| ≤ c ) =
1
−
P| (|X̄n −{zµ| > c})
(3)
2
≤ 12 Var (X̄n )= 12 σn →0
c
c
n
→ 1 ( → ∞)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
215 / 464
7. Grenzwertsätze
7.1. Gesetz der groÿen Zahlen
Satz von Bernoulli
Spezialfall des starken Gesetzes der groÿen Zahlen:
Die relative Häugkeit, mit der ein Ereignis
P (A)
A n
bei
unabhängigen
Wiederholungen eines Zufallsvorgangs eintritt, konvergiert nach
Wahrscheinlichkeit gegen
Jürgen Dippon (ISA)
.
Statistik für Wirtschaftswissenschaftler
13. September 2010
216 / 464
7. Grenzwertsätze
7.1. Gesetz der groÿen Zahlen
Konvergenz derr empirischen Verteilungsfunktion
Fn(x )
X
Anwendung des Satzes von Bernoulli auf die empirische Verteilungsfunktion
:
Sei
Seien
eine Zufallsvariable mit Verteilungsfunktion
X , . . . , Xn
1
F (x ) = P (X ≤ x )
X
unabhängige wie
für
F (x )
:
x ∈R
verteilte Zufallsvariablen.
Dann gilt für die empirische Verteilungsfunktion
Fn(x ) =
relative Häugkeit, dass die Ereignisse
{
die Beziehung
∀
x ∈R
X ≤ x }, . . . , {Xn ≤ x }
1
Fn(x ) → P (X ≤ x ) = F (x )
eintreten
für
n→∞
nach Wahrscheinlichkeit.
Diese Eigenschaft gilt sogar gleichmäÿig in
Jürgen Dippon (ISA)
x ∈R
!
Statistik für Wirtschaftswissenschaftler
13. September 2010
217 / 464
7. Grenzwertsätze
7.1. Gesetz der groÿen Zahlen
Hauptsatz der Statistik (Satz von Glivenko-Cantelli)
Sei
X
X
F (x )
eine Zufallsvariable mit Verteilungsfunktion
Fn(X )
|Fn (x ) − F (x )| ≤ c ) →
zu unabhängigen und identisch wie
gebildete empirische Verteilungsfunktion
∀
c >0
Jürgen Dippon (ISA)
P (x
sup
∈R
X , . . . , Xn
. Dann gilt für die
verteilten Zufallsvariablen
1
Statistik für Wirtschaftswissenschaftler
für
1
n→∞
13. September 2010
218 / 464
7. Grenzwertsätze
7.2. Der zentrale Grenzwertsatz
Der zentrale Grenzwertsatz
Die Zufallsvariable
X Bin( , p)
X , . . . , Xn
X
Sn = X + · · · + Xn ∼ Bin(n, p)
E (Sn) = np
Var (Sn) = np( − p)
Die Zufallsvariablen
sei
1
1
-verteilt.
seien unabhängig wie
verteilt. Dann
1
1
Bin(n, p)
N (np, np( − p))
Man stellt experimentell leicht fest, dass die Dichte einer
-verteilten Zufallsvariablen durch die Dichte einer
1
-verteilten Zufallsvariablen approximiert werden kann. Der
formale Beweis ist jedoch schwierig.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
219 / 464
7.2. Der zentrale Grenzwertsatz
7. Grenzwertsätze
Approximation von Summen von Zufallsvariablen
Standardisierung von
Sn
:
− E (Sn )
Zn = Spn Var
(Sn )
Dann gilt:
E (Zn) =
0,
Var (Zn) = Var (Sn) Var (Sn) =
1
1
Damit kann obige Beobachtung reformuliert werden:
Die Dichte von
N( ,
Zn
kann für groÿe
0 1)-Verteilung, also
Jürgen Dippon (ISA)
f (x ) =
n
√1
2π
gut durch die Dichte der
e
2
− x2
, approximiert werden.
Statistik für Wirtschaftswissenschaftler
13. September 2010
220 / 464
7. Grenzwertsätze
7.2. Der zentrale Grenzwertsatz
Daraus folgt:
Die Verteilungsfunktion
Fn(z ) = P (ZnR≤ z ) Znx
z
Φ(z ) =
e dx
von
durch die Verteilungsfunktion
N( ,
−∞
√1
2π
2
− 2
kann für groÿe
n
gut
einer
0 1)-verteilten Zufallsvariablen approximiert werden.
Bin( , p)
Diese Tatsache gilt nicht nur für Summen von unabhängigen
1
-verteilten Zufallsvariablen, sondern unter viel allgemeineren
Voraussetzungen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
221 / 464
7. Grenzwertsätze
7.2. Der zentrale Grenzwertsatz
Zentraler Grenzwertsatz
X , . . . , Xn
1
seien unabhängig identisch verteilte Zufallsvariablen mit
E (Xi ) = µ
und
Var (Xi ) = σ
Fn(z ) = P (Zn ≤ z )
2
Dann konvergiert die Verteilungsfunktion
standardisierten Summe
Zn = X
1
für
n→∞
X n
der
X
n
+ ··· + n − µ
1 X i −µ
√
=√
σ
σ
i =1
n
an jeder Stelle
Standardnormalverteilung
z ∈R
n
gegen die Verteilungsfunktion
z
Φ( )
der
Fn(z ) → Φ(z ) (n → ∞)
Unter den Voraussetzungen dieses Satzes gilt deshalb:
Sn = X
1
Jürgen Dippon (ISA)
X
+ ··· + n
ist approximativ
N (nµ, nσ )
Statistik für Wirtschaftswissenschaftler
2
-verteilt
13. September 2010
222 / 464
7. Grenzwertsätze
7.2. Der zentrale Grenzwertsatz
Grenzwertsatz von Moivre-Laplace
Bin( , p)
X , . . . , Xn
Als Spezialfall des zentralen Grenzwertsatzes gilt damit für die Summe von
unabhängigen
1
-verteilten Zufallsvariablen
1
der
Grenzwertsatz von Moivre-Laplace
∀
z ∈R
≤z
P pSnpn (− np
− p)
z
!
→ Φ( )
1
für
n→∞
oder
Sn =
n
N (np, np( − p))
Anzahl der Erfolge in
ist approximativ
Jürgen Dippon (ISA)
unabhänigen Bernoulli-Versuchen
1
-verteilt
Statistik für Wirtschaftswissenschaftler
13. September 2010
223 / 464
7. Grenzwertsätze
7.2. Der zentrale Grenzwertsatz
Approximation der Binomialverteilung mit
Stetigkeitskorrektor
Für moderate
n
wird die Approximation besser, wenn die Treppenfunktion
N( , )
Sn ∼ Bin(n, p)
des Wahrscheinlichkeitshistogramms von der Dichtekurve der
0 1 -Verteilung etwa in der Mitte getroen wird.
Sei
n( − p )
!
x
+ . − np
P (Sn ≤ x ) = Bin(x |n, p) ≈ Φ pnp( − p)
!
!
x
+ . − np
x
− . − np
P (Sn = x ) ≈ Φ pnp( − p) − Φ pnp( − p)
np ≥ n( − p) ≥
-verteilt. Falls
np
oder
1
groÿ genug sind, gilt
0 5
1
Faustregel:
5,
Jürgen Dippon (ISA)
1
0 5
0 5
1
1
5
Statistik für Wirtschaftswissenschaftler
13. September 2010
224 / 464
7. Grenzwertsätze
7.2. Der zentrale Grenzwertsatz
Beispiel
Speicherchips seien mit Wahrscheinlichkeit 0.1 defekt. Es werde eine
Stichprobe vom Umfang
Sn
n=
100 der laufenden Produktion entnommen.
sei die Anzahl der funktionierenden Bauteile.
Also
Sn ∼ Bin(n, p) = Bin(
np = n( − p)
Wegen
100, 0.9).
90,
Jürgen Dippon (ISA)
1
=10 ist die Faustregel erfüllt.
Statistik für Wirtschaftswissenschaftler
13. September 2010
225 / 464
7.2. Der zentrale Grenzwertsatz
7. Grenzwertsätze
Beispiel
Wie groÿ ist die Wahrscheinlichkeit, dass höchstens
sind?
P (Sn ≤
90)
≈Φ
+ 0.5 − 90
√
100 · 0.9 · 0.1
90
=Φ
0.5
korrekt sind?
P (Sn =
90)
≈Φ
0.5
−Φ
|
3
= Φ(0.167) = 0.567
x=
90 Bauteile korrekt
3
Wie groÿ ist die Wahrscheinlichkeit, dass genau
x=
90
−0.5
ES
= ( n)
Bauteile
3
{z }
1−Φ( 03.5 )
=2·Φ
Jürgen Dippon (ISA)
0.5
3
− 1 = 0.134
Statistik für Wirtschaftswissenschaftler
13. September 2010
226 / 464
8. Mehrdimensionale Zufallsvariablen
4
Wahrscheinlichkeitsrechnung
5
Diskrete Zufallsvariablen
6
Stetige Zufallsvariablen
7
Grenzwertsätze
8
Mehrdimensionale Zufallsvariablen
Begri mehrdimensionale Zufallsvariablen
Zweidimensionale diskrete Zufallsvariablen
Zweidimensionale stetige Zufallsvariablen
Unabhängigkeit von Zufallsvariablen
Kovarianz und Korrelation
Die zweidimensionale Normalverteilung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
227 / 464
8. Mehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen
In vielen Anwendungen interessiert nicht nur ein Merkmal, sondern mehrere
Merkmale, welche überdies oft nicht unabhängig sind. Das Studium der
Abhängigkeit ist häug von zentralem Interesse.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
228 / 464
8. Mehrdimensionale Zufallsvariablen
8.1. Begri mehrdimensionale Zufallsvariablen
Begri mehrdimensionale Zufallsvariablen
X (ω)
Bei einer reellen, also 1-dimensionalen Zufallsvariablen, wird jedem
Ergebnis
Bei einer
ω
n
eines Zufallsvorganges genau eine reelle Zahl
X
n
X (ω), . . . , Xn(ω)
X = (X , . . . , Xn) : Ω −→ Rn
ω 7−→ (X (ω), . . . , Xn (ω))
-dimensionalen Zufallsvariablen
eines Zufallsvorganges genau
reelle Zahlen
zugeordnet.
werden jedem Ergebnis
1
ω
zugeordnet:
1
1
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
229 / 464
8. Mehrdimensionale Zufallsvariablen
8.1. Begri mehrdimensionale Zufallsvariablen
Beispiel: Bei einer zufällig ausgewählten Person werden Alter
Geschlecht
X
2 , Körpergröÿe
X
3 und Körpergewicht
Dies liefert eine 4-dimensionale Zufallsvariable
X
X
1,
4 erhoben.
X = (X , X , X , X )
1
2
3
4
Frage: Wie kann die so genannte gemeinsame Wahrscheinlichkeit
P (X ∈ B ) B ⊂ Rn
P (X ∈ B , . . . , Xn ∈ Bn)
für
1
1
oder
für
Bi ∈ R n
bestimmt werden?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
230 / 464
8. Mehrdimensionale Zufallsvariablen
8.2. Zweidimensionale diskrete Zufallsvariablen
Zweidimensionale diskrete Zufallsvariablen
X
y ,y ,...
Seien
1
Die
und
Y
zwei diskrete Zufallsvariablen mit Werten
x ,x ,...
1
2
bzw.
2
gemeinsame Wahrscheinlichkeitsfunktion oder gemeinsame diskrete
XY
x ∈ {x , x , . . . },
y ∈ {y , y , . . . }
Dichte der bivariaten diskreten Zufallsvariable


f (x , y ) = 
Jürgen Dippon (ISA)
P (X = x , Y = y )
( , )
für
1
1
0
ist bestimmt durch
2
2
sonst
Statistik für Wirtschaftswissenschaftler
13. September 2010
231 / 464
8. Mehrdimensionale Zufallsvariablen
XY
8.2. Zweidimensionale diskrete Zufallsvariablen
X Y
fX (x ) = P (X = x ) = X f (x , yj )
Bei Kenntnis der gemeinsamen Wahrscheinlichkeitsfunktion
( , )
lässt sich die sog.
durch
Randverteilung von
oder
f (x , y )
von
leicht berechnen
j
bzw.
fY (y ) = P (Y = y ) = X f (xi , y )
i
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
232 / 464
8. Mehrdimensionale Zufallsvariablen
8.2. Zweidimensionale diskrete Zufallsvariablen
X
Y =y
X |Y = y
fY (y ) 6=
fX Y (x |y ) = P (X = x | Y = y ) = P (XP=(Yx =, Yy=) y ) = ff(Yx(,yy))
Die bedingte Wahrscheinlichkeitsfunktion von
) erhält man, falls
gegeben
(kurz
0, durch
|
(kurz
Y
X =x
Y |X = x
fX (x ) 6=
fY X (y |x ) = P (Y = y | X = x ) = P (XP=(Xx =, Yx=) y ) = ff(Xx(,xy))
Analog: die bedingte Wahrscheinlichkeitsfunktion von
) erhält man, falls
0, durch
gegeben
|
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
233 / 464
8. Mehrdimensionale Zufallsvariablen
8.2. Zweidimensionale diskrete Zufallsvariablen
Beispiel: 1-maliges Werfen eines fairen Würfels
X=
Y=
f( ,
f( ,
f( ,
f( ,
0
Augenzahl gerade
1
Augenzahl ungerade
0
Augenzahl
1
Augenzahl
PX=
) = P (X =
) = P (X =
) = P (X =
0 0)
0 1
1 0
1 1
Jürgen Dippon (ISA)
= (
≤3
>3
Y=
,Y =
,Y =
,Y =
0,
0)
=
0
1)
=
0)
=
1)
=
1
1
Statistik für Wirtschaftswissenschaftler
1
6
1
3
1
3
1
6
13. September 2010
234 / 464
8.2. Zweidimensionale diskrete Zufallsvariablen
8. Mehrdimensionale Zufallsvariablen
X
Randverteilung von
X
i ,j
0
0
j
Y
i
Jürgen Dippon (ISA)
1
2
,
fX ( ) = X f ( , j ) =
1
1
j
1
2
:
fY ( ) = X f (i ,
0
1
:
fX ( ) = X f ( , j ) =
Randverteilung von
f (i , j ) =
0)
=
1
2
,
fY ( ) = X f (i ,
1
Statistik für Wirtschaftswissenschaftler
i
1)
=
1
2
13. September 2010
235 / 464
8. Mehrdimensionale Zufallsvariablen
bedingte Verteilung von
X |Y =
8.2. Zweidimensionale diskrete Zufallsvariablen
0:
fX Y ( | ) = ff(Y (, )) =
fX Y ( | ) = ff(Y (, )) =
X |Y =
fX Y ( | ) = ff(Y (, )) =
fX Y ( | ) = ff(Y (, )) =
|
0 0
|
1 0
bedingte Verteilung von
Jürgen Dippon (ISA)
0 0
0
1 0
0
1
6
1
2
1
3
1
2
=
=
1
3
2
3
1:
|
0 1
|
1 1
0 1
1
1 1
1
1
3
1
2
1
6
1
2
=
=
Statistik für Wirtschaftswissenschaftler
2
3
1
3
13. September 2010
236 / 464
8. Mehrdimensionale Zufallsvariablen
Die
8.2. Zweidimensionale diskrete Zufallsvariablen
gemeinsame Verteilungsfunktion zu
X
und
Y
ist gegeben durch
F (x , y ) = P (X ≤ x , Y ≤ y ) = X X f (xi , yj )
xi ≤ x yj ≤ y
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
237 / 464
8. Mehrdimensionale Zufallsvariablen
8.3. Zweidimensionale stetige Zufallsvariablen
Zweidimensionale stetige Zufallsvariablen
eine auf
R2
X
Y
gemeinsam stetig verteilt, wenn es
f (x , y )
Z bZ d
P (a ≤ X ≤ b, c ≤ Y ≤ d ) = a c f (x , y )dxdy
Die Zufallsvariablen
und
sind
denierte Dichtefunktion
ab cd
gibt, so dass
z = f (x , y )
Diese Wahrscheinlichkeit entspricht dem Volumen des Körpers über dem
Rechteck
[ , ]×[ , ]
Jürgen Dippon (ISA)
bis zur durch
gegebenen Fläche.
Statistik für Wirtschaftswissenschaftler
13. September 2010
238 / 464
8. Mehrdimensionale Zufallsvariablen
8.3. Zweidimensionale stetige Zufallsvariablen
Ähnlich wie im 2-dimensionalen diskreten Fall lassen sich denieren:
Randdichte von
Randdichte von
X fX (x ) = R
Y fY (y ) = R
X |Y = y
Y |X = x
f (x , y )dy
f (x , y )dx
fX Y (x |y ) = ffYx yy
fY X (y |x ) = ffXx xy
:
∞
−∞
:
∞
−∞
bedingte Dichte von
:
bedingte Dichte von
:
|
( , )
( )
|
( , )
( )
gemeinsame Verteilungsfunktion:
F (x , y ) = P (X ≤ x , Y ≤ y ) =
Jürgen Dippon (ISA)
Z x Z y
−∞
−∞
Statistik für Wirtschaftswissenschaftler
f (u, v )dvdu
13. September 2010
239 / 464
8. Mehrdimensionale Zufallsvariablen
8.4. Unabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen
Die Zufallsvariable
Y
kann als unabhängig von der Zufallsvariablen
angesehen werden, falls
X
fY X (y |x ) = ff(Xx(,xy)) = fY (y )
|
(vorausgesetzt
fX (x ) >
f (x , y ) = fX (x ) · fY (y )
0).
In diesem Fall gilt
Deshalb deniert man:
Y
unabhängig
∀ ∀ f (x , y ) = fX (x ) · fY (y )
xy
X Y
abhängig
Die Zufallsvariablen
Ansonsten heiÿen
Jürgen Dippon (ISA)
X
und
und
heiÿen (stochastisch)
(stochastisch)
Statistik für Wirtschaftswissenschaftler
, falls
.
13. September 2010
240 / 464
8.4. Unabhängigkeit von Zufallsvariablen
8. Mehrdimensionale Zufallsvariablen
Diese Denition ist für 2-dimensionale diskrete oder stetige Zufallsvariablen
anwendbar.
Man kann zeigen, dass die hier gegebene Denition der Unabhängigkeit
äquivalent ist zu den in den Abschnitten 6 und 7 gegebenen Denitionen.
Sind z.B. zwei stetige Zufallsvariablen
denierten Sinne, so folgt
X
und
Y
unabhängig in dem oben
Z x Z y
f (u, v )dudv
Z y
=
fX (u)du fY (v )dv
= P (X ≤ x ) · P (Y ≤ y )
P (X ≤ x , Y ≤ y ) =
Z−∞
x
−∞
Jürgen Dippon (ISA)
−∞
−∞
Statistik für Wirtschaftswissenschaftler
13. September 2010
241 / 464
8. Mehrdimensionale Zufallsvariablen
8.4. Unabhängigkeit von Zufallsvariablen
Beispiel: Für das in 8.2 gegebene Beispiel gilt
f (x , y ) = fX (x ) · fY (y )
nicht.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
242 / 464
8.4. Unabhängigkeit von Zufallsvariablen
8. Mehrdimensionale Zufallsvariablen
Erweiterung des Begris der Unabhängigkeit auf
n
Zufallsvariablen:
X , . . . , Xn
unabhängig
x , . . . , xn
P (X ≤ x , . . . Xn ≤ xn) = P (X ≤ x ) · . . . · P (Xn ≤ xn)
Die Zufallsvariablen
heiÿen
1
, wenn für alle
gilt
1
1
1
1
1
Äquivalent dazu ist die Produktbedingung
f (x , . . . , xn) = fX (x ) · . . . · fXn (xn)
f (x , . . . , xn)
X , . . . , Xn
Xi
i = ,...,n
1
1
wobei
1
die gemeinsame Dichte von
Dichte der Zufallsvariable
n
1
bezeichnen (
1
1
).
und
fXi
die
X = (X , . . . , Xn)
Diese Denition und Behauptung gilt sowohl für diskrete als auch stetige
-dimensionale Zufallsvariablen
Jürgen Dippon (ISA)
1
.
Statistik für Wirtschaftswissenschaftler
13. September 2010
243 / 464
8. Mehrdimensionale Zufallsvariablen
8.5. Kovarianz und Korrelation
Kovarianz und Korrelation
X
Y
Die Wahrscheinlichkeitsfunktion
beiden Zufallsvariablen
X
und
Y
f (x , y )
liefert alle Informationen über die
, auch über deren mögliche Abhängigkeit.
Kovarianz und Korrelation sind zwei Begrie zur Beschreibung der
Abhängigkeit von
Sind
X
und
Y
und
linearen
unter Verwendung einer einzigen Maÿzahl.
unabhängig, so gilt
E (X · Y ) = E (X ) · E (Y )
(ohne Beweis)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
244 / 464
8. Mehrdimensionale Zufallsvariablen
Sind die Zufallsvariablen
X
und
Y
8.5. Kovarianz und Korrelation
abhängig, so liefert die Dierenz
E (XY ) − E (X ) · E (Y ) = E [(X − E (X )) · (Y − E (Y ))]
eine Maÿzahl für die Stärke der Abhängigkeit.
Wir denieren deshalb:
X Y
Cov (X , Y ) = E ((X − E (X )) · (Y − E (Y )))
Die Kovarianz der Zufallsvariablen
Jürgen Dippon (ISA)
und
ist gegeben durch
Statistik für Wirtschaftswissenschaftler
13. September 2010
245 / 464
8. Mehrdimensionale Zufallsvariablen
Die Kovarianz liefert ein Maÿ für die
8.5. Kovarianz und Korrelation
lineare Abhängigkeit und lässt sich
berechnen durch
Cov (X , Y ) = X X f (xi , yj )(xi − E (X ))(yj − E (Y ))
falls
X
Y
Z
Cov (X , Y ) =
X Y
und
i
diskret sind, bzw.
∞
−∞
falls
und
j
Z
∞
−∞
f (x , y )(x − E (X ))(y − E (Y ))dxdy
stetig sind.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
246 / 464
8.5. Kovarianz und Korrelation
8. Mehrdimensionale Zufallsvariablen
Y cY + d
Werden die Zufallsvariablen
und
e =
, so gilt
X
und
Y
linear transformiert zu
Xe = aX + b
Cov (Xe , Ye ) = a · c · Cov (X , Y )
Da die Kovarianz oensichtlich maÿstabsabhängig ist, wird in der Praxis
der durch
XY
Cov (Xp, Y )
Var (X ) · Var (Y )
% = %( , ) = p
denierte
Korrelationskoezient bevorzugt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
247 / 464
8. Mehrdimensionale Zufallsvariablen
8.5. Kovarianz und Korrelation
Eigenschaften des Korrelationskoezienten:
XY
−1 ≤ %( , ) ≤ 1
XY
Y aX b
ab
X aX b Y cY d a c
e, Y
e )| = |%(X , Y )|
|%(X
X Y
unkorreliert
%(X , Y ) =
%(X , Y ) 6=
korreliert
|%( , )| = 1 ⇔ =
+ für Konstanten ,
e=
+ , e =
+ mit , =
6 0:
Zwei Zufallsvariablen
und
heiÿen
, falls
0
Ist
0, so heiÿen sie
.
Man kann zeigen, dass zwei unabhängige Zufallsvariablen auch immer
unkorreliert sind.
Die Umkehrung gilt im Allgemeinen nicht.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
248 / 464
8.5. Kovarianz und Korrelation
8. Mehrdimensionale Zufallsvariablen
Varianz der Summe zweier u.U. abhängigen Zufallsvariablen:
Var (X + X ) = E (X + X − E (X ) − E (X ))
= E (X − E (X ))
+ E ((X − E (X )) (X − E (X )))
+ E (X − E (X ))
= Var (X ) + Var (X ) + Cov (X , X )
1
2
1
2
1
2
1
1
1
2
Jürgen Dippon (ISA)
2
1
1
2
2
2
2
2
2
2
2
Statistik für Wirtschaftswissenschaftler
1
2
13. September 2010
249 / 464
8.5. Kovarianz und Korrelation
8. Mehrdimensionale Zufallsvariablen
Linearkombination von Zufallsvariablen
Sei
X
Xi
ai
X = a X + · · · + anXn
z.B. der zufallsabhängige Gesamtwert eines Devisen-Portfolios mit
Einzelwerten
und Umrechnungsfaktoren
1
:
1
Dann gilt:
E (X ) = a E (X ) + · · · + anE (Xn)
Var (X ) = E ((X − E (X )) )
! 
n
X
ai (Xi − E (Xi )) 
=E
1
1
2
2
i =1

n
X
X
2
2
= 
i j ( i − ( i ))( j − ( j ))
i ( i − ( i )) +
i =1
i 6=j
n
X
X
2
=
( i) + 2
( i, j)
i j
i
i =1
i <j
E

a X EX
a Var X
Jürgen Dippon (ISA)
aa X E X X E X
a a Cov X X
Statistik für Wirtschaftswissenschaftler
13. September 2010
250 / 464
8.5. Kovarianz und Korrelation
8. Mehrdimensionale Zufallsvariablen
Beispiel: Portfolio Optimierung
a a
X ,X
1 und
Ein Startkapital werde in den Anteilen
Wertanlagen, z.B. Aktien, aufgeteilt.
1
2 mit
a +a
1
2
=1
auf zwei
2 seien die zufallsabhängigen
Renditen der beiden Anlagen. Die Gesamtrendite ist somit
X =a X +a X
1
1
2
2
Und die zu erwartende Gesamtrendite ist:
E (X ) = a E (X ) + a E (X )
1
1
2
2
Die Varianz der Gesamtrendite kann als ein Risikomaÿ für die
Gesamtrendite interpretiert werden:
Var (X ) = a Var (X ) + a Var (X ) + a a Cov (X , X )
2
1
Jürgen Dippon (ISA)
1
2
2
2
2 1 2
Statistik für Wirtschaftswissenschaftler
1
2
13. September 2010
251 / 464
8.5. Kovarianz und Korrelation
8. Mehrdimensionale Zufallsvariablen
Mit
σi2 =
Var (Xi ), ρ = Cor (X , X )
Var (X ) = a σ + a σ
1
2
1
2
ist:
2
1
2
2
2
2
+2
aaσσρ
1 2
1
2
Je nachdem, ob die Renditen der beiden Anlagen positiv oder negativ
korreliert sind, ist das Gesamtrisiko gröÿer oder kleiner als die Summe der
Einzelrisiken.
Spezialfall:
σ = σ1 = σ2 , ρ = 1
Var (X ) = a σ + a σ
2
1
Spezialfall:
Falls
2
2
2
+2
aaσ
1 2
σ = σ1 = σ2 , ρ = −1
a =a
1
2
Var (X ) = a σ + a σ
2
1
2
= 0.5,
Jürgen Dippon (ISA)
2
2
2
2
−2
2
aaσ
1 2
a +a ) σ
=(
2
1
2
2
2
= σ2
a −a ) σ
=(
1
2
2
2
ist das Gesamtrisiko gleich Null.
Statistik für Wirtschaftswissenschaftler
13. September 2010
252 / 464
8. Mehrdimensionale Zufallsvariablen
8.6. Die zweidimensionale Normalverteilung
Die zweidimensionale Normalverteilung
Dichte einer 1-dimensional normalverteilten Zufallsvariablen
f (x ) = √ πσ exp
1
2
wobei
EX
µ = ( ), σ 2 =
Jürgen Dippon (ISA)
(
−
1
2
x −µ
2 )
σ
,
X
:
x ∈ R,
Var (X )
.
Statistik für Wirtschaftswissenschaftler
13. September 2010
253 / 464
8. Mehrdimensionale Zufallsvariablen
8.6. Die zweidimensionale Normalverteilung
Erweiterung der Normalverteilung auf 2-dimensionale Zufallsvariablen:
Die Zufallsvariablen
X
und
Y
heiÿen
gemeinsam normalverteilt, wenn
ihre gemeinsame Dichte bestimmt ist durch
f (x , y ) =
wobei
1
2π det(Σ)1/2
exp
(
−
1
2
x −µ
y −µ
1
t
Σ− 1
2
2
1
)
und
2
1
1
Jürgen Dippon (ISA)
x −µ
y −µ
2
x , y ∈ R, µ = E (X ), µ = E (Y )
Var
(X )
Cov
(X , Y )
σ
Σ=
=
Cov (X , Y ) Var (Y )
σ σ ρ
1
Statistik für Wirtschaftswissenschaftler
2
σ1 σ2 ρ
σ22
13. September 2010
254 / 464
8. Mehrdimensionale Zufallsvariablen
Beispiel: Seien
X
8.6. Die zweidimensionale Normalverteilung
1 das Haushaltseinkommen und
Haushaltsausgaben.
Jürgen Dippon (ISA)
X
Statistik für Wirtschaftswissenschaftler
2 die
13. September 2010
255 / 464
8. Mehrdimensionale Zufallsvariablen
8.6. Die zweidimensionale Normalverteilung
Abbildung: 2-dimensionale Normalverteilung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
256 / 464
8. Mehrdimensionale Zufallsvariablen
8.6. Die zweidimensionale Normalverteilung
Abbildung: 2-dimensionale Normalverteilung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
257 / 464
8.6. Die zweidimensionale Normalverteilung
8. Mehrdimensionale Zufallsvariablen
Der unkorrelierte Fall
X
Y
Sind die Zufallsvariablen X und Y mit gemeinsamer Normalverteilung
unkorreliert, d.h.
ρ = 0,
so ist
Fall:
Σ=
f (x , y ) =
σ12
0
1
2πσ1 σ2
0
exp
(
−
exp −
= fX (x ) · fY (y )
=√
1
2πσ1
Jürgen Dippon (ISA)
2
1
,
(
sogar unabhängig, da in diesem
det (Σ) = σ σ ,
σ22
und
1
2
1
σ1
2
1
x −µ x −µ
1
σ1
2
2
2
−
Σ− 1 =
1
·√
σ1−2
0
x −µ 2
2
1
2πσ2
Statistik für Wirtschaftswissenschaftler
exp
0
σ2−2
)
σ2
2
2 )
(
−
1
2
y −µ 2
2
)
σ2
13. September 2010
258 / 464
Teil III
Induktive Statistik
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
259 / 464
Induktive Statistik
9
Parameterschätzung
10
Testen von Hypothesen
11
Spezielle Tests
12
Lineare Regression
13
Zeitreihen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
260 / 464
Schlieÿende Statistik
Wie kann man basierend auf einer Stichprobe Informationen über die
Verteilung eines interessierenden Merkmals erhalten?
Schätzverfahren dienen zur näherungsweisen Ermittlung unbekannter
Parameter der Verteilung
Testverfahren dienen zur Überprüfung von Hypothesen über die
unbekannte Verteilung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
261 / 464
9. Parameterschätzung
9
Parameterschätzung
Parameterschätzung
Eigenschaften von Schätzstatistiken
Erwartungstreue
Erwartete mittlere quadratische Abweichung und Konsistenz
Eziente Schätzstatistiken
Konstruktion von Schätzfunktionen
Maximum-Likelihood-Schätzung
Kleinste-Quadrate-Schätzung
Bayes-Schätzung
Intervallschätzung
Kondenzintervalle für Erwartungswert und Varianz
10
Testen von Hypothesen
11
Spezielle Tests
12
Lineare Regression
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
262 / 464
9. Parameterschätzung
Beispiel: Wie hoch ist der relative Anteil von Frauen unter den
Hochschullehrern in Deutschland?
Da eine Totalerhebung viel zu aufwändig wäre, bestimmt man den relativen
Anteil der Frauen in einer Zufallsstichprobe. Dieser relative Anteil in der
Stichprobe ist ein
Schätzer für den wahren Anteil in der Grundgesamtheit.
Da eine zweite Stichprobe einen anderen Schätzwert liefern würde, stellt
sich u.a. die Frage nach der Qualität des Schätzers.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
263 / 464
9.1. Parameterschätzung
9. Parameterschätzung
Parameterschätzung
Einer
Schätzfunktion oder Schätzstatistik für den Parameter θ
der
Verteilung der Grundgesamtheit ist eine Funktion
T = g (X , . . . , Xn)
X , . . . , Xn
x , . . . , xn
g (x , . . . , xn)
1
der Stichprobenvariablen
.
1
Der aus den Realisationen
resultierende numerische Wert
1
1
ist der zugehörige Schätzwert.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
264 / 464
9.1. Parameterschätzung
9. Parameterschätzung
Beispiele:
X̄ = g (X , . . . , Xn) = n Pni Xi
µ = E (X )
x̄
S = g (X , . . . , Xn) = n Pni (Xi − X̄ )
σ = Var (X )
1
1
=1
Schätzfunktion für den Erwartungswert
zugehörige Realisation der Stichprobe
2
1
1
−1
Schätzfunktion für die Varianz
Jürgen Dippon (ISA)
=1
2
2
Statistik für Wirtschaftswissenschaftler
13. September 2010
265 / 464
9. Parameterschätzung
9.2. Eigenschaften von Schätzstatistiken
Eigenschaften von Schätzstatistiken
Erwartungstreue
Eine Schätzstatistik
T = g (X , . . . , Xn)
1
unverzerrt für den Parameter θ, falls
heiÿt
erwartungstreu oder
E (T ) = θ
θ
Sie heiÿt
asymptotisch erwartungstreu für θ, falls
lim
n→∞
Die
E (T ) = θ
θ
Verzerrung oder der Bias ist deniert durch
Bias (T ) = E (T ) − θ
θ
Das tief gestellte
θ
in
E
θ
θ soll andeuten, dass der Erwartungswert von
bezüglich der Verteilung berechnet werden soll, die
θ
T
als wahren Parameter
besitzt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
266 / 464
9.2. Eigenschaften von Schätzstatistiken
9. Parameterschätzung
Beispiele:
E (X̄ ) = E ( n Pni Xi ) = n Pni E| {z(Xi}) = µ
X̄
E (S ) = E ( n Pni (Xi − X̄ ) ) = · · · = σ
S
E (S̃ ) = E ( n Pni (Xi − X̄ ) ) = · · · = n n σ
S̃
Bias (S̃ ) = E (S̃ ) − σ = − n σ
S̃
σ
µ
1
µ
1
=1
µ
=1
µ
Also ist
σ2
2
Also ist
σ2
ein erwartungstreuer Schätzer für den Erwartungswert
σ2
2
2
Also ist
σ2
Also ist
1
1
−1 2
2
=1
kein erwartungstreuer Schätzer für die Varianz
2
2
=1
−1
µ
2
ein erwartungstreuer Schätzer für die Varianz
σ2
2
2
σ2
2
2
1
2
asymptotisch erwartungstreu für
Jürgen Dippon (ISA)
σ2
Statistik für Wirtschaftswissenschaftler
2
13. September 2010
267 / 464
9.2. Eigenschaften von Schätzstatistiken
9. Parameterschätzung
Frage: Wie genau schätzt
X̄
den Erwartungswert?
n
X
Var (X̄ ) = Var n Xi
i
1
!
=
=1
Der
1
n
2
n
X
i =1
Var (Xi ) = σn
2
Standardfehler einer Schätzstatistik ist bestimmt durch die
Standardabweichung der Schätzstatistik
σg =
Var (g (X , . . . , Xn))
p
1
Achtung: Der Begri des Standardfehlers ist nur sinnvoll für
erwartungstreue Schätzstatistiken!
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
268 / 464
9. Parameterschätzung
Der Standardfehler von
X̄
9.2. Eigenschaften von Schätzstatistiken
ist damit
σ
σX̄ = √
n
Da
σ2
X̄
meist unbekannt sein dürfte, muss es geschätzt werden. Ein
σX̄ von ist
s
Pn
1
i =1 ( i −
n
−1
=
Schätzer für den Standardfehler
r
σ̂X̄ =
Jürgen Dippon (ISA)
S
n
2
n
X X̄ )
Statistik für Wirtschaftswissenschaftler
2
13. September 2010
269 / 464
9.2. Eigenschaften von Schätzstatistiken
9. Parameterschätzung
Erwartete mittlere quadratische Abweichung und Konsistenz
Die
erwartete mittlere quadratische Abweichung (mean squared error)
ist bestimmt durch
MSE =E (T − θ) =E (T − E (T ) + E (T ) − θ)
=E ((T − E (T )) + E ((T − E (T )) ((E (T ) − θ))
{z
}
|
+ E ((E (T ) − θ) ))
=Var (T ) + (Bias (T ))
2
2
2
2
=0
2
2
Diese Zerlegung des MSE zeigt, dass der Standardfehler nur dann ein
Bias (T ) =
brauchbares Vergleichsmaÿ für die Güte eines Schätzers ist, wenn der
Schätzer erwartungstreu ist, d.h.
Jürgen Dippon (ISA)
0.
Statistik für Wirtschaftswissenschaftler
13. September 2010
270 / 464
9.2. Eigenschaften von Schätzstatistiken
9. Parameterschätzung
Eine Schätzstatistik heiÿt
konsistent im quadratischen Mittel, falls
MSE = E ((T − θ) ) →
2
und
0
für
0
für
schwach konsistent, falls
∀
ε>0
P (|T − θ| ≥ ε) →
n→∞
n→∞
Konsistenz im quadratischen Mittel impliziert schwache Konsistenz.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
271 / 464
9.2. Eigenschaften von Schätzstatistiken
9. Parameterschätzung
Beispiel: Arithmetisches Mittel
X , . . . , Xn ∼ N (µ, σ )
2
1
unabhängige Zufallsvariablen
Schätzen des Erwartungswertes
µ
mittels
n
X
X̄ = n Xi
1
Da
Da
E X̄ = · · · = µ X̄
Var (X̄ ) = · · · = n →
, ist
σ2
Mittel.
Ferner gilt
Jürgen Dippon (ISA)
i =1
erwartungstreu.
0
n
( → ∞)
X̄ ∼ N
ist
µ,
X̄
σ2
n
konsistent im quadratischen
Statistik für Wirtschaftswissenschaftler
13. September 2010
272 / 464
9.2. Eigenschaften von Schätzstatistiken
9. Parameterschätzung
Also
P (|X̄ − µ| ≤ ε) = P X̄ − µ ≤
√σ
n
n
−Φ −
√σ
n
ε
=2 Φ
|
√σ
!
ε
=Φ
!
ε
ε
!
√σ
n
!
√σ
n
−1
{z }
n→∞
→1 für
→1
Damit ist
X̄
für
n→∞
auch schwach konsistent.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
273 / 464
9. Parameterschätzung
9.3. Eziente Schätzstatistiken
Eziente Schätzstatistiken
T
Parameters
θ,
so heiÿt
1
T
T
T
MSE (T ) ≤ MSE (T )
Vergleicht man zwei Schätzstatistiken
1 und
wirksamer als
2 zur Schätzung des
2 , falls
1
2
für alle zugelassenen Verteilungen.
T
1 heiÿt
wirksamst oder ezient, wenn
Schätzstatistiken
Sind
T
1 und
T
T
MSE (T ) ≤ MSE (T )
1
2
für alle
2 und alle zugelassenen Verteilungen.
T
Var (T ) ≤ Var (T )
2 erwartungstreu, so ist
1
1 wirksamer als
T
2 , falls
2
für alle zugelassenen Verteilungen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
274 / 464
9. Parameterschätzung
9.3. Eziente Schätzstatistiken
Beispiele für wirksamste Schätzstatistiken:
X̄
X̄
für den Erwartungswert, wenn alle Verteilungen mit endlicher
Varianz zugelassen sind
für den Erwartungswert, wenn alle Normalverteilungen zugelassen
sind
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
275 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
Konstruktion von Schätzfunktionen
Wir diskutieren vier Ideen zur Konstruktion von Schätzfunktionen:
Maximum-Likelihood-Schätzung
Kleinste-Quadrate-Schätzung
Bayes-Schätzung
Intervallschätzung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
276 / 464
9.4. Konstruktion von Schätzfunktionen
9. Parameterschätzung
Maximum-Likelihood-Schätzung
Beispiel: Gesucht ist die Wahrscheinlichkeit
Ereignisses
A
im Rahmen eines Experiments
X=
Die Ausgänge von
n
0
falls
1
falls
Klar:
Pn
i =1
für das Auftreten eines
nicht eintritt
eintritt
X
unabhängigen Wiederholungen des Experimentes
X , . . . , Xn
Xi ∼ Bin(n, p)
werden dann beschrieben durch die
Zufallsvariablen
n
A
A
p
unabhängigen wie
verteilten
1
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
277 / 464
9.4. Konstruktion von Schätzfunktionen
9. Parameterschätzung
Hierbei ist
n
natürlich bekannt, nicht jedoch die Erfolgswahrscheinlichkeit
L(p) = P
n
X
i =1
Xi = k
p
!
n pk ( − p)n
k
p̂
L(p)
=
1
−k
Das Maximum-Likelihood-Prinzip wählt als Schätzwert
für die
unbekannte Wahrscheinlichkeit
maximiert.
Jürgen Dippon (ISA)
den Wert, welcher
Statistik für Wirtschaftswissenschaftler
p
13. September 2010
278 / 464
9.4. Konstruktion von Schätzfunktionen
9. Parameterschätzung
Allgemein: Sei
θ
f (x |θ)
n
der gesuchte ein- oder mehrdimensionale Parameter einer
(diskreten oder stetigen) Dichte
Dann ist die gemeinsame Dichte von
Wiederholungen gegeben durch
.
unabhängigen identischen
f (x , . . . , xn|θ) = f (x |θ) · . . . · f (xn|θ)
1
Jürgen Dippon (ISA)
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
279 / 464
9.4. Konstruktion von Schätzfunktionen
9. Parameterschätzung
Anstatt diese Dichte als eine Funktion zu beliebigen Werten
einem festen Parameter
Likelihoodfunktion
θ
x , . . . , xn
1
zu interpretieren, interpretieren wir die sog.
L(θ) = f (x , . . . , xn|θ)
1
als eine Funktion von
θ
und
zu den gegebenen festen Realisationen
und wählen als Parameterschätzung denjenigen Parameter
θ,
x , . . . , xn
1
für welchen
die Likelihood maximal ist, d.h.
L(θ̂) = L(θ)
T = θ̂(x , . . . , xn)
max
θ
Eine so konstruierte Schätzfunktion
Maximum-Likelihood-Schätzer.
Jürgen Dippon (ISA)
1
Statistik für Wirtschaftswissenschaftler
heiÿt
13. September 2010
280 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
Das Maximum bestimmt man meist durch Ableiten und Nullsetzen der
Ableitung. Häug ist es jedoch geschickter, die sog.
ln
in
θ
L(θ) =
n
X
i =1
ln
Log-Likelihood
f (xi |θ)
zu maximieren, welche an denselben Stellen maximal wird, da die
Logarithmusfunktion ln eine streng monoton wachsende Funktion ist.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
281 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
Beispiel: Poisson-Verteilung
Gesucht: Parameter
λ
Pois (λ)
x , . . . , xn
X , . . . , Xn
einer
Gegeben: Realisationen
1
verteilten Zufallsvariablen
Likelihoodfunktion
-verteilten Zufallsgröÿe
X
von unabhängigen identisch wie
X
1
x1
x
L(λ) = e λx ! · . . . · e λxnn!
−λ
−λ
1
Log-Likelihoodfunktion
n
ln
x
n
L(λ) = X e λxi !i = X(−λ + xi
i
i
n
X
L(λ) = (− + xi ) =
ln
−λ
=1
∂ ln
∂λ
=1
1
λ̂
ln λ
x
− ln ( i !))
0
iP
=1
n
i
=⇒ λ̂ = i =1 =
Jürgen Dippon (ISA)
x x̄
n
Statistik für Wirtschaftswissenschaftler
13. September 2010
282 / 464
9.4. Konstruktion von Schätzfunktionen
9. Parameterschätzung
Beispiel: Normalverteilung
X , . . . , Xn
Gesucht: Parameter
1
µ, σ
einer
N (µ, σ )
2
X
-verteilten Zufallsgröÿe
unabhängige Wiederholungen einer wie
Zufallsgröÿe.
-verteilten
X
Likelihoodfunktion zu den Realisierungen
L(µ, σ) = √ πσ e x · . . . · √ πσ e xn
n X
(xi − µ)
√
−
L(µ, σ) =
σ
πσ
i
n X
√
(xi − µ)
=
−
π− σ−
( −µ)
− 1 2
2σ
1
2
1
2
ln
−
(
−µ)2
2σ2
2
2
1
ln
2 2
2
=1
2
ln
2
ln
i =1
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
2σ 2
13. September 2010
283 / 464
9. Parameterschätzung
Partielles Dierenzieren nach
L
µ
und
σ
9.4. Konstruktion von Schätzfunktionen
und Nullsetzen
x
n
∂ ln (µ, σ) X i − µ̂
=
=0
∂µ
σ̂ 2
i =1
n 2
1
2( i − µ̂)
∂ ln (µ, σ) X
=
− +
=0
∂σ
σ̂
2σ̂ 3
i =1
L
Jürgen Dippon (ISA)
x
Statistik für Wirtschaftswissenschaftler
13. September 2010
(1)
(2)
284 / 464
9. Parameterschätzung
Aus (1):
n
X
i =1
xi − nµ̂ =
also
µ̂ =
Aus (2):
−
also
9.4. Konstruktion von Schätzfunktionen
0,
x̄
n + Xn (xi − µ̂)
2
2
σ̂
i =1
2σ̂ 3
=0
v
v
u n
u n
u1 X
u1 X
2
t
( i − µ̂) = t
( i − )2
σ̂ =
i =1
i =1
n
x
n
x x̄
Oensichtlich erhält man die bereits bekannten Schätzstatistiken
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
X̄
13. September 2010
und
S̃
.
285 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
Kleinste-Quadrate-Schätzung
Prinzip der kleinsten Quadrate:
Wähle den Parameter so, dass die Summe der quadrierten Abweichungen
zwischen Beobachtungswert und geschätztem Wert minimal wird.
Wichtig im Rahmen der Regressionsanalyse.
Beispiel: Schätze den Lageparameter µ so, dass
n
Q (µ) := X(Xi − µ)
i
dQ = Xn (Xi − µ̂) =
dµ i
n
X
=⇒ µ̂ =
n Xi = X̄
2
minimal
=1
2
0
=1
1
i =1
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
286 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
Bayes-Schätzung
frequentistischen Statistik geht man
Bayes-Statistik davon aus, dass der Parameter θ selber Realisierung
Im Gegensatz zur klassischen oder
in der
einer Zufallsvariablen
Θ
mit einer vorgegebenen a-priori-Verteilung ist.
Unter Verwendung einer Bayes-Formel wird dann, basierend auf einer
Stichprobe, die a-posteriori-Verteilung von
θ
Θ
bestimmt. Als Schätzwert für
wählt man dann häug den Erwartungswert, Median oder Modus der
a-posteriori-Verteilung von
Jürgen Dippon (ISA)
Θ.
Statistik für Wirtschaftswissenschaftler
13. September 2010
287 / 464
9.4. Konstruktion von Schätzfunktionen
9. Parameterschätzung
X
Wir betrachten zunächst den Fall, dass nur eine Beobachtung
diskreten oder stetigen Zufallsvariablen
Benötigte Bezeichnungen:
f (x , θ)
f (θ)
f (x )
f (θ|x )
f (x |θ)
gemeinsame Dichte von
a-priori-Dichte von
Randverteilung von
X =x
Θ
X
Θ
)
die bedingte Dichte von
Jürgen Dippon (ISA)
und
X
x
der
Θ
(Randdichte von
a-posteriori-Dichte von
Beobachtung
X
vorliegt.
Θ)
(bedingte Dichte von
, gegeben
Θ,
gegeben die
Θ=θ
Statistik für Wirtschaftswissenschaftler
13. September 2010
288 / 464
9. Parameterschätzung
Dann gilt folgende Form des
9.4. Konstruktion von Schätzfunktionen
Satzes von Bayes
f (θ|x ) = f f(x(x, θ)) = f (xf|θ)(xf)(θ)
=



Pf (x |θ)f (θ)
i f (x |θi )f (θi )
falls
Θ
diskret


R
f (x |θ)f (θ)
f (x |θ)f (θ)d θ
falls
Θ
stetig
wir
x
x x
fx x
( 1 , . . . , n ) vor, ersetzen
Dichte ( 1 , . . . , n |θ). Sind die
f (x |θ)
X , . . . , Xn
f (x , . . . , xn|θ) = f (x |θ) · . . . · f (xn|θ) = L(θ)
Liegt statt einer Beobachtung
eine Stichprobe
durch die bedingte gemeinsame
Variablen
unabhängig und identisch verteilt, so gilt
1
1
Jürgen Dippon (ISA)
1
Statistik für Wirtschaftswissenschaftler
13. September 2010
289 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
x x
(θ)f (θ)
f (θ|x , . . . , xn) = R LL(θ)
f (θ)d θ
Die a-posteriori-Dichte von
durch
θ
zur Stichprobe
( 1, . . . , n)
ist dann gegeben
1
vorausgesetzt,
(Ist
Θ
Θ
ist eine stetige Zufallsvariable.
diskret, muss das Integral im Nenner sinngemäÿ durch eine Summe
ersetzt werden.)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
290 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
Daraus können dann verschiedene Bayes-Schätzer abgeleitet werden:
A-posteriori-Erwartungswert:
E x
x
θ̂p = (θ| 1 , . . . , n ) =
(falls
θ
f x
Z
x d
θ (θ| 1 , . . . , n ) θ
stetig)
A-posteriori-Modus oder Maximum-a-posteriori-Schätzer:
wähle denjenigen Parameterwert
θ̂MAP ,
für den die a-posteriori-Dichte
maximal wird, d.h.
L(θ̂MAP )f (θ̂MAP ) =
max
θ
L(θ)f (θ)
oder äquivalent
ln
L(θ̂MAP ) + f (θ̂MAP ) =
Jürgen Dippon (ISA)
ln
max {ln
θ
Statistik für Wirtschaftswissenschaftler
L(θ) + f (θ)}
ln
13. September 2010
291 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
Bemerkungen
Das Integral im Nenner der a-posteriori-Dichte ist nur in speziellen
Fällen explizit zu berechnen und muss deshalb häug approximiert
werden, z.B. mit Monte-Carlo-Methoden. Für die Berechnung des
Maximum-a-posteriori-Schätzers genügt die Maximierung des Zählers.
Je acher die a-priori-Dichte von
Θ,
d.h. je geringer die
(angenommene) Kenntnis über die Lage des wahren Parameters
θ,
umso mehr stimmt der MAP-Schätzer mit dem
Maximum-Likelihood-Schätzer überein.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
292 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
Beispiel
X , . . . , Xn
1
unabhängige Wiederholungen von
gesucht und
σ
2
N
bekannt sei.
X ∼ N (µ, σ )
2
, wobei
µ
µ: (µ0 , σ02 ) mit bekanntem µ0 und σ02
Likelihoodfunktion zu 1 , . . . , n |µ:
1
( 1 − µ)2
( n − µ)2
1
√
√
· ... ·
exp −
exp −
(µ) =
2σ 2
2σ 2
2πσ
2πσ
x
A-priori-Verteilung von
x
L
A-posteriori-Dichte von
x
x
x
x
µ| 1 , . . . , n
(µ)f (µ)
f (µ|x , . . . , xn) = R LL(µ)
f (µ)d µ
1
= ··· =
Jürgen Dippon (ISA)
Dichte der
N (µ̃, σ̃ )
Statistik für Wirtschaftswissenschaftler
2
-Verteilung
13. September 2010
293 / 464
9. Parameterschätzung
9.4. Konstruktion von Schätzfunktionen
mit a-posteriori-Erwartungswert
µ̃ =
nσ x̄ + σ µ
nσ + σ nσ + σ
2
0
2
0
2
2
0
2
und a-posteriori-Varianz
σ̃ 2 =
2
0
σ2
n+
σ2
σ02
Extremfälle:
Für
Für
σ02 → 0 (exaktes Vorwissen) folgt µ̃ → µ0 und σ̃ 2 → 0
2
σ02 → ∞ (kein Vorwissen) folgt µ̃ → und σ̃ 2 → σn
x̄
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
294 / 464
9.5. Intervallschätzung
9. Parameterschätzung
Intervallschätzung
Wie der Name schon sagt, liefert die Punktschätzung einen (zufälligen)
Wert
θ̂
für den gesuchten Parameter
θ,
der aber in den meisten Fällen mit
dem gesuchten Wert nicht übereinstimmt.
Ist der Schätzer erwartungstreu, liefert der Standardfehler ein sinnvolles
Maÿ für die Präzision des Schätzverfahrens.
Ein alternatives Vorgehen steht in Form der
Intervallschätzung zur
Verfügung, welches ein (zufallsabhängiges) Intervall angibt, in dem der
gesuchte Parameter mit einer vorgegebenen (Mindest-)Wahrscheinlichkeit
liegt:
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
295 / 464
9. Parameterschätzung
9.5. Intervallschätzung
Irrtumswahrscheinlichkeit α werden aus den
X , . . . , Xn
Gu = gu (X , . . . , Xn) ≤ Go = go (X , . . . , Xn)
Zu vorgegebener
Stichprobenvariablen
Schätzstatistiken
1
1
so konstruiert, dass
d.h.
1
P (θ ∈ [Gu , Go ]) ≥
1
−α
P (Gu ≤ θ ≤ Go ) ≥ − α
[Gu , Go ] (1 − α)-Kondenzintervall
1
.
Dann heiÿt
(1 − α)-Vertrauensintervall)
Typische Werte für
Jürgen Dippon (ISA)
(oder
für den unbekannten Parameter
θ.
α: 0.1, 0.05, 0.01.
Statistik für Wirtschaftswissenschaftler
13. September 2010
296 / 464
9. Parameterschätzung
X , . . . , Xn
Setzt man prinzipiell
1
Gu = −∞
) erhält man ein
oder
9.5. Intervallschätzung
Go = ∞
(für alle Werte von
einseitiges (1 − α)-Kondenzintervall
P (θ ≤ Go ) ≥
Go
P (Gu ≤ θ) ≥
Gu .
mit der oberen Kondenzschranke
1
−α
, bzw.
1
−α
mit der unteren Kondenzschranke
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
297 / 464
9. Parameterschätzung
Ist
x , . . . , xn
1
X , . . . , Xn
[gu (x , . . . , xn ), go (x , . . . , xn )]
eine Realisation von
, so ergibt sich durch
1
1
ein
9.5. Intervallschätzung
1
realisiertes Kondenzintervall, das den unbekannten Parameter θ
entweder enthält oder nicht enthält.
G G
(1 − α)-Kondenzintervall [ u , o ] für θ muss so interpretiert werden,
[ u , o ] in (1 − α) · 100% der Fälle, in denen Kondenzintervalle
geschätzt werden, die resultierenden Kondenzintervalle den wahren Wert θ
Das
dass
G G
enthalten.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
298 / 464
9. Parameterschätzung
9.5. Intervallschätzung
Kondenzintervalle für Erwartungswert und Varianz
X , . . . , Xn
1
unabhängige Wiederholungen von
X ∼ N (µ, σ )
2
.
Gesucht: Kondenzintervalle für den unbekannten Erwartungswert
µ.
1. Fall: σ 2 bekannt
X̄
ist ein Schätzer für
µ
X̄ ∼ N µ, n
X̄ − µ ∼ N ( , )
√σ
n
Jürgen Dippon (ISA)
σ2
0 1
Statistik für Wirtschaftswissenschaftler
13. September 2010
299 / 464
9.5. Intervallschätzung
9. Parameterschätzung
Sei
z
das
1− α
2
(1 − α2 )-Quantil
der
Dann gilt
1
N( ,
0 1)-Verteilung.
X̄ − µ ≤ z
− α = P −z
≤
1− α
2
√σ
n
!
1− α
2
P z n X̄
z n
σ
σ
√ ≤ µ ≤ X̄ + z
√
= P X̄ − z
n
n
=
σ
− 1− α2 √ ≤
σ
− µ ≤ 1− α2 √
1− α
2
Damit ist
G G
[ u, o] =
ein
X̄ − z
Jürgen Dippon (ISA)
1− α
2
(1 − α)-Kondenzintervall
für
α
1− 2
n X̄ + z
σ
√ ,
α
1− 2
σ
√
n
µ.
Statistik für Wirtschaftswissenschaftler
13. September 2010
300 / 464
9. Parameterschätzung
n→∞
G G
[Gu , Go ] → ∞
: Breite von
α → 1:
Breite von
9.5. Intervallschätzung
[ u, o] → 0
In ähnlicher Weise ndet man die einseitigen Kondenzintervalle für
− ∞,
Jürgen Dippon (ISA)
X̄ z
σ i
+ 1− α2 √
n
bzw.
h
X̄ − z
Statistik für Wirtschaftswissenschaftler
1− α
2
µ:
σ
√ ,∞
n
13. September 2010
301 / 464
9.5. Intervallschätzung
9. Parameterschätzung
2. Fall: σ 2 unbekannt
Da
σ2
wird
unbekannt ist, ist auch die Verteilung von
σ
durch
S
v
u
u
=t
geschätzt. Die Zufallsvariable
n
X
1
n−
1
i =1
X̄ −µ
σ
n
√
unbekannt. Deshalb
X X̄ )
( i−
2
X̄ − µ
√S
n
n
ist jetzt allerdings nicht mehr normalverteilt, sondern
( − 1)
Freiheitsgraden.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
tn
−1 - verteilt mit
13. September 2010
302 / 464
9. Parameterschätzung
Sind
Z , Z , . . . , Zn
1
unabhängige
9.5. Intervallschätzung
N( ,
0 1)-verteilte Zufallsvariablen, dann
T = qZ Z
heiÿt die Verteilung von
t - oder Student-verteilt
mit
n
2
2
1 +···+Zn
n
Freiheitsgraden.
Die Tails (Flanken) der Dichten fallen nur
wie bei der Normalverteilung.
Jürgen Dippon (ISA)
∼
x
−n und nicht
Statistik für Wirtschaftswissenschaftler
∼ exp(− x2 )
13. September 2010
2
303 / 464
9.5. Intervallschätzung
9. Parameterschätzung
tn
sei das (1
−1,1− α
2
Konstruktion eines
1
−α=
− α2 )-Quantil
der
P −tn
−1,1− α
2
P X̄ − tn
X̄ − µ ≤ tn
≤
√S
n
α
−1,1− 2
[ u, o] =
ein
X̄ − tn
(1 − α)-Kondenzintervall
für den Erwartungswert
−1,1− α
2
µ:
!
−1,1− α
2
S
√ ≤ µ ≤ X̄ + tn
n
Damit ist
G G
−1 -Verteilung.
(1 − α)-Kondenzintervalles
=
tn
S
√ , X̄ + tn
n
α
−1,1− 2
−1,1− α
2
für den Erwartungswert
µ,
S√ n
S√ n
falls
σ2
unbekannt ist.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
304 / 464
9.5. Intervallschätzung
9. Parameterschätzung
n
N (µ, n )
S
√ , X̄ + z
[Gu , Go ] = X̄ − z
n
Da für groÿe Stichprobenumfänge
approximativ
σ2
das arithmetische Mittel
-verteilt ist, kann man zeigen, dass für
1− α
2
ein approximatives
falls
σ2
(1 − α)-Kondenzintervall
1− α
2
S√ n
X̄
n≥
30
für den Erwartungswert
µ
ist,
unbekannt ist.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
305 / 464
9.5. Intervallschätzung
9. Parameterschätzung
Konstruktion eines
(1 − α)-Kondenzintervalles
für die Varianz bei
normalverteilter Grundgesamtheit:
σ2
kann mittels
Sind
Z , . . . , Zn
1
S
2
geschätzt werden.
N( , )
Z + · · · + Zn
χ -Verteilung
n
unabhängige
0 1 -verteilte Zufallsvariablen, so besitzt
2
1
eine so genannte
2
Man kann zeigen, dass
2
mit
n− S
σ
1
2
Jürgen Dippon (ISA)
Freiheitsgraden.
2
∼ χ2n−1
Statistik für Wirtschaftswissenschaftler
13. September 2010
306 / 464
9.5. Intervallschätzung
9. Parameterschätzung
χ2n−1, α und χ2n−1, 1−α die
2
2
( − 1) Freiheitsgraden.
Seien
mit
n
α
2
- bzw.
Dann gilt:
1
−α=
=
Also ist
P
1
2
2
n−1,1− α2
n
(1 − α)-Kondenzintervall
der
χ2 -Verteilung
≤ χ2n−1,1− α
2
!
( − 1) 2
≤ σ2 ≤
χ2n−1, α
S n
2
n
S
2
S
( − 1) 2 ( − 1) 2
,
χ2n−1,1− α χ2n−1, α
2
ein
n S
−1
χ2n−1, α ≤
2
σ2
P (χn − )S
"
(1 − α2 )-Quantile
#
2
für die Varianz bei einer normalverteilten
Grundgesamtheit.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
307 / 464
9. Parameterschätzung
Bei einem dichotomen Merkmal
Bin( , p)
bei Vorliegen der Stichprobe
1
X
9.5. Intervallschätzung
wird die Auftretenswahrscheinlichkeit
p = P (X =
X , . . . , Xn
1)
von unabhängigen
1
-verteilten Zufallsvariablen mittels
n
p̂ = n X Xi
1
i =1
geschätzt. Da
X Bin(n, p)
X̄p− E (X̄ ) = qp̂ − p
Var (X̄ ) p n p
Pn
i =1 i ∼
, ist nach dem zentralen Grenzwertsatz
(1− )
approximativ
N( ,
0 1)-verteilt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
308 / 464
9.5. Intervallschätzung
9. Parameterschätzung
Da
p
p
p̂
p̂ − p ≤ z
− α ∼ P −z
≤q
p̂ −p̂
unbekannt ist, wird
durch
geschätzt. Dann gilt

1
1− α
2
=
P p̂ − z
(1
n
r
1− α
2
)

1− α
2

p̂( − p̂) ≤ p ≤ p̂ + z
n
1
r
1− α
2
p̂( − p̂)
n
1
!
Also ist
G G
"
[ u, o] =
ein approximatives
p̂ − z
r
1− α
2
p̂( − p̂) , p̂ + z
n
1
(1 − α)-Kondenzintervall
r
1− α
2
p̂( − p̂)
n
1
#
für die Wahrscheinlichkeit
in einer Bernoulli-verteilten Grundgesamtheit.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
p
309 / 464
9. Parameterschätzung
9.5. Intervallschätzung
Beispiel: Sonntagsfrage
Von
n=
p̂ =
496 befragte Frauen zeigten
Unionsparteien. Also ist
p = P (X =
200
.
496
X
Pn
i =1 i = 200
Bei einer Sicherheitswahrscheinlichkeit von 1
eine Präferenz für die
− α = 0.95
erhält man für
1) ein approximatives 95%-Kondenzintervall
"
p̂ − z
r
1− α
2
p̂( − p̂) , p̂ + z
n
1
"
=
r
0.403
− 1.96
0.403
r
1− α
2
· 0.597
496
p̂( − p̂)
n #
1
#
,··· + ...
= [0.360, 0.446]
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
310 / 464
10. Testen von Hypothesen
9
10
Parameterschätzung
Testen von Hypothesen
Binomial- und Gauÿ-Test
Approximativer Binomialtest
Gauÿ-Test
Prinzipien des Testens
Fehlentscheidungen
Zusammenhang zwischen statistischen Tests und Kondenzintervallen
Überschreitungswahrscheinlichkeit
Gütefunktion
11
Spezielle Tests
12
Lineare Regression
13
Zeitreihen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
311 / 464
10. Testen von Hypothesen
Testen von Hypothesen
Neben dem Schätzen von Parametern theoretischer Verteilungen ist es oft
von Interesse, Vermutungen über einen Parameter oder eine Verteilung in
der Grundgesamtheit zu überprüfen.
Die Vermutung wird in Bezug auf die Grundgesamtheit aufgestellt, deren
Überprüfung jedoch unter Verwendung einer Stichprobe durchgeführt.
Inwieweit der Schluss von der Stichprobe auf die Grundgesamtheit zulässig
ist, ist Teil des statistischen Tests.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
312 / 464
10.1. Binomial- und Gauÿ-Test
10. Testen von Hypothesen
Binomial- und Gauÿ-Test
Beispiel:
Eine Klausur besteht aus
n=
30 Aufgaben, bei der jeweils eine
von zwei Antworten auszuwählen ist. Ein Student beantwortet 19 Fragen
korrekt und 11 Fragen falsch.
Frage: Hat der Student geraten oder tatsächlich etwas gewusst?
Xi =
i
1,
falls
0,
sonst
-te Antwort des Studenten richtig
X , ..., X P
Bin( , p)
S = i Xi Bin( , p)
p=
30 seien unabhängige
30
Also ist
30
=1
1
1
-verteilte Zufallsvariablen.
-verteilt.
Wenn der Student nichts weiÿ, ist
1
.
2
Besitzt der Student gewisse Kenntnisse, so ist
Jürgen Dippon (ISA)
p>
Statistik für Wirtschaftswissenschaftler
1
2
13. September 2010
313 / 464
10.1. Binomial- und Gauÿ-Test
10. Testen von Hypothesen
Auf Grundlage der Daten
Nullhypothese
und der
S
( = 19)
wollen wir uns zwischen der
Ho : p =
1
2
Alternativhypothese
H :p>
1
1
2
entscheiden.
Ist die
Prüfgröÿe oder Teststatistik
S = Xi
30
X
gröÿer als ein
kritischer Wert
Jürgen Dippon (ISA)
c
i =1
, entscheiden wir uns für
Statistik für Wirtschaftswissenschaftler
H
1.
13. September 2010
314 / 464
10.1. Binomial- und Gauÿ-Test
10. Testen von Hypothesen
Wie ist der kritische Wert c nun zu wählen?
c = ,c = ,c =
H
16
c wird so gewählt, dass
17
18, . . .?
0 höchstens mit Wahrscheinlichkeit
fälschlicherweise abgelehnt wird:
P
α = 0.05
S c H
P S cH
| 0)
α = 0.05 > (
>}
| {z
H0 wird abgelehnt
= 1 − ( ≤ | 0)
30−i
c i X
30
1
1
=1−
1−
2
2
i =0
i
Es ist also die kleinste natürliche Zahl c gesucht, so dass
c 30
X
30
1
i =0
Jürgen Dippon (ISA)
i
2
> 0.95
Statistik für Wirtschaftswissenschaftler
13. September 2010
315 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
Bestimmung des kritischen Wertes c mittels R:
> qbinom ( 0 . 9 5 , s i z e =30 , prob =0.5)
> 19
Damit wählen wir
Da
S=
H
dass
c=
19 als kritischen Wert.
19, können wir
H
0 nicht ablehnen, wenn wir sicherstellen wollen,
0 höchstens mit Wahrscheinlichkeit
Niveau, fälschlicherweise abgelehnt wird.
Jürgen Dippon (ISA)
α = 0.05,
Statistik für Wirtschaftswissenschaftler
dem sogenannten
13. September 2010
316 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
Abbildung: Binomialverteilung
Erstellung der Graken mittels:
plot ( dbinom ( 0 : 3 0 ,
plot ( pbinom ( 0 : 3 0 ,
Jürgen Dippon (ISA)
s i z e =30 , prob = 0 . 5 ) , t y p e="h" ) ;
s i z e =30 , prob = 0 . 5 ) , t y p e=" s " ) ;
Statistik für Wirtschaftswissenschaftler
13. September 2010
317 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
In unserem Beispiel wird
{0, 1, . . . , 19}
{20, 21, . . . , 30}
als Annahmebereich
als Ablehnungsbereich
bezeichnet.
Der so konstruierte statistische Hypothesentest heiÿt
Binomialtest.
exakter
Da der kritische Wert c für groÿe Stichprobenumfänge n aufwändig zu
berechnen ist, verwendet man stattdessen den approximativen Binomialtest.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
318 / 464
10.1. Binomial- und Gauÿ-Test
10. Testen von Hypothesen
Approximativer Binomialtest
Beispiel: statistische Qualitätskontrolle
n=
Bei der Produktion von Speicherchips entstehen 10% unbrauchbare Chips.
Anhang einer Stichprobe mit Umfang
1000 soll überprüft werden, ob
der Produktionsprozess sich verschlechter hat, also mehr als 10%
Ausschuss entsteht.
Wie oben seien
und
Xi =
X , ..., Xn
1
i
1,
falls
0,
sonst
-tes Stichprobenelement Ausschuss ist
unabhängige
Jürgen Dippon (ISA)
Bin( , p)
1
-verteilte Zufallsvariablen.
Statistik für Wirtschaftswissenschaftler
13. September 2010
319 / 464
10. Testen von Hypothesen
Dann ist
10.1. Binomial- und Gauÿ-Test
n
X
S = Xi ∼ Bin(n, p)
i =1
und nach dem zentralen Grenzwertsatz von Moivre-Laplace
Z = pnpS −( np− p)
1
ungefähr
N( ,
0 1)-verteilt
Das Testproblem ist:
H :p=p
0
0
= 0.1
gegen
H :p>p
1
0
= 0.1
Der eigentlich interessierende Sachverhalt wird durch die
Alternativhypothese ausgedrückt.
Wir lehnen
H
S E (S ) = np
0 ab, falls S bzw. Z zu groÿ ist. Dabei soll sichergestellt
werden, dass die Abweichung von
zu
0 bei Vorliegen der
Nullhypothese nicht alleine durch den Zufall erklärt werden kann.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
320 / 464
10.1. Binomial- und Gauÿ-Test
10. Testen von Hypothesen
Hierbei ist es günstig, den kritischen Wert für Z anstatt für S zu ermitteln:
0.05
Also ist
c =z
P Z c H)
c Z ∼ N( , )
− α)
N( , )
= α > ( | {z
>} |
H0 ablehnen
≈ 1 − Φ( ), da
1−α , das
(1
0
0 1
-Quantil der
unter
H
0
0 1 -Verteilung, als kritischer
Wert zu wählen. Daraus ergibt sich der Ablehnungsbereich
c = (z
H
0 wird also zum Niveau
α
1−α
, ∞)
abgelehnt, falls
Z = pnpS −( np− p ) > z
0
0 1
Jürgen Dippon (ISA)
1−α
0
Statistik für Wirtschaftswissenschaftler
13. September 2010
321 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
Abbildung: Kritischer Bereich
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
322 / 464
10.1. Binomial- und Gauÿ-Test
10. Testen von Hypothesen
Für
n=
1000,
p=
0.1, α
= 0.05
wird
Z = S √−
H
100
90
S>
d.h.
Jürgen Dippon (ISA)
0 abgelehnt, falls
> 1.64
115.56
Statistik für Wirtschaftswissenschaftler
13. September 2010
323 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
Soll überprüft werden, ob sich der Produktionsprozess hinsichtlich der
Ergebnisqualität verbessert hat, ist das Testproblem:
H :p=p
0
0
H :p<p
gegen
1
0
zu betrachten. Der dazugehörige kritische Bereich lautet
c = (−∞, −z
1−α
) = (−∞,
z)
α
Soll überprüft werden, ob sich der Produktionsprozess hinsichtlich der
Ergebnisqualität verändert hat, ist das Testproblem:
H :p=p
0
0
H : p 6= p
gegen
1
0
zu betrachten. Der dazugehörige kritische Bereich lautet
c = (−∞, z
Jürgen Dippon (ISA)
α/2 )
z
∪(
1−α/2
, ∞)
Statistik für Wirtschaftswissenschaftler
13. September 2010
324 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
Abbildung: Beidseitiger kritischer Bereich
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
325 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
Zusammenfassung: Approximativer Binomialtest
Bin(n, p)
Gegeben seien folgende Testprobleme über den Parameter
-Verteilung:
a
b
c
( )
( )
( )
H :p=p
H :p=p
H :p=p
0
0
gegen
0
0
gegen
0
gegen
0
p
in einer
H : p 6= p
H :p<p
H :p>p
1
0
1
0
1
0
Basierend auf der Prüfgröÿe
Z = pnpS −( np− p )
N( , )
H
(a),
|z | > z
(b),
z < −z
(c ),
z >z
0
welche unter
Niveau
α
H
0 1
0 näherungsweise
entscheidet man sich für
0 1 -verteilt ist, und dem vorgegebenen
1 im Testproblem
falls
1−α/2
falls
1−α
falls
Jürgen Dippon (ISA)
0
1−α
Statistik für Wirtschaftswissenschaftler
13. September 2010
326 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
Gauÿ-Test
Beispiel: Kontrollkarten
X
[cm]
N (µ, σ )
Es sei bekannt, dass ein Produktionsprozess Bleistifte produziert, deren
Längen
µ = 17
approximativ
2
cm ]
-verteilt sind mit Erwartungswert
und bekannter Varianz
σ 2 = 2.25[
2
EX = µ
Um zu überprüfen, ob die produzierten Bleistifte dem Sollwert (mit
erlaubter zufälliger Abweichung) entsprechen, d.h.
betrachtet man das Testproblem
H
0
: µ = µ0 = 17
X , ..., Xn ∼ N (µ, σ )
gegen
H
1
0
= 17,
: µ 6= 17
X̄
Dazu entnimmt man der laufenden Produktion Bleistifte mit Längen
2
1
und untersucht die Prüfgröÿe
standardisierte Prüfgröÿe
oder die
Z = X̄ −σ µ √n
0
welche unter
H N( ,
0
Jürgen Dippon (ISA)
0 1)-verteilt ist.
Statistik für Wirtschaftswissenschaftler
13. September 2010
327 / 464
10.1. Binomial- und Gauÿ-Test
10. Testen von Hypothesen
H
0 wird dann zum Niveau
α
abgelehnt, falls
Z z
| |>
Zahlenbeispiel:
1−α/2
n = , x̄ = . , α = .
z = x̄ −σ µ √n = . .−
z =.
H
α= .
5
18 1
0 01
0
18 1
17 √
1 5
Da
z z
| |≤
1−α/2
1−α/2 kann
0 zum Niveau
5
= 1.64
2 5758
0 01 nicht abgelehnt werden.
Ein Eingri in den Produktionsprozess ist also nicht nötig.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
328 / 464
10. Testen von Hypothesen
x̄
10.1. Binomial- und Gauÿ-Test
In der statistischen Qualitätskontrolle werden für jede Stichprobe die
Mittelwerte
über der Stichprobennummer in einer Grak eingetragen und
mit den Kontrollgrenzen
µ0 −
z
1−α/2
verglichen. Bendet sich
x̄
σ
·√
n
und
µ0 +
z
1−α/2
σ
·√
n
auÿerhalb dieses dadurch denierten
horizontalen Streifens, gilt der Prozess als statistisch auÿer Kontrolle.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
329 / 464
10. Testen von Hypothesen
10.1. Binomial- und Gauÿ-Test
Zusammenfassung: Gauÿ-Test
X , ...Xn
N (µ, σ )
σ
n
n≥
E (Xi ) = µ, Var (Xi ) = σ
Unabhängige Zufallsvariablen
bekannter Varianz
2
oder, falls
a
b
c
( )
( )
( )
2
H
H
H
0 (d.h.
0
σ
: µ = µ0
0 : µ = µ0
0 : µ = µ0
0
H
µ=µ
Z = X̄ − µ √n N ( ,
Unter
30) mit beliebiger
. Betrachte folgende
gegen
gegen
gegen
H
H
H
: µ 6= µ0
1 : µ < µ0
1 : µ > µ0
1
0 ) ist
N( ,
H
0 1)-verteilt bzw. näherungsweise
Basierend auf der Prüfgröÿe
a
b
c
Z
( ),
( ),
( ),
Jürgen Dippon (ISA)
-verteilt mit
groÿ (Faustregel:
stetiger Verteilung,
Testprobleme:
2
jeweils
1
fällt die Entscheidung für
falls
falls
falls
z z
z z
z z
0 1)-verteilt
1 im Testproblem
| | > 1−α/2
< − 1−α
> 1−α
Statistik für Wirtschaftswissenschaftler
13. September 2010
330 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Prinzipien des Testens
1. Schritt: Quantizierung der Fragestellung
2. Schritt: Formulierung der Modellannahmen
3. Schritt: Festlegung der Null- und Alternativhypothese
4. Schritt: Wahl des Signikanzniveaus
H
H
5. Schritt: Wahl einer Prüfgröÿe (Teststatistik), die in der Lage ist,
zwischen
0 und
1 zu dierenzieren. Bestimmung der
Verteilung der Prüfgröÿe unter der Nullhypothese.
Konstruktion des Ablehnungsbereiches.
6. Schritt: Berechnung des Wertes der Prüfgröÿe für die konkrete
Stichprobe
7. Schritt: Testentscheidung
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
331 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Falls Abweichungen nach oben und unten interessieren, wie im Fall (a) im
zweiseitig, falls nur Abweichungen in
Gauÿ-Test, heiÿt das Testproblem
eine Richtung interessieren, wie im Fall (b) und (c) im Gauÿ-Test, heiÿt das
Testproblem
H
einseitig.
Besteht die Hypothese
bzw.
1
H
0 oder
H
1 nur aus einem Punkt, nennt man
einfach, sonst zusammengesetzt
X
Xn
H
0
Tests, die keine genaueren Annahmen über die Verteilung der
Zufallsvariablen
1 , ...
machen, heiÿen
nichtparametrisch. Werden
Annahmen über den Verteilungstyp gemacht, so heiÿen die Tests
parametrisch.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
332 / 464
10.2. Prinzipien des Testens
10. Testen von Hypothesen
Fehlentscheidungen
Bei einem statistischen Testproblem
H
0 gegen
statistischen Test spricht man von einem
Fehler 1. Art, wenn
Fehler 2. Art, wenn
H
1 und einem geeigneten
H
H
0 verworfen wird, obwohl
H
0 wahr ist
0 beibehalten wird, obwohl
H
1 wahr ist
Es sind dehalb folgende Ausgänge bei einem statistischen Test denkbar:
H
H
Entscheidung für
0
H
0 wahr
H
Fehler 1. Art
(α-Fehler)
falsch
1 wahr
Jürgen Dippon (ISA)
richtig
1
falsch
Fehler 2. Art
richtig
(β -Fehler)
Statistik für Wirtschaftswissenschaftler
13. September 2010
333 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Test zum Signikanzniveau α (wobei
Signikanztest, falls:
Ein statistischer Test heiÿt
0
< α < 1)
oder
P (H
1 annehmen
H
|
0 wahr
P(
d.h.
Fehler 1. Art)
Typische Werte für das Signikanzniveau
α
)≤α
≤α
sind 0.1, 0.05, 0.01.
Interpretation: Es werden 100 Stichproben vom Umfang
gelte die Nullhypothese. Bei 100 Tests zum Niveau
α
n
gezogen und es
wird die
Nullhypothese dann im Mittel höchstens in 5% der Fälle (fälschlicherweise)
abgelehnt werden.
Im Falle einer Ablehnung der Nullhypothese sagt man, dass das Ergebnis
statistisch signikant zum Niveau α sei. Die Wahrscheinlichkeit für einen
Fehler 2. Art kann man meist nicht kontrollieren. Diese
Ungleichbehandlung der Fehler 1. und 2. Art ist der Grund dafür, dass die
zu sichernde Behauptung als Alternativhypothese formuliert wird.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
334 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Zusammenhang zwischen statistischen Tests und
Kondenzintervallen
Beispiel Gauÿ-Test
Verwerfe
Behalte
H
H
z
z
0 , falls
x̄
|x̄
Damit ist
H
n z
n z
z
x̄ z
√ 0
| | = x̄ −µ
σ
> 1−α/2
− µ0 √ ≤ 1−α/2
| | = σ
|
{z
}
⇔ − µ0 | ≤ 1−α/2 · √σn
h
i
⇔ µ0 ∈
− 1−α/2 · √σn , + 1−α/2 · √σn
0 , falls
x̄ z
0 genau dann beizubehalten, wenn
(1 − α)-Kondenzintervall
für
µ
µ0
im
liegt.
Allgemein: Ein (1 − α)-Kondenzintervall entspricht dem Annahmebereich
des zugehörigen 2-seitigen Signikanztests.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
335 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Überschreitungswahrscheinlichkeit
p-Wert oder die Überschreitungswahrscheinlichkeit ist deniert als
Der
die Wahrscheinlichkeit den beobachteten Prüfgröÿenwert oder einen in
Richtung der Alternative extremeren Wert zu beobachten:
H
Ist der p-Wert kleiner oder gleich dem vorgegebenen Signikanzniveau,
wird
0 verworfen, andernfalls beibehalten.
Fortsetzung des Beispiels zum Gauÿ-Test:
z=
Dort wurde die Teststatistik
Wert
z
| |
betrachtet, welche für die Stichprobe den
1.64 lieferte. Der p-Wert ist jetzt gegeben durch
p = P (|Z | ≥
Jürgen Dippon (ISA)
H )=
1, 64|
0
2(1
− Φ(1.64)) ≈ 0.1
Statistik für Wirtschaftswissenschaftler
13. September 2010
336 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Abbildung: P-Wert (Inhalt der hellgrauen Fläche beträgt α − p . Inhalt der
dunkleren Fläche ist p )
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
337 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Gütefunktion
Für vorgegebenes Signikanzniveau
die
α
und festen Stichprobenumfang
n
gibt
Gütefunktion g die Wahrscheinlichkeit für einen statistischen Test an,
die Nullhypothese zu verwerfen:
g (µ) = P (H
0 verwerfen
Ist
Ist
µ∈
µ∈
H
H
0 , so ist
g (µ) ≤ α
− g (µ)
1 , so ist 1
Jürgen Dippon (ISA)
|
µ
|{z}
)
wahrer Parameter
die Wahrscheinlichkeit für den Fehler 2. Art
Statistik für Wirtschaftswissenschaftler
13. September 2010
338 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Abbildung: Verlauf der idealen Gütefunktion, die aber praktisch nicht möglich ist.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
339 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Abbildung: Verlauf der Gütefunktion beim einseitigen Gauÿ-Test.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
340 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Berechnung der Gütefunktion für den einseitigen Gauÿ-Test:
g (µ)
=
=
=
=
P (H
| µ)
X̄
−µ √
P σ n > z µ
X̄
−µ+µ−µ √
µ
n
>z
P
σ
µ − µ √ X̄
− µ√
P σ n>z − σ nµ
0 verworfen
0
0
{z
∼N (0,1)
Jürgen Dippon (ISA)
1−α
0
1−α
|
=
1−α
1
−Φ
z
}
µ − µ0 √
1−α −
σ
n
Statistik für Wirtschaftswissenschaftler
13. September 2010
341 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Abbildung: Verlauf der Gütefunktion beim zweiseitigen Gauÿ-Test.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
342 / 464
10. Testen von Hypothesen
10.2. Prinzipien des Testens
Eigenschaften der Gütefunktionen eines statistischen Tests
Für Werte aus
Für Werte aus
H
H
n
1 heiÿt die Gütefunktion Trennschärfe oder Macht
0 ist die Gütefunktion kleiner oder gleich
Für wachsendes
α
wird die Macht eines Tests gröÿer, d.h. die
Gütefunktion wird steiler
Für wachsendes
α
wird die Macht eines Tests gröÿer
Für einen wachsenden Abstand zwischen Werten aus
die Macht eines Tests gröÿer.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
H
1 und
H
13. September 2010
0 wird
343 / 464
11. Spezielle Tests
9
Parameterschätzung
10
Testen von Hypothesen
11
Spezielle Tests
Überblick
Einstichprobentests
Zweistichprobentests
Zusammenhangsanalyse
12
Lineare Regression
13
Zeitreihen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
344 / 464
11. Spezielle Tests
11.1. Überblick
Überblick
Statistische Tests gibt es wie Sand am Meer. Im Folgenden beschränken
wir uns auf einige Testverfahren zu ausgewählten Standardproblemen.
Einteilung der nachfolgenden Testverfahren
1 Einstichprobenfall: Untersuchung einer Verteilung eines
H
H
Zweistichprobleme
H
H
eindimensionalen Merkmals, z.B.
0 : Die zu erwartende Quadratmiete in einem bestimmten
2
Wohnviertel beträgt 8 Euro/m .
0 : Die Nettomiete ist normalverteilt.
2
A
B
: Vergleich von Parametern aus zwei Populationen.
0 : Die zu erwartende Nettomiete in den Wohnvierteln
identisch.
und
ist
0 : Das zu erwartende Einkommen männlicher und weiblicher
Arbeitnehmer (in vergleichbarer Position einer Branche) ist gleich.
3
Zusammenhangsanalyse, z.B.
H
H
0 : Die Korrelation zwischen Mietpreis und Quadratzahl beträgt 0.8.
0 : Geschlecht und Parteipräferenz sind unabhängig.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
345 / 464
11. Spezielle Tests
11.1. Überblick
Konstruktion von Tests
θ
H
sei ein interessierender Parameter. Es soll ein Test zu Hypothesen der
Form
0:
θ = θ0
konstruiert werden.
Tests basieren häug auf Schätzern für Parameter.
T
Die Schätzer werden unter Verwendung des Nullhypothesenwertes
T
zu einer Teststatistik
Verteilung von
T
standardisiert bzw. transformiert, so dass die
nicht mehr von unbekannten Gröÿen abhängt.
wird gewöhnlich so konstruiert, dass
eher unter der Alternative annimmt.
T
θ0
T
groÿe bzw. kleine Werte
H
Der Ablehnungsbereich des Tests wird unter Verwendung von
Quantilen von
unter
0 so festgelegt, dass die Nullhypothese für
groÿe bzw. kleine Werte abgelehnt wird.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
346 / 464
11. Spezielle Tests
11.2. Einstichprobentests
Einstichprobentests
Beispiel: Mietspiegel.
A
Die Quadratmetermiete für Wohnungen in einer Stadt
n=
2
unter 50 m , die
nach 1983 gebaut wurden, soll untersucht werden. Eine Teilstichprobe von
11 Wohnungen ergab
In der Stadt
B
i
xi
i
xi
B
1
2
3
4
5
6
13.22
6.81
10.22
14.03
8.04
10.16
7
8
9
10
11
9.43
13.07
13.63
5.05
11.63
werden, ob der Quadratmeterpreis in Stadt
Stadt
A
2
liegt der Durchschnittswert bei 8 Euro/m . Es soll überprüft
.
signikant gröÿer ist als in
Die Quadratmetermieten werden als normalverteilt angesehen. Der
Erwartungswert
µ
Jürgen Dippon (ISA)
ist der interessierende Parameter,
Statistik für Wirtschaftswissenschaftler
σ
sei nicht bekannt.
13. September 2010
347 / 464
11.2. Einstichprobentests
11. Spezielle Tests
Hypothesen :
H :µ≤ =µ
H :µ> =µ
Ansatz :
µ
X n ∼ N µ, σn
T := √n X nS−n µ
µ=µ =
t t
Xn − µ ≈ µ − µ
n
Die Forschungshypothesen ordnen wir der Alternativen zu.
8
0
0 gegen
8
1
Schätzen von
0
mit
2
0
und
wenn
0
Mit
8 ist, wobei
10 die
0 (für groÿe
0
=
√
11
Xn −
Sn
8
∼
t
10
t
= n −1
-Verteilung mit 10 Freiheitsgraden ist.
) erwarten wir groÿe Werte der
Teststatistik unter der Alternative und kleine Werte unter der
Nullhypothese.
Für
µ = µ0 = 8
gilt
P (T > tn
Wenn wir
−1,1−α )
F t
= 1 − T ( n−1,1−α ) = 1 − (1 − α) = α
H
0 ablehnen, wenn
erhalten wir einen Test zum Niveau
t > tn
−1,1−α
α.
Allgemein lassen sich folgende Tests konstruieren:
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
348 / 464
11.2. Einstichprobentests
11. Spezielle Tests
Einstichproben-t-Test
X , . . . , Xn
H µ=µ
H µ≥µ
H µ≤µ
Seien
1
unabhängig
N (µ, σ )
2
-verteilte Zufallsvariablen.
Wir betrachten folgende Testprobleme über den Parameter
1
2
3
0:
0 gegen
0:
0 gegen
0:
0 gegen
H
H
H
1:
µ 6= µ0 ,
1:
µ < µ0 ,
1:
µ > µ0 .
µ:
Basierend auf der Teststatistik
T = XpnS−/µn
0
2
n
=
√
n X nS−n µ
0
(Beachte:
und dem vorgegebenen Signikanzniveau
α
T ∼ tn
−1 , falls
µ = µ0 )
wird die Nullhypothese
abgelehnt,
1
falls
2
falls
3
falls
T t
T t
T t
| | > n−1,1−α/2 ,
< − n−1,1−α ,
> n−1,1−α .
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
349 / 464
Es wird ein
Hypothese:
11.2. Einstichprobentests
11. Spezielle Tests
t
α = 0.05
-Test zum Signikanzniveau
H :µ≤
0
8
= µ0
gegen
durchgeführt.
H :µ>
1
8.
T = XpnS−/µn
Teststatistik:
0
2
Berechnung des Wertes der Teststatistik:
n
x̄ = n X xi =
1
i =1
n
X
s = n−
2
i =1
n
X
1
1
xi
2
1
11
(13.22 + 6.81 + . . . + 11.63) = 10.4809 ,
= (13.222 + . . . + 11.632 ) = 1296.587 ,
xi − n · x̄ = (
t = √n x̄ √−sµ = √
!
2
2
i =1
0
2
Jürgen Dippon (ISA)
1
10
1296.5871
11
10.4809
√
− 11 · 10.48092 ) = 8.8245 .
−8
8.8245
Statistik für Wirtschaftswissenschaftler
= 2.77
13. September 2010
350 / 464
11. Spezielle Tests
11.2. Einstichprobentests
α = 0.05 gleich
=
1
.
8125.
−1,1−α
10,0.95
Testentscheidung: Da
= 2.77 > 1.8125 ist, wird die
tn
t
Der kritische Wert ist zum Niveau
=
abgelehnt.
t
Nullhypothese
Wenn die Stichprobe groÿ genug ist, kann man auf die
Normalverteilungsvoraussetzungen auch verzichten.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
351 / 464
11. Spezielle Tests
11.2. Einstichprobentests
Beispiel: Getreideockenabfüllung.
Ein Hersteller von Zerealien möchte die Qualität seiner Abfüllmaschine
testen. Die Maschine soll 300 g pro Packung abfüllen. Der Hersteller will
feststellen, ob es systematische Abweichungen vom Normwert gibt. Dazu
werden 100 Packungen zufällig der Produktion entnommen und gewogen.
g
Es wird ein mittleres Gewicht von 296 g festgestellt und eine
2
Stichprobenvarianz von 12.5
Signikanzniveau
α = 0.05
Normwert ist.
Die Abfüllgewichte
. Stellen Sie mit einem Test zum
fest, ob das eine signikante Abweichung vom
X , . . . , Xn
1
2
seien u.i.v., aber nicht notwendigerweise
normalverteilt. Dann gilt nach zentralem Grenzwertsatz
X
−µ
pn
2
n/
Jürgen Dippon (ISA)
S n
ist asymptotisch
N( ,
0 1)-verteilt.
Statistik für Wirtschaftswissenschaftler
13. September 2010
352 / 464
11. Spezielle Tests
11.2. Einstichprobentests
Approximativer Gauÿ-Test (beliebige Verteilung)
X , . . . , Xn
H µ=µ
H µ≥µ
H µ≤µ
Seien
1
unabhängig und identisch verteilt mit
n>
Wir betrachten folgende Testprobleme über den Parameter
1
2
3
0:
0 gegen
0:
0 gegen
0:
0 gegen
H
H
H
1:
µ 6= µ0 ,
1:
µ < µ0 ,
1:
µ > µ0 .
30.
µ:
Basierend auf der Teststatistik
T = XpnS−/µn
0
(Beachte:
2
n
T
und dem vorgegebenen Niveau
ist asymptotisch
α
N( ,
fällt die Entscheidung für
Testproblem,
1
falls
2
falls
3
falls
T z
T < −z
T >z
| |>
0 1) verteilt, falls
µ = µ0 )
H
1 im
1−α/2
1−α
1−α
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
353 / 464
11. Spezielle Tests
11.2. Einstichprobentests
Der Test wird genauso durchgeführt wie ein Gauÿ-Test, aber es ist nur ein
nährungsweise
α,
µ = µ0 .
approximativer Test zum Niveau
gleich
α
für
d.h. der Fehler 1. Art ist nur
Beispiel (fortgesetzt): Getreideockenabfüllung.
Hypothesen:
H :µ= =µ
t = px̄ −s µ/n = p
n
300
0
Teststatistik:
0 gegen
0
2
Ablehnung der Nullhypothese:
Entscheidung: Da
t
296
12.52 /100
z
0 ablehnen, wenn
| | = 3.2 > 2.57
1
− 300
α = 0.01,
H
H : µ 6=
1−α/2
300 .
= −3.2
=
t
z
0.995
= 2.57.
| | > 2.57
ist, ist die Nullhypothese zum
Signikanzniveau 0.01 abzulehnen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
354 / 464
11. Spezielle Tests
11.2. Einstichprobentests
χ2 -Test für kategoriale Merkmale
Merkmale sind die Eigenschaften, für die wie uns bei
Untersuchungsobjekten interessieren. Kategoriale Merkmale nehmen nur
endliche viele verschiedene Werte (Ausprägungen) an und werden mit
diskreten Zufallsvariablen beschrieben.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
355 / 464
11. Spezielle Tests
11.2. Einstichprobentests
Beispiel: Parteipräferenz.
B
C
n=
In einem Land gingen bei der letzten Wahl 40% der Stimmen an Partei
35% an Partei
und 25% an Partei
.
A
,
Eine Woche vor der aktuell anstehenden Wahl ergab eine
A
B
C
Stichprobenbefragung vom Umfang
42% für Partei
38% für Partei
20% für Partei
,
500 folgende Verteilung:
und
.
Hat sich die Wahlpräferenz gegenüber der letzten Wahl (signikant)
Aufgabe:
verändert?
Vergleiche zweier diskreter Verteilungen, nämlich der
Stimmenverteilung bei der letzten Wahl mit der Verteilung, die sich aus der
Stichprobenbefragung ergibt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
356 / 464
11.2. Einstichprobentests
11. Spezielle Tests
Wahlergebnis im Jahr 2000
Partei
πi
i
1
2
3
0.40
0.35
0.25
Umfrage im Jahr 2004
Partei
fi
i
1
2
3
0.42
0.38
0.20
Die Nullhypothese ist hierbei, dass sich die Verteilung der Stimmen im
fi
Vergleich zur Vorwahl nicht verändert hat. Dann sollten unter der
Nullhypothese die relativen Häugkeiten
Wahrscheinlichkeiten
πi
übereinstimmen.
relativ gut mit den
Geben die beobachteten Abweichungen zwischen
X ...
fi
und
πi
Anlass,
i=
anzunehmen, dass sich die Verteilung der Wählergunst verschoben hat?
diskrete Zufallsvariable, die gewählte Partei angibt (
X , . . . , Xn
Hypothese:
H :p
u.i.v wie
1
0
1
= π1
Jürgen Dippon (ISA)
X
P (X = i ) = pi , i =
1, 2, 3),
1, 2, 3 .
.
und
p
2
= π2
und
p
3
= π3
gegen
Statistik für Wirtschaftswissenschaftler
H :H
1
0 ist falsch.
13. September 2010
357 / 464
11.2. Einstichprobentests
11. Spezielle Tests
Ni
sei die Anzahl der Wähler der Stichprobe, die sich für Partei
N
entschieden haben.
p
p̂i = Ni /n
k
⇒ i ∼ Bin(500, i )
Dann sind die relativen Häugkeiten
geeignete Schätzer für
Es kann gezeigt werden (ohne Herleitung):
χ2 =
falls
H
N n
n
n
N n
n (p̂i −πiπi )
3
3
3
X
X
X
( i − πi )2
( i / − πi )2
=
=
πi
πi
i =1
i =1
i =1
0 wahr ist.
Es gilt: Groÿe Werte von
χ2
πi
und den relativen Häugkeiten
Bei groÿer Übereinstimmung sind die Werte von
χ2
Statistik für Wirtschaftswissenschaftler
dagegen klein.
13. September 2010
.
∼ χ22 ,
treten auf bei groÿen Abweichungen
zwischen den Wahrscheinlichkeiten
Jürgen Dippon (ISA)
2
pi
Ni /n
.
358 / 464
11.2. Einstichprobentests
11. Spezielle Tests
Anmerkung:
Wegen
N +N +N
1
2
3
= 500
Falls sie unabhängig wären, hätte unter
3
=1
Jürgen Dippon (ISA)
Ni
nicht unabhängig!
0 gegolten:
N n
N( , )
n
X (Ni − nπi )
=
χ
n πi ( − πi )
i
− πi
p i
πi (1 − πi )
⇒ χ2
H
sind die
asymp.
0 1 -verteilt
2
1
asymp.
Statistik für Wirtschaftswissenschaftler
3
3 -verteilt.
13. September 2010
359 / 464
11.2. Einstichprobentests
11. Spezielle Tests
χ2 -Anpassungstest
Seien
X , . . . , Xn
1
u.i.v. wie
X
, wobei
X
diskret mit Träger
k
T = {1, . . . , }.
Wir betrachten folgendes Testproblem
H P (X = i ) = πi , i =
H P (X = i ) 6= πi
0:
gegen
(In
1:
H
χ
n πi ≥
1, . . . ,
k
, für mindestens ein
H
n πi ≥
i ∈T
.
0 kann implizit eine hypothetische Verteilung enthalten sein!)
2
2
Beachte:
−1 falls 0 wahr ist. Die Approximation ist anwendbar,
falls
∼ χk
1 für alle
,
i
und
5 für mindestens 80% des Trägers ist.
Basierend auf der Teststatistik
n n
n
k
X
( i − πi )2
χ =
πi
i =1
2
und dem vorgegebenen Niveau
wobei
qk
α
fällt die Entscheidung für
q
H
1 , falls
χ2 > k −1,1−α ,
−1,1−α das (1
Jürgen Dippon (ISA)
− α)-Quantil
der
χ2k −1 -Verteilung
Statistik für Wirtschaftswissenschaftler
bezeichnet.
13. September 2010
360 / 464
11. Spezielle Tests
11.2. Einstichprobentests
Beispiel: Parteipräferenz.
X ,...,X
H P (X = i ) = πi
i
X (Ni − nπi )
χ =
n πi
i
α= .
c =q = .
H P (X = i ) 6= πi
500 unabhängig und identisch verteilt wie X
1
Testproblem:
0:
ein
gegen
3
Teststatistik:
2
2
1:
∼ χ22 ,
=1
Signikanzniveau:
2,0.95
χ2 > 5.99,
5 99
verwerfe
Wert der Teststatistik
χ2 =
⇒
H
(210 − 200)2
200
H
0 wahr ist.
0 05
Kritischer Wert:
Testprozedur: Falls
falls
für mindestens
+
(190 − 175)2
175
H
0 , sonst nicht.
+
(100 − 125)2
125
= 6.79 > 5.99
0 wird verworfen, d.h., das Wahlverhalten hat sich signikant
verändert.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
361 / 464
11.3. Zweistichprobentests
11. Spezielle Tests
Zweistichprobentests
Beispiel: Autopreise.
US-Behörden haben japanischen Autoherstellern vorgeworfen, ihre Autos in
Japan teurer zu verkaufen als in den USA und auf diese Weise die
x ,...,x
US-Verkäufe zu subventionieren. Ein Ökonom hat die Verkaufspreise (in
Tausend US-$) von vergleichbaren Autos ausgewertet.
y ,...,y
1
50
bezeichnen die Verkaufspreise an 50 Standorten aus den USA und
1
30 die Verkaufspreise an 30 Standorten in Japan. Dann ergaben
sich folgende Werte
n
x̄ = n X xi =
16.596,
ȳ = m yi =
17.250,
1
1
i =1
m
X
i =1
sX = n −
2
n
X
1
1
sY = m −
2
1
1
x x̄ s
( i − )2 , X =
i =1
m
X
i =1
y ȳ s
q
( i − )2 , Y =
sX =
2
1.981
sY =
q
2
1.865
Unterschiede in den Mittelwerten sind festzustellen. Können diese
Unterschiede auch zufällig zustande gekommen sein oder sprechen sie für
niedrigere Verkaufspreise in den USA?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
362 / 464
11. Spezielle Tests
11.3. Zweistichprobentests
Statistisches Modell:
X
Y
E (X ) = µX
E (Y ) = µY
n=
x , . . . , xn
X , . . . , Xn
y , . . . , ym
. . . Verkaufspreis in den USA,
. . . Verkaufspreis in Japan.
Zu vergleichen sind
. . . Durchschnittspreis in den USA und
. . . Durchschnittspreis in Japan.
Die
50 Beobachtungen
Zufallsvariablen
1
1
m=
zu den USA-Preisen werden mit
beschrieben, die
zu den Japan-Preisen werden mit Zufallszahlen
1
beschrieben.
X , . . . , Xn ∼ N (µX , σX )
Y , . . . , Ym ∼ N (µY , σY )
X , . . . , Xn, Y , . . . , Ym
X , . . . , Xn Y , . . . , Ym
Annahmen bzgl. der Verteilung der
2
1
Xi , Yj
Y , . . . , Ym
30 Beobachtungen
1
:
2
1
1
stochastisch unabhängig.
1
Da die
1
man von einem
bzw.
1
unterschiedlich verteilt sind, spricht
Zweistichprobenproblem.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
363 / 464
11. Spezielle Tests
11.3. Zweistichprobentests
Ziel der Untersuchung: Vergleich der Erwartungswerte. Ist ∆ = µX − µY
gleich Null, gröÿer oder kleiner Null oder nimmt die Dierenz einen
bestimmten Wert an?
Schätzen von
X̄ Ȳ
ˆ = E (X̄n − Ȳm ) = µX − µY
E (∆)
ˆ = Var (X̄n − Ȳm ) = σX + σY
Var (∆)
n m
ˆ = n − m.
∆: ∆
Für den Schätzer gilt:
2
2
Der Schätzer ist als Linearkombination von unabhängigen normalverteilten
Zufallsvariablen wieder normalverteilt.
X̄ Ȳ N µX − µY , n + m
X̄n − Ȳqm − (µX − µY ) ∼ N ( , )
⇒Z =
ˆ = n− m∼
⇒∆
2
σX
2
σY
n + m
σX2
σY2
0 1
(Standardisierung)
Ausgehend von dieser Verteilungsaussage lassen sich Tests konstruieren.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
364 / 464
11. Spezielle Tests
11.3. Zweistichprobentests
Einige Vorüberlegungen:
Von Interesse:
Z.B.:
Falls
δ0 = 0
µX − µY = δ0 ?
(sind Durschnittspreise gleich?)
µX − µY = δ0 ,
gilt:
Z = X̄qn −XȲm −Yδ ∼ N ( ,
0
σ2
σ2
0 1)
n + m
Es gilt:
Groÿe bzw. kleine Werte von
nahe 0 nicht.
Z
sprechen gegen
µX − µY = δ0 ,
Werte
Wie im Einstichprobenfall können analog einseitige Testprobleme der Form
µX − µY ≥ δ0
bzw.
Jürgen Dippon (ISA)
µX − µY ≤ δ0
behandelt werden.
Statistik für Wirtschaftswissenschaftler
13. September 2010
365 / 464
11.3. Zweistichprobentests
11. Spezielle Tests
Zweistichproben-Gauÿ-Test (bekannte Varianz)
X , . . . , Xn
N (µY , σY )
X , . . . , Xn
H : µX − µY = δ
H : µX − µY ≥ δ
H : µX − µY ≤ δ
Seien
N (µX , σX )
Y , . . . , Ym
Y , . . . , Ym
∆ = µX − µY
H : µX − µY 6= δ
H : µX − µY < δ
H : µX − µY > δ
Z = √X̄nX Ȳn m Y m
H
2
unabhängig
1
2
unabhängig
Auÿerdem seien
1
-verteilt und
1
-verteilt.
,
unabhängig.
1
Wir betrachten folgende Testprobleme über den Parameter
1
2
3
0
0 gegen
1
0,
0
0 gegen
1
0,
0
0 gegen
1
Basierend auf der Teststatistik
Niveau
α
1
falls
2
falls
3
falls
fällt die Entscheidung für
z z
z < −z
z >z
| |>
:
0.
− −δ0
σ 2 / +σ 2 /
und dem vorgegebenen
1 im Testproblem,
1−α/2 ,
1−α ,
1−α .
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
366 / 464
11.3. Zweistichprobentests
11. Spezielle Tests
Problem:
σX2
und
σY2
in der Regel unbekannt
1. Lösungsansatz: Approximatives Vorgehen bei groÿen Stichproben
Angenommen
n, m >
30, falls
µX − µY = δ0 ,
T = X̄qn −SXȲm −SYδ
2
asymptotisch
0
2
n + m
N( ,
0 1)-verteilt, wobei
SX = n −
2
dann ist
n
X
1
1
Jürgen Dippon (ISA)
i =1
X X̄
2
( i − n)
und
SY = m −
2
m
X
1
Statistik für Wirtschaftswissenschaftler
1
i =1
Y Ȳ
( i − m )2
13. September 2010
367 / 464
11.3. Zweistichprobentests
11. Spezielle Tests
2. Lösungsansatz: Unbekannte, aber gleiche Varianzen.
Zusätzliche Annahme:
σX2 = σY2 ,
dann ist
T = X̄qn − Ȳm − δ ∼ tn
( n + m )SP
0
1
falls
µX − µY = δ0 ,
1
2
+m −2
wobei
Sp = n + m − (n − )SX + (m − )SY 2
1
2
1
2
1
2
(gepoolte Schätzung der Varianz)
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
368 / 464
11. Spezielle Tests
11.3. Zweistichprobentests
Approximativer Zweistichproben-Gauÿ-Test (beliebige
Varianz)
Seien
X , . . . , Xn
X Y , . . . , Ym
X , . . . , Xn Y , . . . , Ym
u.i.v. wie
1
Auÿerdem seien
und
,
1
1
u.i.v. wie
Y
n, m >
.
unabhängig und
1
Die zu überprüfenden Hypothesen seien wie beim
30.
Zweistichproben-Gauÿ-Test bzw. Zweistichproben-t-Test.
Basierend auf der Teststatistik
Z = qX̄n − Ȳm − δ
σX /n + σY /m
0
2
2
bzw.
Testproblem,
1
falls
2
falls
3
falls
z z
z z
z z
2
0
2
n + m
(bekannte Varianzen)
Und dem vorgegebenen Niveau
T = X̄qn −SXȲm −SYδ
(unbekannte Varianzen)
α
fällt die Entscheidung für
t z
t z
t z
H
1 im
| | > 1−α/2 bzw. | | > 1−α/2 ,
< − 1−α bzw. < − 1−α ,
> 1−α bzw. > 1−α .
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
369 / 464
11.3. Zweistichprobentests
11. Spezielle Tests
Zweistichproben-t-Test, unbekannte aber gleiche Varianzen
Annahmen und Hypothesen im Fall bekannter Varianzen mit der
zusätzlichen Annahme
σX2 = σY2 .
Basierend auf der Teststatistik
T = X̄qn − Ȳm − δ
( n + m )SP
n
Sp = n + m − X(Xi − X̄n)
0
1
1
wobei
2
1
2
2
2
=
1
n+m−
2
i =1
n
S
2
α
i =1
1
falls
2
falls
3
falls
t t
t t
t t
2
fällt die Entscheidung für
Testproblem,
1
Y Ȳ
!
2
( i − m)
m − )SY ( − 1) X + (
und dem vorgegebenen Niveau
+
m
X
H
1 im
| | > n+m−2,1−α/2 ,
< − n+m−2,1−α ,
> n+m−2,1−α .
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
370 / 464
Falls
n, m >
11. Spezielle Tests
t
11.3. Zweistichprobentests
30, kann dieser Test auch für beliebige Verteilungen verwendet
werden. Man ersetze dafür die
-Quantile durch Normalverteilungsquantile.
Beispiel: Autopreise
Wir gehen davon aus, die Daten sind näherungsweise normalverteilt mit
X , . . . , Xn ∼ N (µX , σX ) Y , . . . , Ym ∼ N (µY , σY )
X , . . . , Xn Y , . . . , Ym
H : µX − µY ≥
H : µX − µY <
gleichen Varianzen (die entsprechenden Schätzer sind nahezu gleich groÿ).
1
2
st.u.
1
,
Hypothesen:
,
2
st.u.
1
,
st.u.
1
0 gegen
0
0
1
Teststatistik
sp = n + m − (n − )sX + (m − )sY 1
2
2
=
Jürgen Dippon (ISA)
49
1
2
1
2
· 1.9812 + 29 · 1.8652
= 3.7585
49 + 29
Statistik für Wirtschaftswissenschaftler
13. September 2010
371 / 464
11. Spezielle Tests
t = q x̄ − ȳ
1
s
1
16.596
2
(n + m) P
Signikanzniveau:
Kritischer Wert:
=q
3.7585
− 17.250
·(
1
50
+
1
30
= −1.4607
)
α = 0.05
t
−
Testprozedur: Falls
H
11.3. Zweistichprobentests
78,0.95
z
≈−
t<− .
0.95
= −1.64
1 64, verwerfe
H
0 , sonst nicht.
0 wird nicht verworfen, d.h. ein signikanter Preisunterschied bei den
Autopreisen ist nicht nachweisbar.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
372 / 464
11. Spezielle Tests
11.3. Zweistichprobentests
Verbundene Stichproben
Beispiel: Pupillometer
Mit einem Pupillometer kann man die Erweiterung (Dilatation) der Pupillen
des Auges messen. Studien haben einen Zusammenhang zwischen
Dilatation und Interesse am beobachteten Objekt festgestellt. 10
repräsentativ für die untersuchte Zielgruppe ausgewählten Personen werden
zwei Besteck-Muster gezeigt und die Pupillendilatation gemessen.
Die Tabelle gibt die Messwerte der 10 Personen an. Es ist davon
auszugehen, dass die einzelnen Personen individuell zu unterschiedlich
starken Pupillendilatationen neigen.
Gibt es einen signikanten (α
= 0.05)
Unterschied der Reaktion der
Kunden auf die Muster?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
373 / 464
11. Spezielle Tests
Jürgen Dippon (ISA)
11.3. Zweistichprobentests
No.
Muster 1
Muster 2
1
1
0.8
2
0.97
0.66
3
1.45
1.22
4
1.21
1
5
0.77
0.81
6
1.32
1.11
7
1.81
1.3
8
0.91
0.32
9
0.98
0.91
10
1.46
1.1
Statistik für Wirtschaftswissenschaftler
13. September 2010
374 / 464
11. Spezielle Tests
XY
Es wurden Paare an Daten
( i, i)
xy
( i, i)
11.3. Zweistichprobentests
erhoben, die mit Zufallsvariablen
beschrieben werden. Es soll überprüft werden, ob im Mittel für
beide Muster eine gleiche Reaktion gemessen wurde. Die Annahme
X , . . . , Xn
1
u.i.v. bzw.
Y , . . . , Yn
1
u.i.v.
ist aber nicht mehr angemessen, da dem individuellen Dilatationspotential
nicht Rechnung getragen wird. Stattdessen betrachten wir
Zi = Xi − Yi
und gehen davon aus, dass die individuellen Schwankungen
wegsubtrahiert werde.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
375 / 464
11. Spezielle Tests
Ansatz:
Statistisches Modell:
Dass die Dierenzen
11.3. Zweistichprobentests
Zi ∼ N (∆, σ )
Zi
2
u.i.v.
u.i.v. sein sollen, ist auch eine
Modellvereinfachung, die aber oft als akzeptabel angesehen wird.
Die unterschiedlichen Mustereinüsse werden im Mittel durch den
Erwartungswert
∆
der Dierenzen erfasst.
Ein groÿer Vorteil dieses Ansatzes: Hypothesen über
dem Gauÿ-Test bei bekanntem
σ2
σ2,
∆
kann man mit
mit dem t-Test bei unbekanntem
und mit dem approximativen Gauÿ-Test bei groÿen Stichproben
durchführen.
Beispiel: σ 2
unbekannt
Jürgen Dippon (ISA)
⇒
Einstichproben-t-Test
Statistik für Wirtschaftswissenschaftler
13. September 2010
376 / 464
11.3. Zweistichprobentests
11. Spezielle Tests
t-Test für verbundene Stichproben
Zi = Xi − Yi
Es seien
Z , . . . , Zn
und
1
Zufallsvariablen.
N (∆, σ )
2
unabhängig
Wir betrachten folgende Testprobleme über den Parameter
1
2
3
H
H
H
0
0
0
: ∆ = ∆0
: ∆ ≥ ∆0
: ∆ ≤ ∆0
gegen
gegen
gegen
H
H
H
1
1
1
-verteilte
∆:
: ∆ 6= ∆0
: ∆ < ∆0
: ∆ > ∆0
Basierend auf der Teststatistik
T = Z̄nq−SZ∆
2
wobei
SZ
2
n
0
=
√
n Z̄n S−Z ∆
T ∼ tn
0
die Stichprobenvarianz der
(
Zi
−1 , falls
bezeichnet, und dem vorgegebenen
α wird die Nullhypothese abgelehnt,
| | > n−1,1− α2
2 falls
< − n−1,1−α
3 falls
> n−1,1−α
2
Analog: σ bekannt: Gauÿ-Test;
groÿ: approximativer
Signikanzniveau
1
falls
T t
T t
T t
Jürgen Dippon (ISA)
n
∆ = ∆0 ),
Statistik für Wirtschaftswissenschaftler
Gauÿ-Test
13. September 2010
377 / 464
11.3. Zweistichprobentests
11. Spezielle Tests
Beispiel: Pupillendilatation.
Zi = Xi − Yi
z ,...,z
Wir gehen davon aus, die Dierenzen
normalverteilt, und führen für die
No.
zi
1
0.2
Hypothese:
Hilfsgröÿen:
2
0.31
3
0.23
H :∆=∆ =
n = z̄ = .
t = z̄n sz =
0
0
10,
Kritischer Wert
tn
n
−1,1− α
2
Jürgen Dippon (ISA)
=
5
-0.04
6
0.21
H
: ∆ 6= 0
0 gegen
0 265,
−∆0
q
2
Teststatistik:
1
4
0.21
0.265−0
q
0.03547
10
t
1
sz =
2
sind näherungsweise
10 einen t-Test durch.
7
0.51
8
0.59
9
0.07
10
0.36
0.03547.
= 4.45.
10−1,1− 0.205
=
t
9,0.975
= 2.2622
Statistik für Wirtschaftswissenschaftler
13. September 2010
378 / 464
11. Spezielle Tests
C = (−∞, −tn
Ablehnungsbereich:
)
−1,1− α
2
Testentscheidung: Da
Niveau
α = 0.05.
11.3. Zweistichprobentests
t
∪ ( n−1,1− α2 , ∞) = (−∞, −2.2622) ∪ (2.2622, ∞)
t t
| |>
9,0.975 bzw.
t∈C
wird
H
0 abgelehnt zum
Es gibt eine signikant unterschiedliche Reaktion auf beide Besteck-Muster.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
379 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
Zusammenhangsanalyse
Unabhängigkeit von diskreten Merkmalen
Wie kann man die Unabhängigkeit von zweidimensionalen diskreten
Zufallsvariablen nachprüfen?
Beispiel: Sonntagsumfrage
Im Rahmen einer Sonntagsumfrage wurden 931 Personen bzgl. ihrer
Parteienpräferenz befragt.
CDU/CSU
SPD
FDP
Grüne
Rest
Summe
Männer
144
153
17
26
95
435
Frauen
200
145
30
50
71
496
Summe
344
298
47
76
166
931
Besitzen Männer und Frauen eine unterschiedliche Parteienpräferenz oder
kann man die Abweichungen auch durch Zufall erklären?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
380 / 464
11.4. Zusammenhangsanalyse
11. Spezielle Tests
Vorüberlegungen:
xk
k
yk
x y ), . . . , (xn, yn)
(X , Y ), . . . , (Xn , Yn ) (X , Y )
(Xk , Yk )
Von jeder Person (Untersuchungsklassenobjekt
Geschlecht (
) und die Parteienpräferenz (
also Datenpaare
( 1,
) werden das
) erfasst. Wir erfassen
.
1
Die Datenpaare werden statistisch beschrieben mit zweidimensionalen
diskreten u.i.v. Zufallsvektoren
verteilt wie
1
.
1
sei
. Die Merkmale Geschlecht und Partei werden
hierbei durch Zahlen kodiert.
Beschreibung der Verteilung mit Einzelwahrscheinlichkeiten:
P (X = i , Y = j ) = pij , i =
1, 2,
j=
1, . . . , 5
Die Randverteilungen sind dann gegeben durch
P (X = i ) = pi , P (Y = j ) = p j
·
mit
pi = pi
·
Jürgen Dippon (ISA)
1
p
+ · · · + i5
·
und
pj =p j +p j
·
Statistik für Wirtschaftswissenschaftler
1
2
13. September 2010
381 / 464
11.4. Zusammenhangsanalyse
11. Spezielle Tests
und
Unabhängigkeit von
j=
Es soll
1, . . . , 5 muss gelten
X
und
Y
überprüft werden, d.h. für
i=
1, 2
P (X = i , Y = j ) = P (X = i ) · P (Y = j )
pij = pi · p j
·
·
Plausibilitätsbetrachtungen zur Konstruktion eines Tests:
Nach obigen Überlegungen würde ein Ausdruck der Form
2 X
5
X
i =1 j =1
p pp
( ij − i · ·j )2
Null werden im Falle der Unabhängigkeit und sonst gröÿer als Null sein.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
382 / 464
11. Spezielle Tests
pij , pi , p j
Nij =
(Xk , Yk ) k = , . . . , n
Ni =
k = ,...,n
Nj =
k = ,...,n
Wir ersetzen
11.4. Zusammenhangsanalyse
· durch Schätzer:
·
(zufällige) Anzahl des Auftretens von
,
1
,
(zufällige) Anzahl des Auftretens von
·
1
,
(zufällige) Anzahl des Auftretens von
·
1
Jürgen Dippon (ISA)
ij
(, )
i
j
Statistik für Wirtschaftswissenschaftler
als Wert von
als Wert von
als Wert von
Xk
Yk
13. September 2010
,
,
383 / 464
11.4. Zusammenhangsanalyse
11. Spezielle Tests
P (X = i , Y = j ) = pij ⇒ Nij ∼ B (n, pij ) ⇒ p̂ij = Nnij
P (X = i ) = pi ⇒ Ni ∼ B (n, pi ) ⇒ p̂i = Nni
P (Y = j ) = p j ⇒ N j ∼ B (n, p j ) ⇒ p̂ j = Nnj
·
·
·
·
·
·
·
·
·
·
Mit geeigneter Normierung lässt sich die folgende Aussage zeigen:
n · X X (p̂ij −p̂i p̂p̂i jp̂ j )
2
χ2 =
5
i =1 j =1
asymptotisch
Jürgen Dippon (ISA)
· ·
· ·
2
2
=
5
XX
i =1 j =1
Nij − Ni nN j
·
·
2
Ni · N·j
n
χ2(2−1)(5−1) = χ24 -verteilt
Statistik für Wirtschaftswissenschaftler
13. September 2010
384 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
χ2 -Unabhängigkeitstest
Seien
X , Y ), . . . , (Xn, Yn)
k
(
1
1
nehmen
k m)
Ym
u.i.v. zweidimensionale diskrete
Zufallsvektoren gruppiert in einer
( ×
verschiedene Wert an und die
betrachten das Testproblem
H :X
H :X
0
1 und
1
1 und
Jürgen Dippon (ISA)
-Kontingenztafel, d.h. die
1
X
1
verschiedene Werte. Wir
Y
Y
1 sind stochastisch unabhängig
gegen
1 sind nicht stochastisch unabhängig.
Statistik für Wirtschaftswissenschaftler
13. September 2010
385 / 464
11.4. Zusammenhangsanalyse
11. Spezielle Tests
Basierend auf der Teststatistik
χ2 =
m
k X
X
Nij − Ni nN j
i =1 j =1
und dem vorgegebenen Signikanzniveau
falls
wobei
qk
χ2 >
( −1)(m−1),1−α das (1
·
·
2
Ni · N·j
n
α
fällt die Entscheidung für
qk
H
1,
( −1)(m−1),1−α ,
− α)-Quantil
der
χ2(k −1)(m−1) -Verteilung
bezeichnet.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
386 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
Bemerkung: Gemäÿ der Plausibilitätsüberlegungen nimmt χ2
X
Abhängigkeit von
1 und
Y
1 groÿe Werte an.
Beispiel: Sonntagsumfrage.
X
bezeichne das Geschlecht und
Hypothesen:
H :X
H :H
0
1
und
im Falle der
Y
Y
die Parteienpräferenz.
sind stochastisch unabhängig
0 ist falsch
Teststatistik:
χ2 =
2 X
5
X
i =1 j =1
Jürgen Dippon (ISA)
Nij − Ni nN j
·
Ni · N·j
n
·
2
asymptotisch
Statistik für Wirtschaftswissenschaftler
χ24 -verteilt
13. September 2010
387 / 464
11. Spezielle Tests
Nij
Hij
Eij
Männer
Frauen
Summe
= Ni · N·j /n
⇒
CDU/CSU
144
200
344
SPD
153
145
298
FDP
17
30
47
Grüne
26
50
76
Rest
95
71
166
160.73
183.27
139.24
158.76
21.96
25.04
35.51
40.49
77.56
88.44
1.74
1.53
1.36
1.19
1.12
0.98
2.55
2.23
3.92
3.44
= (Nij − Hij )2 /Hij
Hier ist
11.4. Zusammenhangsanalyse
χ2 = 20.26 =
P
Eij
Summe
435
496
931
wobei der Quantilwert 9.49 beträgt.
Es besteht ein signikanter Zusammenhang zwischen Geschlecht und
Parteienpräferenz.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
388 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
Test auf Unkorreliertheit und zweidimensionale
Normalverteilung
Beispiel: Blutdruckdaten. Für 15 zufällig ausgewählte Frauen wurde das
Alter
x
( i)
festgestellt und der Blutdruck
y
( i)
gemessen. Gibt es einen
Zusammenhang zwischen diesen beiden Merkmalen?
i
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Jürgen Dippon (ISA)
Alter (
47
52
30
35
59
44
63
38
49
41
32
55
46
51
63
xi )
Blutdruck
129
139
112
119
145
133
152
117
145
136
115
137
134
141
157
( yi )
Statistik für Wirtschaftswissenschaftler
13. September 2010
389 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
Wir haben den Korrelationskoezienten als lineares Zusammenhangsmaÿ
x y ), . . . , (xn, yn)
(X , Y ), . . . , (Xn , Yn )
zwischen zwei Zufallsvariablen kennen gelernt.
Wir fassen die Datenpaare
( 1,
als Realisierung der
1
zweidimensionalen u.i.v. Zufallsvektoren
1
1
auf. Wie
schätzen wir den Korrelationskoezienten?
1. Schritt: Schätzen der Kovarianz. Nach der Verschiebungsregel gilt
σxy =
Cov (X , Y ) = E (XY ) − E (X )E (Y )
Erwartungswerte kann man gut durch arithmetische Mittel schätzen, also
n
n
n
M̂XY = n X Xi Yi , M̂X = n X Xi , M̂Y = n X Yi .
1
i =1
Jürgen Dippon (ISA)
1
i =1
Statistik für Wirtschaftswissenschaftler
1
i =1
13. September 2010
390 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
Damit ist die Analogie zur so genannten Momentenschätzmethode
S̃XY = M̂XY − M̂X · M̂Y = n
1
ein
Schätzer für
Cov (X , Y )
n
X
i =1
X X̄ Y Ȳ
( i − n )( i − n )
. Durch Änderung des Vorfaktors wird der
Schätzer erwartungstreu,
Sxy = n −
n
X
1
1
i =1
Jürgen Dippon (ISA)
X X̄ Y Ȳ
( i − n )( i − n ) =
n
X
1
n−
1
i =1
Statistik für Wirtschaftswissenschaftler
Xi Yi − n · X̄n · Ȳn
13. September 2010
!
391 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
2. Schritt Schätzen des Korrelationskoezienten.
Ausgehend von der Denition
%XY = p
Cov (X , Y )
Var (X ) · Var (Y )
setzen wir für die Kovarianz und die Varianzen Schätzer ein:
RXY = qSXY
S X SY
2
mit
SX = n −
2
Jürgen Dippon (ISA)
n
X
1
1
i =1
X X̄
2
( i − n) ,
2
SY = n −
2
n
X
1
Statistik für Wirtschaftswissenschaftler
1
i =1
Y Ȳ
( i − n)
13. September 2010
392 / 464
11. Spezielle Tests
D.h.
RXY = qSXY
SX SY
2
11.4. Zusammenhangsanalyse
2
X X̄ Y Ȳ
X X̄
Y Ȳ
X X̄ Y Ȳ
X X̄
Y Ȳ
Pn
1
i =1 ( i − n )( i − n )
n
−1
=q
P
Pn
n
1
1
2
2
n −1 i =1 ( i − n ) · n −1 i =1 ( i − n )
Pn
( i − n )( i − n )
= qP i =1
n ( − )2 · Pn ( − )2
n
n
i =1 i
i =1 i
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
393 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
Beispiel: Blutdruckdaten.
Für den angegebenen Datensatz bekommen wir folgenden Schätzwert für
den Korrelationskoezienten:
x̄ =
X
i
s
s
s
ȳ =
47,
yi
2
X
134.07,
= 272175,
i
X
i
xi
2
= 34685
xi yi =
96387
x nx̄
n
y nȳ
n
x y nx̄ ȳ
n
P 2
2
2
34685 − 15 · 47
i i −
=
=
= 110.714,
X
−1
14
P 2
2
2
272175 − 15 · 134.07
2
i i −
=
= 182.395,
Y =
14
P −1
96387 − 15 · 47 · 134.07
2
i i i−
=
= 133.404,
XY =
−1
14
2
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
394 / 464
11. Spezielle Tests
rXY = qsXY = √
sX sY
2
2
Der Schätzwert spricht für einen
11.4. Zusammenhangsanalyse
133.404
110.714
· 182.395
= 0.939
starken positiven Zusammenhang. Ist der
Korrelationskoezient signikant von Null verschieden oder könnte dieser
Wert auch zufällig zustande gekommen sein?
X
Y
Um derartige Fragen beantworten zu können, brauchen wir eine geeignete
Beschreibung der gemeinsamen Verteilung von
über die 2-dimensionale Normalverteilung.
Jürgen Dippon (ISA)
und
Statistik für Wirtschaftswissenschaftler
, siehe Abschnitt
13. September 2010
395 / 464
11.4. Zusammenhangsanalyse
11. Spezielle Tests
Korrelationstest
Seien
X , Y ), . . . , (Xn, Yn)
(
1
1
gemeinsam normalverteilte, u.i.v.
Zufallsvektoren.
Wir betrachten folgende Testprobleme über die Korrelation
1
2
3
H
H
H
0
0
0
: ρXY = 0
: ρXY ≥ 0
: ρXY ≤ 0
gegen
gegen
gegen
H
H
H
1
1
1
: ρXY =
6 0,
: ρXY < 0,
: ρXY > 0.
Basierend auf der Teststatistik
T = q Rxy
1
T t
und dem vorgegebenen Niveau
∼ n −2
| | > n−2,1− α2 ,
< − n−2,1−α ,
> n−1,1−α .
Testproblem (hier gilt
1
falls
2
falls
3
falls
α
T t
T t
T t
Jürgen Dippon (ISA)
R
2
− xy
√
n−
2
fällt die Entscheidung für
falls
ρXY = 0),
Statistik für Wirtschaftswissenschaftler
H
1 im
13. September 2010
396 / 464
11. Spezielle Tests
11.4. Zusammenhangsanalyse
Beispiel: Blutdruckdaten.
rXY = .
H : ρXY 6=
Für den angegebenen Datensatz bekommen wir folgenden Schätzwert für
den Korrelationskoezienten
Hypothese:
H
Teststatistik:
0
: ρXY = 0
0 939.
gegen
t = √n − √ rxyrxy = √
tn
=t
|t | = . > .
Kritischer Wert:
2
1−
−2,1− α
2
Testentscheidung: Da
2
15
15−2,1− 0.201
9 82
0
1
= 9.82
− 2 √10−.939
0.9392
=
t
13,0.995
= 3.0123.
3 0123 ist die Nullhypothese der
Unkorreliertheit abzulehnen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
397 / 464
12. Lineare Regression
9
Parameterschätzung
10
Testen von Hypothesen
11
Spezielle Tests
12
Lineare Regression
Einfache lineare Regression
Methode der kleinsten Quadrate
Gütemaÿ für die Anpassung der Geraden
Stochstatisches Modell
13
Zeitreihen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
398 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Einfache lineare Regression
Beispiel: Rohöl und Benzinpreise
yi
Die folgenden Daten geben die mittleren Rohöl-Preise
und Benzinpreise
Jürgen Dippon (ISA)
(in Cent/Gallone) wieder:
yi
xi
(in Dollar/Barrel)
xi
i
Jahr i
1
1980
125
28.07
2
1981
138
35.24
3
1982
129
31.87
.
.
.
.
.
.
.
.
.
.
.
.
21
2000
151
28.26
22
2001
146
22.96
Statistik für Wirtschaftswissenschaftler
13. September 2010
399 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Zu diesen Daten stellen sich einige Fragen:
Ist ein Zusammenhang zwischen Rohölpreis und Benzinpreis
feststellbar?
Welchen Benzinpreis würde man im Mittel anhand der Daten
prognostizieren, wenn der Rohölpreis auf 50$ pro Barerel steigt?
In welchem Bereich würde der Benzinpreis nicht nur sein
Erwartungswert mit groÿer Wahrscheinlichkeit liegen?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
400 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Schritt 1: Veranschaulichung mit Hilfe eines Streudiagramms
Abbildung: Darstellung der Daten als Streudiagramm
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
401 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Schritt 2: Vermutung über Zusammenhang anstellen.
Nicht unerwartet korrespondieren gröÿere Ölpreise mit höheren
xy
xi
yi
Benzinpreisen. Man könnte näherungsweise einen linearen Zusammenhang
mutmaÿen. Seien
( i, i)
die Datenpaare, wobei
den Benzinpreisen entspricht, dann gilt:
wobei die
ei
yi = a + bxi + ei
die Abweichungen von der Gerade
den Rohölpreisen und
a + bx
beschreiben.
Schritt 3: Ermittlung einer Geraden, die den Zusammenhang zwischen den
Daten möglichst gut beschreibt.Dazu wird die Methode der kleinsten
Quadrate verwendet.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
402 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Methode der kleinsten Quadrate
Ausgehend von der Beziehung:
yi = a + bxi + ei , ei = yi − (a + bxi )
Fehler (Residuum)
sucht man nach einer Gerade, für die alle Fehlerterme (error)
klein werden. Das erreicht man z.B. in dem man
n
n
ei
möglichst
Q (a, b) := X ei = X [yi − (a + bxi )]
i =1
2
2
i =1
minimiert. Wir gehen im Folgenden davon aus, dass die
identisch sind.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
xi
nicht alle
13. September 2010
403 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Abbildung: Darstellung der Fehlerquadrate
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
404 / 464
12.1. Einfache lineare Regression
12. Lineare Regression
Das Minimierungsproblem ist:
n
Q (a, b) = X [yi − (a + bxi )]
2
→ Min
i =1
Die kritischen Stellen werden ermittelt:
Qab
a
Qab
b
n
X
∂
2·[ i −( +
( , ) =
∂
i =1
n
X
∂
( , ) =
2·[ i −( +
∂
i =1
Jürgen Dippon (ISA)
y a bxi )] · (− )
1
y a bxi )] · (−xi )
Statistik für Wirtschaftswissenschaftler
13. September 2010
405 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Die Lösung des linearen Gleichungssystems
Qab
∂Q
(a, b) =
a
∂b
â b̂
Pn
b̂ = Pi n xxi yi −−nnx̄x̄ ȳ , â = ȳ − b̂x̄
i
i
∂
( , )=0
∂
führt auf genau eine Lösung
,
=1
=1
Jürgen Dippon (ISA)
0
, die Q minimiert:
2
2
Statistik für Wirtschaftswissenschaftler
13. September 2010
406 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Einfache lineare Regression und Kleinste-Quadrate-Methode
x y ), ..., (xn, yn)
yi = a + bxi + ei , i = , ..., n
Gegeben seien die reellwertigen Beobachtungswerte
Dann heiÿt
( 1,
.
1
1
einfache lineare Regressionsgleichung wobei a den Achsenabschnitt, b
sX >
den Steigungsparameter und
Annahme
2
0 sind die
ei
Kleinste-Quadrate-Koezienten für
gegeben durch:
â = ȳ − b̂x̄ , b̂
x y nx̄ ȳ = n
x nx̄
Pn
1 i i −
= Pi =
n
2
i =1 i −
2
1
−1
und
b
x x̄ y ȳ
x x̄
Pn
i =1 ( i − )( i − )
Pn
1
2
n −1 i =1 ( i − )
Kleinste-Quadrate-Gerade (KQ-Gerade) ergibt sich durch
ŷ (x ) = â + b̂x
Die
a
die Residuen (Fehler) bezeichnen. Unter der
. Die Werte
yˆi = â + b̂xi
und
KQ-gettete Werte bzw. KQ-Residuen.
Jürgen Dippon (ISA)
eˆi = yi − yˆi
Statistik für Wirtschaftswissenschaftler
bezeichnen wir als
13. September 2010
407 / 464
12. Lineare Regression
Eigenschaften
12.1. Einfache lineare Regression
(x̄ , ȳ )
â = ȳ − b̂x̄ ⇒ ȳ = â + b̂x̄ = ŷ /(x̄ ).
Die KQ-Gerade geht durch den Mittelpunkt
.
Die Summe der KQ-Residuen ist gleich 0:
n
X
i =1
ŷ¯ = ȳ
Wenn alle Punkte
x
ei =
0
xy
a + bx
â = a, b̂ = b, yˆi = yi , eˆi =
( i, i)
auf der Geraden
liegen, dann sind:
0
Eine Prognose wird mit der KQ-Geraden vorgenommen. Für einen
Wert
prognostiziert man den y-Wert:
Jürgen Dippon (ISA)
ŷ (x ) = â + b̂x
Statistik für Wirtschaftswissenschaftler
13. September 2010
408 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Gütemaÿ für die Anpassung der Geraden
Wie gut lassen sich die Daten mit einer Geraden beschreiben?
Streuungszerlegung der Regression
n
X
i =1
y ȳ
( i − )2 =
n
X
i =1
y ȳ
( ˆi − )2 +
n
X
i =1
y y
( i − ˆi )2
Ansatz:
Die Residualstreuung ist die Summe der verbliebenen quadrierten
Fehler nach Anpassung der Geraden.
Die Anpassung ist gut, falls der Anteil der erklärten Streuung an der
Gesamtstreuung groÿ ist:
R
Jürgen Dippon (ISA)
2
y ȳ
y ȳ
Pn
( ˆi − )2
= Pin=1
=
2
i =1 ( i − )
Erklärte Streuung
Gesamtstreuung
Statistik für Wirtschaftswissenschaftler
13. September 2010
409 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Bestimmtheitsmaÿ
Gegeben seien die reellwertigen Beobachtungswerte
sX >
2
Dann ist das
0
und
sY >
2
x y ), ..., (xn, yn)
( 1,
1
mit
0
Bestimmtheitsmaÿ der KQ-Regression gegeben durch:
R
2
y y
y ȳ
y ȳ
y ȳ
Pn
Pn
2
2
i =1 ( i − ˆi )
i
=
1 ( ˆi − )
=
1 − Pn
= Pn
2
2
i =1 ( i − )
i =1 ( i − )
Eigenschaften
0
R
≤ 2≤1
2
2
= XY
2
= 1 genau dann, wenn alle Punkte ( i , i )
2
= 0 genau dann, wenn XY = 0 ist.
R r
R
R
s
R
xy
auf einer Geraden liegen.
R
Eine gute Beschreibung der Daten durch eine Gerade liegt bei groÿen
Werten von
(nahe 0).
2
(nahe 1) vor, eine schlechte bei kleinen Werten von
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
2
410 / 464
12.1. Einfache lineare Regression
12. Lineare Regression
Beispiel (fortgesetzt): Ölpreise
Direkte Berechnung der Regressionsgeraden:
x̄ =
X
i
sX
sY
2
=
2
=
sXY
=
ȳ =
21.572,
yi
2
= 309218,
x nx̄ =
n
y nȳ =
n
x y nx̄ ȳ =
n
P 2
i i −
−1
P 2
i i −
P −1
i i i−
−1
2
2
Daher:
b̂ = ssxy =
2
X
69.342
40.026
Jürgen Dippon (ISA)
= 1.732,
X
117.635,
i
X
i
11078.277
xi
xi yi =
2
= 11078.277
57284.35
− 22 · 21.5722
21
57284.35
− 22 · 117.6362
21
57284.35
= 40.026
= 227.475
− 22 · 21.572 · 117.636
â = ȳ −b̂x̄ =
21
= 69.342
117.636 − 1.732 · 21.572
Statistik für Wirtschaftswissenschaftler
= 80.273
13. September 2010
411 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Und für das Bestimmtheitsmaÿ ergibt sich:
rXY = qsXY = √
sX sY
x=
2
2
Prognose für
x=
50 ergibt
69.342
40.026
· 227.475
= 0.727,
R = rXY =
2
2
0.529
50 durch Einsetzen in KQ-Gleichung
ŷ (
50)
Jürgen Dippon (ISA)
ŷ (x ) = â + b̂x ,
≈ 166.9.
Statistik für Wirtschaftswissenschaftler
13. September 2010
412 / 464
12. Lineare Regression
In
R
12.1. Einfache lineare Regression
lässt sich die Regressionsgerade mit eine paar einfachen Kommandos
berechnen und in das Streudiagramm einzeichnen:
plot ( o e l p r e i s , b e n z i n p r e i s ) ## Scatterplot
m y r e g r e s s i o n <− lm ( b e n z i n p r e i s ~ o e l p r e i s )
myregression
## z e i g t Ergebnis der Regressionsrechnung
abline ( m y r e g r e s s i o n ) ## zeichnet Regressionsgerade
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
an
413 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Abbildung: Streudiagramm mit Regressionsgeraden
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
414 / 464
12. Lineare Regression
12.1. Einfache lineare Regression
Beispiel (fortsetzung): Blutdruckdaten
Die Berechnung der KQ-Daten und des Bestimmtheitsmaÿes wird R
überlassen.
Abbildung: Regression zu Blutdruckdaten
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
415 / 464
12.1. Einfache lineare Regression
12. Lineare Regression
Der Fit der Geraden ist hier besser:
ŷ (
45)
Im
Mittel
R
2
ist gröÿer als im vorigen Beispiel.
= 77.363 + 1.2065 · 45 = 131.6 ≈ 132
würde man bei einer 45-jährigen Frau einen Blutdruck von 132
erwarten. Wie genau ist der Wert und wie groÿ ist der normale
Schwankungsbereich dieses Wertes für einzelne Frauen?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
416 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Stochastisches Modell
Um für Datenpaare
xy i
n
( i , i ), = 1, ..., , für die man lineare
i und i -Werten vermutet,
Zusammenhänge zwischen den
x
y
Wahrscheinlichkeitsaussagen ableiten zu können, muss man sie mit einem
geeigneten statistischen Modell breschreiben. Wie im letzten Abschnitt
sollen die Daten durch eine Geradenbeziehung
yi = α + βxi + ei
beschrieben werden.
Wenn die
yi
xi
ei
ei
als
als
die
Die
als
yi
funktional beschrieben werden durch die
xi
bezeichnet man
abhängige oder endogene Variablen
unabhängige oder exogene Variablen oder Regressoren und
latente Variablen oder Störvariablen.
können nicht beobachtet werden und die Parameter
α
und
β
sind
unbekannt.
Wo gibt es im Modell zufällige Komponenten?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
417 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Beispiel: College-Absolventen
xi
Die folgenden Daten geben die Anzahl der Absolventen eines kleinen
yi
Colleges an, die im Jahr (
Die Anzahl (
) ihres Abschlusses einen Job gefunden haben.
) der Absolventen soll über die Jahre etwa gleich groÿ
gewesen sein.
Jahr
Berufseinsteiger
Die Jahre
xi
yi
1
2
3
4
5
6
121
138
115
162
160
174
sind nichtzufällig, während die konkreten
Berufseinsteigerzahlen
nicht vorhersehbar waren und als zufällig
interpretiert werden können.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
418 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Streudiagramm
Abbildung: Berufseinsteiger
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
419 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Modell mit deterministischen Regressoren
xi
Yi
sind deterministisch und
yi
ei = yi − α − βxi
εi = Yi − α − β xi
sind als Realisierungen von Zufallsvariablen
aufzufassen. Dann sind aber auch die
Realisierungen von Zufallsvariablen
Modellansatz:
Jürgen Dippon (ISA)
als
aufzufassen.
Yi = α + βxi + εi
Statistik für Wirtschaftswissenschaftler
13. September 2010
420 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Beispiel(fortgesetzt): Blutdruckdaten
x
y
Im Rahmen der Datenerhebung wurden 15 Frauen ausgewählt. Im Vorfeld
der Erhebung ist i.A. sowohl das Alter
( i)
nicht bekannt und muss als Realisierung von Zufallsvariablen
aufgefasst werden.
Modell mit stochastischen Regressoren:
Xi , Yi
Das zufällige Verhalten der Beobachtung
beschrieben mit Zufallsvariablen
stehen:
und
Xi
als auch der Blutdruck
xi
und
εi ,
yi
sowie
ei
( i)
bzw.
Yi
werden
die in folgender Beziehung
Yi = α + βXi + εi
Dabei wird die Zusatzannahme getroen, dass
Xi
und
εi
unabhängig
sind.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
421 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Beide Regressionsmodelle haben groÿe Gemeinsamkeiten:
Die Schätzer für die Parameter
Formeln berechnet, s.u.
Die bedingte Verteilung von
Yi
α
und
β
gegeben
werden mit den gleichen
Xi = xi
ist gleich der
Verteilung, die sich aus dem deterministischen Ansatz ergibt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
422 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Wir beschränken uns im Folgenden auf die nähere Untersuchung des
Modells mit deterministischen Regressoren.
Standardmodell der linearen Einfachregression
x , . . . , xn
Y , . . . , Yn
(x , Y ), . . . , (xn , Yn )
Standardmodell der linearen
Einfachregression
α, β
σ >
Yi = α + βxi + εi , i = , . . . , n
εi
E (εi ) =
Var (εi ) = σ
seien reelle Zahlen und
1
Die Vektoren
1
1
1
seien reelle Zufallsvariablen.
erfüllen das
mit den Parametern
2
und
0, wenn
1
gilt, wobei
u.i.v. Zufallsvariablen sind, für die
2
0 und
gilt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
423 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Anmerkungen:
Die Zufallsvariablen
εi
Regressionsgeraden
Die
xi
Yi
können nicht beobachtet werden. Sie
x
beschreiben die Abweichungen der
α+β
.
-Werte von der
aufzufassen.
xi
Xi
-Werte sind entweder als einstellbare deterministische, d.h. nicht
zufällige, Regressoren oder als Realisierungen von Zufallsvariablen
y
β beschreibt die lineare Abhängigkeit der i β = 0, gibt es keine (lineare) Abhängigkeit.
Der Parameter
-Werten. Ist
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
von den
424 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Die Schätzer im Standardmodell berechnen wir wie oben durch
Minimierung von
Q (α, β) :=
sX >
n
X
i =1
Y
x
[ i − (α + β · i )]2 → Minα,β
Als Ergebnis erhalten wir in Analogie zu oben:
Wenn
2
0 ergeben sich als Schätzer
α̂
und
β̂
Ȳ
und
β̂
im Standardmodell
x̄
x x̄ Y Ȳ
x x̄
α̂ = n − β̂ · ,
Pn
1
n
i −1 ( i − )( i − n ) = XY .
n
−1
=
Pn
1
2
2
2
X
n −1 i =1 ( i − )
x Y nx̄ Ȳ
x nx̄
Pn
i =1 i i −
β̂ = P
n
2
i =1 i −
α̂
sind erwartungstrue für das Schätzen von
E (α̂) = α
Schätzer
und
α
bzw.
E (β̂) = β .
Schätzwerte
S
s
β,
d.h.
Anmerkung zur Bezeichnung: Wie in der Literatur gebräuchlich bezeichnen
α̂
und
β̂
i.F. sowohl die
als auch die
für
α
und
β.
Die
jeweilige Bedeutung erschlieÿt sich aus dem Kontext.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
425 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Beispiel (fortgesetzt): College-Absolventen.
x̄ =
3.5,
ȳ =
X
145,
xi
2
= 91,
X
yi
2
= 129030,
X
xi yi =
3234
i
i
i
P 2
2
2
91 − 6 · 3.5
2
i i − ·
=
= 3.5
=
X
−1
5
P 2
2
2
29030 − 6 · 145
2
i i − ·
=
=
= 576
Y
−1
5
P
i i i − · · = 3234 − 6 · 3.5 · 145 = 37.8
XY =
−1
5
s
x n x̄
n
y n ȳ
n
x y n x̄ ȳ
n
s
s
sXY = . = .
sX .
α̂ = ȳ − β̂ · x̄ =
−
s
rXY = q XY = √ . .·
sX · sY
Daher
β̂ =
37 5
2
3 5
10 8
10.8
145
· 3.5 = 107.2
37 5
2
2
Jürgen Dippon (ISA)
3 5
576
= 0.8419
R = rXY =
2
Statistik für Wirtschaftswissenschaftler
2
0.8419
2
13. September 2010
= 0.788.
426 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Abbildung: Streudiagramm mit Regressionsgeraden
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
427 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Zur näheren Beschreibung der Verteilung von
α̂
und
β̂
kann man die
Varianzen berechnen. Dazu macht man sich zunutze, dass
β̂ = β +
n
X
i =1
ci εi
und
α̂ = α +
n X
1
i =1
n − ci x̄
εi
ci = Pni xi(x−i −x̄ x̄ )
mit
=1
2
gilt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
428 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Die Varianzen berechnen sich als
Var (β̂) = σ
Var (α̂) = σ
σ2
Pn
=
2
β̂
i =1 (Pi − )
n
2
σ2
2
Pn i =1 i 2
α̂ =
· i =1 ( i − )
2
n
x x̄
x
x x̄
Die Varianzen kann man nicht direkt berechnen, da sie vom unbekannten
Parameter
Aber:
α̂
σ2
bzw.
abhängen.
β̂
sind MSE- und schwach konsistent für
Konsistenzbedingung
n
X
i =1
x x̄
( i − )2 → ∞
für
α
bzw.
β,
wenn die
n→∞
gilt.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
429 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Ausgehend von der Denition des Bestimmtheitsmaÿ kann man die
Berechnung von
σ̂ 2
auf bekannte Gröÿen zurückführen:
R
⇒
n
X
i =1
Also
σ̂ 2 =
y ŷ
2
y ŷ
y ȳ
P2
( i − i )2
= 1 − Pin=1
2
i =1 ( i − )
2
( i − i ) = (1 −
n−
n−
1
1
(1 −
R)
2
n
X
i =1
y ȳ
( i − )2 = (1 −
R )sY = nn −− sY − ssXY
2
1
2
2
2
R )(n − )sY .
2
2
2
X
mit
2
1
R = RXY .
2
2
Beispiel (fortgesetzt): College-Daten.
Es ist dann
σ̂ 2 =
n − sY ( − R ) =
n−
Jürgen Dippon (ISA)
1 2
2
1
2
5
4
576
· (1 − 0.7088) = 209.664.
Statistik für Wirtschaftswissenschaftler
13. September 2010
430 / 464
12. Lineare Regression
Mit dem Schätzer für
α̂
und
β̂
σ2
12.2. Stochstatisches Modell
kann man die Varianzen bzw. Standardfehler von
schätzen
x
P
σ̂ 2 ni=1 i2
P
σ̂α̂ =
· ni=1 ( i − )2
σ̂ 2
σ̂β̂2 = Pn
2
i =1 ( i − )
2
n
x x̄
x x̄
σ̂α̂ =
σ̂β̂ =
q
σ̂α̂2
q
σ̂ 2
β̂
Unter präziseren Verteilungsannahmen kann auch die Verteilung der
Schätzer genauer beschrieben werden und es können Tests konstruiert
werden.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
431 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Normalverteilungsannahme: Die Störvariablen sind normalverteilt, also εi
u.i.v. und
εi ∼
N ( , σ ).
2
0
Unter der Normalverteilungsannahme gilt
α̂
n
und
β̂
sind gemeinsam normalverteilt.
( − 2) · σ̂ 2 /σ 2
α̂
und
σ̂ 2
bzw.
Jürgen Dippon (ISA)
ist
β̂
χ2 -verteilt
und
σ̂ 2
mit
n−
2 Freiheitsgraden.
sind unabhängig.
Statistik für Wirtschaftswissenschaftler
13. September 2010
432 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Aus der Normalverteilungsannahme und der Denition der
folgt
t
-Verteilung
σ̂α̂
α̂ − α σ̂
=
σα̂
σα̂
σ
s
s
2
( − 2)σ̂ 2
α̂ − α
=
∼ n −2
=
σα̂
σ 2 ( − 2)
( − 2)
α̂ − α
α̂ − α
=
σ̂α̂
σα̂
mit
Z = σα̂
α̂
n
n
∼ N ( , ), W
0 1
Eine analoge Aussage gilt für
2
=
n
W
n
Z
t
( − 2)σ̂ 2
∼ χ2n−1 .
σ2
β̂
Unter der Normalverteilungsannahme gilt
t
α̂ − α
∼ n −2
σ̂α̂
und
Mit Hilfe dieser Aussagen lassen sich Tests für
Jürgen Dippon (ISA)
t
β̂ − β
∼ n −2
σ̂β̂
α
und
Statistik für Wirtschaftswissenschaftler
β
konstruieren:
13. September 2010
433 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Tests für die Regressionskoezienten
sX >
β
H β=β
H β≥β
H β≤β
Gegeben sei das Standardmodell der linearen Einfachregression mit
2
Normalverteilungsvorraussetzung sowie
H
H
H
H
H
H
Testprobleme über die Parameter
a)
b)
c)
α = α0
0 :α ≥ α0
0 :α ≤ α0
0:
α 6= α0
1 :α < α0
1 :α > α0
gegen
1:
gegen
gegen
α
, d)
, e)
, f)
Basierend auf der Teststatistik
T
α0
und
α̂ − α0
= q
σ̂α̂2
0:
0 gegen
0:
0 gegen
0:
0 gegen
T
bzw.
β0
a) , falls
b) , falls
T | > tn
T < −tn
T > tn
c ) , falls
|
α0
α0
α0
Jürgen Dippon (ISA)
−2,1−a∗ /2 , d) , falls
−2,1−a
−2,1−a
∗
∗
, e) , falls
, f ) , falls
H
H
H
β 6= β0 ,
1 :β < β0 ,
1 :β > β0 .
1:
β̂ − β0
= q
σ̂ 2
β̂
und dem vorgegebenen Signikanzniveau
im Testproblem
0. Wir betrachten folgende
:
α∗
fällt die Entscheidung für
T | > tn
T < −tn
T > tn
|
β0
−2,1−α∗ /2
β0
−2,1−α∗
β0
H
1
−2,1−α∗
Statistik für Wirtschaftswissenschaftler
13. September 2010
434 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Insbesondere der Test
H :β=
0
yi
xi
0 ist wichtig, da hiermit überprüft wird, ob
es einen linearen Zusammenhang zwischen den
- und
-Werten gibt.
Beispiel (fortgesetzt) College-Daten.
Wir wollen überprüfen, ob
β=0
Dazu berechnen wir den Schätzer für den Standardfehler von
σ̂ 2
σ̂ 2
σ̂β̂2 = Pn
=
=
2
( − 1) X2
i =1 ( i − )
x x̄
Damit ist
n
s
t = β̂q−σ̂β
0
2
Der kritische Wert ist
ist die Nullhypothese
t
β̂
α∗ = 0.05.
β̂ .
ist. Das Signikanzniveau sei
=
209.664
5
· 3.5
10.8
−0
3.4613
= 11.9808 ⇒ σ̂β̂ = 3.4613.
= 3.12.
t
n−2,1−α∗ /2 = 4,0.975 = 2.7764. Wegen 3.12 > 2.7
β = 0 abzulehnen. Es gibt also einen signikanten
linearen Trend bei den Berufseinsteigerzahlen.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
435 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Ausgehend von der Verteilungsaussage zu
Kondenzintervalle für
α
und
β
α̂
β̂
und
kann man
herleiten:
Gegeben sei das Standardmodell der linearen Einfachregression mit
Normalverteilungsvorraussetzung. Dann sind
t
t
t
t
α̂ − n−2,1−α∗ /2 σ̂α̂ , α̂ + n−2,1−α∗ /2 σ̂α̂
bzw.
h
β̂ − n−2,1−α∗ /2 σ̂β̂ , β̂ + n−2,1−α∗ /2 σ̂β̂
(1 − α∗ )-Kondenzintervalle
für die Parameter
α
bzw.
i
β.
Anmerkung: Diese Struktur von Kondenzintervallen ist sehr typisch.
θ̂
sei ein Parameterschätzer für einen Parameter
θ
und
σθ̂
sein
Standardfehler.
θ̂ − θ
∼
σθ̂
h
⇒ θ̂ −
N( ,
z
0 1) für alle zulässigen
1−α/2
Jürgen Dippon (ISA)
σθ̂ , θ̂ +
z
1−α/2
σθ̂
i
θ
ist
(1 − α)-Kondenzintervall
Statistik für Wirtschaftswissenschaftler
13. September 2010
für
θ
436 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Beispiel: Kondenzintervall für µ bei bekanntem σ 2 .
X , . . . , Xn ∼ N (µ, σ )
2
Var (X̄n) = σ /n
q
q
X̄n − z
σ /n, X̄n + z
σ /n
= X̄n − z
σX̄n , X̄ + z
σX̄n
1
.
Dann gilt für den Schätzer
X̄n
1−α/2
für
2
µ:
2
θ̂
2
1−α/2
1−α/2
:
1−α/2
sei ein Parameterschätzer für einen Parameter
θ
und
σ̂θ̂
ein Schätzer für
seinen Standardfehler.
t
t
θ̂ − θ
∼ m für alle zullässigen θ
σ̂θ̂
h
i
⇒ θ̂ − m,1−α/2 σ̂θ̂ , θ̂ + m,1−α/2 σ̂θ̂
Jürgen Dippon (ISA)
t
ist
(1 − α)-Kondenzintervall
Statistik für Wirtschaftswissenschaftler
13. September 2010
für
θ
437 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Anmerkung: i.A.
m=n
Anzahl der geschätzten Parameter.
Beispiel: Kondenzintervall für µ bei unbekanntem σ 2 .
X , . . . , Xn ∼ N (µ, σ )
µ : Var (X̄n ) = σ /n
2
1
2
S n
. Dann gilt für den Schätzer
und
σ̂X̄2 = n2 /
n
X̄n − tn
= X̄n − t
−1,1−α/2
q
Sn /n, X̄n + tn
σ̂X̄n , X̄n + tn
2
−1,1−α/2
Jürgen Dippon (ISA)
,
X̄n
für
q
−1,1−α/2
S n /n
2
−1,1−α/2 σ̂X̄n
Statistik für Wirtschaftswissenschaftler
13. September 2010
438 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Viele Statistikprogramme liefern als Ergebnis von komplexeren statistischen
t
Modellen Schätzwerte für die Parameter und Standardfehler. Wenn die
zugehörigen standardisierten Schätzer
-verteilt oder asymptotisch normal
verteilt sind, kann man obige Kondenzintervallkonstruktion direkt
verwenden.
Beispiel: College-Absolventen.
β . σ̂β̂ = 3.4613 und β̂ = 10.8
bereits früher berechnet. Mit n−2,1−α∗ = 4,0.975 = 2.7764 gilt
h
i
β̂ − n−2,1−α∗ /2 σ̂β̂ , β̂ + n−2,1−α∗ /2 σ̂β̂
t
Wir berechnen ein 0.95-Kondenzintervall für
wurde
t
t
t
= [10.8 − 2.7764 · 3.4613, 10.8 + 2.7764 · 3.4613]
= [1.19, 20.41]
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
439 / 464
12. Lineare Regression
Falls die Normalverteilungsannahme
12.2. Stochstatisches Modell
εi ∼
Konsistenzbedingung
n
X
i =1
x x̄
( i − )2 → ∞
N( , σ )
0
für
2
verletzt, aber die
n→∞
erfüllt ist, gelten die Verteilungsaussagen für die standardisierten Schätzer
auch approximativ. Dann gelten auch die angegebenen Tests und
Kondenzintervalle approximativ.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
440 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Beispiel (Fortsetzung): College-Daten.
Die nächste Tabelle bezieht sich auf die Streuungszerlegung bei der linearen
Regression,
n
X
y ȳ
2
n
X
}
|i =1 {z
( i− ) =
|i =1 {z
Gesamtstreuung
(SQT)
Jürgen Dippon (ISA)
(ŷi − ȳ )
2
}
Erklärte Streuung
(SQE)
+
n
X
y ŷ
( i − i )2
|i =1 {z
Reststreuung
Statistik für Wirtschaftswissenschaftler
}
(SQR)
13. September 2010
441 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Prognose
Ausgehend vom Regressionsmodell
Yi = α + βxi + εi
interessiert man sich für die Regressionsgerade
y (x ) = α + βx
x
y (x ) : Ŷ (x ) = α̂ + β̂ · x
E (Ŷ (x )) = E (α̂ + β̂ · x ) = E (α̂) + E (β̂) · x = α + β· x = y (x )
(x − x̄ )
P
σŶ x = Var (Ŷ (x )) = Var (α̂ + β̂ · x ) = . . . = σ
n + i (xi − x̄ ) .
Ŷ (x )
(x − x̄ )
σ̂Ŷ x = σ̂
+P
n i (xi − x̄ ) .
für einen Vorgabewert
.
Schätzung von
Dann gilt
2
2
1
2
2
( )
ist also erwartungstreu und MSE- bzw. schwach konsistent.
Die Varianz können wir schätzen mit
2
2
1
2
( )
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
2
13. September 2010
442 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Prognose für y(x):
Ŷ (x ) = α̂ + β̂ · x
ist der Schätzer für
Normalverteilungsannahme ist
h
ein
−2,1−α∗ /2 σ̂Ŷ (x ) ,
(1 − α)-Kondenzintervall
y (x )
Y
0
x
y (x )
für
. Unter der
Ŷ (x ) + tn
y (x )
−2,1−α∗ /2 σ̂Ŷ (x )
i
.
beschreibt nur die Mittellage einer Zufallsvariable
Regressor
wir
Ŷ (x ) − tn
y (x )
Y
0 , die zu einem
0 erhoben wird. Interessant ist häug der Wertebereich, in dem
0 mir groÿer Wahrscheinlichkeit nden. Dazu muss nicht nur die
Mittellage
0 , sondern auch der Schwankung um diese Mittellage mit
einem Störterm
ε0
Jürgen Dippon (ISA)
Rechnung getragen werden.
Statistik für Wirtschaftswissenschaftler
13. September 2010
443 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Ansatz:
Ỹ
0
wobei
= α̂ + β̂ ·
ε0
x
0
+ ε0 =
unabhängig von
Ŷ (x ) + ε , E (ε ) =
0
0
0
0,
0
2
ε1 , . . . , ε n .
Damit ist
Var (Ỹ ) = Var (Ŷ (x )) + Var (ε ) = σ
0
Var (ε ) = σ ,
0
0
2
1
+
1
n
x x̄
x x̄
( 0 − )2
+P
2
i( i − )
und
2
σ̂Ỹ = σ̂
0
Jürgen Dippon (ISA)
2
1
+
1
n
x x̄
x x̄
( 0 − )2
+P
2
i( i − )
.
Statistik für Wirtschaftswissenschaftler
13. September 2010
444 / 464
Prognose für
12. Lineare Regression
Y
0
zu gegebenen
x:
12.2. Stochstatisches Modell
0
Unter der Normalverteilungsannahme ist
h
Ŷ (x ) − tn
0
ein
(1 − α)-Kondenz-
−2,1−α∗ /2 σ̂Ŷ0 ,
Ŷ (x ) + tn
0
oder Prognoseintervall für
Beispiel: College-Absolventen.
3.5,
sx =
2
3.5,
σ̂ = 14.461
i
Y
0.
y (x )
, t
Wir berechnen ein 0.95-Kondenzintervall für
x̄ =
−2,1−α∗ /2 σ̂Ŷ0
0
und
4,0.975
Y
0 zu
x
0
= 7.
Aus
= 2.7764
ergibt sich
2
σ̂Ŷ (7) = σ̂
2
1
n
x x̄
x x̄
( 0 − )2
+P
2
i( i − )
σ̂Ỹ2 = σ̂ 2 + σ̂Ŷ2 (7) = 391.44,
0
Jürgen Dippon (ISA)
= 209.7 ·
1
6
(7 − 3.5)2
+
5 · 3.5
σ̂Ŷ (7) = 13.4811,
Statistik für Wirtschaftswissenschaftler
= 181.74.
σ̂Ỹ0 = 19.7848.
13. September 2010
445 / 464
12.2. Stochstatisches Modell
12. Lineare Regression
Damit sind
und
h
Ŷ ( ) = α̂ + β̂ ·
7
Ŷ ( ) − tn
h
Ŷ ( ) − tn
bzw.
7
= 107.2 + 10.8 · 7 = 182.8,
Ŷ
t
t
4,0.975
= 2.7764,
i
σ̂Ŷ (7) , (7) + n−2,1−α∗ /2 σ̂Ŷ (7) = [145.37, 220.23]
i
∗
∗
σ̂
σ̂
,
(
7
)
+
n−2,1−α /2 Ỹ0 = [127.87, 237.73]
−2,1−α /2 Ỹ0
−2,1−α∗ /2
7
7
Ŷ
t
die gesuchten Kondenzintervalle.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
446 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Abbildung: Prognose und Kondenzintervalle
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
447 / 464
12. Lineare Regression
12.2. Stochstatisches Modell
Ŷ (x )
In das Streudiagramm der College-Absolventen wurde in der
jedem x
Ŷ (x )
Ỹ
x=
x
obenstehenden Abbildung die geschätzte Regressionsgerade
0 die Kondenzintervalle zu
0
und
Punkt kennzeichnet den Prognosenpunkt zu
0
Die Kondenzintervalle werden gröÿer, je weiter
Jürgen Dippon (ISA)
und zu
0 eingezeichnet. Der rote
7.
0 von
Statistik für Wirtschaftswissenschaftler
x̄ =
3.5 entfernt ist.
13. September 2010
448 / 464
13. Zeitreihen
9
Parameterschätzung
10
Testen von Hypothesen
11
Spezielle Tests
12
Lineare Regression
13
Zeitreihen
Indizes
Komponentenmodelle
Globale Regressionsansätze
Lokale Ansätze
R Beispiel
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
449 / 464
13. Zeitreihen
Zeitreihen
Wird ein Merkmal
Y
y , . . . , yn
zu aufeinander folgenden Zeitpunkten
erfasst, so bilden die Beobachtungen
Y , . . . , Yn
1
Diese Beobachtungen können jeweils als
Zufallsvariablen
1
eine
t=
Zeitreihe.
1, . . . ,
n
eine Realisierung von
interpretiert werden.
Beispiele: Aktienkurse, Umsätze, Preisindizes, Niederschlagsmessungen,...
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
450 / 464
13. Zeitreihen
Häug interessante Fragen:
Liegt der Zeitreihe ein Trend in Form einer globalen Funktion in der
Zeit zugrunde?
Gibt es regelmäÿig wiederkehrende saisonale Schwankungen?
Wie hängen zeitlich unterschiedliche Beobachtungen voneinander ab
(Korrelation)?
Wie kann eine Prognose über den zukünftigen Verlauf der Zeitreihe
erstellt werden?
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
451 / 464
13. Zeitreihen
13.1. Indizes
Indizes
Ein Preisindex soll die zeitliche Preisentwicklung einer groÿen Menge von
einzelnen Gütern (aus einem sog. Warenkorb) wiedergeben.
pt (i )
qt (i )
Preis von Gut
i ∈ { ,...,I}
1
verbrauchte Menge von Gut
zum Zeitpunkt
i
t∈{ ,
t
0 1, . . . }
zum Zeitpunkt
Preisindex von Laspeyres
P
L
t =
p i g (i )
p i
I
X
t( )
()
i =1 0
Jürgen Dippon (ISA)
0
mit
g (i ) = PIp (pi )q(j )(qi ) (j )
0
Statistik für Wirtschaftswissenschaftler
0
0
j =1
0
0
13. September 2010
452 / 464
13.1. Indizes
13. Zeitreihen
pt ( i )
p0 (i )
relative Preisänderung von Gut
i
zum Zeitpunkt
t
in Bezug auf die
Basisperiode 0
g (i )
0
Anteil der Ausgaben für Gut
in der Basisperiode
t
i
im Verhältnis zu den Gesamtausgaben
Werden die relativen Preisänderungen mit den relativen Ausgaben zum
aktuellen Zeitpunkt
gewichtet, erhält man den
Preisindex von Paasche
P
P
t =
pigi
p i
I
X
t( )
t( )
()
i =1 0
Jürgen Dippon (ISA)
mit
gt (i ) = PIpt (pi )q(tj )(qi ) (j )
Statistik für Wirtschaftswissenschaftler
j =1 t
t
13. September 2010
453 / 464
13.1. Indizes
13. Zeitreihen
p (i )
PI
L
Pt = PIi ppt ((ii ))qq ((ii ))
i
Durch Kürzen durch
erhält man die Aggregatformeln
0
=1
0
=1 0
0
,
p iq i
p iq i
PI
P = i =1 t ( ) t ( )
PI
t
i =1 0 ( ) t ( )
P
Der Preisindex von Laspeyres gibt jene Preisänderungen an, die sich bei
konstant gehaltenen Verbrauchsmengen aus der Basisperiode ergeben
hätten.
Der Preisindex von Paasche bezieht sich auf die Verbrauchsmengen in der
Berichtsperiode.
Werden die Rollen von Preisen und Mengen vertauscht, erhält man
Mengenindizes.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
454 / 464
13. Zeitreihen
13.2. Komponentenmodelle
Komponentenmodelle
Ziel: Zerlegung der Zeitreihe in systematische Komponenten und eine
irreguläre Restkomponente
Additives Trend-Saison-Modell
yt = gt + st + εt , t =
gt
st
1, . . . ,
n
glatte Komponente: Trend, langfristige systematische Veränderung
saisonale Komponente (z.B. tages- oder jahreszeitlich bedingte
Schwankungen)
εt
irreguläre Restkomponente
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
455 / 464
13. Zeitreihen
13.2. Komponentenmodelle
Multiplikatives Modell
yt = gt · st · εt
Kann durch Logarithmusfunktion auf ein additives Modell zurückgeführt
werden:
ỹt = yt = gt + st +
log
Jürgen Dippon (ISA)
log
log
log εt
Statistik für Wirtschaftswissenschaftler
13. September 2010
456 / 464
13.3. Globale Regressionsansätze
13. Zeitreihen
Globale Regressionsansätze
Wir betrachten zunächst ein reines additives Trendmodell,
yt = gt + εt
gt
und schätzen die Trendkomponente
Populäre globale Trendmodelle:
gt = β + β t
gt = β + β t + β t
gt = β + β t + · · · + βq t q
gt = β (β t )
gt = β + β (−β t )
0
1
0
1
0
1
0 exp
2
1
0
1
exp
Jürgen Dippon (ISA)
2
.
linearer Trend
quadratischer Trend
polynomialer Trend
exponentieller Trend
logistische Sättigungskurve
2
Statistik für Wirtschaftswissenschaftler
13. September 2010
457 / 464
13. Zeitreihen
Die Parameter
β0 , β1 , . . .
bestimmt:
13.3. Globale Regressionsansätze
werden mit der Methode der kleinsten Quadrate
n
X
t =1
y g
( t − t )2 → min
Soll zusätzlich noch eine Saisonkomponente geschätzt werden, wird die
Zeitreihe zunächst trendbereinigt
und für
ỹt t =
,
1, . . . ,
n
ỹt = yt − gt , t =
1, . . . ,
n
, die saisonale Komponente bestimmt.
Beispiel: Monatsdaten mit Jahreszyklen
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
458 / 464
13.3. Globale Regressionsansätze
13. Zeitreihen
Saisonmodell mit Dummyvariablen
st = β s (t ) + · · · + β s (t ), t =
1 1
12 12
1, . . . ,
n
mit Dummyvariablen
sj (t ) =
t
1
falls
0
sonst
zum Monat
j
gehört
Das Saisonmuster für aufeinander folgende Jahre wird also als identisch
angenommen (starre Saisongur).
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
459 / 464
13. Zeitreihen
Die Monatseekte
β1 , . . . , β12
13.3. Globale Regressionsansätze
werden dann nach dem KQ-Prinzip
geschätzt:
n
X
t =1
(ỹt − st )
2
=
n
X
t =1
(ỹt − β s (t ) − · · · − β s (t ))
1 1
2
12 12
→ min
Alternativ kann die Saisonkomponente auch mittels eines trigonometrischen
Polynoms ermittelt werden:
st = β
0
+
6
X
k =1
βk cos
Hierbei werden die Koezienten
X
k
π t +
γk
5
2
12
cos
k =1
β0 , . . . , β6 , γ1 , . . . , γ5
2
k
π t
12
mittels KQ-Methode
geschätzt.
Anstatt die Zeitreihe zunächst trendzubereinigen und dann die
Saisonkomponente zu schätzen, können Trend- und Saisonkomponenten
simultan nach dem KQ-Prinzip geschätzt werden.
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
460 / 464
13. Zeitreihen
13.4. Lokale Ansätze
Lokale Ansätze
Globale Ansätze sind für längere Zeitreihen oft zu starr, da sich zeitlich
gt
verändernde Strukturen schwierig zu berücksichtigen sind.
Zur Schätzung des Trends
einer Zeitreihe zum Zeitpunkt
t
herum gebildet:
ĝt = q + (yt
1
2
q+
2
1
−q
y
y
+ · · · + t + · · · + t +q ),
t =q+
t
wird ein
lokales arithmetisches Mittel von Zeitreihenwerten um den Zeitpunkt
1, . . . ,
n−q
1: Ordnung des Durchschnitts
st
Anschlieÿend kann für die trendbereinigte Zeitreihe
Saisonkomponente
werden.
Jürgen Dippon (ISA)
ỹt = yt − ĝt
die
(evtl. lokal in einem gleitenden Zeitfenster) geschätzt
Statistik für Wirtschaftswissenschaftler
13. September 2010
461 / 464
13. Zeitreihen
13.4. Lokale Ansätze
Abbildung: Gleitender Durchschnitt von Zinsdaten
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
462 / 464
13. Zeitreihen
13.5. R Beispiel
Abbildung: Lineare und exponentielle Trendfunktion
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
463 / 464
14. Literatur
Literatur
L. Fahrmeir et al.:
Springer 2010.
Praxis
J. Schira:
Statistik Der Weg zur Datenanalyse
, 7. Auage,
Statistische Methoden der VWL und BWL Theorie und
, 3. Auage, Pearson Studium 2009
Statistik für Bachelor- und Masterstudenten Eine
Einführung für Wirtschafts- und Sozialwissenschaftler
W. Zucchini et al.:
, Springer 2009
Jürgen Dippon (ISA)
Statistik für Wirtschaftswissenschaftler
13. September 2010
464 / 464
Herunterladen