Inhalt - Michael Knappmann

Werbung
Fachbereich:
Vorlesung:
Fach:
Dozent:
Wochenstunden:
Dauer:
Abschluß:
Photoingenieurwesen, FH Köln
B 5.3 Statistik I und II (ehemals Statistik und Operations Research I und II)
B5
Marketing
Prof. Dr. rer. nat. Bruno Klingen
2
2 Semester
Leistungsnachweis (LN)
© Jörg Hannig, Michael Knappmann 15.1.94; 2. korrigierte Fassung 02.06.96
Inhalt
Über dieses Skript ................................................................................................................................... 2
Einleitung .................................................................................................................................................... 3
Teil I: Beschreibende Statistik .................................................................................................................. 3
1. Tabellen und graphische Darstellungen .............................................................................................. 3
2. Relative Häufigkeit............................................................................................................................... 4
3. Maßzahlen einer Stichprobe................................................................................................................ 5
Teil II: Elemente der Wahrscheinlichkeitstheorie.................................................................................... 7
1. Grundbegriffe und Operationen........................................................................................................... 7
1.1. Experiment und Ereignis ............................................................................................................. 7
1.2. Wahrscheinlichkeitsdefinition ...................................................................................................... 9
1.3. Wahrscheinlichkeitsoperationen ................................................................................................. 11
2. Diskrete Wahrscheinlichkeitsfunktionen.............................................................................................. 14
2.1. Der Begriff der Zufallsvariablen................................................................................................... 14
2.2. Wahrscheinlichkeitsfunktion........................................................................................................ 15
2.3. Maßzahlen................................................................................................................................... 17
3. Diskrete Standardverteilungen ............................................................................................................ 19
3.1. Permutationen ............................................................................................................................. 19
3.2. Binomialverteilung ....................................................................................................................... 20
3.3. Poisson - Verteilung ................................................................................................................. 24
1. Erweiterung ............................................................................................................................... 24
2. Erweiterung ............................................................................................................................... 25
4. Stetige Verteilung ................................................................................................................................ 29
4.1. Exponentialverteilung als einführendes Beispiel ......................................................................... 29
4.1.1. stetig gleichverteilte Zufallsvariable..................................................................................... 33
a) Einstieg: diskrete gleichverteilte Zufallsvariable....................................................................... 33
b) "linerare Transformation" von XG ( XG stetig, gleichverteilt in [0;1) ) ....................................... 34
c) Wichtige Unterschiede zwischen stetigen und diskreten Zufallsvariablen............................... 35
d) α -Potenzverteilung .................................................................................................................. 35
e) Simulation der Exponentialverteilung....................................................................................... 36
4.2. Elementare Eigenschaften der Funktionen zur Normalverteilung............................................... 37
a) Dichte- und Verteilungsfunktion ............................................................................................... 37
b) Eigenschaften von f(x) ............................................................................................................. 38
c) Standardform der Normalverteilung......................................................................................... 38
d) Formeln für XN in Standardform .............................................................................................. 39
e) Wichtige praktische Größen der Standardform ....................................................................... 39
f) Übergang von der Standardform zu X allgemein..................................................................... 39
g) Wichtige praktische Größen für (µ;s)-Verteilung...................................................................... 39
h) Näherungsberechnung zu P( x1 ≤ X ≤ x1+∆x ) durch die Dichtefunktion............................... 40
4.3. Lineare Transformation von Zufallsvariablen .............................................................................. 41
a) allgemein: Y = g(X) (beliebige Funktion).......................................................................... 41
b) Dichtefunktion g(y) sowie G(y) zu Y = aX + b bei stetig verteiltem X................................. 41
c) Transformation der Parameter µx , sx zu X............................................................................. 42
Einleitung * Über dieses Skript
d) Bedeutung für die Normalverteilung......................................................................................... 42
5. Eigenschaften der Normalverteilung.................................................................................................... 43
5.1. Normalverteilung der Stichproben ............................................................................................... 43
5.2. Normalverteilung als Näherung zu Binomial- und Poissonverteilung .......................................... 46
5.3. Summen von Zufallsvariablen und Normalverteilungen .............................................................. 48
a) unabhängige Zufallsvariable .................................................................................................... 49
b) Summen beliebiger Zufallsvariablen ........................................................................................ 50
c) Summen normalverteilter Zufallsvariablen............................................................................... 51
d) Der zentrale Grenzwertsatz...................................................................................................... 52
e) Das Gesetz der großen Zahlen ................................................................................................ 54
5.4. Fehlerrechnung............................................................................................................................ 54
5.5. Exkurs: Summenverteilung.......................................................................................................... 58
a) einführendes Beispiel ............................................................................................................... 58
b) Verallgemeinerung zu Wahrscheinlichkeitsfunktionen für die Summen diskreter
Zufallsvariablen. ............................................................................................................................ 59
c) Dichtefunktion für die Summe stetiger Zufallszahlen. .............................................................. 60
d) Faltung und Korrelation ............................................................................................................ 65
Teil III: Beurteilende Statistik..................................................................................................................... 67
Einführung .......................................................................................................................................... 67
1. Testverteilungen .................................................................................................................................. 67
a) Normalverteilung ...................................................................................................................... 67
b) Chi - Quadrat - Verteilung ........................................................................................................ 68
c) t - Verteilung ............................................................................................................................. 69
d) Fischer-Verteilung .................................................................................................................... 70
2. Vertrauensintervall ............................................................................................................................... 70
a) Einführendes Beispiel............................................................................................................... 70
b) Erweiterung für unbekanntes s ................................................................................................ 72
c) Weitere Möglichkeiten für den Einsatz von Vertrauensintervallen ........................................... 74
3. Hypothesentest .................................................................................................................................... 74
3.1. Parametertest .............................................................................................................................. 74
3.2. Verteilungstest ............................................................................................................................. 76
4. Korrelation und Regression ................................................................................................................. 77
4.1. Korrelation ................................................................................................................................... 77
4.1.1. Transformation von Zufallszahlpaaren ................................................................................ 82
Zweidimensionale Dichtefunktion (joint distribution) ..................................................................... 83
4.2. Regression................................................................................................................................... 85
Anhang......................................................................................................................................................... 89
Aufgaben ................................................................................................................................................. 89
Lösungen ................................................................................................................................................. 93
Formelsammlung I................................................................................................................................... 100
Formelsammlung II.................................................................................................................................. 102
Summenformeln ...................................................................................................................................... 104
Tabelle: Chi-Quadrat-Verteilung .............................................................................................................. 105
Tabelle: Verteilungsfunktion zur Normalverteilung .................................................................................. 106
Stichwortverzeichnis ................................................................................................................................ 108
Literatur.................................................................................................................................................... 109
Tabelle: t-Verteilung................................................................................................................................. 95a
Über dieses Skript
Obwohl die vorliegende Mitschrift der Statistik-Vorlesung von Prof. Dr. Klingen sich eng an die Vorlesung
hält, ist sie NICHT dazu gedacht, den Besuch der Vorlesung oder das Mitschreiben während der Vorlesung
zu ersetzen!! Einerseits kann eine wirklich gute Vorlesung nicht durch ein Skript überflüssig gemacht werden,
andererseits prägt sich in jedem Fall besser ein, was man selbst gehört und mitgeschrieben hat, als nur
gelesenes. Vielmehr soll das Nacharbeiten des gehörten Stoffes erleichtert werden.
Es wäre im Gegenteil zu hoffen, daß sich der ein oder andere aufgrund der Tatsache, daß ein Skript existiert,
dazu entscheidet, diese wirklich lohnende Vorlesung zu hören, selbst wenn der zugehörige
Leistungsnachweis nicht mehr benötigt wird.
Korrekturen, Hinweise und Verbesserungsvorschläge bitte ich entweder direkt an mich (e-mail:
[email protected]) oder an die Fachschaft FB Photoingenieurwesen, FH-Köln zu richten.
Köln im Sommer 1995
Michael Knappmann
2
Statistik
Einleitung * 1. Tabellen und graphische Darstellungen
Einleitung
Die Grundüberlegung der Statistik ist, scheinbar zufällige oder nicht berechenbare Vorgänge zu erfassen,
und sie auf Gesetzmäßigkeiten zu untersuchen, um Wahrscheinlichkeitsvoraussagen machen zu können.
Dabei zieht man z.B. eine Stichprobe ( zu prüfende Teilmenge ) von einer Grundgesamtheit und schließt
von ihr wieder auf die Grundgesamtheit. Hier zeigt sich bereits ein Problem der Statistik: Wie muß eine Stichprobe beschaffen sein, damit sie repräsentativ ist? Vor dieser Frage stehen beispielsweise die Wahlstatistiker vor Wahlhochrechnungen.
Es ist auch einsichtig, daß die Statistik keine Beweise liefern kann, auch wenn sie fälschlicherweise oft dazu
benutzt wird. Es ist also von elementarer Bedeutung, die Aussage der Statistik genau zu kennen, um keinen
falschen Interpretationen zu verfallen.
Es soll noch auf zwei Bücher hingewiesen werden:
a) ERWIN KREYSZIG "Statistische Methoden und ihre Anwendungen"
b) OLAF HEIM
"Statistische Verfahren der Ingenieurpraxis"
Teil I: Beschreibende Statistik
1. Tabellen und graphische Darstellungen
Die Aufgabe dieses Abschnittes ist es, Aussagen über Stichproben, die elementaren Begriffe, Tabellenformen und graphische Darstellungen und charakteristische Maßzahlen und Funktionen zu machen.
Stichprobe 1 sei die in Tabelle 1.1 aufgeführte Erhebung über die Körpergröße Grazer Mittelschülerinnen.
Größe x [cm]
absolute
Häufigkeit
relative
Häufigkeit h(x)
153
154
155
156
157
1
1
2
3
3
0,01
0,01
0,02
0,03
0,03
158
159
160
161
162
5
6
4
5
7
0,05
0,06
0,04
0,05
0,07
163
164
165
166
167
5
5
6
7
5
0,05
0,05
0,06
0,07
0,05
168
169
170
171
172
4
5
5
6
4
0,04
0,05
0,05
0,06
0,04
173
174
175
176
177
3
2
3
1
1
0,03
0,02
0,03
0,01
0,01
178
1
0,01
Summe
100
1
Statistik
Seite 3
Teil I: Beschreibende Statistik * 2. Relative Häufigkeit
Dann bezeichnet man als Stichprobenumfang n die Anzahl der Werte.
=>
n = 100
Das Stichprobenmerkmal x ist hier die Körpergröße in cm. Hierbei handelt es sich um ein quantitatives
Merkmal; im Gegensatz dazu gibt es auch qualitative Merkmale (z.B. die Augenfarbe), die jedoch nicht Gegenstand dieser Vorlesung sein werden.
Die einzelnen Werte des Stichprobenmerkmals heißen Merkmalswerte oder Merkmalsausprägungen. Im
Beispiel der Stichprobe 1 sind das (ohne Einheiten):
x1 = 161, x2 = 162, x3 = 166, ... , x100 = 175
xi ∈ IN
Allgemein gilt:
xi ∈ IR
Der Index i bezeichnet hier den Merkmalsträger.
Urliste nennt man die erste Tabelle, bzw. das Protokoll, das einfach die verschiedenen Meß- oder Erhebungswerte in der Reihenfolge ihres Vorkommens aufzählt (=> Tabelle 1.1). Übersichtlicher ist die
Strichliste (=> Tabelle 1.2), in der alle mehrfach auftretenden Merkmalswerte zusammengefaßt werden.
Eine ähnliche Form ist das Punktdiagramm, das bereits Ähnlichkeiten mit mathematischen Funktionen
zeigt, denn hier wird das statistische Merkmal x zu der bestimmenden Größe, d.h. zum Argument. Die
Häufigkeiten zu x werden hier die abhängigen Größen, entsprechend dem Funktionswert in der Mathematik.
In allen diesen Tabellenumformungen werden noch die absoluten Häufigkeiten k(x) angegeben.
Man unterscheidet in der Statistik zweckmäßigerweise zwei Arten der Numerierung:
- Erste Art der Merkmalszuordnung:
- Zweite Art der Merkmalszuordnung:
Hier werden die Merkmalswerte in der Reihenfolge der Erfassung (s.o.) von 1 bis n durchnumeriert, wie in Tabelle 1.1.
Die
Numerierung
erfolgt
in
der
Reihenfolge
der
Merkmalswerthöhe.
Entsprechend
werden
auch
die
Häufigkeiten zugeordnet. Im Beispiel von Stichprobe 1 hieße
das:
x1= 153 mit k1= 1, x2 = 154 mit k2 = 1,... , x26 = 178 mit k26 = 1
Allgemein:
x1, x2, x3, ... , xm mit k1, k2, k3, ... , km
Dabei ist m die Anzahl der verschiedenen Merkmalsausprägungen.
Auch die folgende Schreibweise wird benutzt: ki = k(xi)
Aus dem genannten folgt:
n≥m
m
m
∑ ki = n
i=1
(=>
∑ ki = 100 )
i=1
Verwirrend ist hier, daß für beide Arten der Merkmalszuordnung der Buchstabe x verwendet wird. Daher muß
auf Verwechslungen aufgepaßt werden. Ein wichtiges Unterscheidungskriterium ist die höchste Numerierung, n oder m.
2. Relative Häufigkeit
Die relative Häufigkeit h(x) ist folgendermaßen definiert:
ki
h(xi) = n
i = 1; 2; 3; ... ; m
In Stichprobe 1 hieße das: h(x10 ) = h(162) = 7/100 = 0,07 = 7%
Relative Häufigkeiten werden naturgemäß auch gerne in Prozent angegeben. Beispiele für relative Häufigkeiten finden sich in Tabelle 1.3 und den daraus erstellten Diagrammen.
4
Statistik
Teil I: Beschreibende Statistik * 3. Maßzahlen einer Stichprobe
Die Häufigkeitsfunktion f(x) 1 ist wie folgt definiert:

f(x) = 
î
h(x)
für x = xi
0
für x ≠ xi
i = 1; 2; 3; ... ; m
Diese Funktion führt bei Stichprobe 1 zwangsläufig zu einem Strichdiagramm, ähnlich dem Stabdiagramm.
Desweiteren folgt:
f(x) ≥ 0 für x ∈ IR
m
∑f(xi)
m
=
i=1
∑ h(xi)
= 1
i=1
Zudem definiert man die Verteilungsfunktion F(x) 2, die angibt, wieviele Merkmalswerte bis zu einem bestimmten Wert xc bereits erfaßt sind. Das führt in der Regel zu sogenannten Treppenfunktionen .
∑ k(xi)
∑ f(xi)
Definition:
F(x) = 1/n
Daraus folgt:
=> F(x) ist monoton (steigend)
=> lim F(x) = 1
xi≤x
=
xi≤x
x→∞
=> lim F(x) = 0
x→0
Bedeutung hat die Verteilungsfunktion vor allem in der Wahrscheinlichkeitsrechnung.
3. Maßzahlen einer Stichprobe
Ziel ist es, eine "globale" Beschreibung einer Stichprobe zu machen.
Dazu definiert man den Mittelwert x̄, der den Durchschnittswert der Merkmalsausprägungen darstellt:
m
m
∑
m
∑
∑
1
xi k(xi) =
xi h(xi) =
xi f(xi)
x̄ = n
i=1
i=1
i=1
Merkmalszuordnung 2. Art
n
∑
1
x̄ = n
xi
i=1
Damit entspricht die Dimension von x̄ der von x.
bzw.:
Merkmalszuordnung 1. Art
✎ Beispiel:
Würfelexperiment mit n = 5
i
xi
1
k(xi)
xi·ki
0
0
2
|
1
2
3
|||
3
9
4
|
1
4
5
0
0
6
0
0
Σ = 15
=>
x̄ = 3
1
~
in der Literatur (zB KREYSZIG) auch: f (x)
2
~
in der Literatur (zB KREYSZIG) auch: relative Summenhäufigkeit F(x)
Statistik
Seite 5
Teil I: Beschreibende Statistik * 3. Maßzahlen einer Stichprobe
Desweiteren benötigt man zur Beurteilung ein Maß für die Streuung, ein Streumaß, da der Mittelwert für die
Charakterisierung einer Probe nicht ausreichend ist, wie folgendes Beispiel zeigen soll:
a) x1 = 10; x2 = 20; x3 = 30; ... ; x9 = 90
=>
x̄ = 50
b) y1 = 46; y2 = 47; y3 = 48; ... ; y9 = 54
=>
ȳ = 50
Obwohl beide Mittelwerte hier gleich groß sind, "streut" xi wesentlich stärker, als yi !
Es liegt auf der Hand, den mittleren Abstand xi von x̄ als Maß zu nehmen, doch läßt sich zeigen, daß der
Mittelwert der Differenzen xi - x̄ immer zu Null führt:
n
n
∑
∑
n
∑
1
1
1
n i=1 (xi - x̄) = n i=1xi - n i=1 x̄ = x̄ - x̄ = 0
Es bietet sich also an, die Beträge der Differenzen aufzusummieren:
m
∑
1
n i=1 | xi - x̄ |bzw.
m
∑
1
n i=1 | xi - x̄ |·k(xi)
Durch den Betragsausdruck wird diese Formel in der Regel jedoch zu umständlich, d.h. sie ist aufgrund ihres
mathematischen Aufwands für Computeranwendungen schlichtweg ungeeignet!
Um nun endlich zu einem geeigneten Streumaß zu kommen, definieren wir die Varianz s²:
m
m
∑
∑
n
1
(xi - x̄)·k(xi) = n-1
(xi - x̄)·h(xi)
s² = n-1
i=1
i=1
Durch die Quadrierung wird nun den Werten mit größerer Abweichung auch größeres Gewicht gegeben.
Aus dieser Definition, die zwar willkürlich3, aber sinnvoll ist, lassen sich einige Folgerungen ziehen:
Die Varianz kann nie negativ werden, d.h. s² ≥ 0.
Ist sie Null, dann haben alle Merkmalswerte xi den gleichen Wert.
Man schreibt (vor allem in der Physik) auch
n
∑
1
(xi - x̄)² .
s² = n-1
i=1
Man spricht hier dann von der Summe der Abweichungsquadrate.
Die Standardabweichung s ist definiert als
s = s²
Die Dimensionen von x̄, xi und s sind gleich.
z.B.: xi = 40; 50; 60 => x̄ = 50 ; n = 3 => s² = ½·(100 + 0 + 100) = 100 => s = 10
yi = 49; 50; 51 => ȳ = 50 ; n = 3 => s² = ½·(1 + 0 + 1) = 1 => s = 1
Zur Varianz gibt es eine Berechnungsvereinfachung durch folgende Formel:


1 
s² = n-1  xi²·k(xi) - nx̄²
î î i=1


n
∑
Übungen:
3
Beweis der Vereinfachungsformel
Im Beispiel "Augensumme mit 2 Würfeln" Mittelwert, s² und s berechnen
Varianz und Standardabweichung werden in der Literatur nicht einheitlich, sondern für verschiedene Formeln benutzt:
1 m
=>
"Varianz der Stichprobe"
n-1 i=1 (xi - x̄ )² k(xi)
∑
=>
=>
6
1 m
n i=1 (xi - x̄ )² k(xi)
n-1
∑
"Varianz der Grundgesamtheit"
"Anzahl der Freiheitsgrade"
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen
Teil II: Elemente der Wahrscheinlichkeitstheorie
1. Grundbegriffe und Operationen
1.1. Experiment und Ereignis
In der Statistik arbeitet man häufig mit den sogenannten Grundmodellen der Wahrscheinlichkeitstheorie.
Die wichtigsten sind die Münze, der Würfel und die Urne als Zufallsexperimente E . Diese Experimente
sind beliebig oft wiederholbare Vorgänge, deren Ergebnisse vom Zufall abhängen und nicht im Voraus
bestimmt werden können.
a) Münze EM
Die Erfahrung zeigt, daß die Wahrscheinlichkeit P, beim Werfen Kopf K zu werfen, 50% ist: P(K) = 50%
Die Wahrscheinlichkeit, Zahl zu werfen beträgt ebenso 50%: P(Z) = 50%
Die Summe der Wahrscheinlichkeiten ist also 100%, in der Statistik auch einfach 1. Die Wahrscheinlichkeiten sind dementsprechend P(K) = P(Z) = ½. Man sagt daher auch, K und Z sind gleichwahrscheinlich.
b) Würfel EW
Beim Würfel kommen die Augenzahlen 1 bis 6 mit den Wahrscheinlichkeiten P(1) = P(2) = ... = P(6) = 1/6
vor.
Auch hier sind alle Einzelereignisse gleichwahrscheinlich.
c) Urne EU
Bei der Urne geht man im Allgemeinen von der Lotto-Urne mit 49 von 1 bis 49 durchnumerierten Kugeln aus.
Die Wahrscheinlichkeit, hier eine bestimmte Kugel i zu ziehen, beträgt P( i ) = 1/49 ( mit i ∈ {1.. 49} ).
Alle möglichen vorkommende Ergebnisse, bei der Münze also K und Z, heißen Elementarereignisse. Sie
sind bei den Grundmodellen alle gleich wahrscheinlich. Aus diesem Grund spricht man bei ihnen von
LAPLACE - Experimenten 4.
Auf diesen Grundmodellen bauen dann erweiterte Experimente auf, z.B. würfeln mit zwei Würfeln (EWW ) mit
der Summe ihrer Augenzahlen als Ergebnis. Die dann vorkommenden Ereignisse 2 ; 3 ; 4 ; ... ; 12 sind nicht
mehr gleichwahrscheinlich, wie bereits der Versuch 2 aus dem ersten Teil zeigt !
Auch das allsamstagliche Ziehen der Lottozahlen ( 6 aus 49 ) ist eine Erweiterung aus dem Urnenmodell.
Ziel der Wahrscheinlichkeitstheorie bzw. -Rechnung ist es, Methoden zu entwickeln, mit denen komplizierte
Experimente in den Wahrscheinlichkeiten auf Elementarereignisse zurückgeführt werden können. Dabei bedient sie sich der Mengenlehre als wichtiges mathematisches Hilfsmittel. Wir haben es also mit
und
Mengen
Elementen
Mächtigkeiten einer Menge
a,
| |,
,
,
b,
| |,
,
c,
| |,
zu tun. Dabei sind mit Mächtigkeiten einer Menge die Anzahl der verschiedenen (= nicht derselben)
Elemente von , , , usw. gemeint.
Das Ereignis
a)
1:
r
wird daher als Menge definiert. Das bedeutet z.B. für das Würfelexperiment EW :
Menge aller Ergebnisse mit gerader Augenzahl
=>
1=
{ a2 ; a4 ; a6 }
=>
b)
2: Menge aller Ergebnisse mit 8 ≥ Augenzahl ≥ 5
2 = { a5 ; a6 ; a7 ; a8 }
wobei die in b) vorkommenden Fälle a5 und a6 in EW realisierbar, die Fälle a7 und a8 jedoch nicht realisierbar
sind. Trotzdem gehören sie zur Menge
2
Auf den Sinn solcher nur scheinbar überflüssigen Überlegungen
und Vereinbarungen werden wir an passender Stelle noch zurückkommen.
4
PIERRE SIMON DE LAPLACE : Théorie analytique des probabilités, 1812
Statistik
Seite 7
Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen
Das Elementarereignis ist durch die Menge
oder
#
Z
= { Z }. Die Eigenschaft ci kann in
&
$
!
i
i
definiert, d.h. bei der Münze wäre das die Menge
%
realisiert werden:
i
"
K
={K}
= { ci }. Ein Elementarereignis enthält also
immer nur ein Element: | i | = 1.
'
-Vereinbarungen:
- E ist die Vereinigungsmenge aller Elementarereignisse zum Experiment E .
(
Beispiel Würfel:
*
Beispiel Münze:
,
Beispiel Urne:
W
= { a1 ; a2 ; ... ; a6 } =>
M
= {K;Z}
)
| W| = 6
| M| = 2
+
=>
-
= { b1 ;.., b49 }
=>
| U | = 49
Für LAPLACE Experimente ( d.h. gleichwahrscheinliche Einzelereignisse) folgt daraus für die Wahrscheinlichkeit eines Elementarereignisses Ei :
1
für i = 1; 2; ... ;n
mit n = | SE |
P(Ei ) =
Ein sicheres Ereignis
2
|
/
Daraus ergibt sich, daß
3
0
.
U
E|
ist eine Menge, in der alle möglichen vorkommenden Elemente enthalten sind.
E
eine Untermenge von
1
ist. Auch hierzu wieder ein Würfelbeispiel:
= { a0 ; a1 ; a2 ; ... ; a99 } ist ein sicheres Ereignis, in dem { a1 ; a2 ; ... ; a6 } enthalten ist.
Unter einem unmöglichen Ereignis versteht man die Menge
6
leere Menge ergibt:
9
∩
7
E
={}
, die mit der Menge
8
z.B.: für Würfel ( ! ) EW :
5
E
geschnitten die
= { K, Z }
Einige weitere Bezeichnungen sollen in der folgenden Tabelle zusammengefaßt werden:
= => ∪?
Summenereignis : zu ; und
<
[@ = A + B ]
I =J ∩K
Produktereignis F zu G und H
Q
Einander ausschließende
∩R ={}
Ereignisse O und P
V¯ =W \X
Komplementärereignis U ¯ zu V
Bezeichnung
Definition
E
C
Beispiel aus EW
: gerade Zahl 

: Zahl ≤ 3

ST
und
XY
L
D
M
s.o.
E
= { a1 ; a2 ; a3 ; a4 ; a6 }
N
=>
: Zahl ≤ 3
= {a2}
: Zahl > 4
: gerade Augenzahl
¯ : ungerade Augenzahl
Aus der Definition des Komplementärereignisses folgt:
8
4
Z
Statistik
[ \
∪ ¯ = E
und
]
A∩ ¯ ={}
Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen
1.2. Wahrscheinlichkeitsdefinition
Voraussetzung für die nun folgende Wahrscheinlichkeitsdefinition sind LAPLACE-Experimente, oder anders
gesagt: Die folgende Wahrscheinlichkeitsdefinition gilt nur für Experimente mit gleichwahrscheinlichen Ereignissen.
Definition: Zu einer gegebenen Menge A ist die Wahrscheinlichkeit P:
P(
^
|
) =
_
`
a
∩ E|
| E|
✎ So ist zum Beispiel die Wahrscheinlichkeit eines Elementarereignisses
| i| 1
| i∩ E|
P( i) =
=
für
= n
|
|
|
|
c
b
i
d
e
g
E
f
h
n=| E |
E
und
i = 1;..; n
Allgemein folgt aus der Definition:
a)
P( )=1
j
b)
P(
c)
0 ≤ P(
Die Aussagen zu
m
)=0
und
n
k
)≤1
l
für beliebiges
.
sind aber nicht umkehrbar, aus P = 1 läßt sich z.B. nicht auf ein sicheres Ereignis
schließen.
q
d)
Falls sich zwei Mengen
∩
r
o
= {} =>
|
und
{
e)
|
und
s
P(
}
∪
w
p
t
∪
gegenseitig ausschließen, gilt:
x
|=|
u
) = P(
~
Daraus wiederum folgt:
P( ∪ ¯ ) = P( ) + P( ¯ ) = 1
v
|+| |
y
z
) + P( )
<=>
P(

€
) = 1 - P( ¯ )

Letztere Form findet häufig Anwendung, nämlich immer dann, wenn P( ¯ ) wesentlich einfacher zu bestimmen ist als P(
‚
). 5
✎ z.B.:
ƒ„
EU :
: Ziffer der Kugel nicht durch 7 teilbar
¯ : Ziffer durch 7 teilbar
¯ = { b ; b ; .. ; b }
=>
7 14
49
=>
| ¯ |=7
7 1
=>
P( ¯ ) = 49 = 7
6
=>
P( ¯ ) = 7
…
†
‡
ˆ
Folgerungen:
‰ ,Š
Gegeben seien k Ereignisse
(d.h.
5
Œ
i∩
” •

1
2
, ... ,
‹
k,
j = {} für alle i≠j ), dann folgt:
P( 1 ∪ 2 ∪ 3 ∪ ... ∪
Ž


‘
die sich paarweise ausschließen
k)
= P( ∑
’
i
) = ∑ P(
“
i
)
siehe KOLMOGOROFF 1929: "Axiomatische Wahrscheinlichkeitstheorie" mit a) bis d) als Axiome
Statistik
Seite 9
Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen
✎ z.B.: Elementarereignisse
–
zu E
i
mit i = 1; 2; 3; ... ; n
˜
™
∩ j = {}
n
P(
i ) = P( E ) = 1
=>
=>
i
∑š
—
und n = | E |
für i ≠ j
›
i=1
∑ P( œ
n
∑ 1n
=
n
=
i=1
i=1
i
1
) = n·n = 1
Erweitern wir als nächstes die Grundmodelle:

Es soll mit einem Würfel zweimal (i,j) gewürfelt werden, so daß sich die gleichwahrscheinlichen Elementarereignisse
ij = {aij} ergeben. Der Beweis der Gleichwahrscheinlichkeit sei hier einmal unterschlagen. i
stellt den ersten, j den zweiten Wurf dar, wobei es egal ist, ob mit einem Würfel zweimal hintereinander oder
mit zwei Würfeln gleichzeitig gewürfelt wird.
Es folgt für EWW:
ž
| E | = 36 |
Ÿ
ij
| = 1
P( ij) = 1/36
=>
✎ Es sollen nun zwei Beispiele durchgespielt werden:
a) Augensumme: A : 4
¡
=
¢
13
∪
£
22
¤
∪
31
da diese einander ausschließend sind (!), folgt => P(
¥
3
1
) = 36 = 12
b) ungleiche Augenzahl: B : i ≠ j
¦
Entsprechend gilt für ¯ : Augenzahl gleich ( i = j )
=> P( ¯ ) = 6/36 = 1/6
=>
P( ) = 1 - P( ¯ ) = 5/6
§
¨
©
- Produktereignisse im erweiterten Modell
Für zwei unabhängige Ereignisse
±
²
³
´
dann folgt:
=>
i∗ ∩
¼
gilt:
P(
∗j
=
µ
=>
ij
P(
¶
ij
¬®­
) = P(
¯
°
)·P( )
mit 1. Wurf = i
2. Wurf = beliebig
mit 1. Wurf = beliebig
2. Wurf = j
) = 1/36 = P(
·
i
)·P(
¸
j
)
mit
¹
i
und
º
j
aus EW
die Menge aller Ereignisse mit ungeradem Produkt der Augenzahlen:
= { aij | i · j ungerade } = { aij | i ungerade ^ j ungerade }
Es sei
Es sei
¾
½
u∗
:
1. Wurf ungerade
2. Wurf beliebig
∗u
:
1. Wurf beliebig
2. Wurf ungerade
¿
=>
dann folgt:
=>
10
«
i∗
und
»
und
= { Ai1 , Ai2 , Ai3 , ... , Ai6 }
∗j = { A1j , A2j , A3j , ... , A6j }
a) Es sei
b) Es sei
ª
=
À
u∗
∩
Á
∗u
Â
| | = 9
Statistik
=>
Ã
P( ) = 9/36 = 1/4
Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen
Es gilt allgemein:
Falls
Ä ,Å
unabhängige Ereignisse sind, folgt
P(
Æ ,Ç
) = P(
È
É
)·P( )
c) Zweimaliges Ziehen mit Zurücklegen aus der Urne: EUUm
Ê
| UUm | = 49² = 2401 =>
Es sei
Î
P(
Ë
ij )
Ì
= 1/49² = P(
i)
P(
Í
)
j
die Menge der Ereignisse mit dem Produkt aus i und j ungerade, d.h. i und j ungerade (s.o.),
wobei das erste Ergebnis vom zweiten unabhängig ist.
Ï
i:
i-ter Zug ungerade für i = 1; 2
Ð
Ñ Ò
Õ ¯ : Produkt gerade, d.h. mindestens eine Kugel gerade
Ó
Ô
= P( i) · P( j) = (25/49)² ≈ 26%
j)
P( ) = P( i
=>
Ö
×
P( ¯ ) = 1 - P( ) ≈ 74%
=>
d) Münzwurf: EMM
K
Z
EKK
EZK
EKZ
EZZ
1.Münze
2. Münze
K
Z
Ø
| MM | = 4
Für die Ereignisse und deren Wahrscheinlichkeiten gilt dann:
A0 = EZZ
=>
P(
A1 = EKZ ∪ EZK
=>
P(
A2 = EKK
=>
P(
Ù
Ú
Û
= ¼
1)
= ½
2)
= ¼
ß
Man sagt auch: Zu einer Menge
Experiment:
0)
i
P(
Ü
0∪
Ý
1∪
Þ
2) = ¼ + ½ + ¼ = 1
gibt es ni "günstige Ergebnisse".6
KK
8 von 40
ZK, KZ
19 von 40
theoretisch: 10/40
20/
40
ZZ
13 von 40
10/
40
Für eine genügend hohe Anzahl an Experimentdurchgängen n läßt sich zeigen:
ni
P(Ai) = nlim
→∞ n
oder sogenannter χ ² - Test
"Gesetz der großen Zahlen"
1.3. Wahrscheinlichkeitsoperationen
Additionssatz für
P(
â
∪
ã
) ( bzw.
à
und
á
beliebig:
P(A+B) ) = P(
Die "Schnittmenge" von
î
und
ï
ä
å
) + P( ) - P(
æ®ç
) da
|
è
∪
é
| = |
ê
ë ì
|+| |-|
∩
í
|
muß abgezogen werden, da deren Elemente zunächst doppelt gezählt
werden!
6
ð ñ ò
vergleiche auch: Ansatz von D´ALAMBERT (1717-1783) :
0 , 1 , 2 sind gleichwahrscheinliche Ereignisse =>
Statistik
ó
ô
õ
P( 0) = P( 1) = P( 2) = 1/3
Seite 11
Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen
✎ Beispiel:
ö
EWW:
: mindestens einmal die Augenzahl 6
=>
÷
=>
P(
þ
ù
i:
i-ter Würfel hat Augenzahl 6
) = P(A1+A2) = P(
ú
P(
û
1) + P( 2) - P(
= 1/6 + 1/6 - 1/36 = 11/36 ≈ 30,6 %
ø
ü ý
1
= 1/6
i)
2)
Zur Bestätigung:
= {a16 , a26 , a36 , a46 , a56 , a66 , a65 , a64 , a63 , a62 , a61 }
=>
|
ÿ
| = 11
( Zum Vergleich:
Eine Rechner-Simulation mit n = 50.000 lieferte P(
) = 30,74 % .)
(=> Aufg. 1.3. bis 1.5.)
Hinweise:
a) Falls sich
und
gegenseitig ausschließen, ist
P(
) = 0
b) Die Berechnung von P(
ba)
∩
=>
P(A+B) = P(
) ist für
und
= { } , woraus folgt:
unabhängig:
P(
) = P(
) + P( )
) P( )
(-> s.o.)
bb) abhängige Ereignisse:
- am Beispiel des Urnenmodells mit mehrfachem Ziehen ohne Zurücklegen EUUo erklärt:
α) 1. Kugel = i
2. Kugel = j
P( i) = 1/49
mit j ≠ i
=>
P( j) = 1/48
für die Wahrscheinlichkeit, eine bestimmte Kugelkombination zu ziehen:
P( ij) = 1/49 · 1/48 = 1/2352
=>
=>
β) Gerade / ungerade Kugeln:
Ist
Ai = i-ter Zug[ i = 1; 2 ]
A1
A2 :
gerade
P(A1g)=24/49
P(Ag2)=23/48
P(A1gAg2)=24/49 · 23/48=23,5%
P(Au2)=25/48
P(A1gAu2)=24/49 · 25/48=25,5%
ungerade
P(A1u)=25/49
P(Ag2)=24/48
25
P(A1uAg2)= /49 · 24/48=25,5%
P(Au2)=24/48
P(A1uAu2)=25/49 · 24/48=25,5%
gerade
ungerade
2
abhängig von
2
ist ein bedingtes Ereignis (vom Ergebnis des Ereignisses
1
wie in unserem obigen Beispiel, dann sagt man:
Die mathematische Schreibweise hierfür ist:
[ 2 unter der Bedingung von
2|
1
1
1]
!
Man spricht auch von der bedingten Wahrscheinlichkeit:
P( 2 | 1),
z.B.:
P( 2u | 1u) = ½
Der allgemeine Multiplikationssatz lautet somit:
P(
12
"#
) = P(
$
) · P(
Statistik
% |&
)
abhängig).
Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen
✎ z.B.:
'
(
Das Produkt zweier Zahlen (des Urnenmodells von oben) sei ungerade,
d.h. 1 ungerade und 2 ungerade.
=>
Für unabhängige Ereignisse
P(
Verallgemeinerung:
12
5
k
a) Falls die Ereignisse
/
) = P(
und
) = P(
3
0
* +
2u)
1u
= P(
2u I
.
1u)
= 25/49 · 24/48 = 25,5%
paarweise unabhängig sind, gilt für die Produkwahrscheinlichkeit:
· P(
b) Falls sie voneinander abhängig sind, gilt:
=>
P( 1, 2, 3, ... , m) = P( 1) · P(
D
2|
E
k
3,
? @ A
-
: k = 1; 2; 3; ... ; m
6
2
· P(
4
2)
1
1u)
) · P( )
<
P(
,
gilt auch hier:
· P(
=>
7 ,8 ,9
)
P(
:
... ,
m)
;
= P(
B
1)
C
=
3)
1)
· P(
· ... · P(
F
3|
>
m)
G H
1
2)
· ... · P(
I
m|
J K L
1
2
3...
M
m-1)
✎ Beispiele:
α)
Ziehen von drei Kugeln aus einer Urne mit 10 weißen und 39 schwarzen Kugeln: EUUUo
Dann ist die Wahrscheinlichkeit, drei weiße Kugeln zu ziehen:
: Ziehen von 3 weißen Kugeln
N
O
P(
P
i:
Ziehen einer weißen Kugel beim i-ten Zug ( i = 1; 2; 3)
Q
R S
) = P(A1, A2, A3) = P( 1) · P( 2 | 1) · P(
= 10/49 · 9/48 · 8/47 = 0,65%
Vergleich: EUUUm = (10/49)3 = 0,85%
T |U V
3
1
2)
( => Aufg. 1.6. bis 1.8. )
✎
β)
Qualitätskontrolle: Ein Glühbirnenhersteller liefert 100 Glühbirnen und garantiert, daß höchstens
10% der Glühbirnen defekt sind. Man einigt sich mit dem Abnehmer auf folgendes Testverfahren:
Drei Glühbirnen der Lieferung werden (zerstörend) getestet. Wenn alle drei in Ordnung sind, wird
die Lieferung angenommen (accept), andernfalls wird sie zurückgewiesen (reject).
Wie groß sind die Wahrscheinlichkeiten, daß das Testverfahren eine Zurückweisung ergibt,
obwohl höchstens 10 % der Birnen defekt sind und daß das Testverfahren eine Annahme ergibt,
obwohl mehr Birnen defekt sind?
β1)
Hypothese: Es sind genau 10% der Birnen defekt (zulässiger Grenzfall):
Dann gilt für die Wahrscheinlichkeit der Annahme mit
i <=> i-ter Zug o.k.:
Y , Z , [ ) = / · / · / = 72,7%
Die Wahrscheinlichkeit, daß die Lieferung zurückgewiesen wird, obwohl sie o.k. ist, ist somit
P(\ ¯ ) = 27,3%
P(
X
W
) = P(
1
2
3
90
100
89
99
88
98
Diesen Fall nennt man Herstellerrisiko (Produzentenrisiko).
β2)
Es sind höchstens 10% der Birnen defekt:
=>
P( ) ≥ 72,7%
=>
P( ¯ ) ≤ 27,3%
]
^
Statistik
Seite 13
Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen
β3)
Entsprechend zum Herstellerrisiko gibt es auch das Abnehmerrisiko (Konsumentenrisiko), also die
Wahrscheinlichkeit, daß alle drei Testglühbirnen o.k. sind, obwohl mehr als 10% der Lieferung
kaputt sind.
Es seien genau 11 Glühbirnen defekt, dann gilt:
=>
P( ) = P( 1, 2, 3) = 89/100 · 88/99 · 87/98 = 70,2%
_
` a b
β4)
Für eine Lieferung mit mindestens 11 defekten Glühbirnen gilt somit:
=>
P( ) ≤ 70,2%
c
Man spricht in diesem Zusammenhang auch von der Operations Charakteristik zur Qualitätskontrolle.
Allgemein läßt sich abschließend zum Thema Wahrscheinlichkeitsoperationen sagen, daß die Frage, ob die
Ereignisse abhängig oder unabhängig voneinander sind, in der Praxis durch die Natur des Experiments
beantwortet wird, während die mathematisch-statistische Definition auf den Wahrscheinlichkeiten beruht:
P(
) = P( )·P( )
=>
, unabhängig.
de
f
g
h i
Im folgenden wird bedingte Wahrscheinlichkeit nicht mehr behandelt.
( => Aufg. 1.9. bis 1.11 )
2. Diskrete Wahrscheinlichkeitsfunktionen
2.1. Der Begriff der Zufallsvariablen
Der Begriff der Zufallsvariablen läßt sich nur sehr schwer definieren. Im folgenden verstehen wir darunter
Ereignisse, die so formuliert werden, daß bei der Durchführung der jeweiligen Experimente die möglichen
Ereignisse durch Werte c ∈ INo realisiert werden.
Am Besten läßt sich dieser Sachverhalt an folgenden Beispielen erläutern:
a) EW : Zufallsvariable X
X : 1; 2; ... ; 6
(X = 0 wäre ein unmögliches Ereignis)
b) EWW : Augensumme Y
Y: 2; 3; ... ; 12
c) Skatspiel: Ziehen je einer Karte aus zwei Skatspielen: Anzahl ♣ As
X : 0; 1; 2
(X < 0; X > 2 unmöglich)
d) Münzwurf: X sei die Anzahl der Münzwürfe mit einer Münze, bis zum 1. Mal Kopf erscheint.
=> X ∈ IN
Dann ist E das (Zufalls-) Experiment, X die durch E erzeugte Zahl, bzw. die Zufallsvariable mit den möglichen
Realisierungen c ( c ∈ INo).
(Auch: X sei Funktion des Zufalls)
Man versucht also, ein Experiment in geeignete Zufallsvariablen zu übertragen:
✎ z.B.:
EM : Das Ergebnis K entspricht einem X = Anzahl Kopf = 1,
=>
Z = K̄ entspricht X = 0
X = c ∈ INo : Ereignis => "Realisierung der Zufallsvariable"
P(X = c) Wahrscheinlichkeit des Ereignisses (bzw. der Realisierung) X = c.
14
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen
Beispiele Ereignisse / Zufallsvariable:
A:
B:
C:
D:
X = 1
X < 10
X ≥ c
c1 ≤ X ≤ c2
Entsprechend gilt für Wahrscheinlichkeiten P:
a) EWW : Augensumme
c :
P( X = c)
<2
2
3
...
12
> 12
0
1/
36
2/
36
...
1/
36
0
:
P ( X < 4) = 1/12
P ( X ≥ 11) = 1/12
P (6 ≤ X ≤ 8) = 4/9
( 1/36 + 2/36 )
( 16/36
)
b) EM : Münzwurf: Y sei die Anzahl Würfe, bis zum erstenmal Kopf fällt
Y=0
=>
P( Y = 0 ) = 0
Y=1
=>
P( Y = 1 ) = 1/2
Y=2
=>
P( Y = 2 ) = 1/4
Y=3
=>
P( Y = 3 ) = 1/8
:
:
:
Y=k
=>
P( Y = k ) = 1/2k
k ∈ IN
Da die Realisierungswerte (1, 2, 3, ... ) alle einen bestimmten Abstand (hier 1) voneinander haben, spricht
man auch vom diskreten Abstand der Realisierungswerte oder von diskreter Zufallsvariable.
Für die Zufallszahlen gelten folgende Formeln:
¯ : X > c =>
: X≤c
=>
a)
P( X ≤ c ) = 1 - P( X > c )
=>
P ( X > c ) = 1 - P( X ≤ c )
=>
=>
P( X < 0 ) = 0
P( X < ∞ ) = 1
j
b)
k
X < 0:
X < ∞:
✎ z.B.:
c)
l
unmögliches Ereignis
sicheres Ereignis
P( X < 7 ) = P( X < ∞ ) = 1
EW :
1:
=>
=>
X < c1,
m
(vorläufig)
n
o
c1 ≤ X ≤ c2 mit c1 < c2
=>
1∩
2 = {}
P( 1 ∪ 2 ) = P( 1) + P( 2)
P( X < c2 ) = P[ ( X < c1 ) ∨ ( c1 ≤ X < c2 ) ] = P( X < c1 ) + P( c1 ≤ X < c2 )
( = P( X < c1 ) + P( X < c2 ) - P( X < c1 ) )
2:
p
q
r
s
( => Aufg. 2.1 / 2.2 )
2.2. Wahrscheinlichkeitsfunktion
Als Vereinbarung wollen wir im folgenden für die Wahrscheinlichkeit P von realisierbaren Werten Pi sprechen:
P ( X = xi ) = pi > 0
Statistik
Seite 15
Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen
Für das Beispiel " EM bis einmal Kopf fällt " hieße das:
für i ∈ IN
P( X = i ) = 1/2i
Die Wahrscheinlichkeitsfunktion f(x) in der Statistik ist wie folgt definiert:
für x ∈ IR
f(x) := P( X = xi )


f(x) =
pi für x = xi i = 0; 1; 2; ...
î
0 für x ≠ xi
Als Beispiel soll die Wahrscheinlichkeitsfunktion des Würfels (EW) dienen:


f(x) =
1/
6
î
für i = 1; 2; ... ; 6
0 sonst
Die Wahrscheinlichkeitsdefinition hat starke Ähnlichkeit mit der auf Seite 5 besprochenen Häufigkeitsfunktion, hat mit dieser jedoch nichts zu tun.
Aus der Definition der Wahrscheinlichkeitsfunktion folgt:
Die Summe aller möglichen Realisierungswerte ist 1:
1 = P(x < ∞) = P( x = x1 ∨ x = x2 ∨ ... ∨ x = xk ) = P( x = x1 ) + P( x = x2 ) + ... =
∑f(xi)
=>
✎ z.B.:
i
= 1
i
6
6
i=1
i=1
∑f(xi) = ∑1/6
EW :
∑ f(xi)
mit f(xi) = pi = 1/6
= 1
Um die Rechnungen mit der Wahrscheinlichkeits- und ähnlichen Funktionen verstehen zu können, werden
noch einmal die wichtigsten Summenformeln zusammengestellt:
n
a)
∑i
=
i=1
n-1
b)
∑ qi
i=0
n-1
c)
n (n+1)
2
1 - q"
= 1-q
∑ i qi
i=1
q
= (1-q)² · [(n-1) qn - nqn-1 + 1]
n-1
=>
∑ i·qi
i=1
∞
d)
=>
∑ qi
i=0
∞
e)
∑ i2 qi
i=1
Beispiel:
q≠1
q
= (1-q)²
1
= 1-q
für |q| < 1
1+q
= q ·(1-q)³
für |q| < 1
Wenden wir beispielsweise Formel d) auf den bereits bekannten Fall " EM bis einmal Kopf fällt "
an:
P( X = i ) = 1/2i
∞
∞
1
1/ i =
=>
P( x < ∞ ) =
f(xi) =
(½)i - 1 = 1-½ - 1 = 2 - 1 = 1
2
∑
i
16
für |q| < 1
∑
i=1
Statistik
∑
i=0
Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen
oder:
9
P( X ≥ 10 )
= 1-P( X < 10 ) = 1 -
∑(½)i
9
= 1- [
i=1
∑(½)i - 1 ]
i=0
1-(½)10
= 2 - 1-½
= 2-2(1-1/1024) = 1/512 = 0,2%
Zum zweiten definieren wir noch die Verteilungsfunktion einer diskreten Zufallsvariablen, die Ähnlichkeit mit
der auf Seite 5 vorgestellten Verteilungsfunktion (Treppenfunktion) hat:
F(x) = P( X ≤ x ) =
∑ f(xi)
xi≤x
Aus dieser Definition ergeben sich einige Folgerungen:
für x ∈ IR-
a)
f(x) = F(x) = 0
b)
x→∞F(x)
c)
P( x > b ) = 1 - P( x ≤ b ) = 1 - F(b)
lim
= P( x < ∞ ) = 1
, da F(b) = P( x ≤ b )
=>
=>
P( x ≤ b ) = P([x ≤ a] + [a < x ≤ b]) = P(x ≤ a) + P( a < x ≤ b )
P( a < x ≤ b ) = P( x ≤ b ) - P( x ≤ a )
P( a < x ≤ b ) = F(b) - F(a)
für a < b
=>
=>
=>
P( a < x ≤ b ) = P( x ≤ b ) - P( x < a ) ≥ 0
P( x ≤ b ) ≥ P( x < a )
F(b) ≥ F(a)
für a < b
F(x) ist monoton wachsend
d)
e)
( => Aufg. 2.3. )
2.3. Maßzahlen
Der Mittelwert µ einer diskreten Zufallsvariablen ist folgendermaßen definiert:
µ =
∑ xi f(xi)
i
( zum Vergleich: Stichprobe:
x̄ =
∑ xi h(xi)
)
i
✎ Als Beispiel muß mal wieder der altgediente Würfel herhalten (EW):
6
µ =
i 1/6 = 3,5
∑
i=1
Aus der Mittelwertsdefinition, die einige Ähnlichkeiten mit der Mittelwertsdefinition x̄ zur Stichprobe auf den
Seite 5 aufweist, ergeben sich einige Folgerungen:
a)
∑ (xi - µ) f(xi)
= 0
(Beweis später)
i
b)
Min(xi) ≤ µ ≤ Max(xi)
c)
Für f(x) symmetrisch zu c, d.h. f(c+x) = f(c-x)
✎ z.B.:
EW: c = 3,5 = µ
Statistik
=>
µ = c
Seite 17
Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen
( => Aufg. 2.4. - 2.6. )
Entsprechend zu den Überlegungen auf Seite 6 definiert man auch für die Zufallsvariablen als Maß für die
Streuung die Varianz σ²:
σ² =
∑ (xi - µ)² f(xi)
i
Zu dieser Formel gibt es ebenfalls eine Berechnungsvereinfachung, die später noch bewiesen wird:
σ² =
∑ xi² f(xi) - µ²
i
Die (positive) Wurzel aus der Varianz ist wieder die Standardabweichung:
σ =
σ²
( Der "Variationskoeffizient" oder "statistische Fehler" ist durch s/x̄ definiert. )
✎ z.B.: EW
6
σ² =
∑ ( i - 3,5 )² ·1/6
i=1
6
= 1/6 ·
∑ ( i - 3,5 )²
i=1
= 35/12 = 2,92
σ = 1,71
=>
P(µ-σ ≤ X ≤ µ+σ)
EW =>
= P( 3,5-1,71 ≤ X ≤ 3,5+1,71 ) = P( 1,8 ≤ X ≤ 5,2 )
= P( 2 ≤ X ≤ 5 ) = P( X=2 ∨ X=3 ∨ X=4 ∨ X=5 ) = 4/6 = 66,7 %
für viele Zufallsvariable gilt:
P(µ-σ ≤ X ≤ µ+σ) ≈ 2/3
Eine weitere häufig gebräuchliche Maßzahl ist der Erwartungswert g(x) einer Funktion. Als Einführungsbeispiel soll das Roulettebeispiel (Zahlen 0 ... 36) dienen. Die Auszahlungsfunktion für das Auszahlen des
36fachen Einsatzes beim Setzten auf eine Zahl ( xk ) ist:

g(xi) = 
î
36
für xi = xk
0
sonst
Y = g(X)
"durchschnittliche Auszahlung" X: Roulette
P( X = xi ) = 1/37 = f(xi)
=>
x = 0, x = 1, x = 2, ... , x = 36 =>
=>
0·f(0) + 0·f(1) + 0·f(2) + ... + 36·f(xk) + 0·f(xk+1) + ... + 0·f(36)
=>
36/
37
= 97,3% = Y (durchschnittliche Auszahlung)
Die durchschnittliche Auszahlung ("Gewinnerwartung"), d.h. der Erwartungswert beträgt also 97,3%.
Falls die Gewinnerwartung eins ist, spricht man von "fairem Spiel".
Definiert ist der Erwartungswert wie folgt:
E[ g(x) ] =
∑ g(xi) f(xi)
i
18
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
Aus dieser Definition ergeben sich wieder einige Folgerungen:
a)
g(x) = a ∈ IR (const.)
=>
∑ f(xi)
∑ a f(xi)
E(a) =
= a·
=>
E(a) = a
= a
i
i
∑ f(xi)
da
= 1
i
b)
g(x) = x
=>
E(x) =
∑ xi
i
c)
g(x) = xk
E(xk) =
=>
f(xi) = µ =>
∑ xik f(xi)
i
d)
= mk
" k-ter Moment von x "
∑ g(xi) f(xi) + b·∑ h(xi) f(xi)
E[a·g(x) + b·h(x)] = a·
g(x) = x - µ
= a·E[g(x)] + b·E[h(x)]
i
i
e)
E(x) = µ
=>E[x-µ] =
∑ (xi - µ) f(xi)
= 0 da
E[x-µ] = E[x] - E[µ] = µ - µ = 0
i
f)
g(x) = ( x - µ )² =>
E[(x-µ)² ] =
∑ (xi - µ)² f(xi)
= σ² = V(x)
i
σ² = E[x² - 2xµ + µ²] = E[x²] - 2µ E[x] + E[µ²] =
∑ xi² f(xi) - 2µµ + µ²
=
i
∑ xi² f(xi) - µ²
i
(=> Aufg. 2.7. bis 2.12)
3. Diskrete Standardverteilungen
3.1. Permutationen
Unter Permutation (P) von n Elementen versteht man die Anzahl der möglichen Anordnungen dieser Elemente:
Pn = n!
✎ Beispiel:
Die Elemente a, b, c und d:
1.abcd
7.bacd
13.cabd
19.dabc
2.abdc
8.badc
14.cadb
20.dacb
=>
✎ Für das Beispiel EU gilt entsprechend:
3.acdb
4.adbc
9.bcad
10.bdac
15.cbad
16.cdab
21.dbac
22.dcab
P4 = 4! = 24
5.acbd
11.bcda
17.cbda
23.dbca
6.adcb
12.bdca
18.cdba
24.dcba
P49 = 49! = 6,0828·1062
✎ Sind mehrere Elemente gleich, ergibt sich beispielsweise folgende Situation:
1. aaa45
5. aaa54
9. aa5a4
13. a5aa4
17. 5aaa4
2. aa4a5
6. aa45a
10. aa54a
14. a5a4a
18. 5aa4a
=>
5!
120
3! = 6 = 20
Statistik
3. a4aa5
7. a4a5a
11. a45aa
15. a54aa
19. 5a4aa
4. 4aaa5
8. 4aa5a
12. 4a5aa
16. 45aaa
20. 54aaa
Seite 19
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
Sind unter n Elementen n1 Elemente gleich; d.h. bilden sie eine Klasse, dann gilt für die Anzahl der
Anordnungen:
n!
Pn(n1) = n !
1
Entsprechend gilt für zwei Klassen jeweils gleicher Elemente n1, n2:
n!
Pn(n1, n2) = n !·n !
1 2
Und für k Klassen n1, n2 , n3, ... , nk gilt:
n!
Pn(n1, n2 , n3, ... , nk) = n !·n !·n !·..·n !
1 2 3
k
Auch hier lassen sich einige Sonderfälle konstruieren:
a)
n1 = n2 = n3 = ... = nn = 1 =>
n!
Pn(n1, n2 , n3 , ... , nn ) = 1!·1!·..·1! = n!
b)
n1, n2 mit n1 + n2 = n
n!
n!
Pn(n1, n2) = n !·n ! = n !· (n-n )! =
1
1
1 2
=>
nn 
î 1
7
Die hier vorgestellten einfachen Permutationen stellen einen Ausschnitt aus dem Bereich der Kombinatorik
dar.
3.2. Binomialverteilung
Das Grundmodell für die Binomialverteilung von Zufallszahlen stellt das BERNOULLI - Experiment dar 8:
EU: Urne mit
nw
p = n +n
w
s
ns
q = n +n
w
s
t
nw weißen Kugeln
und
ns schwarzen Kugeln, so daß
den Anteil der weißen
und
den Anteil der schwarzen Kugeln angibt.
Bei n Zügen mit Zurücklegen gibt die Zufallsvariable X dann die Anzahl der weißen
Kugeln unter den gezogenen n Kugeln an (X = 0,1,2, ... ,n).
Man sagt: X ist binomialverteilt.
Hinweise:
a) Die Gesamtzahl nw + ns der Kugeln ist ohne Bedeutung, da mit Zurücklegen gearbeitet wird, wichtig sind
nur die relativen Anteile p und q.
b) Falls nw + ns → ∞ , sind Ziehen mit und Ziehen ohne Zurücklegen identisch, weil der Einfluß der einzelnen gezogenen Kugel klein wird gegenüber der Gesamtheit.
c) Das Ziehen eines Elements aus dem Anteil p (hier: weiße Kugel) wird in der Statistik allgemein als Erfolg
bezeichnet.
7
8
20
vgl. Mathematik Grundlagen, Binomialkoeffizient
nach JAKOB BERNOULLI, der sich zuerst mit solchen Experimenten befaßt hat: ars conjectandi, 1713
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
✎ z.B.:
n = 1 (Ein Zug):
P(X=0) = q : kein Erfolg
P(X=1) = p : Erfolg
p heißt daher auch Einzelerfolgswahrscheinlichkeit.
d) Ziel ist es, eine allgemeine Formel für die Wahrscheinlichkeitsfunktion f(x) = P(X=x) zu beliebigem p und
n zu erstellen.
Wir wollen uns einer Formel für das BERNOULLI - Experiment schrittweise über Beispiele nähern:
a) Es sei eine Urne mit 20% weißen Kugeln (p = 0,2) und 80% schwarzen Kugeln (q = 0,8) gegeben. Die Anzahl der Züge sei n = 5. Gesucht ist die Wahrscheinlichkeit, daß genau 2 weiße (d.h. 3 schwarze) Kugeln
gezogen werden ( P(X=2) = ? ). Dann gilt für die möglichen Züge:
u
v
w
1:
x
y
z
{
|
}
~
WWSSS
:
2 WSWSS
3: WSSWS
4: WSSSW
5: SWWSS
6: SWSWS
7: SWSSW
8: SSWWS
9: SSWSW
10: SSSWW
=>
=>
=>
=>
=>
=>
=>
=>
=>
=>
P(WWSSS)
P(WSWSS)
P(WSSWS)
P(WSSSW)
P(SWWSS)
P(SWSWS)
P(SWSSW)
P(SSWWS)
P(SSWSW)
P(SSSWW)
Es gibt, wie schon bei den Permutationen gezeigt,
=
=
=
=
=
=
=
=
=
=
P(W) · P(W) · P(S) · P(S) · P(S)
P(W) · P(S) · P(W) · P(S) · P(S)
P(W) · P(S) · P(S) · P(W) · P(S)
P(W) · P(S) · P(S) · P(S) · P(W)
P(S) · P(W) · P(W) · P(S) · P(S)
P(S) · P(W) · P(S) · P(W) · P(S)
P(S) · P(W) · P(S) · P(S) · P(W)
P(S) · P(S) · P(W) · P(W) · P(S)
P(S) · P(S) · P(W) · P(S) · P(W)
P(S) · P(S) · P(S) · P(W) · P(W)
=
=
=
=
=
=
=
=
=
=
(1/5)²
(1/5)²
(1/5)²
(1/5)²
(1/5)²
(1/5)²
(1/5)²
(1/5)²
(1/5)²
(1/5)²
·
·
·
·
·
·
·
·
·
·
(4/5)³
(4/5)³
(4/5)³
(4/5)³
(4/5)³
(4/5)³
(4/5)³
(4/5)³
(4/5)³
(4/5)³
5
( 3) = 10 Möglichkeiten. Da die Wahrscheinlichkeiten

voneinander unabhängig sind (mit Zurücklegen!), gilt die oben verwendete Produktwahrscheinlichkeit.
Da die einzelnen Ereignisse i ( i = 1, 2, ... , 10) sich gegenseitig ausschließen, gilt für die Wahrscheinlichkeit P(2)
∑€
10
P(x=2) = P(
i=1
i)
∑ P(
9
10
=
i=1
i)
= 10·(1/5)²·(4/5)³ = 0,2048 ≈ 20,5%
b) Als nächstes verallgemeinern wir den Anteil der weißen und schwarzen Kugeln auf p und q und lassen die
Zufallsvariable X allgemein. n sei weiterhin 5. Dann gilt analog zu den Überlegungen zu a):
Anzahl der Anordnungen: P5(x ;5-x) =
f(x) = P(X=x) =
c)
5
x 5-x
( x) p q
Verallgemeinern wir noch die Anzahl der Züge auf n, dann folgt:
Die Wahrscheinlichkeit, daß unter n Zügen x Erfolge sind, ist:
f(x) =
präzise:
9
5
( x)
n
x n-x
( x) p q
f(x) =
 P(X=x) =

î 0
n
x n-x
( x) p q für x = 0, 1, 2, ... , n
sonst
zu Summenereignis vgl. Seite 8
Statistik
Seite 21
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
✎
Als Beispiel soll die Qualitätsprüfung eines Produktionsprozesses dienen, von dem bekannt ist, daß
0,1% Ausschuß unter der Ware ist. Es soll sich um eine Diodenproduktion handeln, bei der 10
Dioden geprüft werden und die Wahrscheinlichkeitsfunktion f(x) gesucht ist. Da die Menge der
produzierten Dioden sehr groß ist, tritt Fall b) der o.a. Hinweise ein.
x
n = 10; p = 1/1000
=>
f(x) =
10-x
10  1   999 
( x ) ·î 1000 ·î 1000
Die Wahrscheinlichkeit, daß mindestens eine davon defekt ist, ist:
P( X ≥ 1) = 1 - P( X = 0) ≈ 1 - 0,99 = 0,01 = 1%
Zur Kontrolle soll noch die Summe der Wahrscheinlichkeiten aller Realisierungen von X betrachtet
werden; diese muß ja bekanntlich 1 sein:
n
P( X < ∞) =
∑ f(x)
x=0
n
=
∑ ( nx)
px qn-x = (p+q)n = 1n = 1
q.e.d.
x=0
Binomischer Satz!
✎
Als zweites Beispiel soll ein Produktionsprozeß betrachtet werden, der auf 4 gleichartigen
Maschinen läuft, von denen die statistischen Ausfälle bekannt sind:
Ai : Ausfall der i-ten Maschine (relative Ausfallzeit)
P(Ai) = p : Ausfallrate oder -Risiko, p betrage 5%
(Statistisch: Erfolg!)
P(Ai) = q : Zuverlässigkeit
X = x : Gleichzeitiger Ausfall von x der vier Maschinen
=> P( X = x ) =
4
( x ) px q4-x
Es seien mindestens drei Maschinen in Ordnung, d.h. es ist höchstens eine defekt, dann gilt für
diese Wahrscheinlichkeit:
P(X ≤ 1) = f(0) + f(1) ≈ 98,6%
Entsprechend gilt für die Wahrscheinlichkeit, daß gleichzeitig mehr als eine Maschine defekt ist:
P (X ≥ 2) = 1 - P(X ≤ 1) ≈ 1,4%
6,7 Min. bei einer 8 Std.-Schicht
=>
( => Aufg. 3.4. bis 3.7.)
Diese Beispiele zeigen die Bedeutung der Statistik in betriebswirtschaftlichen Überlegungen.
Die Binomialverteilungen zeigen bestimmte Eigenschaften auf:
a) Symmetrie: Zu einem
daß gilt:
f1(x) =
f1(x) mit n, p1, q1 läßt sich ein f2(x) mit n, p2 = q1= 1- p1, q2 = p1 konstruieren, so
f2(n-x)
Beweis: f2(n-x) =
n
n
n
n
n-x
n-x
x
n-(n-x) =
( x) q1 ·p1 , da ( n-x) = ( x) q.e.d.
( n-x) p2 q2
n
n
für p = ½ : Behauptung: f( 2 - x) = f( 2 + x)
=>
f(y) = f(n-y) =
mit:
n
n
2 - x = y => x = 2 -y
n
n
y
n-y
n
( n-y) ·(½) ·(½) = ( y) ·(½) = f(y)
b) Rekursionsformel: Zur einfachen Berechnung von f(x) gilt folgende Rekursionsformel:
f(0)
f(x+1)
22
= qn
n-x p
= x+1 · q · f(x)
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
Beweis:
f(x+1)
=
î n  px+1 qn-(x+1)
x+1
n!
= (x+1)! (n-[x+1])! ·p·px · qn-x-1
p
n!
= x!·(x+1)·(n-x-1)! · q· px · qn-x
n!
n-x p
= x+1 q x!·(n-x)!
n-x p
= x+1 · q · f(x) q.e.d.
c) Maximaler Funktionswert: f(xmax): Allgemein folgt aus der Rekursionsformel ( siehe
n-x p
n-x p
n-x
scheinlichkeitsfunktion f(x) für x+1 · q > 1 steigt und für x+1 · q < 1 sinkt. Für x+1
Maximum auf:
<=>
<=>
=>
n-x p
x+1 · q = 1
(n - x) p = (x+1) q
np - q = qx + px
xmax = np - q
b) ), daß die Wahrp
· q = 1 zeigt sie ein
, da q + p = 1
Da np - q nicht unbedingt ∈ INo sein muß, gilt für die Zufallsvariable xmax mit dem maximalen Funktionswert:
Die kleinste Zahl x ∈ INo mit x ≥ np - q führt zu einem Maximum von f(x).
Falls np - q ∈ INo
=>
f(np - q) = f(np - q + 1)
=>
Maximum von f(x) zu zwei Variablen.
✎ z.B.: n = 8:
α) p = 0,1
np-q = 0,8 - 0,9 = -0,1
=>
xmax = 0
β) p = 0,25 np-q = 2 - 0,75 = 1,25
=>
xmax = 2
γ)
np-q ∈ INo
=>
f(np-q) = f(np-q+1) : Maxima
für n = 8
=>
p = 2/9
=>
np-q = 16/9 - 7/9 = 1
f(1) = f(2) : Maxima
=>
d) Verteilungsfunktion: P(X≤x) = F(x) =
∑ f(k)
x
∑ ( nk)
=
k≤x
pk qn-k
k=0
Hierzu gibt es keine einfache Summenformel => Tabellen benutzen
✎ z.B.:
Ziehen je einer Karte aus sechs Skatspielen.
X : Anzahl gezogener Asse =>
p = 4/32 = 1/8
: mindestens 2 Asse
P( )
= P(X≥2)
= 1-P(X≤1)
‚
mit n = 6
ƒ
6 10 76 6 11 75
î 0·î 8 ·î 8 + î 1·î 8 ·î 8 
= 1-î
= 1 - 0,833 = 16,7%
e) Kennzeichnung:
Die Funktionen zur Binomialverteilung werden im Folgenden mit einem B als Index gekennzeichnet:
P(XB = x) = fB(x, n, p)
Statistik
Seite 23
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
f) Für den Mittelwert und die Varianz der Binomialverteilung gelten folgende Formeln:
∞
n
n x n-x

=
µ = E(XB) =
x î x p q
x·fB(x) = np
∑
∑
x=0
σ² = V(x) = E[(x-µ)²] =
x=0
n
n
x=0
x=0
∑ (x-µ)²·fB(x) = ∑
x² f(x) - µ² = npq
(=> Aufg. 3.1. bis 3.15.)
Die Binomialverteilung baut auf dem BERNOULLI - Experiment mit Zurücklegen auf. Für ein entsprechendes
Experiment ohne Zurücklegen gilt die sogenannte hypergeometrische Verteilung :
Befinden sich in einer Modell-Urne N Kugeln, darunter M weiße (und N-M schwarze) dann gilt auch hier für
die Einzelerfolgswahrscheinlichkeit:
M
p = N
Bezeichnet die Zufallsvariable X die Anzahl der Erfolge beim Ziehen von n Kugeln (n ≤ N) , dann gilt für die
Wahrscheinlichkeitsfunktion fH(x):
î M·N-M
x î n-x 
fH(x) = P(XH=x) =
î N
x ≤ M, x ≤ n
n
Die praktische Bedeutung der recht aufwendigen hypergeometrischen Verteilung ist gering, da sie sich für
eine große Grundgesamtheit N der Binomialverteilung gut nähert und im Grenzfall sogar gilt:
lim fH(x) = fB(x)
N→∞
3.3. POISSON - Verteilung 10
Als Einführungsbeispiel soll der radioaktive Zerfall dienen. Dabei sei zunächst von einer Masse - Halbwertszeit - Kombination ausgegangen, aus der sich eine durchschnittliche Zerfallsrate von einem Zerfall pro Sekunde ergibt.
Der Zerfallsprozess läßt sich dann als BERNOULLI-Experiment deuten, wenn man beispielsweise eine
Sekunde in 10 Teilintervalle von 1/10 sec. unterteilt, in denen durchschnittlich in 1 Teilintervall ein Erfolg im
statistischen Sinne (=Zerfall) und in 9 Teilintervallen kein Erfolg stattfindet. Die Einzelerfolgswahrscheinlichkeit beträgt also
p = 1/10
Da die Zerfallsprozesse unabhängige Ereignisse darstellen, ist auch diese Forderung des BERNOULLI - Experimentes erfüllt. Bezeichnen wir nun die Anzahl der Teilintervalle mit Erfolg mit X, dann gilt mit
n = 10
und
p = 1/10 :
P(X=x) = fB( x, n=10, p=1/10 )
1. Erweiterung
Die Anzahl der Teilintervalle pro Sekunde wird allgemein auf n erweitert, so daß folgt:
=>
P = 1/n
bei n Zügen
1
=> P(X=x) = fB(x, n, p= /n )
10
24
S.D.POISSON, 1837
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
Für große n (d.h. kleine Teilintervalle) ist die Wahrscheinlichkeit
„
maximal mit
x = np - q
x = n·1/n - n-1/n = 1-1+1/n = 1/n
=>
=>
xmax = 1
( n>1! )
( Das x maximaler Wahrscheinlichkeit ist ja das kleinste x∈INo mit x≥np-q und q=1-p . )
- für die Grenzfälle x = 0:
P(X=0) =
î n·p0·qn-0 = qn = (1 - 1/n)n
0
lim ( 1 - 1/n )n = e-1
=>
11
n→∞
und x = n (0 ≤ x ≤ n):
P(X=n) =
î n·pn·qn = pn = (1/n)n
n
lim (1/n )n = lim e-n ln(n) = 0
=>
n→∞
n→∞
2. Erweiterung
Es sollen allgemein µ Zerfallsprozesse pro Sekunde (im Durchschnitt) stattfinden, dann gilt auch hier für n
Teilintervalle mit ∆t = 1/nsec. für n » µ:
Einzelerfolgswahrscheinlichkeit: p = µ/n
P(XB=x) = fB (x, n, µ/n)
…
=>
µ
µ
µ
n·n - 
î 1 - n = µ - 1 + n
xmax = µ
(analog zur 1. Erweiterung)
†
P(x=0) =
n
1 - µ = qn
î
n
n
n
lim 1 - µ = lim 1 + 1  = e-µ
n
-n 
n→∞
n→∞î
µ 
î
=>
‡
12
n
P(x=n) =
µ = pn
î n
n
lim µ = lim en (lnµ - lnn) = 0
n→∞î n
n→∞
=>
Ergebnis: Die POISSON-Verteilung ist der Grenzwert der Binomialverteilung mit
lim fB(x)
und
µ = n·p = const.
n→∞
Mit Hilfe der Grenzwertrechnung definiert man als Wahrscheinlichkeitsfunktion der POISSONVerteilung:
µx
fP(x, µ) = lim fB(x, n, µ/n ) = x! · e-µ
n→∞
mit
fp(x) > 0
für x ∈ INo
13
Anwendungen: "Warteschlangenmodelle"
11
12
13
vgl. Mathematik "Methoden der Grenzwertberechnung", 2c
vgl. Mathematik "Methoden der Grenzwertberechnung", 2c
n!
lim µx
Mit "STERLING'scher Formel" lim
=>
x! = 0 => P(X=n) = 0
n
n→∞
x→∞
n

2πn·î e
Statistik
Seite 25
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
Daraus ergeben sich einige Eigenschaften der POISSON-Verteilung bzw. deren Funktion:
a)
fP(0) = e-µ
b)
f (x,
x→∞ P
c)
P(X<∞) =
lim
µ) = 0
lim
∞
F(x) =
x→∞
∑
x=0
fP(x, µ) = 1
lim
mit:
∞
F(x)=
x→∞
∑ µx! · e-µ
x
x=0
∞
= e-µ·
x
F(x) = P(XP≤x) =
d)
e)
∑
∑
µx
-µ µ
x! = e ·e = 1
x=0
∞ xn
[Taylor-Reihe: Σ
n=0 n!
= ex ]
x
f(t) = e-µ ·
t=0
∑
µt
t! =>
t=0
Tabelle (Verteilungsfunktion)
E(XP) = µ
V(XP) = σP² = µ
Anmerkung:
Als Mittelwert stellt sich tatsächlich der Wert der durchschnittlichen Ereignisse pro (Zeit -) Einheit
heraus; die Einführung des Buchstabens µ für diesen Wert findet hier Ihre Begründung.
f)
fP(x+1) = µ/x+1 · fP(x)
Rekursionsformel:
und
fP(0) = e-µ
x ∈ INo
xmax ≈ µ
=>
Die POISSON-Verteilung stellt einen Grenzfall der Binomialverteilung dar. Für große n kann die Binomialdurch die POISSON-Verteilung gut angenähert werden. Daß dadurch der rechentechnische Aufwand erheblich
geringer ist, soll das erste Beispiel verdeutlichen:
✎ Beispiel 1:14
Es sei bekannt, daß 0,005% einer Bevölkerungsgruppe jährlich durch einen gewissen Unfall getötet
werden. In einer Versicherung sind 10.000 Personen dieser Risikogruppe gegen diesen Unfall
versichert. Gesucht ist die Wahrscheinlichkeit, daß in einem gegebenen Jahr mehr als drei dieser
Versicherten durch den genannten Unfall umkommen.
p = 0,00005 = 5·10-5
µ = n·p = 0,5
=>
=>
n = 10.000
x>3
Mit Hilfe der Binomialverteilung errechnet sich diese Wahrscheinlichkeit wie folgt:
P(XB>3) = 1 - P(XB≤3) = 1 - [fB(0) + fB(1) + fB(2) + fB(3)]
= 1 - ( (1-p)10.000+(
10.000
9.999+ 10.000 p²(1-p)9.998+ 10.000 p³(1-p)9.997
( 2 )
( 3 )
)
1 ) p(1-p)
≈ 0,18%
14
26
Š
ˆ ‰
vgl. KREYSZIG 43.6
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
Mit der Poissonverteilung als guter Näherung (n » µ) ist der Rechenaufwand wesentlich geringer:
0,5² 0,5³  -0,5
P(XP>3) = 1 - P(XP≤3) = 1 - 
≈ 1 - 0,9982 = 0,18%
î 1 + 0,5 + 2! + 3! ·e
Da wir es hier ausnahmslos mit großen n und kleinen p zu tun haben (µB = n·p), spricht man auch von
seltenen Ereignissen.
Anmerkung: Bei einer Verdoppelung der versicherten Personen auf 20.000 steigt die Wahrscheinlichkeit, daß
mehr als drei Personen davon verunglücken, auf ca. 1,9% und verdoppelt sich nicht etwa, wie ja
vielleicht zu erwarten wäre (-> siehe auch Einstieg in die Exponentialverteilung).
Oft soll mittels einer Stichprobe auf die Verteilungsform einer Grundgesamtheit geschlossen werden. Die
POISSON-Verteilung ist durch µ eindeutig bestimmt. Als Schätzwert für µ dient der Mittelwert x̄ der Stichprobe.
( x̄ ist "erwartungsgetreu" bezüglich µ .) Dazu ein Beispiel:
✎ Beispiel 2:
Von 10 preußischen Regimentern wurden seinerzeit über 20 Jahre hinweg die Anzahl der durch
Hufschlag getöteten Soldaten statistisch erfaßt (Leipzig 1898) 15.
X : Anzahl der getöteten Soldaten pro Regiment und Jahr
m
∑
1
x̄ = n·
ki·xi ≈ 0,61
i=1
(µ, x̄: Durchschnittl. Anzahl getöteter Soldaten pro Regiment und Jahr)

1 
s² = n-1·
kixi²-n·x̄²  = 196-200·0,61²:199 = 0,611 ≈ x̄
î i=1

m
∑
(Dies ist ein erstes gutes Indiz für eine POISSON-Verteilung.)
Die Tabelle zeigt die fast perfekte Übereinstimmung zwischen der Stichprobe und der POISSONVerteilung, wenn man als "Grundeinheit" das Produkt aus Regimentern und Erfassungsjahren
(=200) zugrunde legt:
x
kStpr(x)
hStpr(x)
fP(x)
0
109
0,545
0,5434
1
65
0,325
0,3314
2
22
0,110
0,1011
3
3
0,015
0,0206
4
1
0,005
0,0031
≥5
0
0
0,0004
✎ Beispielaufgabe: P(x>10) = 1- P(x≤10) = 1 - F(10;µ=5) = 1 - 0,9863 = 0,0137 = 1,4%
( F(x,µ) aus Tabelle zur POISSONverteilung )
15

‹ Œ
vgl. KREYSZIG Tab. 43.1.
Statistik
Seite 27
Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen
✎ Beispielaufgabe: p = 0,002
n = 100
E(XB) = n·p = 0,2
 POISSON:
f(0) = 
î Binomial:
e-0,2

100·0,0020·0,998100 = 0,819 = 81,9 %
î 0 
( => Aufg. 3.16. bis 3.21 )
Zur Approximation der Binomialverteilung durch die POISSON-Verteilung :
Binomialverteilung
x
n = 4
p = 1/4
n = 8
p = 1/8
n = 100
p = 1/100
0
1
2
3
4
5
0.3164
0.4219
0.2109
0.04688
0.003906
-
0.3436
0.3927
0.1963
0.0561
0.01002
0.001145
0.366
0.3697
0.1849
0.061
0.01494
0.002898
POISSONVerteilung
µ = 1
0.3679
0.3679
0.1839
0.06131
0.01533
0.003066
Wahrscheinlichkeitsfunktion der POISSON-Verteilung für die Mittelwerte µ = 0,5 ;
µ = 1;
bzw.
µ = 3:
Zusammenfassung:
a) POISSON-Verteilung als "Grenzfall" der Binomialverteilung für
n→∞
∧
µ = n·p = const
b) Anwendungen:
α) POISSON-Modelle (z.B. Atomzerfall oder Photo-Multiplier)
β) Näherungsberechnung zu Binomialverteilung, wenn n groß und p klein ist (seltene Ereignisse).
(Bei der Computersimulation von Binomialverteilungen ist das große n oft ein Problem).
28
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
4. Stetige Verteilung
4.1. Exponentialverteilung als einführendes Beispiel
Zur Einführung in die stetigen Verteilungen wollen wir uns die (unstetige) POISSON-Verteilung mit dem Beispiel des radioaktiven Zerfalls noch einmal ansehen:
µx
P(XP,1=x) = x! e-µ
Dabei bedeutete µ die durchschnittliche und X die zufällig realisierte Anzahl der Zerfälle pro Zeiteinheit.
Als nächstes Verdoppeln wir die Zeiteinheit, so daß jetzt 2µ Zerfallsprozesse pro (neuer) Zeiteinheit stattfinden:
P(XP,2=x) =
(2µ)x -2µ
x! · e
Entsprechend gilt für die Erweiterung auf eine t-fache Zeiteinheit (d.h. t Zerfallsprozesse pro Zeiteinheit):
P(XP,t=x) =
(tµ)x -tµ
x! · e
Die Wahrscheinlichkeit, daß in der Zeit t kein Zerfall stattfindet, beträgt dann:
P(XP,t=0) = e-tµ
Die Zeit t ist also kleiner als die Zeit T, die zwischen zwei Prozessen vergeht, da ja kein Prozeß stattfindet:
t < T
Wir führen daher eine neue Zufallsvariable T ein, wobei T die Zeit zwischen zwei Prozessen darstellt. Damit
läßt sich jetzt die Wahrscheinlichkeit für keinen Zerfall auch wie folgt schreiben:
=>
P(T>t) = P(XP,t=0) = e-tµ
P(T≤t) = 1 - P(T>t) = 1 - e-tµ
Wir haben jetzt mit T eine stetige Zufallsvariable "gewonnen", denn die Zeit T kann ja alle Werte von 0 bis
∞ realisieren. Aus der so erhaltenen Exponentialfunktion ergeben sich einige Schlüsse:

Ž
T ist immer positiv ( T ∈ IR+ ), denn negative Werte für T würden voraussetzen, daß Prozeß 2 vor Prozeß
1 stattfindet, was definitionsgemäß ausgeschlossen ist.
Für die Verteilungsfunktion F(t) gilt:
=>
F(t) = P(T≤t) = 1 - e-tµ > 0
 1 - e-tµ
für t ≥ 0
F(t) = 
0
sonst
î
Die Verteilungsfunktion ist jetzt eine stetige Funktion und keine "Treppenfunktion" mehr wie bei den diskreten Wahrscheinlichkeitsverteilungen. Sie ist gleich der Wahrscheinlichkeit, daß t größer oder gleich dem
zeitlichen Abstand T zweier aufeinanderfolgender Prozesse ist.
Im Zusammenhang mit der stetigen Zufallsvariable T sagt man auch: "T ist exponentialverteilt".
Statistik
Seite 29
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
Für F(t) ergeben sich einige Eigenschaften, die wir näher untersuchen wollen:
a) T ≤ 0 ist ein unmögliches Ereignis ( da T ∈ IR+ )
=>
P(T≤0) = F(0) = 0
oder allgemein:
Für T ∈ IR- folgt F(t) = P(T≤t) = 0
b) T < ∞ ist dagegen ein sicheres Ereignis und daher 1:
P(T<∞) = lim P(T≤t) = lim F(t) = lim (1 - e-tµ) = 1
t→∞
t→∞
t→∞
es sei t1 < t2 ∈ IRo :
c)
=>
P(T≤t2) = P(T≤t1 v t1<T≤t2) = P(T≤t1) + P(t1<T≤t2)
P(t1<T≤t2) = P(T≤t2) - P(T≤t1) = F(t2) - F(t1)
da gegenseitig
ausschliessend !
Da F(t) stetig ist, ist die Funktion auch differenzierbar, weshalb wir schreiben:
t2
t2
F(t2) - F(t1) =
F'(t) dt = ⌠ f(t) dt
⌠
⌡
⌡
t1
t1
 µ·e-µt
mit F'(t) = f(t) = 
î 0
für t ≥ 0
sonst
Aus
P(t1≤T<t2) = F(t2) - F(t1) =
t2
f(t) dt
⌠
⌡
t1
folgt:
lim P(t ≤T<t ) = P(T<t ) =
1
2
2
t1→−∞
t2
f(t) dt
⌠
⌡
−∞
Dabei stellt f(t) keine Wahrscheinlichkeitsfunktion, wie wir sie von den diskreten Verteilungen kennen,
dar(!!) : f(t), das immer größer Null ist ( für t, µ ∈ IR+ ) gibt vielmehr eine Funktion an, deren Flächenausschnitte Wahrscheinlichkeiten proportional sind:
Wir werden etwas später noch auf die Interpretation von f(t) zurückkommen.
d) Aus der Integralvorstellung folgt, daß wir im Gegensatz zu den diskreten Wahrscheinlichkeiten mit den
kleiner/gleich-, größer/gleich- und kleiner-, größer-Zeichen lockerer umgehen können, da, wie leicht
einzusehen ist, gilt:
bzw.:
30
P(T≤t) = P(T<t)
P(T≥t) = P(T>t)
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
✎
Im folgenden Beispiel gehen wir von durchschnittlich einem Zerfall pro Jahr ( µ = 1 ) aus. Dabei
suchen wir die Wahrscheinlichkeit P(to<T≤to+∆t) wobei ∆t = 1/4 Jahr sein soll.
Im ersten Fall sei
to = 0,
dann wird die Wahrscheinlichkeit gesucht, daß die Zeit für zwei aufeinanderfolgende Prozesse
kleiner oder gleich 1/4 Jahr ist:
P(T≤1/4) = F(1/4) = 1 - e-1/4 ≈ 22,1%
Im zweiten Fall soll
to = 1
sein, so daß die Wahrscheinlichkeit, daß die Zeit für zwei aufeinanderfolgende Prozesse zwischen
1 und 11/4 Jahr beträgt, gesucht wird:
P(1≤T≤5/4) = F(5/4) - F(1) = 1-e-5/4 - (1 - e-1) = e-1·(1 - e-1/4) ≈ 8,1%

‘
=> Die Wahrscheinlichkeit, daß zwei Prozesse relativ schnell (in einer Zeit ∆t) aufeinander folgen,
ist größer als die Wahrscheinlichkeit, daß diese Zeit zwischen einer bestimmten Zeit to und to+∆t
liegt (oder "anders" gesagt: "Ein Unglück kommt selten allein.").
Zu f(t) müssen wir noch einige Aussagen machen:
Für T = to folgt im Gegensatz zu diskreten Verteilungen:
t0
P(T=to) = ⌠ f(t) dt = 0
⌡
t0
T = to ist jedoch kein unmögliches Ereignis!
Eine (von Null verschiedene) Wahrscheinlichkeit läßt sich bei stetigen Verteilungen also nur in Intervallen
angeben. Diese Intervalle können wir mit Hilfe des Mittelwertsatzes der Integralrechnung auch anders
ausdrücken:
Es existiert (mindestens) ein t*, für das gilt:
t2
mit t1 ≤ t* ≤ t2
F(t2) - F(t1) = ⌠f(t) dt = f(t*)·(t2 - t1)
⌡
t1
=>
P(to<T≤to+∆t) =
t0+∆t
⌠ f(t) dt = f(t*)·∆t
⌡
t0
Näherungsweise läßt sich bei kleinem ∆t für t* auch einfach das arithmetische Mittel verwenden:
t* ≈ ¯t = to + ½·∆t
✎
Wie wir an unserem obigen Beispiel feststellen können, reicht diese Näherung in den meisten
Fällen gut aus:
(Fall 1; µ = 1; t0 = 0)
F(1/4) ≈ f(1/8)·1/4 = 1/4·e-1/8 ≈ 22,1%
f(t) heißt auch Wahrscheinlichkeitsdichte oder Dichtefunktion zu T.
(=> Aufg. 4.1. bis 4.4)
Da die Verteilungsfunktion F(t) monoton wachsend ist, gilt für f(t) :
f(t) ≥ 0
Statistik
Seite 31
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
e) Maßzahlen einer stetigen Zufallsvariablen X
’
∞
sicheres Ereignis:
P(X<∞) =
f(x) dx = 1
⌠
⌡
“
-∞
”
∞
x·f(x) dx
⌠
⌡
Mittelwert:
µ =
Varianz:
-∞
∞
σ² = ⌠ (x-µ)²·f(x) dx
 falls die
 Integrale
 existieren
⌡
-∞
∞
- Erwartungswert zu g(x):
E[g(x)] =
g(x)·f(x) dx
⌠
⌡
-∞
Für
g(x) = x
folgt entsprechend:
E[g(x)] = E(X) = µ
und für
g(x) = (x-µ)²
gilt:
16
V(x) = E[(x-µ)²] = σ²
Linearität:
E[a·f(x) + b·g(x)] = a·E[f(x)] + b·E[g(x)]
Für welches t50% ist bei gegebener F(t) = 1 - e-µt die Wahrscheinlichkeit P(T≤t50%) = ½ ?
=>
=>
=>
z.B.:
F(t) = 1 - e-µt = ½
e-µt = ½
-µt = ln(½)
0,7
1
t50% = µ·ln2 ≈ µ
für µ = 1
ist
t50% = 0,7
1
( zum Vergleich: eine Rechner-Simulation ergab mit gesamt 3457 im Abstand < µ 2127 = 61,5% )
(=> Aufg. 4.5)
∞
16
E[(x-µ)²] = E[x²] - E[2xµ] + E[µ²] = E[x²] - 2µ·µ + µ² = E[x²] - µ² =
x² f(x) dx - µ²
⌠
⌡
-∞
32
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
4.1.1. stetig gleichverteilte Zufallsvariable
a) Einstieg: diskrete gleichverteilte Zufallsvariable
EW , EU49 (49 Kugeln), EUN (N Kugeln)
EUN: Kugeln numeriert von
i = 0 bis N-1,
dann ist XG,N :
i
N diskret gleichverteilt
i
1
=>
P(XG,N = N) = N
i
=>
lim P(XG,N = N) = 0
N→∞
✎ z.B.:
•
N = 1000:
–
Es sei X ∈ [0;1[ :
0,001; 0,002; .. ; 0,010; ..
N = 10k:
sämtliche Dezimalzahlen mit max. k Nachkommastellen
∑
∑
1
1
1
= N·
1 = N·X·N = X
N
i≤X·N
N≤X
lim FG,N(x) = lim P(XG,N≤x) = x
FG,N(x) := P(XG,N≤x) =
N→∞
i/
N→∞
für x ∈ IR :
 0
lim FG,N(x) =  x
N→∞
î 1
für x < 0
für 0 ≤ x < 1
für x ≥ 1
DEFINITION: XG gleichverteilt um Intervall [0;1):
Mit x ∈ IR und (zunächst) 0 ≤ x < 1
heißt XG stetig gleichverteilt im Intervall [0;1), falls
für x < 0
0
P(XG<x) =  x für 0 ≤ x < 1
î 1 für x ≥ 1
=>
P(XG=x) = 0
=>
P(XG≤x) = P(XG<x)
FG(x) := P(XG≤x)
Dichtefunktion zu XG:
=>
f(x) := FG'(x)
 1
für 0 ≤ x < 1
f(x) =  0
sonst
î
Die "Random"-Funktion in PASCAL kann man (näherungsweise) als stetig gleichverteilt ansehen
(XG:=random).
Statistik
Seite 33
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
b) "linerare Transformation" von XG ( XG stetig, gleichverteilt in [0;1) )
YG = a·XG + b mit a ∈ IR\{0} ∧ b ∈ IR
( a = 0 => YG = b !)
( Dies kann z.B. in PASCAL durch
YG:= a*random+b
realisiert werden. )
=>
YG,min = b
=>
YG,max ≈ a + b
( YG ∈ [b;a+b) )
Im folgenden schreiben wir für YG zur Vereinfachung Y.
α) P( y1 ≤ Y ≤ y1+∆ ) = P( y2 ≤ Y ≤ y2+∆ ) = [y1; y1+∆) ⊆ [b;a+b) ;
β) P( y1 ≤ Y ≤ y1+2∆ ) = P( y1 ≤ Y ≤ y1+∆ ∨ y1+∆ ≤ Y ≤ y1+2∆ )
= P( y1 ≤ Y ≤ y1+∆) + P( y1+∆ ≤ Y ≤ y1+2∆ )
= 2·P( y1 ≤ Y ≤ y1+∆ )
P( y1 ≤ Y ≤ y1+½∆ ) = ½·P( y1 ≤ Y ≤ y1+∆ )
allgemein:
P( y1 ≤ Y ≤ y1+α∆ ) = α·P( y1 ≤ Y ≤ y1+∆)
für α ∈ IR+
γ) mit
P( b ≤ Y ≤ b+a ) = 1
β
lineare Funktion von β
=>
P( b ≤ Y ≤ b+β ) = a
[y2; y2+∆) ⊆ [b;a+b)
δ) P(Y<y) = FG(y)

FG(y) = 
î
0
y-b
a
1
für y < b
für b ≤ y < b+a
für y ≥ b+a
=> Dichtefunktion zu y:

=> fG(y) = FG'(y) = 
î
1/
a
0
für b < y ≤ b+a
sonst

y-(b+½·a)
1
 = a·rect
î

a

Die Fläche bleibt 1!
✎ Anwendungsbeispiel:
34
P( α ≤ Y ≤ β ) =
β−α
a = (β−α)·fG(y)
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
ε) Folgerung: Würfelsimulation in PASCAL
P( i ≤ Y < i+1 ) =
Y = 6·XG + 1
=> PASCAL:
bzw.
β−α
1
a = 6
Y:= trunc(6*random+1)
Y:= trunc(6*random)+1
(=> Aufg. 4.6.)
—
c) Wichtige Unterschiede zwischen stetigen und diskreten Zufallsvariablen
diskret: Wahrscheinlichkeitsfunktion zu X = xi

f(x)

stetig:
Dichtefunktion zu X
î
˜
stetig: Wahrscheinlichkeit bzgl. X nur in Intervallen angebbar
✎ z.B.:
P( x1 ≤ X ≤ x2 ) mit x1 < x2 , da P(X=x1) = 0
™
š
P( x1 ≤ X ≤ x2 ): Fläche unter f(x) in I = [x1;x2]
Beh.:
 diskret: siehe oben und Seite 16
Λ f(x)≥0 
x∈IR
î
d) α -Potenzverteilung
 a·xα
f(x) = 
î 0
stetig:
=>
=>
=>
=>
=>
für a<b
P(X<b) = P( X<a ∨ a<X<b ) = P(X<a) + P(a<X<b)
P(X<b) ≥ P(X<a)
F(b) ≥ F(a)
F(x) ist monoton wachsend
f(x) = F'(x) ≥ 0
wenn F(x) stetig
für 0 ≤ x < 1 mit a ∈ IR+
sonst
hier: α = 2
α)
1
1
a
a
= 3
1 = P(X<∞) = a⌠x²dx = 3·x³
x=0
⌡
|
0
β)
=> a = 3
=> f(x) = 3x²
F(x) = ⌠f(x) dx = 3⌠x²dx = x³
⌡
⌡
0 für x < 0
 y-b
=> P(X≤x) = F(x) =  a für 0 ≤ x < 1
î
1 für x ≥ 1
γ)
δ)
1
3
|1
3
= 4
µ = E(x) = 3⌠x³dx = 4·x4
x=0
⌡
0
1
|
1
3
3 9
3
σ² = V(x) = 3⌠x4dx - µ² = 5·x5
- µ² = 5 - 16 = 80
x=0
⌡
=>
σ = ¼·
3
5
0
µ+σ
ε)
ξ)
⌠
⌡ f(x)dx = x³
P(µ-σ ≤ X < µ+σ) =
µ+σ
|x=µ= 0,668
σ
µ-σ
Es sei Y := 1 - random als gleichverteilt angenommen.
=> 0 < Y ≤ 1
Behauptung: X =
3
Y ist α-potenzverteilt mit α = 2.
3
<=>
X = Y
Es sei 0 ≤ a < b ≤ 1, dann folgt
P(a ≤ Y < b) = b-a
Statistik
Y = X3
eindeutig, da Y = X3 streng monoton
Seite 35
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
Beweis:
P(a ≤ Y < b)
3
3
= P(a ≤ X³ < b) = P( a ≤ X < b) = P(α ≤ X < β) = F(β) - F(α)
= β³ - α³
= b-a
q.e.d.
e) Simulation der Exponentialverteilung
Die folgenden Überlegungen führen zu einer Simulation exponentialverteilter Zufallsvariablen unter der
Voraussetzung, daß (andere,) gleichverteilte Zufallsvariablen erzeugt werden können. Dieser Fall tritt z.B.
(näherungsweise) bei der "random - Funktion" auf. Diese erzeugt die im Intervall [ 0; 1[ gleichverteilte
(und als stetig anzusehende) Zufallsvariable X. Wahrscheinlichkeits- und Verteilungsfunktion sehen dann
wie folgt aus:
 1 für 0 ≤ x < 1
=>
f(x) = 
î 0 sonst
0 für x < 0

F(x) =  x für 0 ≤ x < 1
î 1 für x ≥ 1
=>
Für eine zweite Zufallsvariable X' soll gelten:
X' = 1 - X ,
dann gilt wegen X ∈ [0;1[ :
=>
X' ∈ ]0;1]
Dabei ist auch X' ebenso gleichverteilt im Intervall ]0;1].
Für eine weitere Zufallsvariable X" soll gelten:
X" = aX'
mit a > 0 ,
dann gilt:
X" ∈ ]0;a].
Auch X" ist selbstverständlich gleichverteilt im Intervall ]0;a].
=>
 1/a für 0 < X" ≤ a
f(X") = 
î 0 sonst
wobei für die Wahrscheinlichkeit gilt:
Die Fläche bleibt 1!
P( x1 ≤ X" ≤ x2 ) = 1/a (x2 - x1)
Ist nun eine Zufallsvariable Y gleichverteilt in ] 0; 1] , dann gilt:
X = - 1/µ ln(Y)
ist exponentialverteilt ( mit dem Erwartungswert E(x) = µ ).
 e-µx
F(x) = 
î 0
36
für x ≥ 0
sonst
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
b-a
=
=
=
=
=
=
=
=
=
Y = e-µx ist eindeutig, da streng monoton
P(a ≤ Y < b)
P(a ≤ e-µx < b)
P(lna ≤ -µx < lnb)
P(-1/µ lna ≥ x > -1/µ·lnb)
P(-1/µ lnb < x ≤ -1/µ·lna)
P(α < x ≤ β)
e-µα − e-µβ
(1-e-µβ) − (1-e-µα)
F(β) - F(α)
Y wird dann wie oben für X" beschrieben berechnet { y := (1 - Random) }.
4.2. Elementare Eigenschaften der Funktionen zur Normalverteilung
a) Dichte- und Verteilungsfunktion
Zur Normalverteilung ist fN(x) die Dichtefunktion und FN(x) die Verteilungsfunktion:
fN(x) =
σ
1
2π
x-µ 2
-½·  
· e î σ  mit x, µ ∈ IR
und
σ ∈ IR+
Für eine normalverteilte Zufallsvariable XN gilt:
x
2
1
P(XN≤x) = FN(x) =
σ 2π
⌠ -½·t-µ

î σ  dt
⌡e
-∞
wobei dieses Integral bekanntlich nicht elementar zu berechnen ist!
b) Eigenschaften von f(x)
›
Grenzwert
œ

ž
Ÿ
lim f(x) = 0
x→±∞
Maximum für f(xmax)
f(xmax) = f(µ) =
Wendepunkte:
xw = µ ± σ
∞
Mittelwert:
µ =
1
σ· 2π
⌠
⌡ x·f(x) dx = E(x)
-∞
∞
Varianz:
V(x) =
⌠
⌡ (x-µ)²·f(x) dx = σ²
-∞
c) Standardform der Normalverteilung
Ist
µ = 0
und
σ = 1,
Statistik
Seite 37
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
dann spricht man von der sogenannten Standardform der Normalverteilung. Diese vereinfacht sich zu:
x
1
1
-½
x²
⌠ e-½ t² dt
f(x) =
e
und
F(x) = Φ(x) =
2π
2π ⌡
−∞
Die Verteilungsfunktion zur Standardform erhält also eine eigene Bezeichnung Φ. Da auch sie nicht einfach berechnet werden kann, muß man mit Tabellen oder Näherungspolynomen arbeiten. 17
d) Formeln für XN in Standardform
∞
¡
P (x<∞) = 1 = lim Φ(x)
e-½ t² dt =
⌠
⌡
da
x→∞
-∞
Achsensymmetrie:
=>
Φ(0) = ½
=>
Φ(x) + Φ(-x) = 1
=>
• D(x) = Φ(x) - Φ(-x)
=>
D(x) = P( -x ≤ XN,S ≤ x )
e) Wichtige praktische Größen der Standardform
P( -1 ≤ X ≤ 1) = D(1) = 68,27% = P( -σ ≤ x ≤ σ )
D(2) = 95,45%
D(3) = 99,73%
P( -c ≤ X ≤ c ) = 95%
=>
c = 1,960
P( -c ≤ X ≤ c ) = 99%
=>
c = 2,576
f) Übergang von der Standardform zu X allgemein
Für den Übergang von der Standardform zu X allgemein gilt:
Sind µ, σ normalverteilt mit V(x) = σ² und E(x) = µ, dann gilt:
x-µ
F(x,µ,σ) = Φ( σ
)
g) Wichtige praktische Größen für (µ;σ)-Verteilung
P( µ-σ ≤ X ≤ µ+σ )
= 68,23%
P( µ-2σ ≤ X ≤ µ+2σ )
= 95,45%
P( µ-2,576σ ≤ X ≤ µ+2,576σ ) = 99%
( => Aufg. 4.7 .. 4.10)
17
18
38
Ein ähnliches Beispiel ist die "Error - Function":
1 x -½ t²
dt
erf(x) =
· e
2π ⌠
⌡
o
Dann berechnet sich Φ(x) bei bekannter Errorfunktion nach:
1 
Φ(x) = ½ 1 - erf
î 2·x
î
vgl. Mathematikvorlesung
Statistik
2π
18
Φ(x) = 1 - Φ(-x)
XN,S = Standardfkt.
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
fN(x;0,1) =
1
e-½ x²
2π
P( x1≤ X ≤ x1+∆x ) = F(x1+∆x) - F(x1)
Nach dem Mittelwertsatz der Integralrechnung existiert ein x*
mit x ≤ x* ≤ x +∆x 19
1
1
x1+∆x
=
⌠
⌡f(x) dx = ∆x·f(x*)
x1
x1 + x1 + ∆x
∆x
= x1 + 2
2
h) Näherungsberechnung zu P( x1 ≤ X ≤ x1+∆x ) durch die Dichtefunktion
≈ ∆x·f(x̄)
mit x̄ =
x1+∆x
P( x1 < X ≤ x1+∆x ) =
⌠
⌡ f(x) dx = f(x*)·∆x
∆x
mit x* ≈ x1 + 2
x1
=
bzw.
✎ Zahlenbeispiele: α)
=
∆x
2π
·e
-½ (x1+½∆x)²
∆x
σ
2π
x1+½∆x-µ²

-½· 
σ
î

·e
für (0;1)-normalverteilt
für (µ;σ)−normalverteilt
(0;1)-normalverteilt
Φ(1,1) - Φ(1,0) = 0,0230

P( 1,0 ≤ X ≤ 1,1 ) =  1 e-½ 1,05² · 0,1 = 0,0230
î
2π
D(0,2) = 0,1585

P( -0,2 ≤ X ≤ 0,2 ) =  1 e0 · 0,4 = 0,1596
î
2π
D(0,5) = 0,3829
 1
P( -0,5 ≤ X ≤ 0,5 ) = 
e0 · 1 = 0,3989
î
2π
Φ(4) - Φ(3) = 0,0013

P( 3 ≤ X ≤ 4 ) =  1 e-½ 3,5² · 1 = 0,0009
î
2π
β)
(µ;σ) = (1;5)
1,1-1,0
1,0-1,0
Φ
- Φ
î

î
5
5  = 0,008

P( 1 ≤ X ≤ 1,1 ) =  1
1,05-1/5)²
î
· 0,1 = 0,008
e-½ (
5· 2π
4-1
3-1
Φ  - Φ
î 5  = 0,0703
 î 5 
P( 3 ≤ X ≤ 4 ) = 
1
3,5-1/5)²
î ≈
· 1 = 0,0704
e-½ (
5· 2π
✎ Abschließend wollen wir noch ein weiteres Beispiel betrachten:20
19
20

¢ £
vgl. Kap. 4.1.1.d)
vgl. KREYSZIG Beispiel 49.5 , Aufg. 4.14
Statistik
Seite 39
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
Eine Metallhobelmaschine stellt Platten her. Kein Produktionsvorgang ist so vollkommen, daß alle
Stücke ganz gleich ausfallen. Material und Maschine bedingen eine gewisse Variabilität, die wir
als zufällig ansehen müssen, weil sie durch winzige Störursachen bedingt ist, die wir gar nicht alle
kennen, geschweige denn in ihrer Wirkung vorhersehen können. So läßt sich die Plattendicke X
[mm] als Zufallsvariable auffassen, die von Platte zu Platte etwas andere Werte annimmt. X sei
normalverteilt und habe bei einer bestimmten Maschineneinstellung den Mittelwert µ = 10mm und
die Standardabweichung σ = 0,02mm.
Wieviel Prozent Ausschuß sind dann zu erwarten, wenn die Platten
a) mindestens 9,97mm stark sein sollen,
b) höchstens 10,05mm stark sein dürfen und
c) um maximal ± 0,03mm vom Sollwert 10mm abweichen dürfen.
d) Wie muß man die Toleranzgrenzen 10-c und 10+c wählen, damit man nicht mehr als 5%
Ausschuß erhält?
e) Wie ändert sich der Ausschußprozentsatz für die in Frage (d) bestimmten Toleranzgrenzen,
wenn sich µ (z.B. infolge Abnutzung des Hobelstahls) nach 10,01mm verschiebt?
9,97-10,00 
a)
P(X≤9,97) = Φ
lt. Tabelle 3a
î
0,02
 = Φ(-1,5) = 0,0668 = 6,7%
10,05-10,00 
b)
P(X≥10,05) = 1-P(X≤10,05) = 1-Φ
î
0,02
 = 1 - Φ(2,5) = 1 - 0,9938
= 0,6%
10,03-10,00 
 9,97-10,00  = Φ(1,5) - Φ(-1,5)
c)
P(9,97 ≤ X ≤ 10,03) = Φ
î
0,02
 - Φî
0,02

= D(1,5) = 0,8664
Die Antwort lautet also 1-0,8664 = 13%
d)
95% der Platten sollen Stärken zwischen 10-c und 10+c aufweisen. Demnach folgt:
c = 1,96σ = 0,039
(vgl. Seite 38).
Die Grenzen sind also 9,961mm und 10,039mm.
10,039-10,010 
 9,961-10,010 
e)
P(9,961≤ X ≤ 10,039) = Φ
î
0,02
 - Φî
0,02

= Φ(1,45) - Φ(-2,45) = 0,9265-0,0071 = 92%
=> Der zu erwartende Ausschuß erhöht sich auf 8%, also beträchtlich.
(=> Aufg. 4.11 - 4.15)
4.3. Lineare Transformation von Zufallsvariablen
gegeben:
X
(beliebig)
a) allgemein: Y = g(X) (beliebige Funktion)
✎ z.B.:
α1)
W : XW
Y wird definiert durch:
g(x) = 2x + 8
mit
Y = 2 XW + 8
=>
XW = 1, 2, 3, 4, 5, 6
=>
Y = 10, 12, 14, 16, 18, 20
¤
α2)
=>
XR ∈ [0;1[ (Random - Funktion in PASCAL)
mit Y = 2 XR + 8
XR ∈ [0; 1[ =>
Y ∈ [8; 10[
β)
y =
γ)
y = lnx
x
Allgemein spricht man bei Y = a·X + b mit a, b ∈ IR von einer linearen Transformation von X. Im
folgenden werden wir uns auf diese Transformationen beschränken.
40
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung
b) Dichtefunktion g(y) sowie G(y) zu Y = aX + b bei stetig verteiltem X
Die Dichtefunktion g(y) sowie G(y) zu Y = aX + b bei stetig verteiltem X soll ermittelt werden:
Bekannt ist zu X: f(x); F(x)
Gesucht wird Y → g(y); G(y)
G(y) = P( Y ≤ y ) = P( aX+b ≤ y ) = P(aX ≤ y-b )
=>
α) für a > 0 gilt:
=>
G(y) = P( X ≤ y-b/a ) = F( y-b/a )
d
d
g(y) = dyG(y) = dyF( y-b/a ) = 1/a·f( y-b/a )
β) für a < 0 gilt:
=>
G(y) = P( X ≥ y-b/a ) = 1-P( X < y-b/a ) = 1 - F( y-b/a )
g(y) = -1/a·f( y-b/a )
γ) für a = 0 gilt:
=>
y = b
"Entartungsfall", da y = b ein sicheres Ereignis darstellt.
δ) Zusammenfassung:
Y = aX + b
ε) Umkehrung:
=>
 F( y-b/a )
für a ∈ IR+
G(y) =  1 - F( y-b/ )
für a ∈ IRa
î
=>
 f( y-b/a )·1/a für a ∈ IR+ 
dG(y)
1
y-b/ )
g(y) = dy = 
a
-  = /IaI · f(
î -f( y-b/a )·1/a für a ∈ IR 
 G(aX + b)
für a ∈ IR+
F(X) =  1 - G(aX + b)
für a ∈ IRî
c) Transformation der Parameter µx , σx zu X
Auf Seite 18 haben wir bereits den Erwartungswert kennengelernt. Er ist definiert
∞
für stetige Zufallsvariablen:
E[g(x)] = ⌠ g(x)·f(x) dx
¥
¦
⌡
−∞
für diskrete Zufallsvariablen:
E[g(x)] =
∑ g(x)·f(x)
x
Ebenso hatten wir bereits festgestellt, daß
µx = E(x)
und
σ² = V(x) = E[(x-µx)²] ist.
Somit folgt:
µy = E[y] = E[ax+b] = a·E[x] + b = aµx + b
σY² = E[(y-µy)²] = E[{(ax+b) - (aµx+b)}²] = E[a²(x-µx)²] = a²·E[(x-µx)²] = a² σx²
=>
σy = IaI σx
=>
V(y) = a² V(x)
Statistik
Seite 41
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
d) Bedeutung für die Normalverteilung
Für die Normalverteilung bedeutet das:
X(µ;σ): normal verteilt
dann folgt:
=>
und
=>
Y = aX + b
=>
=>
hier:
hier:
Y =
x-µ
= 1/σ·X - µ/σ
σx
mit
µx
1
µy = E[Y] =
·µx = 0
σx
σx
σx²
1
σy² = V[Y] =
·V[X] =
= 1
σx²
σx²
a =
1
σ
und
=>
E[Y] = 0
=>
V[Y] = 1
b =
-µ
σ
y-b
G(Y) = F
î a
F(X) = G(aX+b)
und (ohne Beweis):
y ist normalverteilt bzw. Y(0;1) ist normalverteilt
G(Y) = Φ(Y)
=>
µx 
1
F(X) = Φ ·x - 
î σx σx
x-µx
F(X) = Φ

î σx 
=>
Zusammenfassend können wir sagen:
Ist
X(µ;σ)
normalverteilt,
dann ist
Y = x-µ/σ normalverteilt in Standardform
und es gilt:
FN(x, µ, σ) = Φ(x-µ/σ)
Anwendung:
X : gleichverteilt in [0;1) und a ∈ IR+
Y = aX + b
=>
µ = ½
x
µy = ½·a + b
1
σx² = 12
=>
1
σx =
2 3
=>
a²
σy² = 12
=>
a
σy =
2 3
(=> Aufg. 4.16. bis 4.20.)
5. Eigenschaften der Normalverteilung
Die Normalverteilung ist die wichtigste Verteilungsform in der Statistik. Ihre Bedeutung erhält sie zum einen
aus der praktischen Anwendung bei Stichproben und der Fehlerfortpflanzung, worauf wir bei der Fehlerrechnung (5.4.) noch genauer eingehen werden, und zum anderen aus der Theorie als "Grenzverteilung" zur
Binomial- und POISSONverteilung, als Grenzverteilung bei Summen von beliebig verteilten Zufallsvariablen
und als Testverteilung (-> Kap. III, 1.).
5.1. Normalverteilung der Stichproben
Bei Stichproben werden die Werte für den Mittelwert x̄ und die Standardabweichung s als "Schätzwerte" für
die Parameter µ und σ der Normalverteilung eingesetzt. (Den Zusammenhang haben wir ja bereits im letzten
Abschnitt kennengelernt.)
42
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
a) Nehmen wir als erstes Beispiel die Tabelle "Gewichte von 100 Luftpostumschlägen" 21 :
Masse in g
absolute
Häufigkeit
relative Summenhäufigkeit
1,80
1
0,01
1,81
0
0,01
1,82
1
0,02
1,83
1
0,03
1,84
1
0,04
1,85
1
0,05
1,86
1
0,06
1,87
2
0,08
1,88
3
0,11
1,89
5
0,16
1,90
7
0,23
1,91
6
0,29
1,92
8
0,37
1,93
8
0,45
1,94
9
0,54
1,95
4
0,58
1,96
11
0,69
1,97
3
0,72
1,98
4
0,76
1,99
3
0,79
2,00
7
0,86
2,01
2
0,88
2,02
4
0,92
2,03
5
0,97
2,04
1
0,98
2,05
2
1,00
Hierbei ergibt sich:
x̄ = 1,944 g
und
s = 0,053125 g
Aus Gründen der Übersichtlichkeit und zur besseren Annäherung an theoretische Verteilungen durch Kompensation von "Ausreißern" werden solche Stichproben üblicherweise zu Gruppierungen zusammengefaßt,
indem mehrere Stichprobenelemente (hier drei) zu einem zusammengefügt werden: 22
Klassenintervall
[ Masse in g ]
1,795..1,825
1,825..1,855
1,855..1,885
1,885..1,915
1,915..1,945
1,945..1,975
1,975..2,005
2,005..2,035
2,035..2,065
Klassenmittelpunkt
[ Masse in g ]
1,81
1,84
1,87
1,90
1,93
1,96
1,99
2,02
2,05
Absolute
Häufigkeit
2
3
6
18
25
18
14
11
3
Relative
Summenhäufigkeit
0,02
0,05
0,11
0,29
0,54
0,72
0,86
0,97
1,00
Der Charakter der Verteilung bleibt dabei gleich, wobei wir uns den Beweis hier ersparen wollen. Durch die
Gruppierung erhalten wir nun:
x̄ = 1,9432 g
und
s = 0,0524526 g
21
22

§ ¨

© ª
vgl. KREYSZIG Tabelle 66.1
vgl. KREYSZIG Tabelle 66.2
Statistik
Seite 43
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Die Abweichungen sind also praktisch vernachlässigbar. Der Vollständigkeit halber sei an dieser Stelle auf
die Sheppard - Korrektur für die Standardabweichung hingewiesen. Diese Korrektur minimalisiert die
Abweichungen bei Gruppierungen; für unsere Zwecke ist sie jedoch ohne Belang.
Uns interessiert nun der Vergleich der Stichprobe mit der theoretischen Verteilung. Vergleichen müssen wir
die (relative) Häufigkeit h mit der theoretischen Wahrscheinlichkeit, also:
hi zu [xi , xi+1]
n·hi = ki zu [xi , xi+1]
bzw.
vgl. mit
vgl. mit
P(xi≤X≤xi+1)
n·P(xi≤X≤xi+1)
In Tabellenform gebracht erhalten wir für unser Beispiel (n = 100, Werte gerundet):
i
xi
xi - x̄
s
-2,85
-2,27
-1,69
-1,12
-0,54
0,04
0,62
1,19
1,77
2,35
yi =
0
1
2
3
4
5
6
7
8
9
1,795
1,825
1,855
1,885
1,915
1,945
1,975
2,005
2,035
2,065
Φ(yi)
0,0022
0,0116
0,0455
0,1314
0,2946
0,4840
0,7324
0,8830
0,9616
0,9906
∆Φ(yi)
0,0094
0,0339
0,0859
0,1632
0,1894
0,2484
0,1506
0,0786
0,0290
∆x·fN,theor
n·∆Φ(yi)
ki
0,0087
0,0322
0,0854
0,1626
0,2218
0,2170
0,1521
0,0765
0,0276
0,94
3,39
8,59
16,32
18,94
24,84
15,06
7,86
2,90
2
3
6
18
25
18
14
11
3
Aus
∆Φ(yi) = Φ(yi+1) - Φ(yi) = FN(xi+1, µ, σ) - FN(xi , µ, σ)
≈ fN(x̄ i, µ, σ)·∆x
mit x̄ i = Klassenmitte
erhalten wir die in der fünften Spalte angegebenen Vergleichswerte (siehe Seite 39). Die in der sechsten
Spalte angegebenen Werte berechnen sich aus der bekannten Formel der Normalverteilung (siehe Seite 37).
44
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Der folgende graphische Vergleich verdeutlicht auch nochmals die Notwendigkeit der Gruppierung:
b) Als zweites Beispiel wollen wir einen Vergleich der Augensumme zu drei Würfeln (X3W) mit der Normalverteilung ziehen, d.h. P(X3W=i) soll mit P(i-½≤XN≤i+½) verglichen werden. Wir können dabei wie beim
ersten Beispiel vergleichen, oder über die Verteilungsfunktion, also P(X3W≤i) mit P(XN≤i+½) gehen. (Beim
letzten Weg muß bekanntlich µ3W = 21/2 und σ3W = ½ 35 eingesetzt werden (siehe Aufgabe). )
c) Schließlich gibt es noch die Möglichkeit, mit Wahrscheinlichkeitspapier zu vergleichen. Dieses Papier ist
auf der Ordinate so eingeteilt, daß eine normalverteilte Funktion eine Gerade ergibt. Beim Auftragen der
(Meß-) Punkte auf das Papier muß man darauf achten, daß diese auf die rechte Intervallgrenze aufgetragen
werden, da alle Merkmalsausprägungen bis dorthin mitgezählt werden! Nach dem Einzeichnen der Ausgleichsgeraden können auf dem Papier x̄ und ±σ abgelesen werden. Für unser Beispiel bedeutet das (nach
dem entsprechenden Beiblatt):
x̄ grafisch = 1,94
x̄ theoretisch = 1,943
σgrafisch = 0,05
σtheoretisch = 0,052
Heute hat das Wahrscheinlichkeitspapier keine große Bedeutung mehr, da diese Aufgaben im Üblichen von
Computern übernommen werden.
(=> Aufg. 5.1. bis 5.3.)
5.2. Normalverteilung als Näherung zu Binomial- und POISSONverteilung
Bereits auf Seite 25 haben wir die POISSONverteilung als Grenzwert (d.h. für die Praxis: Näherung) zur Binomialverteilung kennengelernt. Ähnlich können wir die Normalverteilung als Näherung zur Binomial- und
damit auch zur POISSON-Verteilung auffassen. Es sei in Erinnerung gerufen, daß für eine binomialverteilte
Zufallsvariable XB gilt:
¬
«
E(XB) = µB = np
V(XB) = σB² = nqp
mit q = 1 - p
Statistik
Seite 45
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Vergleichen wir diese Eigenschaften mit einer normalverteilten Zufallsvariablen XN , dann gilt für die Wahrscheinlichkeiten (b ∈ INo):
b+½-np
P(XB≤b) ≈ P(XN≤b+½) = Φ
î
npq 
Mit dem Summand +½ wird bei der Normalverteilung dafür gesorgt, daß bis zum "rechten Klassenrand" alle
Werte eingeschlossen sind, während b selbst die Klassenmitte von [ b-½ ; b+½ ] darstellt (-> Vgl. auch
Wahrscheinlichkeitspapier).
Von DE MOIVRE und LAPLACE wurde dazu folgender Grenzwertsatz aufgestellt, der auch globaler Grenzwertsatz genannt wird:
b+½-np
lim P(XB≤b) = Φ
npq 
î
n→∞
Entsprechend gibt es für die Wahrscheinlichkeit, daß eine Zufallsvariable im Intervall [a,b] mit a,b ∈ INo und
a<b liegt, einen lokalen Grenzwertsatz:
P(a<XB≤b) = P(XB≤b) - P(XB≤a)
b
∑
b+½-np
a+½-np
n n-x x
p q ≈ Φ
- Φ
(
)
x
î

npq
npq 
î
x = a+1
b+½-np
b-½-np
 - Φ

P(XB = b) ≈ Φ
lokaler Grenzwertsatz
î npq  î npq 
P(a<XB≤b) =
Mit Hilfe des Mittelwertsatzes können wir hierfür auch schreiben:
bnp 2
-½· 
î nqp
·e
1
2πnqp
Die erneute Näherung, die wir durch den Mittelwertsatz machen, können wir getrost vernachlässigen. Als
Zahlenbeispiel wollen wir uns eine Binomialverteilung mit n = 8 und x = 3 = b anschauen:
P(XB=b) ≈ ∆x·fN(b,np, npq) =
a) p = ½
Im ersten Fall sei
p = ½
=>
µ = np = 4
=>
σ² = 2
=>
σ = 2
dann folgt für
P(XB=3) = 21,88%
und ein entsprechender Wert für die Näherungen von
3,5-4
2,5-4
Φ
- Φ
= Φ(-0,35) - Φ(-1,06) = 0,3632 - 0,1446 = 21,97%
î 2  î 2 
und
fN(3,µ=4,σ= 2) = 21,97% .
b) p = 0,2
Im zweiten Fall sei
p = 0,2
=>
µ = np = 1,6
=>
σ² = 1,6·0,8 = 1,28
=>
σ = 1,28
dann folgt für
P(XB=3) = 14,68%
und ein entsprechender Wert für die Näherungen von
3,5-1,6
2,5-1,6
P(XB=3) ≈ Φ
- Φ
= Φ(1,68) - Φ(0,80) = 0,9835 - 0,7881 = 16,54%
î 1,28  î 1,28 
und
fN(3,µ=1,6,σ²=1,28) = 16,40%.
46
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Die Qualität der Näherung hängt also nicht nur von der Größe von n, sondern auch vom Mittelwert µ ab. Als
Faustregel kann gelten, daß µ > 9 sein muß, um eine ausreichende Näherung zu gewährleisten. Wie bereits
erwähnt, gelten beide Grenzwertsätze natürlich auch für die POISSONverteilung; d.h. auch sie kann für große
n durch die Normalverteilung ersetzt werden.
✎ Beispiel: 23
Bei einer Untersuchung über Verwandtenehen wurde für die Verteilung von Mädchen- zu Knabengeburten ein vom Durchschnitt aller Ehen (p=0,48) abweichendes
PStpr = 386/709 = 0,544
gemessen. Es stellt sich die Frage, ob diese Abweichung zufällig ist. Wie groß ist also die Wahrscheinlichkeit, daß bei einem p von 0,48 genausoviel oder mehr Mädchengeburten entstehen ?
Hypothese: p = 0,48 gilt für diese Stichprobe
gesucht:
P(XB≥386 | n=709 , p=0,48 )
709
∑
709
709-x
( x ) ·0,48
x = 386
· 0,52x Diese Berechnung ist nicht praktisch durchführbar.
µ = n·p = 709·0,48 = 340
σ² = npq = 709·0,48·0,52 = 177
=>
σ = 13
P(XB≥386) = 1 - P(XB<386) ≈ P(XN≤385,5 | µ = 340 ; σ² = 177 )
= 1 - Φ(3,40) = 0,035%
Ergebnis: Hypothese verwerfen:
Es ist sehr unwahrscheinlich, daß die Abweichung der Stichprobe von der Grundgesamtheit nur auf
einem Zufall beruht.
Hinweis:
Wird irrtümlicherweise die Frage lediglich nach "genausoviel" statt "genausoviel oder mehr"
gestellt, ergibt dies natürlich einen viel zu geringen Wert:
709
·0,48709-386 · 0,52386
P(XB≥386) = (
386)
≈ P(385,5≤XN≤386,5 | µ = 340 ; σ² = 177 ) = 0,00823%
­
Vergleich über ±σ-Bereich:
µ = 340 ; σ = 13
=>
P(µ-σ;µ+σ) = P(327;353) = 68%
Der Anteil Mädchengeburten unter 709 Geburten liegt mit einer Wahrscheinlichkeit von 68% im
Intervall (327;353)
µ = 340 ; 2σ = 26
=>
P(µ-2σ;µ+2σ) = P(314;366) = 95%
Entsprechend liegt der Anteil Mädchengeburten unter 709 Geburten mit einer Wahrscheinlichkeit
von 95% im Intervall (314;366).
Die Wahrscheinlichkeit für eine zufällige Abweichung liegt also unter 5%.
(=> Aufg. 5.4. bis 5.6.)
5.3. Summen von Zufallsvariablen und Normalverteilungen
Bei vielen Anwendungen müssen Zufallsvariablen addiert werden. So stellt sich zum Beispiel bei der Serienschaltung von elektrischen Widerständen mit angegebenen Fehlerspannen die Frage des Summenfehlers.
Ein weiteres Beispiel sei ein Computerbild mit verrauschten Grauwerten yi (z.B. einer Zeile => i = 1,..,512) ,
die sich durch Addition eines "wahren" Grauwertes ci und einer Zufallsvariablen Xi ergeben:
yi = ci + xi
=>
Yi = ci + Xi
Als Gegenmaßnahme verwende man einen "Filter" 24 mit
Zi = ¼(Yi-1 + 2Yi + Yi+1).
Wie ändert sich nun E(Yi) und V(Yi) in E(Zi) und V(Zi) ?
23

® ¯

° ±
vgl. KREYSZIG Aufg. 50.4.
zu Filtern (hier insbes. "Binomialfilter") siehe auch: Skript zu Fourier-Transformation; Kapitel
II.3.4. und III.3.
24
Statistik
Seite 47
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
²
Ein Beispiel für die Summen von Zufallsvariablen haben wir schon im Abschnitt 2, diskrete Wahrscheinlichkeitsfunktionen, kennengelernt: Die Summe von zwei Würfeln WW : XW1 + XW2 , wobei wir für Erwartungswert und Varianz erhielten:
E(XW ) = 3,5
E(XW1 + XW2) = 7 = 2 · 3,5
V(XW ) = 35/12
E(XW1 + XW2) = 35/6 = 2 · 35/12
Dabei handelt es sich hier natürlich um den einfachen Fall der Summe zweier diskreter, gleichverteilter
(sogar gleicher) Zufallsvariablen. Uns wird im folgenden vor allem die Frage beschäftigen, wie die Summe
beliebig verteilter Zufallsvariablen aussieht; wie sich z.B. Erwartungswert und Varianz der Summe von
Stichprobenmittelwerten verhalten:
 n 
E ∑ Xi;
î i=1 
 n 
V ∑ Xi
î i=1 
für Xi beliebig
E( X̄ );
V( X̄ )
1
Xi )
( mit X̄ = n·
i=1
n
oder
∑
a) unabhängige Zufallsvariable
Zunächst wollen wir uns den Begriff der unabhängigen Zufallsvariablen anschauen. Er ist angelehnt an
die Unabhängigkeit von Ereignissen, wie wir sie bereits früher bei den Wahrscheinlichkeitsoperationen
kennengelernt haben. Damals lernten wir den Multiplikationssatz (-> siehe Seite 12) kennen:
und
P(
P(
³µ´ ¶ ) = P(· ) · P(¸ I ¹ )
ºµ» ¼ ) = P(½ ) · P(¾ )
allgemein
für unabhängige Ereignisse, d.h. für
¿
À Á
P( ) = P( I )
Erweiternd definieren wir nun:
Zwei beliebige Zufallsvariablen X und Y sind unabhängig, wenn gilt:
P(X≤x ^ Y≤y) = P(X≤x) · P(Y≤y)
Entsprechendes gilt natürlich auch für mehr als zwei Zufallsvariablen. Ob ein Experiment abhängig oder
unabhängig ist, ergibt sich aus seiner Natur. So ist das Gewicht von Menschen z. B. in gewissem Maße
von der Körpergröße abhängig, während die Augenfarbe von der Körpergröße unabhängig ist. Die
Unabhängigkeit von Zufallsvariablen (bzw. Stichprobenelementen) ist die Voraussetzung für statistische
Beurteilungsverfahren.
48
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
b) Summen beliebiger Zufallsvariablen
Für die Summen beliebiger Zufallsvariablen gelten folgende Regeln:
Â
Additions-Satz für den Mittelwert (Satz 5.1.):
Es seien Xi (mit i = 1, 2, ... , n ) beliebige Zufallsvariable (abhängig oder unabhängig)
mit E(Xi) = µ,
Ã
✎ Beispiel:
Ä
W:
Æ
... ;
Würfel
=>
und:
Ç

E
dann gilt:
Å
î
n
∑
i=1


Xi  =
n
∑ E(Xi )
n
=
i=1
∑ µi
( hier ohne Beweis ) 25
i=1
E(X1) = 3,5 ;
E(X2) = 2 · 3,5 = 7
E(X3) = 3 · 3,5 = 10,5 ;
WW :
WWW :
n
n·W
:
E(Xn) =
∑ µi
= n · 3,5
i=1
Additions-Satz für die Varianz (Satz 5.2.):
Es seien Xi (mit i = 1; 2; ... ; n ) beliebige, paarweise unabhängige Zufallsvariablen,
dann gilt:

V
î
n
∑
i=1


Xi  =
n
∑ V(Xi )
i=1
n
=
∑ σi²
i=1
✎ Beispiel:
Würfel (EW ):V(X1) = ; V(X2) = 2 · ; V(X3) = ; ... ; V(X1) = n
25
Der Satz für den Mittelwert gilt natürlich nur, wenn der Mittelwert µ zu Xi überhaupt existiert. Diese auf
den ersten Blick selbstverständlich erscheinende Bedingung gewinnt dann an Bedeutung, wenn wir uns
die COUCHY - Verteilung anschauen; diese hat nämlich keinen Mittelwert! Die COUCHY - Verteilung
verläuft ähnlich wie die Normalverteilung mit einem Maximum bei 0 und ist gekennzeichnet durch die
Funktion:
f(x) = 1/π · 1/1+x²
Für das sichere Ereignis gilt:
∞
∞
P(X<∞) = 1/π ⌠ ( 1/1+x² ) dx = 1/π·arctan(x)
= 1
−∞
⌡
|
q.e.d.
−∞
Der Erwartungswert ist:
∞
∞
∞
E(X) = 1/π ⌠ ( x/1+x² ) dx = 1/2π ⌠ ( 2x/1+x² ) dx = 1/2π·ln(1+x²)
−∞
⌡
⌡
|
−∞
−∞
=>
Existiert nicht!
Simuliert werden kann die COUCHY - Verteilung mit dem Rechner über
Y := Tan(Pi*(Random - 0.5)),
wobei Y dann die COUCHY-verteilte Zufallsvariable ist. Zwar lassen sich bei diesen Rechnersimulationen
natürlich Mittelwerte bilden; diese nehmen jedoch völlig beliebige Werte an! (vgl auch Seite 67)
Statistik
Seite 49
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
È
É
Würfel
=>
und:
W:
Ê
WW :
WWW :
Ë
V(X1) = 35/12 ;
E(X2) = 35/12 = 35/6
E(X3) = 3 · 35/12 = 35/4 ;
... ;
n
n·W :
E(Xn) =
∑ σi²
i=1
= n · 35/12
Beide Sätze sind verteilungsunabhängig, d.h. eine Kenntnis der Verteilungsart der Summanden ist nicht
erforderlich. Aussagen über die Verteilungsart werden daher auch nicht gemacht.
c) Summen normalverteilter Zufallsvariablen
Schauen wir uns daher zunächst die Summe normalverteilter Zufallsvariablen an:
Satz 5.3.:
Es seien X1, X2, ... , Xn (paarweise) unabhängige, normalverteilte Zufallsvariablen,
n
dann ist auch Z =
∑ Xi
normalverteilt mit E(Z) und V(Z) nach den obigen Sätzen.
i=1
( hier ohne Beweis )
Entsprechendes gilt auch für die Binomialverteilung.
✎ Beispiel:
X1, X2 seien normalverteilte, unabhängige Zufallsvariablen mit µ = 10 und σ = 2, dann ist für
α)
Z = X1 + X2
=>
E(Z) = 20
V(Z) = 4+4 = 8
=>
σZ = 2 2
(Summensatz)
β)
Y = 2·X1
=>
E(Y) = 20
V(Y) = 2² · V(X1) = 16 =>
σY = 4
(lineare Transformation)
Dieses Ergebnis können wir uns so klar machen, daß sich bei unabhängigen Zufallsvariablen statistische Schwankungen stärker ausgleichen als bei voneinander abhängigen. Werden unabhängige
Zufallsvariablen addiert, steigt die Standardabweichung nicht im selben Maß wie der Erwartungswert.
✎ Beispielaufgabe: 26
Bei der Absicherung elektrischer Anlagen ist es erwünscht, daß bei einem Defekt nur die für diesen
Teilbereich zuständige Sicherung (R1) anspricht und möglichst nicht die Hauptsicherung (R2), die
die gesamte Anlage lahmlegen würde. Die Reaktionszeiten der Sicherung R1 seien normalverteilt
(X1) mit einem µ 1 = 1sec und einem σ1² = σ2² = 0,1sec². Wie muß nun die Hauptsicherung R2 dimensioniert sein, daß sie höchsten in einem von 1000 Fällen schneller anspricht als die Detailsicherung R1, aber trotzdem möglichst schnell reagiert?
Die mittlere Reaktionszeit der Hauptsicherung ist größer als die der Detailsicherung:
E(X2) > E(X1) ;
Die Wahrscheinlichkeit, daß die tatsächliche Reaktionszeit der Hauptsicherung jedoch kleiner ist,
betrage 0,001:
P(X2<X1) ≤ 1/1000
Im ersten Ansatz wird man jedoch nicht mit einer Ungleichung rechnen:
P(X2<X1) = P((X2-X1)<0) = P(X2+(-X1)<0) = 0,001
Wir definieren eine neue Zufallsvariable Z:
Z = X2 - X1
mit
µ Z = E(Z) = µ 2 - µ 1
und
V(Z) = σ1² + σ2² = 0,2 sec²
(lineare Transformation:
E(-X1) = -E(X1), die Varianz bleibt bei dieser Transformation unverändert.)
26
50
Š
Ì Í
vgl. KREYSZIG Aufg. 71.5.
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Laut Maßgabe soll gelten:
0 - µ Z = 0,001
P( Z < 0 ) = Φ

î σZ 
=>
 µ 1 - µ 2  = 0,001

î σ1² + σ2²
Φ
Aus der Tabelle entnehmen wir den Argumentwert für Φ = 0,001:
µ1 - µ2
= -3,09
σ1² + σ2²
1sec - µ 2
=>
= -3,09
0,2sec²
=>
µ 2 = 1sec + 3,09· 0,2sec² = 2,38 sec
Dies ist der Erwartungswert, der zu einer Wahrscheinlichkeit von 0,001 führt. Dann folgt:
P(X2<X1) ≤ 1/1000
=>
µ 2 ≥ 2,38 sec.
Wie wir gesehen haben, läßt sich der Summensatz natürlich auch auf Differenzen anwenden:
41)
und
=>
X2 - X1 = X2 + (-X1)
E(X2) + E(-X1) = E(X2) - E(X1) = µ2 - µ1
, da E(aX+b) = a·E(X) + b (siehe Seite.
=>
V(X2) + V(-X1) = σ2² + σ1²
, da V(aX+b) = a² · V(X)
Aus diesen Überlegungen folgt, daß für "gleichartig" normalverteilte Zufallsvariablen X1, X2, ... , Xn ;
d.h. für E(Xi) = µ und V(Xi) = σ² (für alle i = 1; 2; ... ; n ), gilt:
n
σX
Xi ) ist dann auch wieder normalverteilt mit (µ, )
Der Mittelwert X̄ ( = 1/n
n
i=1
∑
Î
Der Beweis ist einfach:
Ï
E(∑Xi) = n·µ
V(∑Xi) = n·σ²
=>
=>
E(X̄) = 1/n·n·µ = µ
V(X̄) = 1/n²·n·σ² = σ²/n
d) Der zentrale Grenzwertsatz
X1, X2, X3 ... sei eine unbeschränkte Folge von beliebigen, paarweise unabhängigen Zufallsvariablen und es
sei YN = ∑Xi , dann nähern sich mit wachsendem N die Zufallsvariablen Y zunehmend der Normalverteilung.
Dieser zentrale Grenzwertsatz ist in der Tat der wichtigste Satz der Statistik überhaupt. Die Zufallsvariablen
Xi brauchen dabei nicht dieselbe Verteilungsart haben; auch µ und σ können jeweils unabhängig voneinander
sein. Falls Xi binomial- oder POISSON-verteilt ist, gilt der Grenzwertsatz von DE MOIVRE und LAPLACE. Wie wir
bereits beim Würfelmodell gesehen haben, gibt es für die Augensumme von drei Würfeln schon eine ganz
gute Übereinstimmung. Allgemein gilt, daß die Annäherung ab N ≥ 30 ganz gut ist; sie hängt natürlich von der
Art der einzelnen Zufallsvariablen ab. Viele Meßgrößen sind deshalb normalverteilt, weil sich die Fehler vieler
verschiedener Fehlerquellen addieren. Außerdem kann bei größerem Stichprobenumfang der Mittelwert X̄
als normalverteilt angesehen werden.
Statistik
Seite 51
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Mathematische Formulierung des zentralen Grenzwertsatzes:
Es sei mit
N
E(YN) =
∑ µi
= µYN
i=1
und
N
V(YN) =
mit
und
dann gilt:
∑ σi²
i=1
= σ²YN
für
Zn =
Yn - µYn
σ Yn
E(ZN) = 0
V(ZN) = 1,
lim FN(x) = Φ(x)
FN(x) = P(ZN≤x)
N→∞
✎ Beispiel aus der Bildverarbeitung
Bei einer elektronischen Kamera sei das Bildrauschen mit max. 5% bekannt. Wenn sie 0..255
Graustufen mit Werten von -128 .. +127 besitzt, entspricht dies einer Abweichung von ± 6,3.
Der gemessene Lichtintensitätswert setzt sich also aus der wahren, aber unbekannten
Lichtintensität und dem statistisch verteilten Rauschen zusammen :
Igemessen = Iwahr + X
Im Normalfall ist die Verteilung der Zufallsvariable X unbekannt.
Annahme:
X ist normalverteilt und 95% liegen innerhalb der angegeben 5% Rauschen. Dann
entsprechen die 5% dem Wert 2σx :
=>
|X| ≤ 2σx = 6,3
σx = 3,15
Es ist bei unbewegter Bildvorlage möglich, von ein und demselbem Bildpunkt mehrere Messungen
zu machen, um die Auswirkung von X nach
σX
σX̄ =
n
vermindern zu können:
N
N
1
1
I
=
(Iw + Xi)
g
N
N
=>
∑
i=1
∑
i=1
N
1
Y = X̄ = N
Xi
i=1
i=1
1
1
=>
Ig = Iw + Y
mit
(σY)² = N ·(σX)² => σY =
σ
N X
Wir haben also eine neue Zufallsvariable Y als Fehlergröße erhalten, die eine geringere, von n
abhängige Standardabweichung besitzt.
Wieviele Meßwerte (eines Bildpunktes) müssen nun addiert werden, damit bei einem wahren Wert
Iw = 100 in 95% aller Fälle gilt Ig = 99,5..100,5 ?
=>
1
Ig = Iw + N
N
∑ Xi
mit
∑
95% = P(-0,5≤Y≤0,5) = P(-2σY≤Y≤2σY)
σY = 0,25
3,15
=>
0,25 =
N
3,152
=>
N = 
î 0,25 ≈ 170
Man muß also 170 Meßwerte mitteln, um den Einfluß des statistischen Rauschens so klein zu machen, daß in 95% aller Fälle ein Fehler von weniger als 1% vorliegt.
=>
52
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
e) Das Gesetz der großen Zahlen
TSCHEBYSCHEFF:
X1, X2, X3 ,... , XN seien beliebige, paarweise unabhängige Zufallsvariablen mit gleichem Erwartungswert
E(Xi) = µ
und gleicher Varianz
V(Xi) = σ² ,
dann gilt mit
N
1
X̄ = N
Xi
∑
für beliebig kleines ε ∈
i=1
IR+:
P(µ−ε≤X̄≤µ+ε) > 1 -
σ²
N·ε²
Dieses Gesetz sagt aus, daß sich für beliebig kleine Zahlen ε immer ein N derart finden läßt, so daß sich
X̄ mit der angegebenen Wahrscheinlichkeit im Intervall [µ-ε;µ+ε] befindet. Für praktische Anwendungen ist
diese Formulierung allerdings zu "unscharf", d.h. es läßt sich mit ihr schlecht rechnen.
(=> Aufg. 5.7. bis 5.12.)
5.4. Fehlerrechnung
Die Grundlagen der Fehlerrechnung, die wir schon im Physikpraktikum kennengelernt haben, wurden von
GAUSS erarbeitet. Ziel ist es, aus einer oder mehreren Messungen die "Zielgröße" mit Fehler bzw. Toleranz
formelmäßig zu berechnen. Voraussetzung ist, daß wir es in der Tat nur mit zufälligen (stochastischen)
Schwankungen zu tun haben; systematische Abweichungen können wir nicht berücksichtigen.
a) Betrachten wir zunächst den Fall einer einzigen Fehlergröße. Mit einem Theodolit soll eine Höhe h bestimmt werden, wobei der Abstand a als fehlerfrei bekannt angenommen wird. Vom Theodolit ist die Toleranz ∆α bekannt.
α
h
h = a·tanα
a
Uns interessiert nun der Fehler ∆h in Abhängigkeit von ∆α. Wir gehen dabei allgemein davon aus, daß
gilt:
I ∆α I « α
und
I ∆α I « 1.
Der Meßwert α ergibt sich aus dem "wahren", aber unbekannten Wert αo so:
α = αo + ∆α,
woraus folgt:
[a·tanα]' = [h]' =
=>
=>
lim ∆h
∆α
f(x+h)-f(x)
( wegen f'(x) = lim
)
h
h→0
∆α→0
∆h
a
≈
cos²αo.
∆α
a
∆h ≈
· ∆α
cos²αo
( aus ∆y/∆x ≈ dy/dx = f'(x) für ∆x « 1)
Statistik
Seite 53
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
In der Fehlerrechnung wird das Näherungszeichen üblicherweise durch Gleichheitszeichen ersetzt, so
daß wir im folgenden ebenfalls ein Gleichheitszeichen verwenden werden.
Bei der Berechnung von ∆h kann für die (unbekannte) Größe αo einfach der gemessene Wert α eingesetzt werden, falls I∆αI « α , da für die Fehlergröße ∆h die Berechnung der Größenordnung ausreicht.
Wir erhalten somit für ∆h:
a
∆h =
· ∆α
cos²α
Allgemein formuliert gilt also bei einer Fehlergröße zu einem gegebenen Meßwert x mit
x = xo + ∆x
bei "wahrem", unbekanntem Wert xo und gesuchtem Wert y = f(x) mit
yo = f(xo)
mit der Toleranz ∆y:
∆y
d
≈ f'(x) x=x = dx f(x) x=x
∆x
o
o
=>
∆y = f'(xo) · ∆x
=>
∆y = f'(x) · ∆x
falls |∆x| « x ∧ |∆x|«1
|
|
Dabei ist xo der gesuchte, und x der gemessene Wert.
Wir können neben diesen Überlegungen auch den Weg über die TAYLOR-Reihe gehen. Diese bildet sich
ja bekanntlich nach
(n)
f'(xo)
f''(xo)
f'''(xo)
f (xo)
n
f(xo+h) = f(xo) + 1! ·h + 2! ·h² + 3! ·h³ + ... +
n! ·h + ...
Verwenden wir nur die ersten beiden Summanden als Näherung, erhalten wir nach Umformung:
f(xo+h) - f(xo) = f'(xo)·h = ∆y
b) Bei mehreren fehlerbehafteten Meßwerten sieht die Situation ähnlich aus. Wir wollen hier stellvertretend
den Fall für zwei fehlerbehaftete Größen durchrechnen.
Auch hier setzen wir wieder an mit
x = xo + ∆x
und
y = yo + ∆y ,
wobei xo und yo wieder die unbekannten, "wahren" Werte sind und ∆x sowie ∆y die bekannten
Toleranzen. Gesucht ist das sich sowohl aus x als auch y ergebende zo mit
zo = f(xo;yo).
Dann können wir auch hier für
I∆xI « 1
und
I∆yI « 1
sowie
I∆xI « x
und
I∆yI « y
wieder durch TAYLOR-Reihennäherung27 schreiben:
zo + ∆z = f(xo+∆x , yo+∆y) ≈ f(xo,yo) +
27
54
∂f(x,y)
∂f(x,y)
·∆x +
·∆y
∂y
∂x
Zur Benutzung der TAYLOR-Reihe: Betrachten wir z = F(x,y) als irgendeine (zweidimensionale) Fläche
im (3-dimensionalen) x,y,z-Raum, so mag es zunächst verwundern, daß für einen beliebigen Punkt
P(x,y) dieser Fläche die Steigung in x-Richtung und die Steigung in y-Richtung ausreicht, und nicht die
¯ ¯ ermittelt werden muß.
Steigung durch die vom Ursprung zum jeweiligen Punkt gehende Strecke OP
Ableitbare (!) Funktionen enthalten aber immer eine gewisse Bindung der Ableitung direkt zu einem
beliebigen Wertepaar gegenüber den Ableitungen in x-Richtung und der in y-Richtung.
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Wir müssen also jetzt nach jedem fehlerhaften Meßwert (bzw. dessen Funktion zur Bildung des zu
berechnenden Wertes) partiell28 ableiten!
Als Abkürzung für die partielle Ableitung nach x schreiben wir x als Index:
zo + ∆z = f(xo+∆x , yo+∆y) ≈ f(xo,yo) + fx(xo,yo)·∆ x + fy(xo,yo)·∆ y
Für den gesuchten Fehler ∆z erhalten wir dann:
f(xo+∆x , yo+∆y) - f(xo , yo) = ∆z = fx(xo , yo)·∆x + fy(xo,yo)·∆y
Probleme treten auf, wenn gerade
fx(xo,yo)·∆x = -fy(xo,yo)·∆y
ist, da dann der resultierende Fehler Null wäre, was aber sicher nicht der Wahrheit entsprechen würde. Es
gibt zwei Möglichkeiten, diesen Fehler zu vermeiden:
α) ∆z = fx(xo,yo)·∆x + fy(xo,yo)·∆y
"absoluter Maximalfehler"
β) ¯∆z¯ =
"mittlerer Fehler"
(fx(xo,yo)·∆x)² + (fy(xo,yo)·∆y)²
Den zweiten Fall, den des mittleren Fehlers - oder auch "wahrscheinlicher Fehler von z" genannt -, haben
wir bereits im Physik-Praktikum kennengelernt. Er wird häufiger gebraucht; den absoluten Maximalfehler
benötigt man eigentlich nur bei Berechnungen, in denen man möglichst sicher gehen will (=> z.B.
Kernkraftwerke, u.ä.).
✎ Beispiel:
h = a·tanα
∂h
a
=>
=
∂α
cos²α
∂h
=>
= tanα
∂a
a
¯¯ =
=>
∆h
( ∆a·tanα )² + ( ∆α
)²
cos²α
z.B.:
a = 10m ± 1%
=>
∆a = ± 0,1m
α = π/6 ± 2%
=>
∆α = 0,02·π/6
tanα = 1/3 3
¯¯ =
∆h
=>
cosα = ½ 3
h = 5,77m
10m
(0,1m·1/3 3)² + (0,02·π/6 0,75m)² = 0,151m
h = ( 5,8 ± 0,2 )m = 5,8m ± 3%
∆hmax = 0,197m
zum Vergleich:
Im allgemeinen wird oft der relative Fehler angegeben:
¯ ¯
∆hmax
∆h
h bzw.
h
( => Aufg. 5.13 bis 5.17. )
28
Bei der partiellen Ableitung wird nicht nach allen Variablen einer Funktion abgeleitet, sondern nur nach
einer, wobei die anderen wie Konstanten behandelt werden:
z.B.:
f(x,y) = x·siny
∂f(x,y)
=>
= siny
(mit y = const.)
∂x
∂f(x,y)
und
= x·cosy
(mit x = const.).
∂y
Statistik
Seite 55
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
c) Neben dem Fehler interessiert uns die Varianz einer Funktion von Zufallsvariablen; hier einmal am Beispiel
von zwei Argumenten (d.h. zwei Zufallsvariablen X, Y) hergeleitet: Es seien also zwei Zufallsvariablen X
und Y unabhängig voneinander und Z = f(X;Y) als Funktion der beiden Zufallsvariablen ebenfalls
unabhängig. Ebenso sei E(X) = µX , E(Y) = µY , sowie V(X) = σ²X , V(Y) = σ²Y , dann wird gesucht:
V(Z) = σ²Z , wenn σ²X ; σ²Y « 1 ist.
Es sei ferner E(Z) = µZ , dann gilt das GAUSS'sche Fehlerfortpflanzungsgesetz:
α) µz = f(µX , µY)
β) σ²Z = [ fx(µX , µY)·σX ]² + [ fy(µX , µY)·σY ]²
=> σZ = ( fx(µX , µY)·σX )² + ( fy(µX , µY)·σY )²
( mit fx bzw. fy partielle Ableitung nach x bzw. y )
Substituieren wir
R = X - µX
und
S = Y - µY ,
so daß folgt:
E(R) = 0 = E(S)
und
V(R) = σ²X
und
V(S) = σ²Y ,
dann können wir das GAUSS'sche Fehlerfortpflanzungsgesetz beweisen. Es gilt dann nämlich:
Z = f(X,Y)
= f(µX + R , µY + S)
= f(µX , µY) + fx(µX , µY)·R + fy(µX , µY)·S
Die zweite Umformung entspricht den ersten beiden Gliedern der TAYLOR-Reihe und ist als Näherung
zulässig, wenn wir von kleinen Werten für R und S ausgehen.
=>
=>
E[Z] = E[ f(µX , µY) + fx·R + fy·S ]
µZ = f(µX , µY)
; da E[R] = E[S] = 0
Für die Varianzen gilt entsprechend der obigen Umformung mit der Regel, daß Varianzen von Konstanten
Null sind (siehe lineare Transformation, Seite 40):
=>
=>
=>
V(Z) = V[ f(µX,µY) + fx(µX,µY)·R + fy(µX,µY)·S ]
V(Z) = σ²Z
= 0 + V[fx(µX,µY)·R] + V[fx(µX,µY)·R ] Summensatz Varianzen
= f²x(µX,µY)·V[R] + f²y(µX,µY)·V[S]
= ( fx(µX,µY)·σx )² + ( fy(µX,µY)·σy )²
σZ
=
( fx(µX,µY)·σx )² + ( fy(µX,µY)·σy )²
Dies liefert den Grundstein für die Berechnung des mittleren Fehlers ¯∆z¯ mit
¯∆z¯ =
praktische Anwendung:
sz =
(fx(xo,yo)·∆x)² + (fy(xo,yo)·∆y)²
X → x̄, sx ; Y → ȳ, sy
.
; Z = f(X,Y)
[fx(x̄;ȳ)·sx]²+[fy(x̄;ȳ)·sy]²
Beim Übergang in den in der Praxis oft benötigten 2σ-Bereich (≅ 95%) werden einfach beide Seiten der
Gleichung mit Zwei multipliziert:
2σZ =
(fx·2σX)² + (fy·2σY)²
In der Fehlerrechnung sprechen wir im Zusammenhang mit σi² anstelle von Varianzen auch von mittleren quadratischen Abweichungen.
56
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Folgerung für 1 Meßgröße: falls f(x,y) unabhängig von y, folgt
d
fy(x,y) = 0 =>
∆z = | dxf(x)·∆x |
✎ Beispiel: α)
R1 und R2 seien Widerstände mit 5% Toleranz. Gesucht ist die Toleranz bei einer Reihenschaltung:
∆R1 = 0,05·R1 ; ∆R2 = 0,05·R2
Reihenschaltung:
Rges = R1 + R2
=>
=>
=>
z.B.:
✎ β)
∂Rges
∂Rges
∂R1 = 1 = ∂R2
∆Rges =
(0,05·R1)² + (0,05·R2)² = 0,05· R1² + R2²
R1 ² + R2 ²
∆Rges
=
0,05·
relativer Fehler von Rges
R1 + R2 < 0,05
Rges
R1 = 100Ω ; R2 = 50Ω
∆Rges
12500Ω
Rges = 0,05· 150Ω = 0,037 = 3,7%
Toleranz in Bezug auf den Strom
Es seien bekannt "ohne Meßfehler": R + ∆R , U
U
I = R
dI
U
=>
dR = - R²·∆R
∆I
∆R
R
U
=>
I = U·( - R²·∆R ) = - R
∆I
∆R
=>
| I | = R
5.5. Exkurs: Summenverteilung
Wenn wir zwei unabhängige Zufallsvariablen X, Y haben, die miteinander addiert die Zufallsvariable Z ergeben, d.h. wenn Z = X + Y gegeben ist, dann können wir µZ und σZ wie gezeigt über die Additionssätze
ermitteln. Uns interessiert nun aber auch die Verteilungsfunktion von Z.
a) einführendes Beispiel
Als Beispiel wollen wir uns das schon bekannte Ereignis der Augensumme zweier Würfel anschauen:
XWW.
Für die Zufallsvariable XW gilt:
 1/6
P(Xj = i) = h(i) =  0
î
für i = 1, 2, ... , 6
mit i ∈IN
sonst
Wir suchen nun für
Z = X1 + X2
die Funktion
g(z) = P(Z=z)
Statistik
Seite 57
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
als Formel aus h(i):
Zunächst sei g(4) gesucht, dann gilt:
g(4) = P(Z=4)
= P( [X1=1 ∧ X2=3] ∨ [X1=2 ∧ X2=2] ∨ [X1=3 ∧ X2=1] )
Da diese 3 Ereignisse jeweils einander ausschließen, folgt:
= P( [X1=1 ∧ X2=3] ) + P( [X1=2 ∧ X2=2] ) + P( [X1=3 ∧ X2=1] )
X1 und X2 sind voneinander unabhängig:
= P(X1=1)·P(X2=3) + P(X1=2)·P(X2=2) + P(X1=3)·P(X2=1)
= h(1)·h(3) + h(2)·h(2) + h(3)·h(1)
3
=
∑
h(i)·h(4-i)
∑
h(i)·h(4-i)
i=1
6
=
i=1
Allgemein folgt daher für beliebiges z:
∞
6
g(z) =
∑ h(i)·h(z-i)
i=1
=
∑ h(i)·h(z-i)
i = -∞
Dabei dürfen wir die Grenzen der Summe deshalb von -∞ bis ∞ laufen lassen, weil für alle Fälle von i ∉
[1;6]
die Summanden "Null" werden, d.h. es tritt mindestens ein unmögliches Ereignis im Produkt auf! Für drei
Würfel gilt entsprechend:
Y = X1 + X2 + X3 = Z + X3
=>
P(Y=y) =
∑g(i)·h(y-i)
wobei g(i) die oben ermittelte Funktion für die Summe zweier Würfelaugen ist. Durch dieses Verfahren
können beliebig große Summen gebildet werden.
b) Verallgemeinerung zu Wahrscheinlichkeitsfunktionen für die Summen diskreter Zufallsvariablen.
Gegeben seien wieder zwei unabhängige Zufallsvariablen X, Y mit
f(x) = P(X=x)
und
g(y) = P(Y=y)
( mit f(x) = 0; g(y) = 0
gesucht sei zu der Summenvariablen
Z = X+Y
die Funktion
h(z) = P(Z=z) = P(Z=X+Y),
dann gilt analog zu den unter a) gemachten Überlegungen:
∞
h(z) = P(Z=z) = P(X+Y = z) =
P(X=x)·P(Y=z-x)
x = -∞
∞
=>
h(z) =
f(x)·g(z-x) 29
x = -∞
∑
∑
Dabei ist der letzte Term
∑f(x)·g(z-x)
die sogenannte Faltungssumme, die in der Kurzschreibweise auch als
h = f∗g
29
∞
oder h(z) =
∑ f(x)·g(z-x)
x=0
58
Statistik
für x;y ∉ INo);
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
dargestellt wird mit "∗" als Faltungsoperator:
∞
30
h(z) = f ∗ g =:
f(x)·g(z-x)
∑
x=0
Sie ist eine Funktion, die durch (Summen-) Faltung31 der Funktionen f und g entsteht. Es heißt "f gefaltet
mit g".
✎ Beispiel:
hj(x) soll die Wahrscheinlichkeitsfunktion zu
XjW : Augensumme von j Würfeln sein:
∞
h2(x) =
h1(i)·h1(x-i) = h1∗h1
i = -∞
∞
∞
h3(x) =
h1(i)·h2(x-i) =
h2(i)·h1(x-i) = h1∗h2
i = -∞
i = -∞
Die Faltung ist kommutativ, da wir x von -∞ bis ∞ laufen lassen.
∞
=
h1(i) {h1∗h1} = h1∗{h1∗h1}
i = -∞
∑
∑
∑
∑
Für die Faltung gelten folgende Gesetze:
α) Kommutativgesetz:
f∗g = g∗f
β) Assoziativgesetz:
f ∗ (g ∗ h) = (g ∗ f) ∗ h
γ) Distributivgesetz:
(f+g)∗h = f∗h + g∗h
c) Dichtefunktion für die Summe stetiger Zufallszahlen.
Diesmal seien zwei stetige, unabhängige Zufallsvariablen X, Y gegeben mit
f(x): Dichtefunktion zu X und
f(y): Dichtefunktion zu Y,
dann ist wieder h(z) als Dichtefunktion zu Z = X + Y gesucht. Die Lösung hierzu liefert das sogenannte Faltungsintegral, das wir uns anschaulich aus der Faltungssumme entstanden denken können:
∞
h(z) =
f(x)·g(z-x) dx = f ∗ g
⌠
⌡
-∞
Um den Übergang von g(x) nach g(z-x) am Graphen anschaulich zu machen, teilen wir ihn in zwei Schritte
auf:
1) Wenn wir das Vorzeichen des Arguments einer Funktion umkehren, entspricht dies einer Spiegelung
an der y-Achse.
g1(x) = g(-x)
2) Subtrahieren wir im Argument eine positive Zahl, so ergibt dies eine Verschiebung in positive x-Richtung, also nach rechts.
g2(x) = g1(x-z)
=>
g(-[x-z]) = g(z-x)
Beim Faltungsintegral verdrehen wir also anschaulich eine der beiden Funktionen, verschieben sie von
links (- ∞) kommend mit wachsendem z über die gesamte x-Achse (bis nach + ∞) und erhalten für jedes z
einen Wert, der sich aus der Fläche unter dem Produktgraphen ergibt. Für jedes z müssen alle x-Werte
32
beider Funktionen jeweils multipliziert werden, um den Produktgraphen zu erhalten.
in der Literatur auch oft: h(z) = f(z) ∗ g(z) mit demselben Argument z in allen drei Funktionen. Dies ist
aber sehr irreführend und daher gefährlich.
31 Das Wort Faltung wird aus folgendem Grund benutzt: Faltet man eine Strecke der Länge z in der Mitte,
so haben die gegenüberliegenden Punkte die Abstände t und z-t vom Anfangspunkt.
32
vgl auch: Skript zu Fourier-Transformation, Kap. 2.3.1.
30
Š
Ð Ñ
Statistik
Seite 59
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
✎ Beispiel:
e-x für x>0
f(x) = 
î 0 für x<0
1-x für 1>x>0
g(x) = 
î 0
sonst
h(z) = f ∗ g
=>
Daß, wie bereits erwähnt33, die Formulierung
h(z) = f(z) ∗ g(z)
sehr gefährlich ist, können wir an folgendem Beispiel sehen, denn fälschlicherweise möchte man aus
dieser Gleichung folgern:
x
x 
x 
f
î b ∗ gî b = hî b.
Tatsächlich gilt aber:
x
x 
x 
f
î b ∗ gî b = |b|·hî b !
α) Faltungssatz
Die Integralberechnung des Faltungsintegrals ist im allgemeinen sehr aufwendig, wie folgendes Beispiel
zeigt:
∞
h(n) =
f(k)·g(n-k)
x = -∞
ergibt bei z.B. 512 Meßpunkten
∑
516
h(n) =
∑ f(k)·g(n-k)
x=1
512 Multitplikationenfür jedes n, also insgesamt 250.000 Rechnungen.
Man kann sich jedoch gelegentlich des sogenannten Faltungssatzes der FOURIER-Transformation zur
Vereinfachung der Rechnerei bedienen 34. Sind nämlich H(t), G(t) und F(t) die Fouriertransformierten zu
h(x), g(x) und f(x), dann gilt:
ℑ{f(x)} = F(t) ;
ℑ{g(x)} = G(t) ;
H(t) = F(t)·G(t)
33
34
60
=>
H(t) = ℑ {h(x)}
Ò Fußnote Seite 59

Ó Ô vgl auch: Skript zu Fourier-Transformation
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
|
α1)
=>
H(t) = F(t)·G(t) = ℑ{f(x)}·ℑ {g(x)}
ℑ -1
ℑ -1{H(t)} = ℑ -1{F(t)·G(t)}
Anwendung bei numerischen Berechnungen mit FFT
h = f∗g
✎ Beispiel:
(Fast Fourier Transformation)
H = F·G
<=>
Es seien X1, X2 unabhängig und normalverteilt mit (µ=0; σ=1), so daß die Dichtefunktion zu X1,
X2 durch fN(x) = a·e-bx² allgemein beschrieben werden kann, dann gilt nach dem oben
beschriebenen Faltungssatz:
=>
=>
ℑ(a·e-bx² ) = A·e-Bt²
Fouriertransformierte zu fN(x)
-Bt²
2
ℑ(h(x)) = ℑ(fN(x))·ℑ(fN(x)) = (A·e ) = A·e-2Bt² = H(t)
h(x) = c·e-dx²
normalverteilt mit (c;d) ≠ (a;b)
β) Summe zweier gleichverteilter Zufallsvariablen:
Schauen wir uns noch ein zweites Beispiel an: X1, X2 seien unabhängige, gleichverteilte Zufallsvariablen,
die im rechtsoffenen Intervall [-½ , ½[ stetig sind; d.h. ihre Dichtefunktion f(x) bzw. g(x) läßt sich
beschreiben durch:
1
f(x) = g(x) = rect(x) = 
î 0
für -½ ≤ x < ½
sonst
Gesucht sei wieder h(z) zu Z = X1 + X2
Da die Fouriertransformierte der Rechteckfunktion die Sincfunktion ist ( ℑ{rect(x)} = sinc(t) ), läßt sich
rect ∗ rect = tri
über den Faltungssatz der Fouriertransformation wie folgt nachweisen:
H(t) = F(t)·G(t) = ℑ{rect(x)}·ℑ{rect(x)} = sinc²(t)
=>
ℑ-1{ℑ{rect(x)}·ℑ{rect(x)}} = ℑ-1{sinc²(t)} = tri(z)
Dabei ist tri(z) die "Dreiecksfunktion"; es folgt also:
 1 - IzI für IzI ≤ 1
h(z) = tri(z) =  0
sonst
î
Wenn X und Y rechteckverteilt
Z = X + Y dreieckverteilt!
✎
Beispiel:
(d.h.
gleichverteilt
in
[-½;½])
sind,
ist
die
Summe
Faltung einer rect-Funktion mit sich selbst:
rect ∗ rect = tri
Dies läßt sich auch anschaulich gut erkennen: Die Funktion rect(k-x) ist gegenüber rect(x) verdreht
und anschließend um k nach rechts verschoben. Beim Faltungsintegral h(k) = rect ∗ rect wird
also eine rect-Funktion kontinuierlich über den gesamten Wertebereich von h(k) verschoben und
die Summe der Produkte der Funktionswerte über den gesamten Funktionsbereich gebildet, was
hier der Fläche, die unter beiden Kurven gemeinsam ist, entspricht:
(Der Pfeil zeigt jeweils den Abstand der Funktionen an, der schraffierte Bereich zeigt die
gemeinsame Fläche, die in diesem Fall gleich der Fläche unter der Produktkurve ist.)
Statistik
Seite 61
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
f(x)
k<-1
k=-¾
k=-½
f(k-x)
x
h(k) = 0
k=-¼
f(x)
x
x
h(k) = ¼
h(k) = ½
k=0
k=¼
f(k-x)
x
h(k) = ¼
x
x
h(k) = 1
h(k) = ¾
k=½
f(x)
k=¾
k >1
f(k-x)
x
h(k) = ½
h( k )
x
x
h(k) = ¼
h(k) = 0
1
¾
½
¼
0
-1 -¾ -½ -¼ 0 ¼ ½ ¾ 1
k
γ) Simulation mit PASCAL, Näherung
Mit dem Computer können wir jetzt relativ einfach (annähernd) normalverteilte Zufallsvariablen herstellen.
Wie wir bereits vom Würfelmodell wissen, ist bereits die Summe dreier gleichverteilter Zufallsvariablen
annähernd normalverteilt.
Die random - Funktion in PASCAL liefert uns
=>
Y := random
Y ∈ [0;1[
mit
µY = ½ und V(Y) = σ²Y = 1/12 , voneinander unabhängig
Erzeugen wir also die Summe Y3 dreier Zufallsvariablen (random + random + random), dann erhalten wir
nach den bekannten Gesetzen eine der Normalverteilung angenäherte Zufallsvariable mit:
Y3 ∈ [0;3[
E(Y3) = 3·1/2 = 3/2
V(Y3) = 3·1/12 = ¼ =>
( Additionssatz )
σY3 = ½
Soll der Erwartungswert null sein, muß 3/2 abgezogen werden:
A = Y3 - 3/2
=>
A ∈ [- 3/2 ;3/2 ]
Wenn die Varianz eins sein soll, muß durch ½ geteilt werden (V(ax+b) = a²·V(x)):
X1+X2+X3-3/2
A
Z3 =
=
= 2·(X1+X2+X3) - 3
½
σA
Daraus folgt, daß wir eine normalverteilte Zufallsvariable Z in Standardform über die Formel
62
Statistik
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Z := 2*(random+random+random) - 3
näherungsweise simulieren können.
h(x) = rect∗rect∗rect
0
 1/ (3-|x|)²
h(x) =  16
î 1/ (3-x²)
8
mit
für |x| > 3
für 1 < |x| ≤ 3
für |x| ≤ 1
h(0) = 3/8 = 0,375 ;
1
fN(0) =
= 0,3989.. => Dies ergibt an der Stelle null einen Fehler von 6%.
2π
δ)
Simulation mit PASCAL, exakte Methode
Zwei exakt normalverteilte Zufallsvariablen R und S aus zwei im Intervall ]0; 1] gleichverteilten Zufallsvariablen X und Y erhalten wir über folgende Formeln:
R =
S =
-2·ln(X) ·cos(2πY)
-2·ln(X) sin(2πY)
Dabei sind R und S unabhängige, normalverteilte Zufallsvariablen in Standardform.
Anmerkung: Bei der Simulation mit der Random-Funktion muß darauf geachtet werden, daß die Zufallsvariablen X und Y durch "1 - random" gebildet werden, damit die Zufallsvariablen vom
rechtsoffenen in ein linksoffenes Intervall transformiert werden, denn ln(0) ist natürlich nicht zulässig!
1
-½ x²
fN(x) =
e
= y
2π
-½ x²
=>
e
=
2π·y
=>
-½x² = ln( 2π·y)
=>
x = ±
-2·ln( 2π·y)
mit y ∈ ]0;1]
Der Faktor 2π wird dabei praktisch ausgeglichen durch x,y, während das sin/cos für den Vorzeichenwechsel sorgt. Wird der Vorzeichenwechsel nämlich einzeln unabhängig (gleichverteilt) erzeugt, ergibt
dies keine Normalverteilung !
ε ) Beweis des Satzes 5.3.
Sind X und Y normalverteilt und voneinander unabhängig, so ist Z = X + Y ebenfalls normalverteilt.
Zur Vereinfachung verwenden wir hier die Standardform:
1
-½ x²
-B·x²
fN(x) =
e
= A·e
2π
Es ist nun beweisbar, daß gilt:
-B·x²
-β·t²
ℑ{A·e
} = α·e
Statistik
Seite 63
Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung
Dann folgt:
h(z) = fN∗fN
-2β·t²
H(t) = FN·FN = α²·e
mit
FN = ℑ{f} und H = ℑ{h}
-2β·t²
-b·x²
=> ℑ-1{α²·e
} = a·e
vom Typ Normalverteilung
Um die Werte von a und b feststellen zu können, berechnen wir µ und σ aus X und Y nach den bekannten
Regeln:
E(X) = E(Y) = 0
∧
V(X) = V(Y) = 1
=> E(Z) = 0 = µ
∧
V(Z) = 2 = σ²
Also ist
1
1
x
-¼ x²
e-½ ( / 2)² =
e
h(z) =
2· π
2· 2π
=>
d) Faltung und Korrelation
Der Vollständigkeit halber wollen wir noch die Korrelation ansprechen, die der Faltung ähnlich ist:
Faltung:
f(x) ∗ g(x) =
∞
f(t)·g(x-t) dt
⌠
⌡
-∞
Korrelation: f(x) ⊗ g(x) =
∞
f(t)·g(t-x) dt
⌠
⌡
-∞
Bei der Korrelation sind im Argument der zweiten Funktion also nur x und t vertauscht:
f(x) ⊗ g(x) = f(x) ∗ g(-x)
Trotzdem ergeben sich hieraus einige wichtige Unterschiede zur Faltung:
α) Die Korrelation ist nicht kommutativ, d.h. im allgemeinen gilt:
f(x) ⊗ g(x) ≠ g(x) ⊗ f(x)
β) Ist g(x) eine gerade Funktion, gilt:
f(x) ⊗ g(x) = f(x) ∗ g(x) = g(x) ∗ f(x) ≠ g(x) ⊗ f(x)
γ) Sind g(x) und f(x) gerade Funktionen, gilt:
f(x) ⊗ g(x) = f(x) ∗ g(x) = g(x) ∗ f(x) = g(x) ⊗ f(x)
δ) Die sogenannte Autokorrelation von f(x) ist:
γf(x) = f(x) ⊗ f(x)
(=> Aufg. 5.18. bis 5.19.)
64
Statistik
Teil III: Beurteilende Statistik * 1. Testverteilungen
Teil III: Beurteilende Statistik
Die beurteilende Statistik, die auch schließende oder analytische Statistik genannt wird, beschäftigt sich
mit Methoden, bei denen von einer Größe (z.B. x̄) einer Stichprobe auf die entsprechende Grundgesamtheit
geschlossen wird. Auch auf die Verteilungsart wird dabei geschlossen. Die typische Formulierung der
beurteilenden Statistik lautet dann auch: "Aufgrund einer Stichprobe läßt sich mit einer Wahrscheinlichkeit
von γ (meistens in Prozent) eine Aussage (Hypothese) belegen oder widerlegen."
Wir befassen uns im folgenden nur mit grundsätzlichen Denkansätzen und nicht mit den vielfältigen
Methoden.
Einführung
-
Beispiel: " Verwandtenehen in Bayern " (siehe Seite 47)
typische, grundlegende Formulierung der beurteilenden Statistik
α) Hypothese: Die Mädchen/Jungen-Verteilung dieser Stichprobe stammt aus einer Grundgesamtheit
mit pMädchen = 0,48.
β) Test/Prüfung dieser Hypothese wird zu einer vorgegebenen Wahrscheinlichkeit γ (z.B. γ = 95%) durchgeführt (Zurückschließen auf die Grundgesamtheit kann ja niemals ganz sicher durchgeführt werden!).
Gesucht ist nämlich (zu dem Beispiel) derjenige Wert c mit P( XB ≤ c; pM = 0,48 ∧ n = 709 ) = γ = 95%.
(Hier: c aus n.v.)
γ) 95% aller Stichproben mit n = 709, die aus einer Grundgesamtheit mit pM = 0,48 gezogen werden,
haben 362 oder weniger Mädchen unter den Neugeborenen. Hier ist also c = 362. Unsere Stichprobe
enthält aber 386 ( >362 ). Mit der üblichen Formulierung bedeutet dies: Die Hypothese ist zu
verwerfen.
( Berechnung von c:
Normalverteilung
->
∧
µ = n·p = 0,48·709 = 340,32
σ² = n·p·q = 709·0,48·052 = 177
=>
σ = 13,3.
c-340,32
Damit ist P( XB ≤ c; pM = 0,48 ∧ n = 709 ) ≈ Φ( 13,3 ) = γ = 95%. Laut Tabelle ist dann
c = 362,2 )
1. Testverteilungen
Testverteilungen, auch Prüfverteilungen genannt, dienen zur Beurteilung von Stichproben. Wir wollen hier
die wichtigsten vorstellen:
a) Normalverteilung
Statistik
Seite 65
Teil III: Beurteilende Statistik * 1. Testverteilungen
b) Chi - Quadrat - Verteilung
Diese Verteilung, deren Name sich vom griechischen Buchstaben χ ableitet, wurde 1876 von F.R. HELMERT
in die Statistik eingeführt. Grundlage hierfür bilden die Zufallsvariablen X1 , X2 , X3 , ... , Xn , die in
Standardform normalverteilt und voneinander unabhängig sind. Dann ist die χ² - Verteilung wie folgt definiert:
n
Cn =
∑
i=1
"χ² - Verteilung mit n Freiheitsgraden"
Xi²
Diese Funktion ist unsymmetrisch, den Verlauf ihres Funktionsgraphen für die Freiheitsgrade 1 bis 5 ist in
folgender Abbildung aufgetragen:
Die Dichtefunktion zur χ² - Verteilung ist:
 K ·X½n-1·e-½x für x ∈ IRo+
fc(x) =  n
für x ∈ IR-o
î 0
mit
und
35
35
E(Cn) = n
V(Cn) = 2n
Kn muß so gewählt sein, daß
funktion ist
Γ(a) =
F(∞) = 1
ist. Daraus ergibt sich
1
Kn = ½·n
. Die Gamma2
·Γ(½·n)
∞
e-t·ta-1dt . Schreiben wir a+1 statt a und integrieren partiell, ergibt sich folgende
⌠
⌡
o
Rekursionsformel, die an die Fakultät erinnert:
Γ(a+1) = a·Γ(a). Einige Grundwerte müssen allerdings
durch Integration ermittelt werden: Γ(1) = 1 und Γ(½) = π .
(Die Gamma-Funktion finden wir übrigens auch bei der Definition der BESSEL-Funktion wieder:
∞
(-1)ν
x m+2ν
Jm(x) =
· 
,
vgl. z.B. Skript zu Holographie, Seite 23. )
ν!·Γ(m+ν+1) î 2
∑
ν=0
66
ՍÖ
Statistik
Teil III: Beurteilende Statistik * 1. Testverteilungen
Die Verteilungsfunktion Fc(x) = P(Cn ≤ x) wird üblicherweise über Tabellenbenutzung (-> siehe Anhang)
ermittelt, da die Integralbildung über die Dichtefunktion recht mühsam ist. Dabei wird üblicherweise zu einer
bekannten Wahrscheinlichkeit P und einem Freiheitsgrad n der Wert x gesucht. Sollten die Verhältnisse
einmal umgekehrt sein, d.h. sollte einmal die Wahrscheinlichkeit gesucht sein, dann können wir mit der
folgenden Näherung über die Normalverteilung arbeiten:
Fc(x) ≈ Φ( 2π - 2n-1) = γ
x = ½ (Φ-1(γ) + 2n-1)²
<=>
für n > 30
(Tabelle)
Die Umformung erklärt auch die Näherung in der Tabelle.
( => Aufgabe 1.1)
c) t - Verteilung
Diese Testverteilung hat W.S. GOSSET 1908 entwickelt. Da er unter dem Pseudonym "STUDENT"
veröffentlicht hat, wird die t-Verteilung auch "STUDENT-Verteilung" genannt. Die Grundlage ist wieder eine in
Standardform normalverteilte Zufallsvariable sowie die χ² - Verteilung Cn mit n Freiheitsgraden:
X
Tn =
1
n Cn
Der quantitative Verlauf der Dichtefunktion f(x,n) im Vergleich zu (0,1)-Normalverteilung fN(X) ist folgender
Abbildung zu entnehmen:
Zur Dichtefunktion ist zu sagen, daß sie symmetrisch zu x = 0 ist, mit dem Erwartungswert E(Tn) = 0 und
der Varianz V(Tn) = n/n-2 , wobei für die Anzahl n der Freiheitsgrade n ≥ 3 gelten muß, denn für n = 1;2 hat
die t-Verteilung keine Varianz! 36
In der Graphik ist bereits bei n = 300 kein Unterschied zur Normalverteilung zu erkennen. Tatsächlich gilt:
lim ft(x) = fN(x, µ=0 , σ=1 ) .
n→∞
Für die Verteilungsfunktion gilt aufgrund der Symmetrie FT(x) = 1 - FT(x) , eine Beziehung, die wir in
ähnlicher Form bereits bei der Standardform der Normalverteilung kennengelernt haben (-> siehe Seite 38,
4.2.d)). Im allgemeinen benutzen wir auch hier die Tabelle, wobei wir zu einem gegebenem γ
(=Wahrscheinlichkeit) und zu gegebener Anzahl n der Freiheitsgrade den entsprechenden x-Wert suchen, so
daß gilt:
γ = P(Tn ≤ x) = FT(x).
36
ft(x) =
Γ(½·(n+1))
x² ½·(n+1)
n·π·Γ(½·n)·(1+ n )
=>
Ft(x) =
Γ(½·(n+1))
x
du
⌠
u²
n·π·Γ(½·n)  (1+ )½·(n+1)
n
⌡
·
-∞
Für n = 1 ergibt sich die COUCHY-Verteilung, die keinen Mittelwert und keine Varianz hat (vgl. Seite 49).
Statistik
Seite 67
Teil III: Beurteilende Statistik * 2. Vertrauensintervall
Wegen der Symmetrie ist Ft nur für γ > 50% bzw. x ≥ 0 tabelliert. Sucht man beispielsweise x zu
P(t30 ≤ x) = 5%, so ergibt sich xzu5% = -1,70 aus der Tabelle aus xzu95% = 1,70.
d) FISCHER-Verteilung
Die FISCHER-Verteilung oder F-Verteilung, die 1924 von R.A. FISCHER eingeführt wurde, dient (u.a.) zum
Vergleich der Varianzen zweier normalverteilter Zufallsvariablen. Sie entsteht aus
Cm
m
F(x) = P( C
≤ X) mit Cn bzw. Cm chi-quadratverteilt mit n bzw. m Freiheitsgraden.
n
n
Zu ihrer Berechnung ist ebenfalls die Γ-Funktion notwendig. Es soll hier nicht weiter auf die F-Verteilung
eingegangen werden.
2. Vertrauensintervall
Vetrauensintervalle, auch Vertrauensbereiche, Konfidenzintervalle oder Konfidenzbereiche genannt, geben an, in welchem Intervall sich ein Wert x mit einer gegebenen Wahrscheinlichkeit befindet. Wir wollen die
Entwicklung der Methode zur Bestimmung von Vertrauensintervallen, die 1935 von J. NEYMANN entwickelt
wurde, an einem Beispiel einführen:
a) Einführendes Beispiel
Gegeben sei eine Stichprobe mit n Elementen aus einer normalverteilten Grundgesamtheit, deren
Mittelwert x̄ bekannt sei; σ sei ebenfalls bekannt und entspreche dem der Grundgesamtheit. Ziel ist es, zu
einer gegebenen Wahrscheinlichkeit γ , sagen wir ca. 95%, die Intervallgrenzen d1, d2 so zu finden, daß
für das unbekannte µ gilt:
P(d1 ≤ µ ≤ d2) = γ .
Wenn wir mehrere, voneinander unabhängige (µx;σx)-normalverteilte Zufallsvariable haben, so ist auch
n
σx²
1
Xi eine Zufallsvaribale mit σx̄ ² = n und E(x̄) = µx .
deren Mittelwert X̄ = n·
i=1
Für den normalverteilten, bekannten Mittelwert X̄ gilt dann:
∑
95%
≈ P(µx̄ -2σx̄ ≤ X̄ ≤ µx̄ +2σx̄ )
= P( IX̄-µx̄ I ≤ 2σx̄ )
= P( Iµx̄ -X̄I ≤ 2σx̄ )
Dabei liegen X̄ und µx aber im gleichen Betragsausdruck, d.h. sie können miteinander vertauscht werden!
Das ist eine wichtige Eigenschaft, da wir nun schreiben können:
95% ≈ P(X̄-2σx̄ ≤ µx̄ ≤ X̄+2σx̄ )
Da die Stichprobenelemente xi eine Realisierung von Xi sind, folgt:
95% ≈ P(x̄-2σx̄ ≤ µx̄ ≤ x̄+2σx̄ )
Da die Standardabweichung σx̄ allgemein ja mit der Wurzel aus der Anzahl der Stichprobenelemente
kleiner wird (d.h. die Stichprobe wird genauer), können wir allgemein schreiben:
σx̄ =
=>
68
σx
n
95% ≈ P(x̄-
c·σx
≤ µx ≤ x̄+
)
n
n
c·σx
Statistik
Teil III: Beurteilende Statistik * 2. Vertrauensintervall
Also ist µ mit 95%iger Wahrscheinlichkeit im Intervall [ x̄ -
c·σx
n
; x̄ +
c·σx
n
] enthalten.
Dabei berechnet sich c(γ), das den Multiplikator zu σ für die gegebene Wahrscheinlichkeit γ darstellt, über
c(γ) = D-1(γ) 37. Die Tabelle zu D-1(γ) haben wir bereits bei der Normalverteilung kennengelernt (das Argument in der Tabelle heißt z, d.h. D-1(z) = z(D)).
γ
c
90%
1,645
95%
1,960
99%
2,576
Wir können also nun im zweiten Schritt unsere Überlegungen auf beliebige γ erweitern.
Sehen wir uns ein weiteres Zahlenbeispiel an:
Gegeben sei eine Stichprobe mit n = 100 , x̄ = 5. Es sei σ² aus der Grundgesamtheit bekannt mit σ² = 25.
Für ein γ = 95% ist dann
c·σx
1,96·5·2
= 2·10 = 0,98 .
n
Also folgt aus
P(5-0,98≤ µ ≤ 5+0,98) = 95%
=> µ ist mit 95%iger Wahrscheinlichkeit im Intervall [4,02;5,98] enthalten.
Zum leichteren Umgang mit dem Vertrauensintervall wollen wir noch einige Begriffe klären, bzw.
definieren:
×
Ø
Ù
a =
Ú
Û
✎
c·σx
=> [x̄-a ; x̄+a]
n
µ = x±a
Lv = 2·a
γ
α = 1 - γ => [bzw. 100% − γ]
Vertrauensintervall für unbekanntes µ
38
Gerätetoleranz
Länge des Vertrauensintervalls
Vertrauenswahrscheinlichkeit (-zahl)
Irrtumswahrscheinlichkeit
Nehmen wir als Beispiel die Überprüfung der Lebensdauer von Glühbirnen. 300 (=n) Glühbirnen
wurden auf ihre Lebensdauer, die im Mittel 1503 Stunden (=x̄) lang war, getestet. Die
Standardabweichung bei der Überprüfung betrug 204,12 h (=s); wir nehmen hier an, daß sich eine
theoretische Standardabweichung des normalverteilten Mittelwertes von 200 h (=σ) in langjährigen
Versuchen herauskristallisiert hat. Gesucht wird das (zeitliche) Intervall, in dem der
Erwartungswert µ der Lebensdauer einer Glühbirne mit einer Irrtumswahrscheinlichkeit von 5%
(=α) liegt.
Aus den bekannten Formel und Tabellen folgt:
γ = 95%
c(γ) = 1,960 (≈ 2)
1,96·200h
=>
a =
= 22,6h ≈ 23h
300
=>
µ = (1503 ± 23)h
Mit 95%iger Wahrscheinlichkeit liegt also der Erwartungswert der Grundgesamtheit bei 1480 bis
1526 Stunden Lebensdauer.
=>
Ergänzend können wir uns natürlich auch fragen, wieviele Stichprobenelemente wir ziehen müssen,
damit µ auf ±1% von x̄ eingegrenzt ist, und zwar bei gleicher Wahrscheinlichkeit von 95%. Wir
suchen also die Größe des notwendigen Stichprobenumfangs, bei der µ mit 95%iger Wahrscheinlichkeit im engen Intervall [x̄ - 15,03 h ; x̄ + 15,03 h] liegt:
37
38
Wir gehen also davon aus, daß x̄ normalverteilt ist.
Schreibweise lt. KREYSZIG: KONFj { x̄-a ; x̄+a }
Statistik
Seite 69
Teil III: Beurteilende Statistik * 2. Vertrauensintervall
15,03 = a =
1,96·200h
n
=>
n = 683
Erst bei dem Test von 683 Glühbirnen haben wir also das Intervall auf 1% des Mittelwertes eingegrenzt.
c·σx
LV = 2·
n
Folgerungen:
1
n
2) LV wird bei wachsendem γ größer.
1) LV ~
( => Aufg. 2.1. - 2.3. )
b) Erweiterung für unbekanntes σ .
Als nächstes wollen wir uns das Vertrauensintervall bei unbekanntem µ und unbekanntem σ einer
normalverteilten Grundgesamtheit anschauen:
µ ∈ [x̄ - a; x̄ + a]
c·s
erhalten. Jetzt errechnet sich c jen
doch nicht mehr aus der Standarddichtefunktion zur Normalverteilung D(x), sondern aus der t-Verteilung
zur Zufallsvariablen Tn-1 , der t-Verteilung mit n-1 Freiheitsgraden. Wir können c also jetzt aus der Tabelle
zur t-Verteilung entnehmen, da wir γ ja kennen:
Dabei ergibt sich x̄ und s aus der Stichprobe, wodurch wir a =
γ = P( - c ≤ Tn-1 ≤ c ) = FT(c) - FT(-c) = FT(c) - ( 1 - FT(-c)) = 2·FT(c) - 1
<=>
FT(c) = ½ (γ + 1)
wegen
Symmetrie!
Nehmen wir das Einführungsbeispiel vom Beginn der Vorlesung: "Körpergröße Grazer Mittelschülerinne"
(siehe Seite 3). Dort hatten wir eine Stichprobe mit
n = 100
Elementen mit dem Mittelwert
x̄ = 165,05cm und dem Quadrat der Standardabweichung s² = 34,31 cm². Uns interessiert nun zum
Beispiel das Vertrauensintervall, in dem mit 99%iger Wahrscheinlichkeit der Mittelwert der
Grundgesamtheit µ liegt. Dann erhalten wir aus der Tabelle für die t-Verteilung nach obiger
Umrechnungsformel c = 2,63, denn
½·(1+0,99) = 0,995 = F99(c) ≈ F100(2,63).
Für a ergibt sich also:
34,41cm²
= 1,54 cm
a = 2,63·
100
Das Vertrauensintervall ist also µ ∈ [163,51 cm; 166,59 cm]
✎ Sehen wir uns noch zwei Zahlenbeispiele an:
I.
α = 5% ; n = 5
½·(γ + 1) = ½·(0,95 + 1) = 0,975
Aus der Tabelle zu n-1 = 4 Freiheitsgrade entnehmen wir:
c = 2,78 .
( Zum Vergleich: bei Normalverteilung würden wir erhalten: c = 1,96 )
II.
α = 1% ; n = 100
½·(γ + 1) = ½·(0,99 + 1) = 0,995
Für n-1 = 99 Freiheitsgrade erhalten wir:
c = 2,63.
( Zum Vergleich bei Normalverteilung: c = 2,576 )
70
Statistik
Teil III: Beurteilende Statistik * 2. Vertrauensintervall
Zusammenfassung:
Fassen wir also noch einmal die beiden Verfahren zur Ermittlung von Vertrauensintervallen zusammen:
Ü
Ý
c·σ
n
c·s
a =
n
σ bekannt:
a =
σ unbekannt:
mit c aus der Normalverteilung
mit c aus der t-Verteilung zu Tn-1
Da die Verteilungsfunktion der t-Verteilung für n→∞ gegen die der Normalverteilung in Standardform strebt,
unterscheidet sich bei hinreichend großen Stichproben s so wenig von σ, daß im allgemeinen der
Unterschied des Ergebnisses zwischen diesen beiden Verfahren gar nicht so groß ist, wenn man bei
unbekanntem σ für dieses (bei hoher Anzahl an Freiheitsgraden) s einsetzt. Bei kleinen Stichproben ist diese
Näherung allerdings nicht zulässig!
Herleitung:
α ) Zur Erinnerung: Definition der t-Verteilung
( siehe Seite 67 )
Ist X eine in Standardform normalverteilte Zufallsvariable sowie Cn die χ²-Verteilung mit n Freiheitsgraden
und sind Cn und X voneinander unabhängig, so ist :
n
X
Tn =
mit
Cn =
∑ Xi²
und Xi n.v.(0;1) für i = 1,..,n
1
i=1
C
n n
β) Gegeben seien n Zufallsvarible Xi mit E(Xi) = µ und V(Xi) = σ² für i = 1,..,n. Erweitern wir dies auf
n
∑
1
ihren Mittelwert: X̄ = n·
Xi²
i=1
mit
σ²
E(X̄) = µ , V(X̄) = n
und
σx̄ =
σx
.Dann ist
n
Y =
X̄ - µ
σ
Xi - X̄
Xi - X̄
normalverteilt in Standardform (0;1) , ebenso
. Nun können wir aus
eine χ²-verteilte Zufallsσ
σ
varibale gewinnen:
n X - X̄
n
1
i
(
)² =
·
(X -X̄)².
Cn-1 =
σ² i = 1 i
σ
i=1
Die n-1 Freiheitsgrade kann man sich in etwa dadurch entstanden denken, daß durch den allen Werten Xi
∑
∑
abgezogenen Mittelwert X̄ ein Freiheitsgrad wieder aufgehoben wird. Diese Zufallsvariable Cn ist nun
unabhängig von X̄ und von Y, was hier aber nicht bewiesen werden soll. Wir erhalten jetzt durch
Einsetzen in die Definitionsgleichung von Tn eine t-verteilte Zufallsvariable:
Y
Tn-1 =
n
1 1
·
·
n-1 σ² i = 1(Xi-X̄)²
∑
X̄ - µ
σ
=
n
∑
1
·
σ
1
n-1·i = 1(Xi-X̄)²
X̄ - µ
=
n
·
=
∑
1
n-1·i = 1(Xi-X̄)²
X̄ - µ
s²
X̄ - µ
s
In dem so erhaltenen Ausdruck ist kein σ mehr vorhanden !!! Daraus folgt:
X̄ - µ
P(-ct-Vert ≤ s ≤ ct-Vert) = γ
=
Statistik
Seite 71
Teil III: Beurteilende Statistik * 3. Hypothesentest
c) Weitere Möglichkeiten für den Einsatz von Vertrauensintervallen
α) Für (unbekanntes) σ der normalverteilten Grundgesamtheit
β) Für p der Einzelerfolgswahrscheinlichket in der Binomialverteilung (bei kleinen Stichproben, sonst
Übergang zur Normalverteilung). Dies ist sehr aufwendig und wird praktisch nicht verwendet.
γ) Für µ bzw. σ bei unbekannter Verteilung (sogenannte "verteilungsfreie Tests")
=> Aufg. 2.4 bis 2.9
3. Hypothesentest
3.1. Parametertest
Der Parametertest soll als ein Beispiel von einer ganzen Reihe von Testverfahren behandelt werden.
Voraussetzung für ihn sind zwei normalverteilte Grundgesamtheiten mit je einer Stichprobe mit xi : ( i = 1, 2,
3, ..., nx ) bzw. yi : ( i = 1, 2, 3, ..., ny ). Es ist zu testen, ob x̄ und ȳ gleich sind, bzw. sich signifikant
voneinander unterscheiden. Wenden wir als Beispiel die durchschnittliche Lebenserwartung von Frauen und
Männern an, dann hieße die Hypothese: "Die durchschnittliche Lebenserwartung von Männern und Frauen
ist gleich." bzw.: µx = µy . Diese ist mit einer vorgegebenen Irrtumswahrscheinlichkeit α gegen die Gegenhypothese zu testen, d.h. falls die Hypothese verworfen wird, wird die Gegenhypothese z.B. µx > µy
angenommen. Die Art der Gegenhyptohese richtet sich nach der Art der Fragestellung, also µx > µy oder µx
≠ µy .
✎ Beispiel:39
Die Messung der Massen von Neugeborenen ergab für
n1 = 288 Jungen
die Durchschnittsmasse von x̄ = 3300g und s1 = 470g
sowie für
n2 = 269 Mädchen
die Durchschnittsmasse von ȳ = 3050g und s2 = 460g .
Wir sehen x und y als Realisierung einer Zufallsvariable mit µx und σx zu xi sowie µy und σy zu yi an. Dann
ergibt sich als Hypothese:
µx = µy
<=>
E( x̄ - ȳ ) = 0.
Weiter setzen wir voraus, daß xi und yi normalverteilt und voneinander unabhängig sind. Dies wird oft ohne
Prüfung "stillschweigend" angenommen. Um eine in Standardform normalverteilte Zufallsvariable zu erhalten,
gehen wir zu Z über:
σx²
σy²
x̄ - ȳ
Z =
mit σx̄ ² = n
und σȳ ² = n
x
y
σx² σy²
+
n
n
x
y
Für V(Z) ergibt sich:
39
72
Š
Þ ß
vgl. KREYSZIG 81.1.
Statistik
Teil III: Beurteilende Statistik * 3. Hypothesentest
V(Z) =
=
V

î
σx̄ ²
 + V
σx² σy² 

nx + ny 
î
x̄
σx² σy²
nx + ny
=
+
ȳ
σx² σy²
nx + ny
σȳ ²



σx² σy²
nx + ny
σx² σy²
nx + ny
σx² σy²
nx + ny
= 1
Allgemeine Beispiele:
Es soll x̄ mit µsoll verglichen werden und die Hypothese sei bzw. x̄ - µsoll = 0 (sogenannte Nullhypothese).
Dann gibt es folgende Gegenhypothesen:
α)
β)
γ)
x̄ > µsoll
x̄ < µsoll
x̄ ≠ µsoll
einseitiger Test
- dto. zweiseitiger Test
aus Φ-Funktion bei Normalverteilung
- dto. aus D-Funktion bei Normalverteilung
Die Ablehnung der Nullhypothese ist durch signifikante bzw. systematische Abweichungen begründet und unterscheidet sich damit von der zufälligen Abweichung.
Der Parametertest wird in drei Schritten durchgeführt:
Gegeben seien zwei Stichproben zu zwei normalverteilten Grundgesamtheiten; σx und σy seien unbekannt.
1) Bestimmung von c zu γ = 1-α = P(T≤c) zur t-Verteilung zu nx+ny-2 Freiheitsgraden.
✎
Beispiel:
Für α = 1% ergibt sich c555 = c∞ = 2,33 (Tabelle ).
2) Berechnung von to nach:
to =
✎
nx·ny·(nx + ny -2)
·
nx + ny
x̄ - ȳ
(nx - 1)·sx² + (ny - 1)·sy²
oder aus Tabelle.
Beispiel:
to = 6,34.
✎
Falls to ≤ c :
Annahme der (Null-) Hypothese
µx = µy , andernfalls
verwerfen.
Beispiel:
Die Annahme, daß die Grundgesamtheiten beider Stichproben gleiche Mittelwerte haben, ist mit
99%iger Sicherheit zu verwerfen.
=>
Aufgabe 3.1. bis 3.5.
3) Für x̄ > ȳ :
3.2. Verteilungstest
Der von K. PEARSON entwickelte Verteilungstest testet mit Hilfe einer Stichprobe die Hypothese, ob die
Grundgesamtheit von einer bestimmten Verteilungsart ist. Die Verfahrensschritte hierzu befinden sich im
Anhang in der Formelsammlung. Die Verteilungsart ist hierbei beliebig, z.B. diskret oder stetig.
Statistik
Seite 73
Teil III: Beurteilende Statistik * 3. Hypothesentest
✎ Beispiel 40:
Aus einem Versuch zur Genetik erhält man 478 Erbsen, davon 355 gelbe und 123 grüne. Getestet
werden soll die Behauptung, daß die Verteilung gelbe zu grüne Erbsen in der Grundgesamtheit
3:1 ist.
Grundgedanke:
Getestet wird, ob die Abweichungen zwischen Stabdiagramm (Histogramm) und thoretischer Kurve zufällig
sind. Die Gegenhypothese hierzu lautet: Die Abweichungen sind "signifikant".
zur Methode:
Es werden die Differenzen zwischen den Stichproben- und den theoretischen Häufigkeiten quadriert und aufsummiert. Es entsteht eine χ²-Verteilung, wenn die einzelnen Summanden normalverteilt sind. In der Praxis
wird allerdings selten geprüft, ob die Abweichungen statistisch normalverteilt oder etwa systematisch sind.
✎ z.B..:
Wir bezeichnen den aus dem Stichprobenumfang multipliziert mit der vermuteten
Wahrscheinlichkeit erhaltenen Wert mit e, den in der Stichprobe realisierten mit b:
=>
e1 = 478·75% = 358,5
e2 = 478·25% = 119,5
k = 2
b1 = 355
b2 = 123
(478·0,75-355)² (478·0,25-123)²
+
= 0,137
478·0,75
478·0,25
Wegen k = 2 schlagen wir nun in der Tabelle zu einem (= k-1 !) Freiheitsgrad nach und erhalten
z.B.
für α = 5% bzw. γ = 95% : P(C1 ≤ c) = 0,95 => c = 3,84
Aus c = 3,84 > 0,137 folgt die Annahme der Hypothese, d.h. die Behauptung, daß sich gelbe
Erbsen zu grünen in der Grundgesamtheit im Verhältnis 3:1 vorfinden, kann nach dem Versuch mit
95%iger Sicherheit bestätigt werden.
χ² =
=>
Übertragung des Beispiels mit zwei Merkmalsausprägungen auf k Merkmalsausprägungen:
Voraussetzung:
Für die Ereignisse Aj ist P(Aj) bekannt ( z.B.: P(Aj) = Pj )
=>
ej = n·P(Aj) ; bj aus der Stichprobe
( ohne Verwendung der Verteilungsfunktion )
✎ Beispiel:
Verwandtenehen
(vgl. Seite 47 und 65)41
386 = b1
Hypothese: p1 = 0,48 => e1 = 709·0,48
323 = b2
p2 = 0,52 => e2 = 709·0,52
(709·0,48-386)² (709·0,52-323)²
=>
χo² =
+
= 11,7913
709·0,48
709·0,52
Mit z.B. α = 5% folgt aus der Tabelle c = 3,84.
Aus c = 3,84 < χo² = 11,7913 ergibt sich eine Ablehnung der Hypothese.
✎ Beispiel:
Luftpostumschläge (vgl. Seite 43):
2 geschätzte Parameter !
j
40
41
74
Š
à á
Š
â ã
vj-1
vj
bj
vj-x̄
Φ( s )
ej
Quotient
=∆Φ·n
0
-∞..1,855
1,855
5
0,0465
4,65
0,0263
1
1,855..1,885
1,885
6
0,1335
8,70
0,8379
2
1,885..1,915
1,915
18
0,2946
16,11
0,2217
3
1,915..1,945
1,945
25
0,5120
21,74
0,4889
4
1,945..1,975
1,975
18
0,7291
21,71
0,6340
5
1,975..2,005
2,005
14
0,8810
15,19
0,0932
6
2,005..∞
∞
14
1,000
11,90
0,3706
vgl. KREYSZIG 85.1.
vgl. KREYSZIG Aufg. 50.4.
Statistik
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
=> χo² = 2,6727
k = 7 => k-1 wird wegen der zwei geschätzten Parametern um weitere zwei vermindert, so daß
sich k-1-2 = 4 Freiheitsgrade ergeben.
Aus der Tabelle ergibt sich c95% zu 4 Freiheitsgraden mit c = 9,49 . c ist also größer als χo², so
daß die Hypothese aufgrund der Stichprobe angenommen werden kann
( => Aufg. 3.6. .. 3.11 )
Männer
67,4
70,4
71,8
~73
1972
1983
1990
1992
Frauen
73,8
77,0
78,4
~79
4. Korrelation und Regression
4.1. Korrelation
In diesem Abschnitt wollen wir den linearen Zusammenhang zwischen Zufallszahlen untersuchen. Es sei
(X;Y) ein Zufallszahlenpaar, bzw. (xi ; yi ) zwei Merkmalsausprägungen zum i-ten Merkmalsträger (das
können beispielsweise Körpergröße und Gewicht von Menschen sein, wobei wir hier wohl eher einen linearen
Zusammenhang vermuten dürfen, als bei Schuhgröße und Augenfarbe), dann läßt sich eine Maßzahl
berechnen
bzw.
ρ
r
für (X/Y),
für (xi ; yi ),
die ein Maß für den Zusammenhang (=Korrelation) zwischen X und Y, bzw. xi und yi angibt. Man nennt daher
ρ und r auch Korrelationszahl, -maß oder -koeffizient. Wir wollen nun untersuchen, ob eine lineare Abhängigkeit zwischen X und Y (bzw. xi und yi ) besteht:
Y = β·X + γ
yi = b·xi + c
Dabei handelt es sich nicht um die aus der Mathematik bekannte funktionelle, d.h. deterministische
Abhängigkeit, sondern vielmehr um statistische lineare Abhängigkeit.
Die Regression ist ein "Unterpunkt" der Korrelation. Sie berechnet die Werte für β und γ (bzw. b und c) der
Ausgleichsgerade durch die Stichprobenpunkte. Ein Beispiel ist das sogenannte "Idealgewicht"
erwachsener, männlicher Personen, das sich nach
Masse [kg] = 0,9 kg/cm · Größe [cm]
berechnet (d.h. b = 0,9 ; c = 0).
Die Kovarianz sxy einer Stichprobe ist wie folgt definiert:

1
1 
sxy = n-1
(xi - x̄)·(yi - ȳ) = n-1
xi yi - n·x̄·ȳ 
î i=1

i=1
n
∑
n
∑

1 
xi yi k(xi,yi)- n·x̄·ȳ 
sxy = n-1

î i=1
i = 1..n: Merkmalsträger
m
<=>
∑
m: Anzahl der Merkmalsausprägungen
Statistik
Seite 75
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
Die Kovarianz ist der Varianz sehr ähnlich, die sich ja aus
n
∑
1
sx² = n-1
(xi - x̄)²
i=1
sx² ∈ IR+
berechnet. Die Kovarianz kann allerdings auch negative Werte annehmen (sxy ∈ IR) . Der Korrelationskoeffizient r ist definiert durch
sxy
r = s ·s .
x y
a) Allgemein gilt:
=>
sxy² ≤ sx²·sy²
- sx·sy ≤ sxy ≤ sx·sy
42
=>
-1 ≤ r ≤ 1
b) Für r = 0 besteht kein linearer statistischer Zusammenhang zwischen X und Y, es können aber andere
Zusammenhänge bestehen, die durch dieses Verfahren ja nicht erfaßt werden.
c) Besteht eine vollständig lineare und damit deterministische (!) Abhängigkeit zwischen X und Y, so folgt
r = ±1 .
d) r ist dimensionslos.
✎ 1. Beispiel:
Ein Quadrat mit folgenden Eckpunkten (n = 4) soll auf lineare statistische Abhängigkeit seiner yvon seinen x-Koordinaten untersucht werden: (4/19), (6/19), (4/21), (6/21). Es folgt:
x̄ = 5;
ȳ = 20;
sx² = sy² = 4/3 ;
sxy = 1/3 (1-1-1+1) = 0 =>
r = 0
Es besteht also keine lineare Abhängigkeit (bzw. statistische lineare Unabhängigkeit).
✎ 2. Beispiel:
Ein Dreieck (n = 3) mit den Koordinaten (1/5); (4/1); (5/4). Hier gilt
x̄ = ȳ = 10/3;
sx² = sy² = 13/3 ;
sxy = - 13/6
=>
r = - 13·3/6·13 = -½
Die lineare Abhängigkeit ist hier schon größer, wie auch die folgende Skizze verdeutlicht.
42
76
hier ohne Beweis
Statistik
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
Zum Korrelationskoeffizienten gibt es auch ein Testverfahren. Dazu wollen wir zunächst die Herleitung für
den Korrelationskoeffizienten von Zufallszahlpaaren nachholen, da sich der oben betrachtete Koeffizient r ja
nur auf eine konkrete Stichprobe bezieht. Für Zufallszahlpaare gilt analog
σxy = E[(xi - x̄)·(yi - ȳ)]
=>
σxy =
(x - µx)·(y - µy)·f(x;y) dx dy
⌠
⌡⌠
⌡
da
E(x) = x̄ = µx ;
E(y) = ȳ = µy
mit f(x;y) = Dichtefunktion abhängig von x und y 43
=>
ρ =
σxy
σx·σy
.
Die Verfahrensschritte sind dann zum Test der Nullhypothese ρ = 0 gegen ρ ≠ 0 bei einer Stichprobe:
1. Bestimmung von c aus P(Tn-2 ≤ c) = ½·(1+γ), wenn es sich um einen zweiseitigen Test handelt:
Gegenhypothese: ρ ≠ 0
→
zweiseitiger Test
Gegenhypothese: z.B. ρ > 0 →
einseitiger Test
=>
Bestimmung von c aus P(Tn-2 ≤ c) = γ
=>
czweiseitig > ceinseitig
2. Berechnung von to nach
43
Ist der Funktionsgraph rotationssymetrisch um die
f(x,y)-Achse, ergeben also die waagerechten
Schnitte Kreise, so sind x und y unabhängig. Sind x
und y voneinander abhängig, sind die waagerechten
Schnitte Ellipsen.
Statistik
Seite 77
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
to = r ·
n-2
1-r²
44
3. Falls It0I ≤ c , wird die Nullhypothese ρ = 0 angenommen, andernfalls wird sie abgelehnt.
Auch hier gilt wieder, daß sich der Test nur auf einen linearen Zusammenhang bezieht. In der Praxis wird bei
großen Stichproben xi und yi häufig ungeprüft als normalverteilt angenommen bzw. vorausgesetzt.
✎ Auf Beispiel 2 von oben angewendet ergibt der Test:
t0 ≈ -0,58 ;
c95%;2seitig = 12,7 ;
c95%;1seitig = 6,31 ,
d.h. Annahme der Hypothese, daß die drei Koordinaten linear unabhängig sind.
✎ Beispiel:
b1
b2
b3
ngesamt
nZZ
nZK + nKZ
nKK
40
10
16
14
Annahme A: Die Stichprobe stammt aus einer Grundgesamtheit mit folgenden Eigenschaften:
p1 = ¼ ;
p2 = ½ ;
p3 = ¼
ei = n·pi
=>
e1 = 10;
e2 = 20;
e3 = 10
k
=>
χo² =
(ei -bi)²
= 2,4
ei
i=1
∑
Aus der Tabelle entnehmen wir:
c2Freiheitsgrade,95% = 5,99
bzw.
c2Freiheitsgrade,99% = 9,21
Aus χo² < c folgt die Annahme, daß die Stichprobe aus einer oben beschriebenen
Grundgesamtheit stammt.
Annahme B: Die Stichprobe stammt aus einer Grundgesamtheit mit folgenden Eigenschaften:
1
1
1
p1 = 3 ;
p2 = 3 ;
p3 = 3
40
40
40
ei = n·pi
=>
e1 = 3 ;
e2 = 3 ;
e3 = 3
k (e -b )²
7
i i
=>
χo² =
= 5
e
i
i=1
∑
Die Stichprobe läßt ebenfalls den Schluß zu, daß sie aus dieser Grundgesamtheit stammt. Zur
besseren Entscheidung müßte eine weitere Stichprobe gemacht werden.
Sind X und Y voneinander unabhängig, so kann unabhängig von der Verteilungsart gefolgert werden, daß
σxy = 0 bzw. ρ = 0 . Umgekehrt kann aus der Voraussetzung σxy = 0 = ρ nicht die Unabhängigkeit
der Zufallsvariblen gefolgert werden. Man sagt daher dann: X und Y sind "unkorreliert". Lediglich bei
normalverteilten Zufallsvariablen ist der Schluß auf Unabhängigkeit in dieser Richtung zulässig.
44
In Formelsammlungen findet man auch folgende Formel, die sich nur durch das Vorzeichen von r
unterscheidet:
n-2
n-2
n-2
1
to = r ·
to =
1-r² = 1/r ·
1-r² <=
1
r² - 1
78
Statistik
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
✎ Beispiel:
Die Stichprobe Körpergewicht/-größe ergibt ein
r = 0,7575 für n = 765:
t0 32,06 > c763;95%
=> Ablehnung der Hypothese ρ = 0.
✎ Beispiel:
1.
Erzeugen wir y als lineare Transformation aus x mit
y = 3x + 20,
so ergibt sich z.B.:
P1(9/47); P2(10/50); P3(11/53)
=>
x̄ = 10 ;
ȳ = 50 ,
sx² = 1 ;
sy² = 9 ;
sxy = 3
=>
r = 1
2.
Erzeugen wir y nichtlinear aus x durch
y = 3(x-10)² + 50,
so folgt:
P1(9/53) ; P2(10/50) ; P3(11;53) ;
=>
x̄ = 10 ;
ȳ = 52 ,
sxy = 0
=>
r = 0
Mit der Berechnung von Vertrauensintervallen für das ρ der Grundgesamtheit mit dem Ergebnis
wollen wir uns hier nicht befassen.45
ä
ρ ∈ [m;n]
Hinweis:
∞
E[g(x)] =
g(x)·f(x) dx f(x) Dichtefunktion
⌠
⌡
-∞
σxy = E[(X-µx)·(Y-µy)] =
∞ ∞
⌠ ⌠[(X-µx)·(Y-µy)·f(x,y) dxdy mit f(x,y) als Dichtefunktion
⌡⌡
-∞ -∞
E[a·g(x) + b·h(x)] = a·E[g(x)] + b·E[h(x)]
"Linearität"
4.1.1. Transformation von Zufallszahlpaaren
Voraussetzung: X und Y sind unabhängig und beliebig verteilt mit
E(X) = µx ; E(Y) = µy ; V(X) = E[(x-µ)²] = σx² ;
V(Y) = E[(y-µ)²] = σy² ;
σxy = E[(X-µx)·(Y-µy)]
Definieren wir nun zwei neue Zufallsvariablen R und S:
R = aX + bY
und
S = αX + βY
Dann gilt für deren Mittelwerte
µR = E[aX+bY] = aE(x) - bE(y) = aµx + bµy
siehe oben: Linearität des Erwartungswertes
und
µS = αµx + βµy
und für die Varianzen:
45

å æ
siehe hierzu KREYSZIG, Abschnitt Nr. 109
Statistik
Seite 79
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
σR²
=
=
=
=
=
=
=
ebenso:
σS²
und für die Kovarianz:
σRS
=
=
=
=
=
=
ρRS
=>
a)
b)
c)
=
E[(R-µR)²]
E[{(aX+bY)-(aµx+bµy)}²]
E[{a(X-µx) + b(Y-µx)}²
a²E[(X-µx)²] + 2abE[(X-µx)(Y-µy)] + b²E[(Y-µy)²]
a²σx² + 2ab·σxy + b²σy²
a²σx² + b²σy²
da σxy = 0
α²σx² + β²σy²
E[R(R-µR)(S-µS)]
E[({aX+bY} - {a·µx+b·µy})·({αX+βY} - {α·µx+β·µy}) ]
E[{a(X-µx)+b(Y-µy)}{α(X-µx)+β(Y-µy)}]
aα·E[(X-µx)²] + (aβ+bα)·E[(X-µx)(Y-µy)] + bβ·E[(Y-µy)²]
aα·σx² + (aβ+bα)·σxy + bβ·σy²
aα·σx² + bβ·σy²
aα·σx² + bβ·σy²
(a²σx² + b²σy²)(α²σx² + β²σy²)
b = 0 = α
=>
ρRS = 0
Hieraus läßt sich schließen, daß R und S unkorreliert sind.
R = aX ;
S = bY
Hier läßt sich die Unabhängigkeit von R und S ablesen.
α = Aa·β = Ab mit A ∈ IR\{0}
=>
S = A·R
S ist lineare Transformation von R.
Aa²·σx² + Ab²·σy²
ρRS
=
(a²σx² + b²σy²)(a²σx² + b²σy²)A²
A
= |A| = sgn(A)
( = ±1 )
Aus einem Ergebnis ρ = ±1 läßt sich aber nicht umgekehrt schließen, daß es sich um eine
Transformation handelt!
Wir wollen nun zeigen, daß gilt:
-1 ≤ ρRS ≤ 1
<=> 0 ≤ ρRS² ≤ 1
(aα·σx² + bβ·σy²)²
ρRS²
=
(≥0)
(a²σx² + b²σy²)(α²σx² + β²σy²)
=
=
a²α²·σx4 + 2aαbβ·σx²·σy² + b²β²·σy4
a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4
a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4 + 2aαbβ·σx²·σy² - (a²β²+α²b²)·σx²·σy²
a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4
(a²β²+α²b² - 2aαbβ)·σx²·σy²
= 1=1-
a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4
(aβ - αb)²·σx²·σy²
4
a²α²·σx + (a²β²+α²b²)·σx²·σy² + b²β²·σy4
weil
d)
(aβ - αb)²·σx²·σy²
a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4
a = 1 ; b = 0 ; α, β beliebig; ρRS gegeben
=>
R = X
und
S = αX + bY
mit
mit α = ±1 folgt:
80
≤1;
Statistik
ρRS =
α·σx²
σx²(α²σx² + β²σy²)
≥0
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
=>
=>
ρRS²σx²(σx² + β²σy²) = σx4
σx²
σx² + β²σy² =
ρRS²
σx² - σx²·ρRS²
=>
β² =
=>
S = ±X±
σy²·ρRS²
σx² - σx²·ρRS²
·Y
σy²·ρRS²
Auf diese Art und Weise lassen sich Zufallsvariablen jeder beliebigen Korrelation generieren.
ç
Zweidimensionale Dichtefunktion (joint distribution)
X,Y seien (0;1)-normalverteilt und ρ-korreliert, dann ist:
1 -1/2(1-ρ²)·(x²-2ρxy+y²)
f(x,y) =
·e
2π
x y
=>
P(X≤x;Y≤y) = ⌠ ⌠f(a,b) da db = F(x,y)
⌡⌡
-∞-∞
ρ = 0.9
ρ = 0
ρ = -0.9
è
46
Hinweis zu Berechnungen bei großen Stichproben (z.B. Stichprobe Körpergewicht/-größe Seite 79 mit n =
765):

1
1 
Es ist sehr aufwendig, nach der Formel sxy = n-1
(xi - x̄)(yi - ȳ) oder sxy = n-1
xi yi k(xi,yi) - n·x̄·ȳ 
î i=1

i=1
zu rechnen, da wir über alle 765 Merkmalsträger oder zumindest über alle vorkommenden Merkmalsausprägungen einzeln addieren müßten. ( i = 1,..,765 Merkmalsträger und j·I Merkmalsausprägungen mit j =
1,..,mx ; l = 1,..,my und k(xj,yl) = kj,l ).
n
∑
m
∑
n
∑
1
So wird x̄ hier besser als mit n-1
xi folgendermaßen berechnet:
i=1
46
Ist der Funktionsgraph rotationssymetrisch um die f(x,y)-Achse, ergeben also die waagerechten Schnitte
Kreise, so sind x und y unabhängig. Sind x und y voneinander abhängig, sind die waagerechten Schnitte
Ellipsen.
Statistik
Seite 81
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
 1

1
x̄ = n
xi·
k(xj,yl)  = n ·
xj·kj· =
xj·hj ,

i=1 î i=1
i=1
i=1
ebenso die Varianz:
mx
my
∑
mx
∑
mx
∑
∑

1 
sx² = n-1
xj²·kj··- n·x̄² .

î i=1
mx
∑
Für y gilt entsprechendes:
 1

1
ȳ = n
yi·
k(xj,yl)  = n ·
yj·kj· =
yj·hj ,

i=1 î i=1
i=1
i=1
ebenso die Varianz:
mx
my
my
∑
∑
my
∑
∑

1 
sy² = n-1
yj²·kj··- n·ȳ² .

î i=1
my
∑
Dann errechnet sich die Kovarianz folgendermaßen:

1 
xj·yl·k(xj,yl)·- n·x̄·ȳ .
sxy = n-1
î i = 1l = 1

mx my
∑∑
4.2. Regression
Die Regression beschäftigt sich wie schon gesagt mit der Berechnung von β und γ (bzw. b und c). Wir wollen
hier b und c zu yi = b·xi + c einschließlich Signifikanztest herleiten. Dazu soll zunächst eine Ausgleichsgerade gesucht werden, die den Punkten P(xi/yi) "möglichst gut angepaßt" ist. Man spricht von xi auch als
Einfluß- und von yi als Zielgröße. Der Ansatz ist, daß die Summe g(b;c) der orthogonal zur x-Achse liegenden
Abstände der Punkte P(xi/yi) von der Gerade ein Minimum sein soll (AbweichungsquadratminimierungsAnsatz von GAUSS):
n
g(b;c) =
∑ [yi - (b·xi + c)]²
i=1
mit g(b;c) → Minimum
⇒
Nullstelle der 1. Ableitung suchen 47
n
I.
47
∂g(b,c)
= - 2·
[yi - (b·xi + c)]
∂c
i=1
∑
Wenn ein anderer als ein linearer Zusammenhang vermutet wird, kann mit den gleichen
n
Grundgedanken eine Ausgleichskurve ermittelt werden:
∑ [yi - f(xi)]² → Minimum bzw. bei Abhängigkeit von
i=1
n
mehreren Parametern eine Ausgleichsfläche etc.:
∑ [yi - f(ai,bi,ci,..)]² → Minimum. Ist f ein Polynom, ist die
i=1
Ermittlung der Parameter problemlos. Lediglich bei Exponentialfunktionen ist die Ermittlung unangenehm.
82
Statistik
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
n
∑ [yi - (b·xi + c)]
=>
= 0
i=1
n
n
i=1
i=1
∑ yi - b· ∑ xi - n·c
<=>
<=>
ȳ - b·x̄ = c
<=>
ȳ = b·x̄ + c
= 0
I :n
Der Punkt P(x̄/ȳ) der Mittelwerte liegt also in jedem Fall auf der gesuchten Gerade.
n
∂g(b,c)
= - 2·
(yi xi - b·xi² - c·xi)
∂b
i=1
∑
II.
n
=>
∑ yi xi
n
- b·
i=1
∑ yi xi

-b
î
∑ xi
= 0
i=1
n
- b·
i=1
<=>
n
- c·
i=1
n
<=>
∑ x i²
∑ xi² - (x̄ - b·x̄)·n·x̄
= 0
da c = x̄ - b·x̄ (siehe I. partielle Ableitung)
i=1
∑ xi² - n·ȳ²  + ∑ yi xi - n·x̄·ȳ
n
n
i=1
i=1
<=>
- b·(n-1)·sx² + (n-1)·sxy = 0
<=>
sxy
b = s ²
x
= 0
( entsprechend:
β =
σxy
σx²
)
b heißt auch Regressionskoeffizient.
✎ Beispiel:
é
48
Körpergewicht (y) / Körpergröße (x) von 9½-jährigen Schülern:
logarithm. Gewicht:
b = 0,7099 c = -49,67
logy = 0,7·x - 50????
kg
lineares Gewicht:
b = 0,4765cm
c = -35,16cm
gerundet: y ≈ 0,5(x-70)
kg
Dies ergibt z.B. für x = 160cm:
y ≈ 0,5cm·(x-70cm) = 45 kg
kg
Vergleich zu Erwachsenen ("Arztformel") mit x = 160 : y ≈ 0.9cm·(x-100cm) = 54 kg
Hinweise:
a)
sgn(b) = sgn(r)
b)
[y]
b hat die Dimension [x]
(im Gegensatz zu r, das dimensionslos ist.)
49
48
siehe auch Seite 79
Dies eröffnet ein weites Feld zur Manipulation des Zahlenwertes von b: Je nach gewählter Einheit wird
der Zahlenwert größer oder kleiner !
49
Statistik
Seite 83
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
Die statistische Beurteilung der Regression läßt einen Rückschluß von der Stichprobe auf die
Grundgesamtheit zu. Voraussetzung für den Signifikanztest ist, daß Y zu einem festen X normalverteilt ist.
Dann wird die Hypothese β = β0 gegen eine Alternative getestet. In der Regel wird die Hypothese β0 =
0 (Nullhypothese) aufgestellt ( identisch mit ρ = 0 ) mit der Gegenhypothese β < 0 bzw. β > 0 als
einseitiger Test oder β ≠ 0 als zweiseitiger Test. Die Formel zu to bzgl. des Regressionskoeffizienten ist
dieselbe wie die für den Korrelationskoeffizient. Auf den Test βo ≠ 0 werden wir hier nicht eingehen, da
dies in der Praxis zu umständlich und zu selten ist 50.
ê
Zuletzt noch einige Hinweise über Voraussetzungen und Aussagen bei Korrelation und Regression
1. ohne Voraussetzungen über eine bestimmte Verteilung von X und Y:
a ) ρ = ±1
Y = βX+γ
Y ist funktional (deterministisch) abhängig von X, lineare Transformation
b) σxy = E[(X - µx)(Y - µy)]
= E[XY - µxY - µyX + µxµy]
= E(XY) - µx E(Y) - µy E(X) + µxµy
= E(XY) - E(X)·E(Y)
= E(X)·E(Y) - E(X)·E(Y)
= 0
, da X und Y unabhängig sind!
c) Aus σxy = 0 folgt aber nicht allgemein, daß X und Y unabhängig (unkorreliert) sind.
2. unter der Voraussetzung, daß X und Y normalverteilt sind:
a) ρ = 0
=> X und Y sind unabhängig
b) Die Tests zu ρ = 0 bzw. β = 0 sind anwendbar
✎ Beispiel zur Korrelation der Noten zur FP Mathematik und der Noten zur PV Mathematik:
m = 0.539 b = 1.4
rpv,fp = 0.504
¯pv¯ = 3.1
¯fp¯ = 3.071
Wir wollen nun testen, ob die Stichprobe den Schluß zuläßt, daß pv und fp in der Grundgesamtheit
korreliert sind:
n-2
14-2
t0 =
=
= 2,024 .
1
1
1
1
r²
0.504²
Da wir vermuten, daß ρ in keinem Fall kleiner null ist, können wir einen einseitigen (und damit
genaueren) Test verwenden:
c95%;n=12 = 1,772 .
Da t0 > c , ist die Hypothese ρ = 0 abzulehnen.
50
84
Š
ë ì
näheres siehe KREYSZIG
Statistik
í
Teil III: Beurteilende Statistik * 4. Korrelation und Regression
abschließende Bemerkungen
a)
Scheinkorrelation bzw. Scheinregression
Es können selbstverständlich bei eigentlich unabhängigen Zufallsvariablen Stichproben auftreten, die hohe
Regressionswerte ergeben und so die Interpretation eines sachlichen oder direkt-kausalen Zusammenhang
fördern (Paradebeispiel Anzahl Störche und Anzahl Geburten siehe z.B. KREYSZIG). Auch wenn ein Verdacht
auf sachlichen Zusammenhang durch weitere Stichproben mit guter Korrelation wirklich erhärtet werden
kann, so sollte man bei der Interpretation von Ursache und Wirkung darauf achten, daß die sachliche
Verknüpfung auch dadurch entstanden sein kann, daß beide Zufallsvariablen von einer gemeinsamen
Ursache abhängen .
b) Erweiterung
α) nichtlineare Regression
z.B.:
Y = αX² + βX + γ
oder
Y = α·eβX
(Hier ist die Bestimmung von α,β schwieriger)
β) multiple Regression
Es ist auch möglich, daß eine Zufallsvariable mit mehreren korreliert:
z.B.:
Z = αX + βY + γ
In beiden Fällen können die Koeffizienten α,β,γ durch statistische Tests beurteilt werden.
Statistik
Seite 85
Anhang * Aufgaben
Anhang
Aufgaben
Aufg.1.10 51:
Ein Gehäuse bestehe aus einem Oberteil, einem Unterteil und einer Dichtung. Die
Wahrscheinlichkeit, daß Ober- und Unterteil Ausschuß sind, betrage je 5%., der
Wahrscheinlichkeit einer fehlerhaften Dichtung sei 10%, und es bestehe Unabhängigkeit. Wie
groß ist die Wahrscheinlichkeit, daß ein Gehäuse völlig einwandfrei ist ?
Aufg. 3.4.:52 Man zeige, daß
n
f(x) = 
î x px qn-x
für
p = 0,5
die folgende einfache Form gewinnt:
n
1
f(x) = n · 
î
x .
2
Aufg. 3.5.: Wie groß ist die Wahrscheinlichkeit, daß wenigstens 14 von 15 Meßergebnissen eine geradzahlige letzte Ziffer besitzen (wie unlängst in einer Fachzeitschrift zu sehen war), wenn gerade
und ungerade letzte Ziffer gleichwahrscheinlich sind.
Aufg. 3.6.: Sechs unter den acht am 1.10.1961 in der Universitätsklinik Graz geborenen Kinder waren
Jungen. Wie groß wäre die Wahrscheinlichkeit eines solchen Ereignisses, wenn Jungen und
Mädchengeburten gleichwahrscheinlich wären ?
Aufg. 3.7.: Bei einem Experiment sei die Wahrscheinlichkeit, einen positiven bzw. einen negativen Meßwert
zu erhalten, jeweils gleich ½. Wie groß ist dann die Wahrscheinlichkeit, bei 9 Ausführungen des
Experimentes höchstens einen einzigen negativen Wert zu erhalten ?
Aufg. 3.8.: Welche Anzahl von "Köpfen" hat bei 2, 4, 10, 100 nacheinander ausgeführten Münzwürfen die
größte Wahrscheinlichkeit?
Aufg. 3.9.:53 Durch Versuche sei festgestellt worden, daß 5% der Zwiebeln einer großen Menge einer bestimmten Blumenzwiebelsorte nicht keimen. Diese Zwiebelsorte wird in Zehnerpackungen auf
den Markt gebracht und es wird eine Keimgarantie von 90% gegeben. Wie groß ist die Wahrscheinlichkeit, daß eine bestimmte Packung dieses Garantieversprechen nicht erfüllt?
Aufg. 3.10.: Wie ändert sich die Lage in Aufg. 3.9., wenn eine Keimgarantie von nur 80% gegeben wird ?
Aufg. 3.11.: Fünf Arbeiter, die unabhängig arbeiten, benötigen elektrischen Strom, und zwar jeder mit Unterbrechung durchschnittlich etwa 10 Minuten je Stunde. Genügt es, die Stromversorgung so
einzurichten, daß drei Arbeiter gleichzeitig Strom entnehmen können, oder entstehen dann erhebliche Wartezeiten, während 4 oder 5 Arbeiter gleichzeitig Strom entnehmen wollen ?
Aufg. 3.12.: Wieviele Schüsse sind notwendig, um mit einer Wahrscheinlichkeit von 0,9 wenigstens einen
Treffer zu erzielen, wenn die Trefferwahrscheinlichkeit je Schuß gleich 0,1 ist ?
Aufg. 3.13.: Bei einem Produktionsprozeß trete auf lange Dauer 5% Ausschuß auf, und es bestehe Unabhängigkeit zwischen der Herstellung der einzelnen Stücke. Man bestimme und zeichne die
Wahrscheinlichkeit, unter 10 Stücken 0; 1; 2; .. 10 Ausschußstücke zu erhalten.
Aufg. 3.14.: Bei einem Fabrikationsprozeß elektrischer Sicherungen will man erreichen, daß höchstens 1%
der Produktion Ausschuß ist. Hierzu kontrolliert man den Prozeß stündlich, indem man aus der
Produktion der letzten Stunde 10 Sicherungen zufällig auswählt und prüft. Sind nicht alle diese
10 Sicherungen brauchbar, so stoppt und überprüft man diesen Prozeß. Man berechne die
Wahrscheinlichkeit, daß der Prozeß nicht gestoppt wird, auch wenn tatsächlich einmal 2%
Ausschuß produziert wird. Aufgrund des Ergebnisses fälle man ein Urteil über die Zweckmäßigkeit des Verfahrens.
Aufg. 3.16.: Berechnen Sie zu den folgenden Tabellen x̄ und s² sowie auf zwei Nachkommastellen genau die
theoretischen absoluten Häufigkeiten bei beiden Tabellen unter der Annahme, daß die
beobachteten Häufigkeiten POISSON-verteilt sind.
51
52
53
86
Š
î ï
Š
ð ñ
Š
ò ó
vgl. KREYSZIG, Aufgabe 20.4.
3.4. bis 3.8.: vgl. KREYSZIG 41.2 bis 41.6
3.9. bis 3.14.: vgl. KREYSZIG 41.9 bis 41.14
Statistik
Anhang * Aufgaben
Zählung von alpha-Teilchen :
Anzahl von Zeitintervallen der Länge 7,5 sec mit x Teilchen pro Zeitintervall
x
beobachtet
0
57
1
203
2
383
3
525
4
532
5
408
6
273
7
139
8
45
9
27
10
10
11
4
12
2
0
≥ 13
Verkehrszählung:
Anzahl von Zeitintervallen der Länge 30 sec mit x Personenkraftwagen pro Intervall
x
0
1
2
3
4
5
6
7
8
≥9
beobachtet
6
18
21
26
16
8
2
1
2
0
Aufg. 3.17.:54 Eine Ladung Saatgut wird in Pfundpäckchen verkauft. Jedes Päckchen enthält rund 1000
Samenkörner. Von früheren Prüfungen her sei bekannt, daß etwa 1% der Körner nicht der Sorte
des Saatgutes angehören. Wie groß ist die Wahrscheinlichkeit, daß in einem bestimmten
Päckchen mehr als 10 solche "fremde" Körner sind ?
Aufg. 3.18.: Seriengefertigte Rundfunkwiderstände von 50Ω Nennwert werden in Packungen zu je 100 Stück
geliefert. Dabei wird die Garantie gegeben, daß alle Widerstände zwischen 45 und 55Ω liegen.
Wie groß ist die Wahrscheinlichkeit, daß eine bestimmte Packung diese Zusage erfüllt, wenn
die Wahrscheinlichkeit, einen Widerstand zu produzieren, der nicht zwischen 45 und 55Ω liegt,
erfahrungsgemäß nur 0,2% beträgt?
Aufg. 3.19.: Wie groß ist die Wahrscheinlichkeit, daß in einem Dorf mit 500 Einwohnern wenigstens einer
am 24. Dezember Geburtstag hat ?
Aufg. 3.20.:55 Eine Fernsprechvermittlung erhalte während der Hauptbetriebszeit durchschnittlich 300
Anrufe stündlich. Sie kann maximal 10 Verbindungen je Minute herstellen. Man benütze die
POISSON-Verteilung zur Abschätzung der Wahrscheinlichkeit, daß die Vermittlung während einer
beliebigen gegebenen Minute in der Hauptbetriebszeit überlastet ist, d.h. mehr Anrufe erhält, als
sie Verbindungen herstellen kann.
Aufg. 3.21.: Für welches x hat
µx
fP(x, µ) = x! ·e-µ
bei gegebenem µ den größten Wert ?
Aufg. 4.11.:56 Die Zufallsvariable X sei normalverteilt um den Mittelwert 10. Wie groß darf σ höchstens sein,
damit die Wahrscheinlichkeit, daß X irgendeinen Wert x≥15 annimmt, nicht größer als 5% ist ?
Aufg. 4.12.: Wie ändert sich das Ergebnis in Aufg. 4.11, wenn man x≥15 durch x≥11 ersetzt?
54
55
56

ô õ

ö ÷

ø ù
3.17 bis 3.19: vgl KREYSZIG 43.1 bis 43.3
3.20 bis 3.21: vgl KREYSZIG 43.7 bis 43.8
vgl. KREYSZIG Aufg. 49.6 49.7 und 49.9 .
Statistik
Seite 87
Anhang * Aufgaben
Aufg. 4.13.: Eine Firma stellt Luftpostumschläge her, deren Gewicht erfahrungsgemäß normalverteilt ist mit
dem Mittelwert µ = 1,95g und der Standardabweichung σ = 0,05g . Wie viele Umschläge,
die 2g oder mehr wiegen, muß man dann in einem Päckchen von 100 Umschlägen etwa in Kauf
nehmen?
zu Aufg. 5.1. und 5.3.:57
Lebensdauer von Glühlampen in Stunden:
Lebensdauer
Häufigkeit
950 .. 1050
4
1050 .. 1150
9
1150 .. 1250
19
1250 .. 1350
36
1350 .. 1450
51
1450 .. 1550
58
1550 .. 1650
53
1650 .. 1750
37
1750 .. 1850
20
1850 .. 1950
9
1950 .. 2050
3
2050 .. 2150
1
(zur Tabelle "Grazer Mittelschülerinnen" siehe Seite 3 und 70 )
Aufg. 5.4.:58 Eine Firma liefert Glimmlämpchen in Kartons zu je 1000 Stück. Wie groß ist die Wahrscheinlichkeit, daß ein solcher Karton nicht mehr als 1% Ausschuß (=defekte Lämpchen) enthält, wenn
man den Produktionsvorgang als BERNOULLI-Experiment mit p = 1% (= Wahrscheinlichkeit,
ein defektes Lämpchen zu produzieren) ansehen kann ?
Aufg. 5.5.:59 In Graz kamen 1962 bei den ersten 3000 Einzelgeburten 1578 Knaben zur Welt. Wie groß ist
die Wahrscheinlichkeit, daß bei 3000 Einzelgeburten 1578 oder noch mehr Knaben geboren
werden, wenn man annimmt, daß Knaben- und Mädchengeburten gleichwahrscheinlich sind ?
60
Aufg. 5.6.: Ein Vertreter weiß erfahrungsgemäß, daß er bei 5% seiner Erstbesuche einen Verkauf tätigen
kann. Wie groß ist die Wahrscheinlichkeit, daß er bei 200 Erstbesuchen wenigstens 10
Verkäufe tätigt ?
Aufg. 5.8.:61 Welche Verteilung haben X1 + X2 und X1 - X2 , wenn X1 und X2 normalverteilt sind mit dem
Mittelwert 6 und -2 und der Varianz 1 und 16 ?
Aufg. 5.9.: Eine Maschine packt X Gramm pulverförmiges Desinfektionsmittel in Y Gramm schwere
Schachteln. X und Y seien normalverteilt mit dem Mittelwert 100g bzw. 5g und der
Standardabweichung 1g bzw. 0,5g. Mit wieviel Prozent fertiger Packungen zwischen 104g und
106g ist dann zu rechnen ?
Aufg. 5.10.: Welche Masse hat ein Karton von 100 der Packungen der Aufg.5.9., wenn die Leermasse des
Kartons normalverteilt ist mit dem Mittelwert 500g und der Standardabweichung 10g ?
Aufg. 5.11.:62 Welche Dicke hat ein Transformatorkern aus 50 Blechen und 49 Papierzwischenlagen, wenn
die Dicke X bzw. Y des einzelnen Bleches bzw. Papieres normalverteilt ist mit dem Mittelwert
0,5mm bzw. 0,05mm und der Standardabweichung 0,05mm bzw. 0,02mm ?
Aufg.2.6.ff: 63 Unter der Annahme, daß die folgenden Stichproben einer normalverteilten Grundgesamtheit
entstammen, bestimme man jeweils ein 95%-Konfidenzintervall für den Mittelwert µ:
Aufg. 2.6.: Prozentualer Stickstoffgehalt von Stahlproben: 0,74; 0,75; 0,73; 0,75; 0,74; 0,72
Aufg. 2.7.: Dichte [g/cm3] von Koks: 1,40; 1,45; 1,39; 1,44; 1,38.
Aufg. 2.8.: Masse [g] von Abziehpapier: 4,3; 4,5; 4,2; 4,3; 4,7; 4,4; 4,2; 4,3; 4,5; 4,3.
Aufg. 2.9.: Wieviel Blatt Papier hätte man in Aufg. 2.8. wiegen müssen, um ein Konfidenzintervall der
Länge 0,1g zu erhalten?
57
58
59
60
61
62
63
88
Š
ú û
Š
ü ý
Š
þ ÿ
vgl. KREYSZIG Tab. 10.5.
vgl. KREYSZIG Aufgabe 50.1.
vgl. KREYSZIG Aufgabe 50.3.
vgl. KREYSZIG Aufgabe 50.7.
5.8 bis 5.10.: vgl. KREYSZIG Aufg. 71.2. bis 4.
vgl. KREYSZIG Aufg. 71.6.
vgl. KREYSZIG Aufg. 72.1 bis 8
Statistik
Anhang * Aufgaben
Aufg. 3.1.: 64
Drei Tage alter Mörtel bzw. Beton mit demselben Wasserzementwert (0,4) hatte die
Druckfestigkeit [kg/cm²] : 357; 359; 413; bzw. 346; 302; 358 .
Man teste die Hypothese, daß die zugehörigen Grundgesamtheiten denselben Mittelwert besitzen.
Aufg. 3.2.: Lohnt es sich vom wirtschaftlichen Standpunkt aus, Fabrikräume zu klimatisieren ? Würde die
Arbeitsleistung steigen ? Die Tabelle gibt Beobachtungen aus einem nichtklimatisierten Zinnwalzwerk. Man teste die Hypothese, daß die Arbeitsleistung nicht von der Jahreszeit abhängt.
Jahreszeit
Relative Arbeitsleistung
Sommer
92,2
84,8
97,2
102,8
Winter
107,7
85,7
102,5
102,5
Aufg. 3.3.: Verbrauchen Forellen in schnell fließendem Wasser mehr Sauerstoff [mm³/(h·g)] als in langsam
fließendem?
Fluß
Sauerstoffverbrauch
schnell
108 122 144 129 107 115 114 97
96
126
langsam
85
152 83
69
95
87
71
94
83
94
Aufg. 3.6.: 65
Die Grazer telephonische Zeitansage gibt neben den Stunden und Minuten auch die
Sekunden in der Form 0; 10; 20; 30; 40; 50; Sekunden an. Ruft man die Zeitansage regellos in
größeren Zeitabständen an, so sollte man erwarten, daß diese sechs Zahlen etwa gleich häufig
vorkommen. Wird dies durch die folgenden Beobachtungen bestätigt ?
Sekundenanzahl 0
10
20
30
40
50
Häufigkeit
16
19
18
17
17
13
Aufg. 3.7.: Man teste die Hypothese, daß bei einem Münzwurf "Kopf" und "Wappen" die gleiche
Wahrscheinlichkeit besitzen, unter Benutzung einer Stichprobe von 50 Würfen, darunter 27
"Köpfen".
Aufg. 3.8.: Wie oft muß "Kopf" bei 50 Münzenwürfen mindestens auftreten, damit die Hypothese in Aufg.
3.7. bei Wahl von α = 5% verworfen wird ?
Aufg. 3.9.:66 GREGOR MENDEL erhielt bei einem anderen Versuch 315 runde gelbe , 108 runde grüne, 101
kantige gelbe und 32 kantige grüne Erbsen. Spricht dies für oder gegen die Theorie, daß sich
die vier Zahlen wie 9 : 3 : 3 : 1 verhalten müßten ?
Aufg. 3.10.: 67 Stammt die Stichprobe in Beispiel 2 Seite 27 einer nach POISSON verteilten Grundgesamtheit
?
64
65
66
67
vgl. KREYSZIG Aufg. 81.1. bis 81.4.
vgl. KREYSZIG Aufg. 85.1. bis 85.3.
vgl. KREYSZIG Aufg. 85.7.
vgl. KREYSZIG Aufg. 85.9.
Statistik
Seite 89
Anhang * Lösungen
Lösungen
Aufg. 3.5.:
Aufg. 3.6.:
Aufg. 3.7.:
Die Wahrscheinlichkeit einer bestimmten Gerade-Ungerade-Kombination von 15 Ziffern beträgt
1
15
15
. Es existiert eine ( = ( ) ) Kombination für 15 gerade Ziffern und 15 ( = ( ) )
0
1
215
Kombinationen mit genau 14 geraden Ziffern von insgesamt 15 Ziffern. Die Wahrscheinlichkeit
1
1
ist also P = 15·( 15+1 ) = 1048
2
1 n
7
x = 6, n = 8, p = q = ½ => f(x) = f(x) = n·( ) = 6
x
2
2
n = 9, p = q = ½
1 9
10
20
20
1 9
1
=>
P(X≤1) = f(0) + f(1) = 9·( ) + 9·( ) = 9·(1+ 9) = 9 = 10 ≈ 1000 = 2%
2 0
2
2 1
2
2
Aufg. 3.8.:
n = 2=>
f(1) ;
n = 4=>
f(2) ;
n = 10
=>
f(5) = f(6) ;
n = 100
=>
f(50) = f(51)
Aufg. 3.9.: Die Wahrscheinlichkeit, daß eine einzelne Zwiebel nicht keimt, ist p = 0,05. Also ist die
Wahrscheinlichkeit, daß 9 Zwiebeln die Garantiebedingung erfüllen:
10
10
P(Ā) = P(X≤1) = f(0) + f(1) = ( ) ·0,050·0,9510 + ( ) ·0,051·0,959 = 91%
0
1
=>
P(A) = 9%
10
Aufg. 3.10.: P(Ā) = P(X≤2) = P(X=2) + P(X≤1) = ( ) ·0,052·0,958 + 91% = 98,5% > P(A) = 1,5%
2
Aufg. 3.11.: X sei die Anzahl Arbeiter, die keinen Strom benötigen mit p = 5/6 und n = 5 :
5
5
P(X≤1) = f(1) + f(0) = ( ) ·( 5/6 )1·( 1/6 )4 + ( ) ·( 5/6 )0·( 1/6 )5 = 0,3%
1
0
Aufg. 3.12.: A = wenigstens 1 Treffer => Ā = genau kein Treffer
X sei die Anzahl der Treffer mit p = 0,1
n
1 - 0,9 = P(Ā) = P( X=0) = f(0) = ( ) ·0,10·0,9n-0 => 0,1 = 0,9n => n ≥ 22
0
Aufg. 3.13.:
Aufg. 3.14.: P = 0,9810 = 81,7%
90
Statistik
Anhang * Lösungen
Aufg. 3.16.:
x
beobachtet
theoretisch
( fp(x)·n )
relative
Häufigkeit
POISSONverteilung ( fp )
0
1
2
3
4
5
6
7
8
9
10
11
12
13
57
203
383
525
532
408
273
139
45
27
10
4
2
0
54.3769
210.46
407.283
525.449
508.424
393.561
253.873
140.37
67.911
29.2047
11.3034
3.97715
1.28276
0.381908
0,0218558
0,0778374
0,146856
0,201304
0,203988
0,156442
0,104678
0,0532975
0,0172546
0,0103528
0,00383436
0,00153374
0,000766871
0
0,0208501
0,080698
0,156167
0,201476
0,194948
0,150905
0,0973439
0,0538228
0,0260395
0,0111981
0,00433412
0,00152498
0,000491857
0,000146437
Graphische Darstellung
POISSONverteilung (fpi):
für
die
Häufigkeitsfunktion
der
Stichprobe
(hi)
und
x̄ = 3,87,
s² = 3,67
x
beobachtet
theoretisch
( fp(x)·n )
relative
Häufigkeit
POISSONverteilung ( fp )
0
1
2
3
4
5
6
7
8
9
6
18
21
26
16
8
2
1
2
0
6.266
17.36
24.04
22.2
15.37
8.516
3.931
1.556
0.5387
0.1658
0.06
0.18
0.21
0.26
0.16
0.08
0.02
0.01
0.02
0
0.06266
0.1736
0.2404
0.222
0.1537
0.08516
0.03931
0.01556
0.005387
0.001658
Tabelle 43.3. x̄ = 2,77 ;
Aufg. 3.17.: p = 0,01; n = 1000 ; µ = p·n = 10
s² = 2,71
10
=>
∑
10x
x! = 41,7%
x=0
P(X>10) = 1 - P(X≤10) = e-10·
Aufg.3.18.: P = 1 - fP(0;0.002·100) = 0,181
Statistik
Seite 91
der
Anhang * Lösungen
500
68
Aufg. 3.19.: P(X≥1) = 1- P(X=0) = fP(0;365) = 74,58%
( Der exakte Wert über Binomial-Verteilung ist 74,63% )
300
Aufg. 3.20.: µ = 60 = 5 ;
10
10
P(X>10) = 1- P(X≤10) = 1 - F(10, µ=5) = 1-
∑ fP(x,5)
∑
5x
x! = 1,3695%
x=0
= 1- e-5·
x=0
(eigentlich binomial-verteilt, aber großes n und kleines p machen POISSON-Anwendung möglich.
Aufg. 3.21.: Rekursionsformel: fP(x+1) = µ/x+1·fP(x)
=>
fP(x+1) / fP(x) = µ/x+1 > 1 für steigende Funktion
=>
x < µ-1
=>
xmax = µ-1
Aufg. 4.4.:
Aufg. 4.11.: σ = 3.041481...
Aufg. 4.12.: σ = 0,608325...
200-195
Aufg. 4.13.: P(x≥200) = 1 - P(X≤200) = 1-Φ
î
 = 1-Φ(1) = 15,8655%
5
Aufg. 4.15.: α) (µ,σ) = (0,1)
a) exakt: Φ(-1,9) - Φ(-2,1) = 0,01085
b)
D(0,7) = 0,516073
genähert: f(-2,0,1)·0,2 = 0,010798
f(0,0,1)·1,4
= 0,558519
β) (µ,σ) = (-2,3)
-1,9+2
-2,1+2
1
b) Φ(0,9) - Φ(1,4/3) = 0,13631
a) Φ
î 3  - Φî 3  = Dî 30 = 0,026591
f(-2,-2,3)·0,2 = 0,026596
f(0,-2,3) = 0,149076
Aufg. 4.16.: µY1 = 2·µx = 8
V(Y1) = 2²·5² = 100
µY2 = -1·µx = -4
V(Y2) = (-1)²·5² = 25
µY3 = 3·µx -12 = 0
V(Y3) = 3²·5²
Aufg. 4.17.:
3 1
µx = 4· ⌠x·(1-x²) dx = 0
⌡
−1
3 1
1
V = 4· ⌠(x-µx)²·(1-x²) dx = 5
⌡
=>
µY = -2
=>
1
σx = 5· 5
−1
68
92
4
eigentlich: p = 365·3+366
Statistik
=>
2
σY = 5· 5
Anhang * Lösungen
35
35
Aufg. 4.18.: V(2X) = 2²·V(X) = 3 > 6 = V(Y)
In Y sind die Augenzahlen der einzelnen Würfel voneinander unabhängig ("unabhängige Ereignisse"), während man sich 2X = X+X so realisiert vorstellen kann, daß mit dem ersten
Würfel gewürfelt wird und der zweite Würfel wird mit der Augenzahl des ersten festgelegt.
("abhängige Ereignisse"); dann wird mit 2X = X+X die Augensumme gebildet. Damit wird
anschaulich bei Y die durchschnittliche Streuung der Augensumme um den Mittelwert kleiner
ausfallen als bei 2X = X+X (die Abweichungen vom Mittelwert µX gleichen sich bei den
beiden unabhängigen Würfeln im Durchschnitt teilweise aus).
y-b
t-µ
σ·y+µ -½·( t-µ)²
a -½·( )²
1
1
σ dt
σ dt
Aufg. 4.19.: a) G(Y) =
b)
G(Y) =
σ 2π ⌠
σ 2π ⌠
⌡e
⌡ e
-∞
-∞
y
y
1
-½·w² σ·dw = 1
-½·w² dw
c) G(Y) =
⌠
e
2π ⌠
σ 2π ⌡
⌡e
-∞
-∞
(σ·y+µ)-µ
dw
1
= y und dv =
=> dv = σ·dw
mit v→−∞ => w→-∞ ; w =
σ
σ
1
Aufg. 4.20.: fx = rect(x-½)
µX =
σX² =
x dx = ½
⌠
⌡
0
1
1
(x-½)²dx = 12
⌠
⌡
0
1
100
σY² = 20²· 12 = 3
n = 300
x̄ = 1503h s² = 41665h² => s = 204,12h
xi
zi
ki
Φ(zi)
n·Φ(zi)
Σki-1
n·∆Φ
fY = rect(10x-2,5) µY = 20·½-5 = 5
Aufg. 5.2.:
i
1
2
3
4
5
6
7
8
9
10
11
12
13
950
1050
1150
1250
1350
1450
1550
1650
1750
1850
1950
2050
2150
-2,71
-2,22
-1,73
-1,24
-0,75
-0,26
0,23
0,72
1,21
1,70
2,19
2,68
3,17
0,0034
0,0132
0,0418
0,1075
0,2266
0,3974
0,5910
0,7642
0,8869
0,9554
0,9857
0,9963
0,9992
1,02
3,96
12,54
37,25
67,98
119,22
177,30
229,26
266,07
286,62
295,71
298,89
299,76
0
4
13
32
68
119
177
230
267
287
296
299
300
4
9
19
36
51
58
53
37
20
9
3
1
2,94
8,58
24,71
30,73
51,24
58,08
51,96
36,81
20,55
9,09
3,18
0,87
n·fN·∆x
2,82
8,35
19,48
35,76
51,62
58,63
52,37
36,80
20,34
8,85
3,03
0,81
10
Aufg. 5.4.:
P =
∑ ( 1000
·0,01x·0,991000-x
x )
= 0,583
x=0
0-1000·0,01-0,5
10-1000·0,01+0,5
) - Φ(
) = 0,5630-0.0004
0,99·0,01·1000
0,99·0,01·1000
3000-1500+0,5
1578-1500-0,5
Φ(
) - Φ(
) = 0,23%
0,5·0,5·3000
0,5·0,5·3000
200-200·0,05+0,5
10-10-0,5
Φ(
) - Φ(
) = 56%
200·0,05·0,95
9,50
≈ P( 0 ≤ xN ≤ 10 ) = Φ(
Aufg. 5.5.:
Aufg. 5.6.:
Statistik
Seite 93
Anhang * Lösungen
Aufg. 5.7.:
Aufg. 5.9.:
 1-p für x = 0
a)  p für x = 1
î
0 sonst
b) E(x) = Σx·h(x) = p
V(x) = Σ(x-µ)²·h(x) = pq
c) Z = Σ Xi => E(Z) = n·p ; V(Z) = n·pq
Die Masse Z = X + Y der Packungen ist normalverteilt mit µ = 105g und σ² = 1,25g².
104-105
1
106-105
) - Φ(
) = D(
) = 63%
=>
P(104 ≤ Z ≤ 106) = Φ(
1,25
1,25
1,25
(Vor.: X und Y sind unabhängig !!)
100
Aufg. 5.10.: K =
∑ Zi + L
i=1
 100

 ∑ 1,25g²+10²g² = 15g ;
î i=1

100
=> µk =
∑ 105g + 500g
σk =
= 11kg ;
i=1
=> m = 11,00kg ± 0,02kg
50
Aufg. 5.11.: Z =
49
∑ Xi + ∑ Yi
i=1
i=1
50
=> µZ =
49
∑ 0,5mm + ∑ 0,05mm
i=1
i=1
50
49
i=1
i=1
=>
E(Ak) = µ )
∑ (0,5mm)² + ∑ (0,05mm)²
; σZ =
=> Gesamtdicke = 27,4mm ± 0,4mm
1

= E n·
fi·cos(k·xi) 
î i=0

n-1
Aufg. 5.12.:
E(Ak)
∑
n-1
∑
1
E( fi )·cos(k·xi)
= n·
i=0
n-1
∑
µ
= n·
cos(k·xi) = 0
i=0
für k ≠ 0
n-1
( für k = 0 gilt:
∑ cos(k·xi)
= n
i=0
1

= V n·
fi·cos(k·xi) 
î i=0

n-1
V(Ak)
∑
n-1
∑
1
= n·
cos²(k·xi) · V( fi )
i=0
1
= 2n·σ²
für k ≠ 0
n-1
( für k = 0 gilt:
∑ cos²(k·xi)
= n
i=0
1
Aufg. 5.15.: ∆f = (b+g)²· (b²∆g)² + (g²∆b)²
Aufg. 5.16.: rv =
(a·rx)² + (b·ry)² + (c·ry)²
Aufg. 5.18.: fB(x,n1,p) ∗ fB(x,n2,p)
=>
1
V(Ak) = n·σ² )
∆f
∆f = 0,46mm ; f = 0,34%
=>
∞
=
∑
î npx qn1-x ·î n pz-x qn2+x-z
x
z-x
k=0
∞
z n +n -z
= p q 1 2
∑
z n +n -z
= p q 1 2
∑
î nî n 
x z-x
k=0
∞
n1+n2 = f (z,n +n ,p)
B
1 2
î z 
k=0
94
Statistik
Anhang * Lösungen
Aufg. 5.19.: fP(x,µ1) ∗ fP(x,µ2)
Aufg. 1.1.:
=
∞ µ1x
∞ µ1x·µ2z-x
µ z-x -µ
-µ1 2
2 = e-(µ1+µ2)
e
·e
x!
x!(z-x)!
(z-x)!
k=0
k=0
=
x
z-x
-(µ +µ
-(µ +µ
e 1 2) ∞ µ1 ·µ2 z!
e 1 2) ∞ z
x z-x
=
z! k = 0 x!(z-x)!
z! k = 0( x) µ1 µ2
=
-(µ +µ
e 1 2)
z
z! (µ1+µ2) = fp(z,µ1+µ2)
∑
∑
∑
P(Cn ≤ ½· ( Φ-1(γ) + 2n-1) ) = γ
n = 30
γ
Φ−1(γ)
Tabelle
0.1
-1.282
20.6
0.25
-0.674
24.47
0.5
0
29.34
0.9
1.282
40.26
0.95
1.645
43.68
0.99
2.326
51.05
∑
n = 30
Näherung
20.47
24.55
29.5
40.17
43.49
50.07
n = 100
Tabelle
82.36
90.13
99.33
118.6
124.4
135.4
n = 100
Näherung
82.24
90.22
99.5
118.4
124.1
135
Aufg. 3.1.:
x̄ = 376,3; ȳ = 335,3; sx² = 1009,3; sy² = 869,3; t0 = 1,64 < c95%/n=4 = 2,13
=>
Hypothese µx = µy wird angenommen.
Aufg. 3.2.: x̄ = 94,25; ȳ = 99,6; sx² = 58,43; sy² = 91,88; t0 = 0,8727 < c95%/n=6 = 1,94
=>
Hypothese µx = µy wird angenommen (Gegenhypothese µx < µy).
Aufg. 3.3.: x̄ = 115,8; ȳ = 91,3; sx² = 222,2; sy² = 535,3; t0 = 2,81 > c95%/n=18 = 1,73
=>
Hypothese µx = µy wird abgelehnt und Gegenhypothese µx > µy angenommen.
100
Aufg. 3.6.: n = 100; k = 6; ej = 6 für j = 1;..;6 ; χ0² = 1,28 < c95%\n=5 = 11,07
=>
Die Hypothese, daß die Grundgesamtheit gleichverteilt ist, wird angenommen.
Aufg. 3.7.: k = 2 ; e1 = e2 = 25 ; χ0² = 0,32 < c95%\n=1 = 3,84
=>
Die Hypothese, daß Kopf und Wappen gleichwahrscheinlich sind, wird angenommen.
(x-25)² + [(50-x)-25]²
25
Aufg. 3.8.: χ0² =
≥x
=>
x > 25 +
c · 2 = 31,8
25
Aufg. 3.9.: n = 556; e1 = 312,75; e2 = e3 = 104,25; e4 = 34,75; χ0² = 0,47 < c95%\n=3 = 7,81
=>
Annahme der Hypothese.
Aufg. 3.10.: k = 7 (mit b7 = 1+2+1+0) ; χ0² = 1,38 < c95%\n=5 = 11,07
=>
Annahme der Hypothese.
n x
n-x
Aufg. 3.15.: f(p) = 
î xp ·(1-p)
df(p)
n
x-1
n-x
x
n-x-1]
= 
=>
î x·[x·p ·(1-p) - p ·(n-1)·(1-p)
dp
n x-1
n-x-1[x·(1-p)-p·(n-x)] = n·px-1·(1-p)n-x-1[x-µ]
= 
î x·p ·(1-p)
î x
n x-1
n-x-1 aber immer positiv ist, hängt das Vorzeichen von df(p) nur von x-µ ab; f(p)
Da 
î x·p ·(1-p)
dp
ist also streng monoton steigend für x > µ und streng monoton fallend für x < µ.
Statistik
Seite 95
Anhang * Formelsammlung I
Formelsammlung I
Mittelwert einer Stichprobe:
n
∑
1
x̄ = n
xi
i=1
Merkmalszuordnung 1. Art
m
m
∑
∑
m
∑
1
x̄ = n
xi k(xi) =
xi h(xi) =
xi f(xi) Merkmalszuordnung 2. Art
i=1
i=1
i=1
Mittelwert µ einer diskreten Zufallsvariable
bzw.:
µ =
∑xi f(xi)
i
Mittelwert µ einer stetigen Zufallsvariable
∞
µ = ⌠x·f(x) dx
⌡
−∞
Varianz s² einer Stichprobe
m
m
∑
∑
n
1
(xi - x̄ )² k(xi) = n-1
(xi - x̄ )² h(xi)
s² = n-1
i=1
i=1


1 
s² = n-1·
xi² k(xi)  - nx̄² 
î î i=1


m
∑
Varianz σ² einer diskreten Zufallsvariable
m
∑
1
(xi - x̄ )² f(xi)
σ² = n-1
i=1


1 
σ² = n-1·
xi² f(xi)  - nµ² 
î î i=1


m
∑
Varianz σ² einer stetigen Zufallsvariable
∞
σ² = ⌠(x-µ)²·f(x) dx
⌡
−∞
∞
σ² = ⌠x² f(x) dx - µ²
⌡
−∞
Kovarianz

1 
1
(xi - x̄ )(yi - ȳ) = n-1 
xi yi - n·x̄·ȳ 
sxy = n-1
î

i=1
i=1
n
∑
n
∑

1 
sxy = n-1 
xi yi·k(xi,yi) - n·x̄·ȳ 
î i=1

Rechteckverteilte (gleichverteilte) Zufallsvariable
x-½·b
1
•
f(x) = b·rect( b )
•
µ = ½·b
b²
•
σ² = 12
i = 1..n: Merkmalsträger
m
<=>
96
∑
m: Anzahl der Merkmalsausprägungen
Statistik
Anhang * Formelsammlung I
Binomial-Verteilung
 f(x) = P(X=x) = n px qn-x
î x
• P(XB=x) = fB(x,n,p) = 
î 0 sonst
für x = 0, 1, 2, ... , n
mit q = 1-p
... für Ziehen mit Zurücklegen die Wahrscheinlichkeit, daß in n Zügen x Erfolge sind
 ∉ IN0 => kleinste Zahl größer als xmax ergibt das Maximum
• xmax = np-q 
î ∈ IN => f(xmax) = f(xmax+1) = Maximum
• µ = E(XB) = n·p
• σ² = n·p·q
Hypergeometrische Verteilung
-> Ziehen ohne Zurücklegen; bei großem n Näherung durch Binomial-Verteilung
î M·î N-M
n-x
x
x ≤ M; x ≤ n
fH(x) = P(XH=x) =
N
î 
n
POISSON-Verteilung
µx
µ
•
fP(x,µ) = lim fB(x,n,n) = x! ·e-µ
n→∞
•
µ = σ² = E(x)
Exponentialverteilung
 1 - e-tµ
für t ≥ 0
F(t) = P(T≤t) =  0
sonst
î
POISSON-Verteilung als Näherung für Binomialverteilung für n » µ
lim f (x,n,µ) = f (x,µ)
P
n
n→∞ B
Normalverteilung:
• allgemein:
x-µ2
-½ 
1
î σ
f(x) =
σ· 2π e
• Standardform: µ = 0 und σ = 1 :
1
1 x -½ t²
f(x) =
e-½ x²
und
F(x) = Φ(x) =
e
dt
2π
2π ⌠
⌡
−∞
•
D(x) = Φ(x) - Φ(-x)
=>
D(x) = P( -x ≤ XN,S ≤ x )
Normalverteilung als Näherung für die Binomialverteilung (für n groß!):
b+½-n·p
)
P(XB≤b) ≈ P(XN ≤ b+½) = Φ(
q·p·n
b-½-n·p
bzw.
P(XB<b) ≈ P(XN < b+½) = Φ(
)
q·p·n
( ± ½ für rechten bzw. linken Klassenrand )
Lineare Transformation:
1 y-b
Y = aX+b
=>
g(y) = |a|·f( a )
Faltungssatz:
f ∗ g = ℑ−1{ℑ{ f(x)} · ℑ{g(x) }}
Statistik
Seite 97
Anhang * Formelsammlung II
Formelsammlung II
Additionssatz:
P( + ) = P( ) + P( ) - P( )
Multiplikationssatz:
P( · ) = P( ) · P( I ) allgemein
bzw.
P( · ) = P( ) · P( )
für unabhängige Ereignisse
Falls und unabhängige Ereignisse sind, gilt für das bedingte Ereignis I : P( I ) = P( )
Verteilungsdefinitionen:
a)
χ²- Verteilung:
Voraussetzung: X1;X2;..Xn sind (0;1)-normalverteilte Zufallsvariablen;
"
#
!
$ %
& '
(
n
Cn =
∑ Xi²
ist χ² [chi-quadrat]-verteilte Zufallsvarible mit n Freiheitsgraden.
i=1
Voraussetzung: X ist (0,1)-normalverteilt, cn ist χ²-verteilt mit n
Freiheitsgraden, X und Cn sind unabhängig.
X
Tn =
ist t-verteilte Zufallsvarible mit n Freiheitsgraden
1
·C
n n
Vertrauensintervall für µ der Grundgesamtheit (n.v.).
Voraussetzungen:
xi ,
i = 1, .. ,n = Stichprobenwerte mit x̄ , s²;
σ² = Varianz der zugehörigen Grundgesamtheit;
γ = Vertrauenswahrscheinlichkeit (-zahl), α = 1 - γ = Irrtumswahrscheinlichkeit
b)
t-Verteilung:
P(x̄-a ≤ µ ≤ x̄+a) = γ
mit
bzw.
c·σ
, falls σ² bekannt ist,
n
c aus Φ(c) - Φ(-c) = D(c) = γ (Normalverteilung)
c·s
a =
; falls σ² unbekannt ist,
n
c aus Ft(c) = ½·(γ+1) ( Ft = t-Verteilung mit n-1 Freiheitsgraden )
a =
Test der Hypothese µx = µy
Voraussetzungen:
xi ; i = 1, .. , nx bzw. yi ; i = 1, .. , ny = zwei unabhängige Stichproben aus
normalverteilten Grundgesamtheiten mit x̄, sx², bzw. ȳ, sy² und x̄ > ȳ.
• t0 =
nx·ny·(nx+ny-2)
·
nx+ny
bzw. für nx = ny = n :
x̄ - ȳ
(nx-1)·sx² + (ny-1)·sy²
x̄ - ȳ
t0 = n·
sx² - sy²
• Bestimmung von c aus P(Tn +n -2 ≤ c ) = γ.
x y
• Falls t0 ≤ c: Annahme von µx = µy ; falls to > c: Annahme der Gegenhypothese µx > µy.
98
Statistik
Anhang * Formelsammlung II
Verteilungstest einer Stichprobe xi auf die Verteilungsfunktion F(x)
• Unterteilung des Intervalls (-∞;∞) in k Teilintervalle (-∞;v1],(v1;v2],..,(vk-1;+∞), so daß (möglichst)
xi ≠ vj ist (i = 1,..,n und j = 1,..,k).
• Berechnung von
• Berechnung von
ej = n·[ F(vj) - F(vj-1) ]
( bzw. bei diskreten Verteilungen ej = n·
∑
vj-1<a≤vj
f(a) )
bj : Anzahl der Stichprobenelemente in (vj-1;vj] ; v0 = -∞ ; vk = +∞ ; bj ≥ 5 (!) .
k (e -b )²
j j
χ0² =
ej
j=1
∑
• Zur Irrtumswahrscheinlichkeit α wird c so aus der Tabelle zur χ²-Verteilung mit k-1 Freiheitsgraden
bestimmt, daß P(Ck-1 ≤ c) = 1-α
• Falls χ0² ≤ c: Annahme der Hypothese, daß die Xi aus einer nach F(x) verteilten Grundgesamtheit
stammen.
• Hinweis: Für jeden zu F(x) aus der Stichprobe geschätzten Parameter muß der Freiheitsgrad zu ck-1
zusätzlich um 1 verkleinert werden !
Regressionsgerade, Korrelationskoeffizient
Voraussetzung: • n Merkmalspaare (xi;yi),
• xi bzw. yi aus normalverteilten Grundgesamtheiten;
• Mittelwerte x̄, ȳ, Varianzen sx², sy², sxy .
sxy
y = bx + c mit b = s ² ; c = ȳ - bx̄
x
sxy
r=s s
x y
)
Test des Regressionskoeffizienten der Grundgesamtheit auf die Hypothese β = 0; Alternative: β ≠ 0:
|sxy|
n-2
• t0 = n-2·
=
1
sx²·sy² - sxy²
r² - 1
• Bestimmung von c aus P(Tn-2 ≤ c) = ½·(1+γ). 69
• Falls t0 ≤ c : Annahme der Hypothese β = 0.
Test des Korrelationskoeffizienten der Grundgesamtheit auf die Hypothese ρ = 0; Alternative: ρ ≠ 0:
Formel siehe Regressionskoeffizient:
Aus β = 0
=>
ρ=0
und aus
β ≠ 0 =>
ρ ≠ 0.
Fehlerfortpflanzung ( 2 unabhängige Meßgrößen x,y ):
Ist
z = f(x,y) = berechnete Größe
∂f(x,y)
∂f(x,y)
partielle Ableitungen fx(x,y) =
, fy(x,y) =
,
∂x
∂y
dann ist der mittlere Fehler ∆z
¯ ¯ zu einem Meßwertepaar (xM,yM) mit den bekannten Toleranzen ∆x, ∆y:
¯∆z¯ =
[fx(xM,yM)∆x]² + [fy(xM,yM)∆y]²
Bei Stichproben von Meßwerten mit x̄, ȳ, sx, sy, ist in der Gleichung zu ersetzen:
xM → x̄, yM → ȳ, ∆x → sx, ∆y → sy , ∆z
¯ ¯ → sz
Bei Zufallsvariablen X, Y und Z = f(X,Y) ist entsprechend µx, µy, σx , σy , σz , zu ersetzen.
69
zweiseitiger Test (, falls kein einseitiger Test möglich ist).
Statistik
Seite 99
Anhang * Summenformeln
Summenformeln
n
∑i
a)
=
i=1
n-1
∑ qi
b)
i=0
1 - q"
= 1-q
n-1
c)
q
= (1-q)² · [(n-1) qn - nqn-1 + 1]
∑ i·qi
q
= (1-q)²
i=1
∞
d)
=>
∑ qi
i=0
∞
e)
für |q| < 1
1
= 1-q
∑ i2 qi
i=1
100
q≠1
∑ i qi
i=1
n-1
=>
n (n+1)
2
für |q| < 1
1+q
= q ·(1-q)³
Statistik
für |q| < 1
Anhang * Tabelle: Chi-Quadrat-Verteilung
Tabelle: Chi-Quadrat-Verteilung
Werte von x zu gegebenen Werten der Verteilungsfunktion
( Beispiel: Bei 4 Freiheitsgraden ist F = 0,995 für x = 14,86 )
F(x)
n 0,001 0,005 0,01 0,025 0,05 0,1 0,25 0,5 0,75 0,9 0,95 0,975 0,99 ,995 ,999
1 1,551 3,913 1,571 9,817 3,932 1,579 ,1015 ,4549 1,323 2,706 3,841 5,024 6,635 7,879 10,83
E-6
2 2
E-5
1,003
E-2
,0718
E-4
2,01
E-1
,1149
E-4
5,063
E-2
,2158
E-3
,1026
E-2
,2107
4,605
5,991
7,377
9,21
10,6
13,82
,3519 ,5844 1,213 2,366 4,108 6,251
3
,09071
,207
,2971
,4844
,7107 1,064 1,923 3,357 5,385 7,779
4
0,21
,4114
,5543
,8312
1,145 1,61
2,675 4,351 6,626 9,236
5
,3809
,6756
0,872
1,237
1,635
2,204
3,455 5,348 7,841 10,64
6
,5984
,9892
1,239
1,69
2,167
2,833
4,255 6,346 9,037 12,02
7
,8594
1,344
1,647
2,18
2,733
3,49
5,071 7,344 10,22 13,36
8
1,154
1,734
2,088
2,7
3,325
4,168
5,899 8,343 11,39 14,68
9
10 1,48 2,156 2,558 3,247 3,94 4,865 6,737 9,342 12,55 15,99
11 1,835 2,603 3,053 3,816 4,575 5,578 7,584 10,34 13,7 17,28
12 2,215 3,074 3,571 4,404 5,226 6,304 8,438 11,34 14,85 18,55
13 2,618 3,565 4,107 5,009 5,892 7,042 9,299 12,34 15,98 19,81
14 3,041 4,075 4,661 5,629 6,571 7,79 10,17 13,34 17,12 21,06
15 3,483 4,602 5,229 6,262 7,261 8,547 11,04 14,34 18,24 22,31
16 3,942 5,142 5,812 6,908 7,962 9,312 11,91 15,34 19,37 23,54
17 4,41 5,697 6,408 7,564 8,672 10,09 12,79 16,34 20,49 24,77
18 4,899 6,265 7,015 8,231 9,391 10,86 13,68 17,34 21,6 25,99
19 5,402 6,845 7,633 8,907 10,12 11,65 14,56 18,34 22,72 27,2
20 5,916 7,435 8,261 9,591 10,85 12,44 15,45 19,34 23,83 28,41
21 6,442 8,035 8,898 10,28 11,59 13,24 16,34 20,34 24,93 29,62
22 6,979 8,644 9,543 10,98 12,34 14,04 17,24 21,34 26,04 30,81
23 7,526 9,262 10,2 11,69 13,09 14,85 18,14 22,34 27,14 32,01
24 8,082 9,889 10,86 12,4 13,85 15,66 19,04 23,34 28,24 33,2
25 8,646 10,52 11,53 13,12 14,61 16,47 19,94 24,34 29,34 34,38
26 9,219 11,16 12,2 13,84 15,38 17,29 20,84 25,34 30,43 35,56
11,81 12,88 14,57 16,15 18,11 21,75 26,34 31,53 36,74
27 9,8
10,39
12,46 13,57 15,31 16,93 18,94 22,66 27,34 32,62 37,92
28
10,98
13,12 14,26 16,05 17,71 19,77 23,57 28,34 33,71 39,09
29
11,59
13,79 14,95 16,79 18,49 20,6
24,48 29,34 34,8
40,26
30
17,92
20,71
22,16
24,43
26,51
29,05
33,66
39,34
45,62
51,81
40
24,66
27,99
29,71
32,36
34,76
37,69
42,94
49,33
56,33
63,17
50
31,73
35,53
37,48
40,48
43,19
46,46
52,29
59,33
66,98
74,4
60
70 39,03 43,27 45,44 48,76 51,74 55,33 61,7 69,33 77,58 85,53
80 46,52 51,17 53,54 57,15 60,39 64,28 71,14 79,33 88,13 96,58
90 54,15 59,2 61,75 65,65 69,13 73,29 80,62 89,33 98,65 107,6
100 61,92 67,33 70,06 74,22 77,93 82,36 90,13 99,33 109,1 118,5
Für Werte über 100 kann folgende Näherung Verwendung finden:
F(x) ≈ Φ( 2x - 2n-1 )
=>
x ≈ ½·( 2n-1 - Φ-1{F(x)} )
7,815
9,348
11,35
12,84
16,27
9,488
11,14
13,28
14,86
18,47
11,07
12,83
15,09
16,75
20,52
12,59
14,45
16,81
18,55
22,46
14,07
16,01
18,47
20,28
24,32
15,51
17,54
20,09
21,95
26,13
16,92
19,02
21,67
23,59
27,88
18,31
20,48
23,21
25,18
29,59
19,68
21,92
24,73
26,75
31,26
21,03
23,34
26,22
28,3
32,91
22,36
24,74
27,69
29,82
34,53
23,69
26,12
29,14
31,32
36,12
25
27,49
30,58
32,8
37,70
26,3
28,85
32
34,27
39,25
27,59
30,19
33,41
35,72
40,79
28,87
31,53
34,81
37,15
42,31
30,14
32,85
36,19
38,58
43,82
31,41
34,17
37,57
40
45,32
32,67
35,48
38,93
41,4
46,8
33,92
36,78
40,29
42,79
48,3
35,17
38,08
41,64
44,18
49,7
36,42
39,36
42,98
45,56
51,2
37,65
40,65
44,31
46,93
52,6
38,89
41,92
45,64
48,29
54,1
40,11
43,19
46,96
49,64
55,5
41,34
44,46
48,28
50,99
56,9
42,56
45,72
49,59
52,33
58,3
43,77
46,98
50,89
53,67
59,7
55,76
59,34
63,69
66,77
73,4
67,5
71,42
76,15
79,48
86,7
79,08
83,3
88,38
91,94
99,6
90,53
95,02
100,4
104,2
112,3
101,9
106,6
112,3
116,3
124,8
113,1
118,1
124,1
128,3
137,2
124,3
129,6
135,8
140,2
149,4
E-3
,0244
,5754
1,386
Statistik
2,773
Seite 101
Anhang * Tabelle: Verteilungsfunktion zur Normalverteilung
Tabelle: Verteilungsfunktion zur Normalverteilung
D(z) = Φ(z) - Φ(-z) ;
z
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.1
0.11
0.12
0.13
0.14
0.15
0.16
0.17
0.18
0.19
0.2
0.21
0.22
0.23
0.24
0.25
0.26
0.27
0.28
0.29
0.3
0.31
0.32
0.33
0.34
0.35
0.36
0.37
0.38
0.39
0.4
0.41
0.42
0.43
0.44
0.45
0.46
0.47
0.48
0.49
0.5
0.51
0.52
0.53
0.54
0.55
0.56
0.57
0.58
0.59
0.6
0.61
0.62
0.63
0.64
0.65
0.66
0.67
0.68
0.69
0.7
0.71
102
Φ(-z) = 1 - Φ(z) ;
Φ(-z)
Φ(z)
D(z)
0.5
0.49601
0.49202
0.48803
0.48405
0.48006
0.47608
0.4721
0.46812
0.46414
0.46017
0.4562
0.45224
0.44828
0.44433
0.44038
0.43644
0.43251
0.42858
0.42465
0.42074
0.41683
0.41294
0.40905
0.40517
0.40129
0.39743
0.39358
0.38974
0.38591
0.38209
0.37828
0.37448
0.3707
0.36693
0.36317
0.35942
0.35569
0.35197
0.34827
0.34458
0.3409
0.33724
0.3336
0.32997
0.32636
0.32276
0.31918
0.31561
0.31207
0.30854
0.30503
0.30153
0.29806
0.2946
0.29116
0.28774
0.28434
0.28096
0.2776
0.27425
0.27093
0.26763
0.26435
0.26109
0.25785
0.25463
0.25143
0.24825
0.2451
0.24196
0.23885
0.5
0.50399
0.50798
0.51197
0.51595
0.51994
0.52392
0.5279
0.53188
0.53586
0.53983
0.5438
0.54776
0.55172
0.55567
0.55962
0.56356
0.56749
0.57142
0.57535
0.57926
0.58317
0.58706
0.59095
0.59483
0.59871
0.60257
0.60642
0.61026
0.61409
0.61791
0.62172
0.62552
0.6293
0.63307
0.63683
0.64058
0.64431
0.64803
0.65173
0.65542
0.6591
0.66276
0.6664
0.67003
0.67364
0.67724
0.68082
0.68439
0.68793
0.69146
0.69497
0.69847
0.70194
0.7054
0.70884
0.71226
0.71566
0.71904
0.7224
0.72575
0.72907
0.73237
0.73565
0.73891
0.74215
0.74537
0.74857
0.75175
0.7549
0.75804
0.76115
0
0.0079787
0.015957
0.023933
0.031907
0.039878
0.047844
0.055806
0.063763
0.071713
0.079656
0.087591
0.095517
0.10343
0.11134
0.11924
0.12712
0.13499
0.14285
0.15069
0.15852
0.16633
0.17413
0.18191
0.18967
0.19741
0.20514
0.21284
0.22052
0.22818
0.23582
0.24344
0.25103
0.2586
0.26614
0.27366
0.28115
0.28862
0.29605
0.30346
0.31084
0.31819
0.32551
0.3328
0.34006
0.34729
0.35448
0.36164
0.36877
0.37587
0.38292
0.38995
0.39694
0.40389
0.4108
0.41768
0.42452
0.43132
0.43809
0.44481
0.45149
0.45814
0.46474
0.47131
0.47783
0.48431
0.49075
0.49714
0.5035
0.50981
0.51607
0.5223
Φ(0) = 0,5
0.72
0.73
0.74
0.75
0.76
0.77
0.78
0.79
0.8
0.81
0.82
0.83
0.84
0.85
0.86
0.87
0.88
0.89
0.9
0.91
0.92
0.93
0.94
0.95
0.96
0.97
0.98
0.99
1
1.01
1.02
1.03
1.04
1.05
1.06
1.07
1.08
1.09
1.1
1.11
1.12
1.13
1.14
1.15
1.16
1.17
1.18
1.19
1.2
1.21
1.22
1.23
1.24
1.25
1.26
1.27
1.28
1.29
1.3
1.31
1.32
1.33
1.34
1.35
1.36
1.37
1.38
1.39
1.4
1.41
1.42
1.43
1.44
1.45
Statistik
0.23576
0.2327
0.22965
0.22663
0.22363
0.22065
0.2177
0.21476
0.21186
0.20897
0.20611
0.20327
0.20045
0.19766
0.19489
0.19215
0.18943
0.18673
0.18406
0.18141
0.17879
0.17619
0.17361
0.17106
0.16853
0.16602
0.16354
0.16109
0.15866
0.15625
0.15386
0.15151
0.14917
0.14686
0.14457
0.14231
0.14007
0.13786
0.13567
0.1335
0.13136
0.12924
0.12714
0.12507
0.12302
0.121
0.119
0.11702
0.11507
0.11314
0.11123
0.10935
0.10749
0.10565
0.10383
0.10204
0.10027
0.098525
0.0968
0.095098
0.093418
0.091759
0.090123
0.088508
0.086915
0.085343
0.083793
0.082264
0.080757
0.07927
0.077804
0.076359
0.074934
0.073529
0.76424
0.7673
0.77035
0.77337
0.77637
0.77935
0.7823
0.78524
0.78814
0.79103
0.79389
0.79673
0.79955
0.80234
0.80511
0.80785
0.81057
0.81327
0.81594
0.81859
0.82121
0.82381
0.82639
0.82894
0.83147
0.83398
0.83646
0.83891
0.84134
0.84375
0.84614
0.84849
0.85083
0.85314
0.85543
0.85769
0.85993
0.86214
0.86433
0.8665
0.86864
0.87076
0.87286
0.87493
0.87698
0.879
0.881
0.88298
0.88493
0.88686
0.88877
0.89065
0.89251
0.89435
0.89617
0.89796
0.89973
0.90147
0.9032
0.9049
0.90658
0.90824
0.90988
0.91149
0.91309
0.91466
0.91621
0.91774
0.91924
0.92073
0.9222
0.92364
0.92507
0.92647
0.52848
0.53461
0.5407
0.54675
0.55275
0.5587
0.56461
0.57047
0.57629
0.58206
0.58778
0.59346
0.59909
0.60467
0.61021
0.6157
0.62114
0.62653
0.63188
0.63718
0.64243
0.64763
0.65278
0.65789
0.66294
0.66795
0.67291
0.67783
0.68269
0.6875
0.69227
0.69699
0.70166
0.70628
0.71086
0.71538
0.71986
0.72429
0.72867
0.733
0.73729
0.74152
0.74571
0.74986
0.75395
0.758
0.762
0.76595
0.76986
0.77372
0.77754
0.7813
0.78502
0.7887
0.79233
0.79592
0.79945
0.80295
0.8064
0.8098
0.81316
0.81648
0.81975
0.82298
0.82617
0.82931
0.83241
0.83547
0.83849
0.84146
0.84439
0.84728
0.85013
0.85294
Anhang * Tabelle: Verteilungsfunktion zur Normalverteilung
1.46
1.47
1.48
1.49
1.5
1.51
1.52
1.53
1.54
1.55
1.56
1.57
1.58
1.59
1.6
1.61
1.62
1.63
1.64
1.65
1.66
1.67
1.68
1.69
1.7
1.71
1.72
1.73
1.74
1.75
1.76
1.77
1.78
1.79
1.8
1.81
1.82
1.83
1.84
1.85
1.86
1.87
1.88
1.89
1.9
1.91
1.92
1.93
1.94
1.95
1.96
1.97
1.98
1.99
2
2.01
2.02
2.03
2.04
2.05
2.06
2.07
2.08
2.09
2.1
2.11
2.12
2.13
2.14
2.15
2.16
2.17
2.18
2.19
2.2
2.21
2.22
2.23
2.24
2.25
0.072145
0.070781
0.069437
0.068112
0.066807
0.065522
0.064255
0.063008
0.06178
0.060571
0.05938
0.058208
0.057053
0.055917
0.054799
0.053699
0.052616
0.051551
0.050503
0.049471
0.048457
0.04746
0.046479
0.045514
0.044565
0.043633
0.042716
0.041815
0.04093
0.040059
0.039204
0.038364
0.037538
0.036727
0.03593
0.035148
0.03438
0.033625
0.032884
0.032157
0.031443
0.030742
0.030054
0.029379
0.028717
0.028067
0.027429
0.026803
0.02619
0.025588
0.024998
0.024419
0.023852
0.023295
0.02275
0.022216
0.021692
0.021178
0.020675
0.020182
0.019699
0.019226
0.018763
0.018309
0.017864
0.017429
0.017003
0.016586
0.016177
0.015778
0.015386
0.015003
0.014629
0.014262
0.013903
0.013553
0.013209
0.012874
0.012545
0.012224
0.92785
0.92922
0.93056
0.93189
0.93319
0.93448
0.93574
0.93699
0.93822
0.93943
0.94062
0.94179
0.94295
0.94408
0.9452
0.9463
0.94738
0.94845
0.9495
0.95053
0.95154
0.95254
0.95352
0.95449
0.95543
0.95637
0.95728
0.95818
0.95907
0.95994
0.9608
0.96164
0.96246
0.96327
0.96407
0.96485
0.96562
0.96638
0.96712
0.96784
0.96856
0.96926
0.96995
0.97062
0.97128
0.97193
0.97257
0.9732
0.97381
0.97441
0.975
0.97558
0.97615
0.9767
0.97725
0.97778
0.97831
0.97882
0.97932
0.97982
0.9803
0.98077
0.98124
0.98169
0.98214
0.98257
0.983
0.98341
0.98382
0.98422
0.98461
0.985
0.98537
0.98574
0.9861
0.98645
0.98679
0.98713
0.98745
0.98778
0.85571
0.85844
0.86113
0.86378
0.86639
0.86896
0.87149
0.87398
0.87644
0.87886
0.88124
0.88358
0.88589
0.88817
0.8904
0.8926
0.89477
0.8969
0.89899
0.90106
0.90309
0.90508
0.90704
0.90897
0.91087
0.91273
0.91457
0.91637
0.91814
0.91988
0.92159
0.92327
0.92492
0.92655
0.92814
0.9297
0.93124
0.93275
0.93423
0.93569
0.93711
0.93852
0.93989
0.94124
0.94257
0.94387
0.94514
0.94639
0.94762
0.94882
0.95
0.95116
0.9523
0.95341
0.9545
0.95557
0.95662
0.95764
0.95865
0.95964
0.9606
0.96155
0.96247
0.96338
0.96427
0.96514
0.96599
0.96683
0.96765
0.96844
0.96923
0.96999
0.97074
0.97148
0.97219
0.97289
0.97358
0.97425
0.97491
0.97555
2.26
2.27
2.28
2.29
2.3
2.31
2.32
2.33
2.34
2.35
2.36
2.37
2.38
2.39
2.4
2.41
2.42
2.43
2.44
2.45
2.46
2.47
2.48
2.49
2.5
2.51
2.52
2.53
2.54
2.55
2.56
2.57
2.58
2.59
2.6
2.61
2.62
2.63
2.64
2.65
2.66
2.67
2.68
2.69
2.7
2.71
2.72
2.73
2.74
2.75
2.76
2.77
2.78
2.79
2.8
2.81
2.82
2.83
2.84
2.85
2.86
2.87
2.88
2.89
2.9
2.91
2.92
2.93
2.94
2.95
2.96
2.97
2.98
2.99
3
Statistik
0.011911
0.011604
0.011304
0.011011
0.010724
0.010444
0.01017
0.0099031
0.0096419
0.0093867
0.0091375
0.008894
0.0086563
0.0084242
0.0081975
0.0079763
0.0077603
0.0075494
0.0073436
0.0071428
0.0069469
0.0067557
0.0065691
0.0063872
0.0062097
0.0060366
0.0058677
0.0057031
0.0055426
0.0053861
0.0052336
0.0050849
0.00494
0.0047988
0.0046612
0.0045271
0.0043965
0.0042692
0.0041453
0.0040246
0.003907
0.0037926
0.0036811
0.0035726
0.003467
0.0033642
0.0032641
0.0031667
0.003072
0.0029798
0.0028901
0.0028028
0.0027179
0.0026354
0.0025551
0.0024771
0.0024012
0.0023274
0.0022557
0.002186
0.0021182
0.0020524
0.0019884
0.0019262
0.0018658
0.0018071
0.0017502
0.0016948
0.0016411
0.0015889
0.0015382
0.001489
0.0014412
0.0013949
0.0013499
0.98809
0.9884
0.9887
0.98899
0.98928
0.98956
0.98983
0.9901
0.99036
0.99061
0.99086
0.99111
0.99134
0.99158
0.9918
0.99202
0.99224
0.99245
0.99266
0.99286
0.99305
0.99324
0.99343
0.99361
0.99379
0.99396
0.99413
0.9943
0.99446
0.99461
0.99477
0.99492
0.99506
0.9952
0.99534
0.99547
0.9956
0.99573
0.99585
0.99598
0.99609
0.99621
0.99632
0.99643
0.99653
0.99664
0.99674
0.99683
0.99693
0.99702
0.99711
0.9972
0.99728
0.99736
0.99744
0.99752
0.9976
0.99767
0.99774
0.99781
0.99788
0.99795
0.99801
0.99807
0.99813
0.99819
0.99825
0.99831
0.99836
0.99841
0.99846
0.99851
0.99856
0.99861
0.99865
0.97618
0.97679
0.97739
0.97798
0.97855
0.97911
0.97966
0.98019
0.98072
0.98123
0.98173
0.98221
0.98269
0.98315
0.9836
0.98405
0.98448
0.9849
0.98531
0.98571
0.98611
0.98649
0.98686
0.98723
0.98758
0.98793
0.98826
0.98859
0.98891
0.98923
0.98953
0.98983
0.99012
0.9904
0.99068
0.99095
0.99121
0.99146
0.99171
0.99195
0.99219
0.99241
0.99264
0.99285
0.99307
0.99327
0.99347
0.99367
0.99386
0.99404
0.99422
0.99439
0.99456
0.99473
0.99489
0.99505
0.9952
0.99535
0.99549
0.99563
0.99576
0.9959
0.99602
0.99615
0.99627
0.99639
0.9965
0.99661
0.99672
0.99682
0.99692
0.99702
0.99712
0.99721
0.9973
Seite 103
Anhang * Stichwortverzeichnis
Stichwortverzeichnis
A
Abnehmerrisiko, 14
absolute Häufigkeit, 4
absoluter Maximalfehler, 56
Abweichungsquadrate, 6
Additions-Satz, 11;50
allgemeiner Multiplikationssatz, 12
analytische Statistik, 67
Ausgleichsgerade, 46;78
B
bedingte Wahrscheinlichkeit, 12
bedingtes Ereignis, 12
BERNOULLI - Experiment, 20
Beschreibende Statistik, 3
BESSEL-Funktion, 68
Beurteilende Statistik, 67
Binomialverteilung, 20
C
χ ² - Test, 11
χ² - Verteilung, 68
Chi - Quadrat - Verteilung, 68
Couchy-Verteilung, 50;69
D
D(x), 39;101
de Moivre, 52
Dichtefunktion, 31
Diskrete Standardverteilungen, 19
Diskrete Wahrscheinlichkeitsfunktionen, 14
diskrete Zufallsvariable, 15
Dreiecksfunktion, 62
durchschnittliche Auszahlung, 18
Durchschnittswert, 5
E
Einzelerfolgswahrscheinlichkeit, 20
Elementarereignis, 7;8
Er, 7
Ereignis, 7
Erfolg, 20
Erwartungswert, 18
Experiment, 7
Exponentialfunktion, 29
exponentialverteilt, 30
Exponentialverteilung, 29
F
Φ (Phi), 38;101
F(x), 5;17
f(x), 5
Faltung, 59;60;65
Faltungsintegral, 61
Faltungssatz, 62
Faltungssumme, 59
Fast FOURIER Transformation, 62
Fehlerrechnung, 54
FFT, 62
FISCHER-Verteilung, 70
FOURIER-Transformation, 62
Freiheitsgrade, 68
104
G
Gamma-Funktion, 68
GAUSS, 54;85
GAUSSsches Fehlerfortpflanzungsgesetz, 57
Gesetz der großen Zahlen, 11
Gewinnerwartung, 18
gleichwahrscheinlich, 7
globaler Grenzwertsatz, 46
GOSSET, 69
Grundgesamtheit, 3
Gruppierungen, 44
günstiges Ergebnis, 11
H
h(x), 4
Häufigkeitsfunktion, 5
HELMERT, 68
Herstellerrisiko, 13
hypergeometrische Verteilung, 24
Hypothese, 67
J
joint distribution, 83
K
k(x), 4
k(xi), 4
Klasse, 19
KOLMOGOROFF, 9
Kombinatorik, 20
Komplementärereignis, 8
Konfidenzbereich, 70
Konfidenzintervall, 70
Konsumentenrisiko, 14
Korrelation, 65;77
Kovarianz, 78
L
LAPLACE, 46;52
LAPLACE - Experiment, 7
Lineare Transformation, 41
Linearität, 81
lokaler Grenzwertsatz, 46
M
m, 4
Mächtigkeit, 7
Maßzahlen, 17
Maximalfehler, 56
Merkmalsausprägung, 4
Merkmalsträger, 4
Merkmalswerte, 4
Merkmalszuordnung, 4
Mittelwert, 5
Mittelwert µ einer diskreten Zufallsvariablen, 17
mittlere quadratische Abweichung, 57
mittlerer Fehler, 56
MOIVRE, 46
Moment, 19
Multiplikationssatz, 12
N
n, 4
NEYMANN, 70
Normalverteilung, 37;43;67
Statistik
Anhang *
Streumaß, 6
Strichliste, 4
STUDENT-Verteilung, 69
Summe der Abweichungsquadrate, 6
Summenereignis, 8
systematische Abweichungen, 54
T
t - Verteilung, 69
Taylor-Reihe, 55
Testverteilungen, 67
Transformation, 41
TSCHEBYSCHEFF, 54
U
unabhängige Zufallsvariable, 49
unkorreliert, 81
unmögliches Ereignis, 8
Urliste, 4
V
Varianz, 6;18
Variationskoeffizient, 18
Verteilungsfunktion, 5;17
Verteilungstest, 76
Vertrauensbereich, 70
Vertrauensintervall, 70
W
wahrscheinlicher Fehler, 56
Wahrscheinlichkeit, 7
Wahrscheinlichkeitsdefinition, 9
Wahrscheinlichkeitsdichte, 31
Wahrscheinlichkeitsfunktion, 15;16
Wahrscheinlichkeitsoperationen, 11
Wahrscheinlichkeitspapier, 46
Wahrscheinlichkeitstheorie, 7
Warteschlangenmodelle, 26
X
x̄, 5
x i, 4
Z
zentraler Grenzwertsatz, 52
Zufallsexperimente, 7
Zufallsvariable, 14
O
Operations Charakteristik, 14
P
P, 7;19
partielle Ableitung, 56
PASCAL, 64
PEARSON, 76
Permutation, 19
POISSON - Verteilung, 24
Produktereignis, 8
Produzentenrisiko, 13
Prüfverteilungen, 67
Punktdiagramm, 4
Q
quadratische Abweichungen, 57
Qualitätskontrolle, 13
R
random - Funktion, 36;41;63
Rechteckfunktion, 62
rect, 62
Regression, 78
Regressionskoeffizient, 86
relative Häufigkeit, 4
relativer Fehler, 56
S
S, 8
s, 6
s², 6;18
schließende Statistik, 67
seltene Ereignisse, 27
sicheres Ereignis, 8
signifikant, 76
Simulation, 64
Sincfunktion, 62
Standardabweichung, 6;18
Standardform der Normalverteilung, 38
statistischer Fehler, 18
Stetige Verteilung, 29
stetige Zufallsvariable, 29
Stichprobe, 3
Stichproben, 43
Stichprobenmerkmal, 4
Stichprobenumfang, 4
*
Literatur
,
+
ERWIN KREYSZIG: Statistische Methoden und ihre Anwendungen,
OLAF HEIM: Statistische Verfahren der Ingenieurpraxis
HANNIG / KNAPPMANN: Fouriertransformation
Skript nach einer Vorlesung von Prof. Dr. B. KLINGEN am Fachbereich Photoingenieurwesen, FH-Köln,
1994
Statistik
Seite 105
Herunterladen