Rechnerübung Simulation

Werbung
LEHRSTUHL FÜR
TECHNISCHE DIENSTLEISTUNGEN
UND OPERATIONS MANAGEMENT
TECHNISCHE UNIVERSITÄT MÜNCHEN
Rechnerübung Simulation
Übungsaufgaben mit Musterlösungen
Dipl.-Wirt.-Inf. Philipp Melchiors
Report SOM – 1
3. Auflage
Januar 2010
TECHNICAL REPORT
Arcisstraße 21, 80333 München, Germany
All rights reserved. No part of this publication may be reproduced
or transmitted in any forms or by any means, electronic or mechanical, including photography, recording, or any information storage
and retrieval system, without permission in writing form from the
author.
1
Grundlagen der Simulation
a) Beschreiben Sie den Zusammenhang zwischen System, Zustand, Ereignis und Modell.
Ein System ist eine Gruppe von Objekten, die miteinander durch regelmäßige Interaktionen oder Abhängigkeiten im Hinblick auf einen Zweck vereinigt sind.
Ein Systemzustand wird durch die zu einem Zeitpunkt t relevanten Eigenschaften
(repräsentiert durch Zustandsvariablen) der Systemelemente charakterisiert.
Ereignisse sind augenblickliche Erscheinungen z. B. Ankunft eines Kunden, die zu
einer Änderunmg des Systemzustandes führen z.B. durch Änderung des Wertes der
Variable WIP eines Process-Moduls.
Ein Modell ist eine Repräsentation eines Systems mit dem Zweck das System zu
untersuchen.
b) Beschreiben Sie das grundlegende Vorgehen bei Simulation
1. Problemformulierung und Planung der Studie.
2. Definition der Ziele von Simulation.
3. Formulierung eines (konzeptionellen) Modells.
4. Erhebung von Daten.
5. Übersetzung des konzeptionellen Modells in ein softwarebezogenes Modell.
6. Prüfung, ob übersetztes Modell das reale System repräsentiert (Validierung).
7. Experimentdesign.
8. Simulationsläufe.
9. Analyse der Ergebnisse
10. Dokumentation (des Simulationsmodells und des Simulationsprojektes).
c) Erläutern Sie die Funktion von Statistical Accumulators und nennen Sie ein Beispiel.
Statistical Accumulators sind Variablen, die das System beobachten und passiv sind
i. S. v. Nicht-Teilnahme am Geschehen. Beispiel: Die bislang maximale Warteschlangenlänge wird nicht im Simulationsmodell verwendet, sondern dient lediglich Auswertungszwecken.
2
Simulation mit ARENA
a) Skizzieren Sie kurz die Funktion der folgenden Module
1. Process: Definition von Prozessen
2. Schedule: Spezifikation von zeitabhängigen Größen durch Angabe von Paaren
aus Wert der Größe u. Dauer, für die der Wert festgelegt ist.
3. Record: Erstellung von Aufzeichnungen von definierten Punkten eines Simulationsmodells.
4. Create: Generierung von Entities, die durch das System laufen.
b) Erstellen Sie das Flow-Chart (keine Submodelle) für den im folgenden beschriebenen Prozess (einschließlich der Ankunftsprozesse) und geben Sie an, welche ARENAFlow-Chart-Module Sie verwenden. Geben Sie den Modulen aussagekräftige Namen,
so dass deren Funktion im Modell ersichtlich wird: Eine Verpackungsmaschine verpackt 2 Arten von Produkten: Produkt 1 wird nur in eine Folie eingeschweisst,
während Produkt 2 zusätzlich noch in einen Karton gesteckt wird. Beachten Sie,
dass die Maschine lediglich 1 Produkt gleichzeitig bearbeiten kann.
Da der Verpackungsprozess 2 alternative Vorgehen hat (Produkt 1 wird nur eingeschweisst, während Produkt 2 erst eingeschweisst und anschließend in einen Karton
gesteckt wird), wird hier der Prozess detailliert unter Verwendung von Seize, Delay
und Release-Modulen modelliert.
Mögliche Modellierung des Sachverhalts:
Create
Ankunft Produkt 1
Seize
Decide
Delay
0
0 True
Maschinenbelegung
Create
Delay
Produkt 2?
Einschweissen
Verpacken in
Karton
Release
Maschinenfreigabe
Dispose
Abgang
0
0
Ankunft Produkt 2
False
0
c) Erläutern Sie kurz, mit welchen Modulen sich zeitabhängige Ankunftsprozesse modellieren lassen.
Mit Schedule: Type: Arrival: Ankunftsrate spezifiziert durch Wert und Dauer der
Gültigkeit.
Im Create-Modul unter der Rubrik Time Between Arrivals: Angabe des Namen des
Schedule-Moduls und Type: Schedule.
Bemerkung: Alternativ lässt sich die Modellierung auch mit einem Schedule vom
Typ other realisieren, wobei mit dem Schedule eine zeitvariante Größe spezifiziert
werden kann. Der Name des Schedule lässt sich dann als Parameter im Rahmen einer
Verteilungsspezifikation für die Zwischenankunftszeiten (Time Between Arrivals) im
Create-Modul nutzen.
3
Input-Analyse
a) Erläutern Sie das grundlegende Vorgehen bei der Input-Analyse.
1. Sammlung von Daten über das interessierende System.
2. Identifikation einer Familie von Wahrscheinlichkeitsverteilungen z. B. PoissonVerteilung, Normalverteilung über den betrachteten Teilprozess.
3. Wahl von Parametern, die eine spezifische Instanz einer Verteilungsfamilie bestimmen.
4. Bewertung einer gewählten Verteilung z. B. mit Anpassungstests.
b) Welche Verteilung würden Sie für die Beschreibung der Dauer eines mehrstufigen
Produktionsprozesses verwenden, bei der die Dauern der einzelnen Stufen jeweils
mit Parameter λ exponentialverteilt sind?
Erlang-Verteilung
c) Welche Funktion haben Anpassungstests im Rahmen der Input-Analyse ? Nennen
Sie die beiden Anpassungstests, die vom Input-Analyzer unterstützt werden und
erläutern Sie, wann welcher Test verwendet werden sollte?
Mit Anpassungstests wird geprüft, ob die Annahme, dass eine Verteilung aufgrund
einer vorliegenden Stichprobe als gerechtfertigt angesehen werden kann. Die Parameter der Verteilung sind typischerweise empirisch aus Stichprobendaten geschätzt.
Tests, die vom Input-Analyzer unterstützt werden:
– χ2 -Test
– Kolmogorov-Smirnov-Test
Der χ2 -Test wird bei hinreichend großen Stichproben verwendet, so dass die erwartete Häufigkeit für alle Kategorien gegeben mindestens 5 beträgt.
Der Kolmogorov-Smirnov-Test kann auch für kleinere Stichprobengrößen verwendet
werden. Nachteil ist allerdings, dass wenn Verteilungsparameter geschätzt werden,
das Signifikanzniveau unterschätzt wird. Daher sollte bei hinreichend großen Stichproben der χ2 -Test bevorzugt werden.
Beispiel (nicht Teil der Antwort): Setzt man den kritischen Wert der Test-Statistik
des K-S-Tests für ein Signifikanzniveau von 5%, dann kann es sein, dass bei Zutreffen
von der Verteilungshypothese H0 der kritische Wert nur mit einer Wahrscheinlichkeit von z. B. 2% überschritten und damit geringeres Signifikanzniveau erreicht wird.
Dies bedeutet, dass die Wahrscheinlichkeit dafür, dass eine zutreffende Verteilungsannahme irrtümlicherweise verworfen wird (Fehler 1. Art), sinkt. Deswegen wird
der Test auch als konservativ bezeichnet. Gleichzeitig steigt die Wahrscheinlichkeit,
dass eine falsche Verteilungsannahme akzeptiert wird (Fehler 2. Art).
Erläuterung zum Prinzip der Anpassungstests (nicht Teil der Antwort): Es wird
unterstellt, dass die Beobachtungswerte einer bestimmten aber unbekannten Verteilung folgen. Die Beobachtungswerte stellen eine Stichprobe dar, die man sich als das
4
Resultat einer Folge von Zufallsexperimenten vorstellen kann, wobei das Ergebnis
eines Zufallsexperimentes der unbekannten Verteilung folgt.
Mit Hilfe der zu testenden theoretischen Verteilung (deren Parameter auf Basis von
Stichprobendaten geschätzt worden sind) soll die unbekannte Verteilung approximiert werden.
Um zu testen, ob die Verteilung die unbekannte Verteilung der Grundgesamtheit
(aller möglichen Beobachtungswerte) hinreichend gut approximiert, wird zunächst
die Hypothese (H0 ) aufgestellt, dass die geschätzte zu testende Verteilung der ungekannten Verteilung entspricht. Grundidee bei dem χ2 -Test (und dem KolmogorovSmirnov (KS)-Test) ist, dass die (relativen) Häufigkeiten in dem Histogramm einer
Stichprobe und der Verlauf der Wahrscheinlichkeitsfunktion bzw. Dichte-Funktion
der Warscheinlichkeitsverteilung ähnlich sein sollten abgesehen von Unterschieden
aufgrund des Zufalls bzw. der Tatsache, dass die Stichprobe nur einen begrenzten
Umfang hat (Gesetz der großen Zahlen). Die Abweichung der Daten der Stichprobe
zu den theoretisch zu erwartenden Daten der zu testenden Verteilung wird durch
ein bestimmtes Testgröße z. B. T bei dem χ2 -Test ermittelt.
Durch die Abweichung, gemessen durch die Testgröße, lassen sich nun alle möglichen
Stichprobenereignisse charakterisieren. Da nun für die Testgröße die Wahrscheinlichkeitsverteilung bekannt ist (unter der Annahme von H0 ), lässt sich nun über
den Wertebereich der Testgröße ein (nicht-kritischer) Bereich definieren (beginnend
mit 0 und nach oben beschränkt durch einen kritischen Wert). In diesem liegt der
Wert der Testgröße unter Annahme, dass H0 zutrifft mit einer Wahrscheinlichkeit
von 1 − α. Falls nun die Testgröße außerhalb dieses Bereiches d.h. oberhalb des
kritischen Wertes (und damit im kritischen Bereich) liegt, so liegt ein unter der Annahme H0 ein Fall vor, der zu den nur selten auftretenden Fällen (gekennzeichnet
durch eine ungewöhnlich hohe Abweichung) gehört, so dass angenommen werden
kann, dass H0 nicht zutrifft. Die Größe α wird auch als Signifikanzniveau des Tests
bezeichnet und gibt die Wahrscheinlichkeit an, dass für den Fall, dass H0 doch zutrifft, H0 irrtümlicherweise abgelehnt wird (Fehler 1. Art), da ein solcher seltener
Fall aufgetreten ist.
d) Geben sind die Anzahl der Kundenankünfte pro Stunde, die in einem Beobachtungszeitraum von 100 Stunden festgestellt worden sind. Es wird eine Poissonverteilung
unterstellt. Schätzen Sie den fehlenden Parameter und führen Sie den χ2 -Test durch.
Kann an der Hypothese der Poissonverteilung mit dem geschätzten Parameter festgehalten werden, wenn ein Signifikanzniveau von 5% unterstellt wird?
n Oi
1
3
2 12
3 10
4 20
5 19
6 12
7 13
8
3
9
5
10
2
11
0
12
1
5
Zunächst muss der Parameter der Poissonverteilung geschätzt werden:
Die Wahrscheinlichkeitsfunktion der Poissonverteilung (als Verteilungsfamilie) lautet:
f (x) =
λx −λ
·e
x!
λ ist die mittlere Ankunftsrate pro Zeiteinheit (hier Stunde).
3 · 1 + 12 · 2 + 10 · 3 + ... + 10 · 2 + 1 · 12
100
= 4, 96
λ =
Damit ergibt sich als Wahrscheinlichkeitsfunktion:
f (x) =
4, 96x −4,96
·e
x!
Durchführung des χ2 -Tests:
Oi =beobachtete Häufigkeit
Ei theoretisch erwartete Häufigkeit= pi · n mit
n =Stichprobenumfang
pi Wahrscheinlichkeit für Kategorie i
k =Anzahl Kategorien
Test-Größe/-Statistik:
T =
k
X
(Oi − Ei )2
i=1
Ei
Für jede Kategorie k muss gelten Ei > 5.
n Oi
1
3
2 12
3 10
4 20
5 19
6 12
7 13
8
3
9
5
10 2
11 0
12 1
Ei
f (1) · 100 = 0, 035 · 100 = 3, 5
f (2) · 100 = 0, 086 · 100 = 8, 6
14,3
17,7
17,5
14,5
10,3
6,4
3,5
1,7
0,8
0,3
Da für die Kategorien 1 und 2 sowie 9-12 Ei < 5 ist, können diese Kategorien
zusammengefasst werden und man erhält:
6
n
1-2
3
4
5
6
7
8
9-12
Oi
15
10
20
19
12
13
3
8
Ei
12,1
14,3
17,7
17,5
14,5
10,3
6,4
6,3
Nun kann die Testgröße berechnet werden und man erhält:
T =
k
X
(Oi − Ei )2
i=1
Eu
(15 − 12, 1)2 (10 − 14, 3)2 (20 − 17, 7)2
(8 − 6, 3)2
+
+
+ ... +
12, 1
14, 3
17, 7
6, 3
= 5, 819
=
Das Signifikanzniveau beträgt α = 0, 05. Für die Anzahl der Freiheitsgrade ν der
χ2 -Verteilung ergibt sich k − s − 1 = 8 − 1 − 1 = 6 mit s =Anzahl der geschätzten
Parameter der Verteilung (Hier nur 1 Parameter: λ). Damit ergibt sich als kritischer
Wert T6;0,05 = 12, 6 (in der Quantil-Tabelle in der Zeile für ν = 6 und der Spalte
χ20,05 abzulesen). (Hinweis: In der Literatur wird zur Bezeichnung der Testgröße statt
T auch χ2 verwendet.)
Da offensichtlich T = 5, 819 < T6;0,05 = 12, 6, kann die Hypothese H0 , dass die
geschätzte Verteilung die unbekannte Verteilung in der Realität repräsentiert, nicht
fallengelassen werden.
e) Was bedeutet der p-Wert in der Ausgabe des Input-Analyzers. Bei welchen Werten
ist es empfehlenswert eine bestimmte Verteilung zu verwenden?
Der p-Wert gibt das Signifikanzniveau des Tests an (Wahrscheinlichkeit, dass H0
irrtümlicherweise abgelehnt würde, wenn H0 wahr ist), wenn der berechnete Testgrößenwert der kritische Wert wäre. Alternativ kann man auch sagen, dass der
p-Wert die Wahrscheinlichkeit angibt, mit welcher der Wert der Testgröße oder
Teststatistik der aktuellen Stichprobe (bei Erfüllung von H0 ) bei einer beliebigen
Stichprobe (auch einer anderen Stichprobe derselben Grundgesamtheit) überschritten wird.
Ab einem Wert von p ≥ 0, 1 kann von einer guten Übereinstimmung zwischen der
bestimmten Verteilung und den Stichprobendaten (bzw. deren Verteilung), und ab
einem Wert von p < 0, 05 von einer schlechten Übereinstimmung ausgegangen werden. Erläuterung (nicht Teil der Antwort): Ist der p-Wert hoch, so bedeutet dies,
dass die Häufigkeitsverteilung einer beliebigen Stichprobe von dem Umfang der aktuellen Stichprobe bei Annahme der Hypothese H0 , mit hoher Wahrscheinlichkeit
p eine größere Abweichung von der theoretischen Wahrscheinlichkeitsverteilung besitzt, als die in der aktuellen Stichprobe gemessene Abweichung. Daher kann man
von einer guten Entsprechung der unbekannten Verteilung und der zu testenden
7
Verteilung ausgehen.
8
Ergebnis-Analyse
a) Die folgende Ausgabe wurde nach einem Simulationsexperiment mit 50 Replikationen und einer Replikationslänge von 10000 Stunden erhalten:
Erläutern Sie die Bedeutung der Angaben mit jeweils einem Satz.
– Average: Mittelwert der replikationsbezogenen Mittelwerte der Warteschlangenlänge.
– Half Width: Halbe Breite des 95%-Konfidenzintervalls, um diesen Mittelwert.
– Maximum Average: Maximaler replikationsbezogener Mittelwert (X r ).
– Minimum Average: Minimaler replikationsbezogener Mittelwert.
– Minimum Value: Minimaler beobachteter Wert der Warteschlangenlänge aller
Replikationen.
– Maximum Value: Maximaler beobachteter Wert der Warteschlangenlänge aller
Replikationen.
b) Schätzen Sie ab, um wieviel sich die Halbbreite verringert, wenn Sie die Anzahl der
Replikationen verdoppeln.
Da der Stichprobenumfang n ≥ 30 kann eine Approximation der t-Verteilung durch
die Standardnormalverteilung erfolgen und man erhält für das Konfidenzintervall,
wenn man die Formel von Folie 178 (Skript) verwendet:
Ã
S
S
P X − z1−α/2 √X r ≤ µ ≤ X + z1−α/2 √X r
R
R
!
=1−α
X ist der Mittelwert über alle replikationsbezogenen Mittelwerte X r . R ist die Anzahl Replikationen.
Bemerkung: Verwendet man alternativ die Formel von Folie 183 (Skript) zur
Schätzung der Varianz von X, so kann man auch schreiben:
³
´
P X − z1−α/2 SX ≤ µ ≤ X + z1−α/2 SX = 1 − α
Im folgenden wird allerdings die erstere Formulierung verwendet: Damit ist die Halbbreite gegeben durch:
S
z1−α/2 √X r
R
Bei einem 95% Konfidenzintervall ist α = 0, 05. Damit ist z = z0,975 = 1, 96.
Um die Halbbreite bei R = 100 abzuschätzen, fehlt noch die Abschätzung für die
Standardabweichung SX r . Die lässt sich aus den Angaben wie folgt berechnen:
S
√X r · 1, 96 = 10, 41 ⇐⇒ SX r = 37, 556
50
9
Damit ergibt sich für die Halbbreite bei 100 Replikationen:
37, 556
√
· 1, 96 = 7, 361
100
Hinweis zur Berechnung der Varianz:
2
SX
ist der Schätzer für die Varianz der replikationsbezogenen Mittelwerte X r um
r
den Mittelwert X und wird daher wie folgt berechnet (siehe auch Skript zum Varianzschätzer S. 172):
2
SX
=
r
R ³
´2
1 X
Xr − X
R − 1 r=1
2
SX
ist der Schätzer für die Varianz von X und wird wie folgt berechnet (siehe auch
Formel im Skript S.183):
2
SX
=
R ³
´2
X
1 2
1
SX r =
Xr − X
R
R · (R − 1) r=1
Hintergrund ist der Zusammenhang zwischen der Varianz der Stichprobenmittelσ2
2
wertes X und der Varianz der Zufallsvariablen X: σX
= nX mit n als Stichprobenumfang.
c) Wozu dient der Warm-Up?
Bei Systemen, die im stationären Zustand betrachtet werden, besteht bei Simulation (im Gegensatz zu dem realen System) das Problem, dass in einem definierten
Ausgangszustand z. B. System leer der Simulationszeitraum beginnt. Durch den
Anfangszustand wird das Systemverhalten eine gewisse Zeit beeinflusst, was die
Statistiken ggü. den Statistiken des realen Systems verzerren würde. Durch eine
hinreichend lange Aufwärmphase, nach der die Statistiken gelöscht werden, wird
sichergestellt, dass die Statistiken erst dann erfasst werden, wenn der Ausgangszustand das Systemverhalten nicht mehr beeinflusst (wie das auch bei dem realen
System im stationären Zustand der Fall ist).
10
d) Erläutern Sie die Vorgehensweise bei Anwendung des Welch-Verfahrens zur Bestimmung der Warm-Up-Länge?
1. Durchführung einer Simulation mit R Replikationen mit m Beobachtungswerten.
2. Bildung eines Mittelwertes für jeden Beobachtungswert i über alle Replikationen X i =
1
R
R
P
r=1
Xir .
3. Berechnung der zentrierten gleitenden Durchschnitte X i (w) über die Werte X i
mit einer Gliederzahl 2w + 1.
4. Eintragung der Werte X i (w) in einen Graphen und Bestimmung des Zeitpunktes, ab dem der Graph einen gleichmäßigen Verlauf annimmt. Falls der
Zeitpunkt nicht bestimmt werden kann, kann folgendes versucht werden:
a) Erhöhung von w und Wiederholung ab Schritt 3
b) Falls auch für hohe w keine Bestimmung möglich ist, dann Durchführung
weiterer Replikationen und Wiederholung ab Schritt 2.
e) Um den Einfluss der Prioritätsregeln Kürzestete Operationszeit (KOZ), Größte
Restbearbeitungszeit (GRB) und die Meisten Auszuführenden Arbeitsgänge (MAA)
zu testen haben Sie ein Produktionssystem (vgl. Beispiel zu Sequenzen im Rahmen
des Advanced Transfer Panels) für 10000 Zeiteinheiten (ohne Warm-Up) mit 10
Replikationen simuliert. Die folgende Tabelle zeigt für jede Replikation und Prioritätsregel die mittlere Durchlaufzeit (W S r ).
Replikation
1
2
3
4
5
6
7
8
9
10
KOZ
25,59
25,00
25,65
26,50
25,41
26,66
24,58
25,11
26,76
25,38
GRB MAA
26,81 26,80
26,17 26,19
27,64 27,73
28,92 28,92
26,71 26,67
28,94 28,87
25,33 25,41
26,34 26,42
28,77 28,86
26,78 26,81
Prüfen Sie, ob die KOZ-Regel die beste Regel darstellt, indem Sie einen geeigneten Alternativenvergleich durchführen bei einem Konfidnenzniveau von 95%. Um
zu prüfen, ob die KOZ-Regel die beste Regel darstellt, ist es sinnvoll diese als Referenzalternative zu verwenden. Bei K = 3 Alternativen müssen somit K − 1 = 2
paarweise Vergleiche durchgeführt werden. Dazu werden für jeden paarweisen Vergleich die mittlere Differenz über jede Replikation sowie die Varianz des Mittelwertes
bestimmt.
Ein Gesamtkonfidenzniveau von 95% für alle Vergleiche wird gefordert d.h. dass die
Konfidenzintervalle um die einzeln Mittelwerte alle (gleichzeitig) mit einer Wahrscheinlichkeit von 95% die wahren Mittelwerte überdecken. Würde man die Konfidenzintervalle einzeln betrachten, so würde die Möglichkeit vernachlässigt werden,
11
dass die Intervalle zwar für sich genommen zwar die wahren Werte mit hoher Wahrscheinlichkeit überdecken, aber möglicherweise nicht gleichzeitg (Überdeckung des
wahren Wertes durch ein Konfidenzintervall ist als Ereignis zu verstehen!).
Dies hat zur Konsequenz, dass die Konfidenzniveaus für die einzelnen Vergleiche
höher gesetzt werden müssen. Mit Hilfe der Bonferroni-Ungleichung erhält man als
Konfidenzniveau für die Vergleiche:
1−α=1−
0.05
= 0, 975 = 97, 5%
2
Probe: Gemäß Bonferroni-Ungleichung erhält man damit das gewünschte GesamtKonfidenzniveau:
1−
K−1
X
αk = 1 − (K − 1)α = 1 − 2 · (1 − 0, 975) = 0, 95 = 95%
k=1
Für die Differenzen der Vergleiche ergibt sich zunächst:
Replikation
1
2
3
4
5
6
7
8
9
10
KOZ
25,59
25,00
25,65
26,50
25,41
26,66
24,58
25,11
26,76
25,38
GRB
26,81
26,17
27,64
28,92
26,71
28,94
25,33
26,34
28,77
26,78
ZGRB
1,22
1,17
1,99
2,42
1,30
2,28
0,75
1,23
2,01
1,40
MAA
26,80
26,19
27,73
28,92
26,67
28,87
25,41
26,42
28,86
26,81
ZM AA
1,21
1,19
2,08
2,42
1,26
2,21
0,83
1,31
2,10
1,43
Für den Mittelwert und die Varianz des Mittelwertes als Schätzer für die wahre aber
unbekannte Differenz des ersten Vergleiches ergibt sich:
1
(1, 22 + 1, 17 + 1, 99 + 2, 42 + 1, 30 + 2, 28 + 0, 75 + 1, 23 + 2, 01 + 1, 40)
10
= 1, 577
´
1 1³
=
(1, 22 − 1, 577)2 + (1, 17 − 1, 577)2 + . . . + (1, 40 − 1, 577)2 = 0, 03
10 9
Z GRB =
SZ2 GRB
Daraus ergibt sich für die Standardabweichung: SZ GRB = 0, 175
Da der Stichprobenumfang klein ist, muss hier die t-Verteilung für die Konfidenzintervallberechnung verwendet werden:
Mit α = 0, 025 (97,5% Konfidenzniveau) wird das 99%-Quantil der t-Verteilung mit
n − 1 = 9 verwendet: t0,99;9 = 2, 821.
12
Für die Halbbreite ergibt sich hGRB = 2, 821 · 0, 175 = 0, 494, so man für das erste
Konfidenzintervall erhält:
[1, 577 − 0, 494; 1, 577 + 0, 494] = [1, 083; 2, 071]
Für den zweiten Vergleich ergibt sich zunächst für Mittelwert und Varianz des Mittelwertes:
1
(1, 21 + 1, 19 + . . . + 1, 43) = 1, 604
10
´
1 1³
=
(1, 21 − 1, 604)2 + (1, 17 − 1, 604)2 + . . . + (1, 43 − 1, 604)2 = 0, 03
10 9
Z M AA =
SZ2 M AA
Da die Varianz gleich bleibt, bleibt auch die Halbbreite mit hM AA = 0, 569 gleich
und man erhält folgendes Konfidenzintervall:
[1, 604 − 0, 494; 1, 604 + 0, 494] = [1, 11; 2, 098]
Da beide Konfidenzintervalle 0 nicht überdecken, kann bei einem Konfidenzniveau
von 95% davon ausgegangen werden, dass die KOZ-Regel die beste Regel darstellt.
13
Herunterladen