Stochastik für Ingenieure - E

Werbung
Otto-von-Guericke-Universität Magdeburg
Fakultät für Mathematik
Institut für Mathematische Stochastik
Stochastik für Ingenieure
(Vorlesungsmanuskript)
von
apl.Prof. Dr. Waltraud Kahle
Empfehlenswerte Bücher:
Beichelt, F.: Stochastik für Ingenieure. Teubner, Stuttgart, 1995.
Beyer, O.; Hackel, H.; Pieper, V.; Tiedge, J.: Wahrscheinlichkeitsrechnung und
Mathematische Statistik. Stuttgart-Leipzig: Teubner-Verlag 1999.
Christoph/Hackel: Starthilfe Stochastik. Teubner-Verlag 2002 bzw. 2010.
Henze, N.: Stochastik für Einsteiger. Braunschweig: Vieweg-Verlag 2000.
Kahle, W., Liebscher, E.: Zuverlässigkeitsanalyse und Qualitätssicherung. Stuttgart:
Oldenbourg-Verlag 2013.
Lehn, J.; Wegmann, H.: Einführung in die Statistik. Teubner 2000.
Lehn, J.; Wegmann, H.; Rettig, S.: Aufgabensammlung zur Einführung in die
Statistik. Teubner 2001.
Müller, Ch., Denecke, L.: Stochastik in den Ingenieurwissenschaften. Eine
Einführung mit R. Berlin Heidelberg: Springer 2013.
Nollau, V.; Partzsch, L.; Storm, R.; Lange, C.: Wahrscheinlichkeitsrechnung und
Statistik in Beispielen und Aufgaben. Teubner 1997.
Storm, R.: Wahrscheinlichkeitsrechnung, Mathematische Statistik und Statistische
Qualitätskontrolle. Leipzig: Fachbuchverlag 2001.
1
2
Inhaltsverzeichnis
1 Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten
1.1 Zufällige Versuche (Zufallsvorgänge) und Ereignisse . . . .
1.2 Die Wahrscheinlichkeit von Ereignissen . . . . . . . . . . .
1.3 Rechenregeln für Wahrscheinlichkeiten . . . . . . . . . . .
1.4 Bedingte Wahrscheinlichkeiten und unabhängige Ereignisse
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
7
2 Zufallsgrößen (Zufallsvariablen) und Wahrscheinlichkeitsverteilungen
2.1 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Wahrscheinlichkeitsverteilungen diskreter Zufallsvariablen . . . . . .
2.3 Wahrscheinlichkeitsverteilungen stetiger Zufallsgrößen . . . . . . . .
2.4 Parameter von Wahrscheinlichkeitsverteilungen . . . . . . . . . . .
2.4.1 Der Erwartungswert . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Standardabweichung, Varianz und Quantile . . . . . . . . .
2.5 Die Ungleichung von Tschebyschev . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
10
11
11
13
14
.
.
.
.
.
.
.
.
.
.
.
15
15
15
15
16
17
17
18
18
19
19
20
3 Spezielle Wahrscheinlichkeitsverteilungen
3.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . .
3.1.1 Die Null-Eins-Verteilung (Bernoulli-Verteilung)
3.1.2 Die Binomialverteilung . . . . . . . . . . . . . .
3.1.3 Die geometrische Verteilung . . . . . . . . . . .
3.1.4 Die Poissonverteilung . . . . . . . . . . . . . . .
3.1.5 Die hypergeometrische Verteilung . . . . . . . .
3.2 Stetige Wahrscheinlichkeitsverteilungen . . . . . . . . .
3.2.1 Die Normalverteilung . . . . . . . . . . . . . . .
3.2.2 Die Exponentialverteilung . . . . . . . . . . . .
3.2.3 Die gleichmäßig stetige Verteilung . . . . . . . .
3.2.4 Die Weibullverteilung . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Approximationsmöglichkeiten, das Gesetz der großen Zahlen und der zentrale Grenzwertsatz
4.1 Approximationsmöglichkeiten innerhalb der diskreten Verteilungen . . . .
4.2 Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . .
21
21
22
22
5 Mehrdimensionale Zufallsgrößen
24
5.1 Diskrete zweidimensionale Zufallsgrößen . . . . . . . . . . . . . . . . . . 24
5.2 Stetige zweidimensionale Zufallsgrößen . . . . . . . . . . . . . . . . . . . 25
3
5.3
5.4
Die Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Der Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . .
6 Funktionen von Zufallsgrößen und Grundverteilungen
Statistik
6.1 Funktionen von Zufallsgrößen . . . . . . . . . . . .
6.2 Funktionen zufälliger Vektoren . . . . . . . . . . . .
6.3 Verteilungen der mathematischen Statistik . . . . .
6.3.1 Die χ2 –Verteilung . . . . . . . . . . . . . . .
6.3.2 Die Student–Verteilung (t–Verteilung) . . .
6.3.3 Die F –Verteilung . . . . . . . . . . . . . . .
7 Punktschätzungen
7.1 Eigenschaften von Schätzungen
7.2 Maximum–Likelihood–Methode
7.3 Momentenmethode . . . . . . .
7.4 Methode der kleinsten Quadrate
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
27
der mathematischen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
30
31
31
32
32
.
.
.
.
34
34
35
36
37
8 Konfidenzschätzungen
39
8.1 Konfidenzschätzungen für den Parameter µ der Normalverteilung bei bekanntem σ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
8.2 Konfidenzschätzungen für den Parameter µ der Normalverteilung bei unbekanntem σ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
8.3 Konfidenzintervalle für den Parameter σ 2 der Normalverteilung . . . . . . 41
8.4 Konfidenzschätzungen für eine unbekannte Wahrscheinlichkeit p . . . . . 42
9 Testtheorie
9.1 Aufgabenstellung und Begriffe . . . . . . . . . . . . . . . . . . . .
9.2 Parametertests für die Parameter der Normalverteilung . . . . . .
9.2.1 Der Gauß–Test . . . . . . . . . . . . . . . . . . . . . . . .
9.2.2 Der t–Test . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.3 Der χ2 -Test für die Varianz bei bekanntem µ . . . . . . . .
9.2.4 Der χ2 -Test für die Varianz bei unbekanntem µ . . . . . .
9.3 Tests zum Vergleich zweier Mittelwerte . . . . . . . . . . . . . . .
9.3.1 Der doppelte Gaußtest . . . . . . . . . . . . . . . . . . . .
9.3.2 Der doppelte t–Test . . . . . . . . . . . . . . . . . . . . . .
9.3.3 Der Test von Welch . . . . . . . . . . . . . . . . . . . . . .
9.3.4 Der t–Differenzentest . . . . . . . . . . . . . . . . . . . . .
9.4 Der einfache Gauß–Test für eine unbekannte Wahrscheinlichkeit p
9.5 Der χ2 -Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . .
9.6 Der χ2 -Unabhängigkeitstest . . . . . . . . . . . . . . . . . . . . .
Tabellen
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
43
44
44
44
45
45
46
46
46
47
48
48
49
50
53
1 Zufallsvorgänge, Ereignisse und
Wahrscheinlichkeiten
1.1 Zufällige Versuche (Zufallsvorgänge) und Ereignisse
Definition 1.1 Ein zufälliger Versuch ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang
ungewiß ist. Die möglichen, nicht mehr zerlegbaren, sich gegenseitig ausschließenden
Ergebnisse heißen Elementarereignisse ω1 , ..., ωn .
Definition 1.2 Die Menge aller Elementarereignisse eines zufälligen Versuches heißt
Ereignisraum Ω = {ω1 , ..., ωn }.
Wir betrachten im weiteren Ereignisse, die aus Elementarereignissen zusammengesetzt
sind und sich nicht gegenseitig ausschließen müssen.
Für die Ereignisse A1 , A2 , ..., B, C, ... sowie für die Beziehungen zwischen ihnen gibt es
Sprech- und Schreibweisen, die in der Tabelle 1.1 zusammengestellt sind.
1.2 Die Wahrscheinlichkeit von Ereignissen
• Der klassische Wahrscheinlichkeitsbegriff (Laplace’sche Definition der Wahrscheinlichkeit):
P (A) =
Anzahl der für A günstigen Ausgänge
Anzahl der möglichen Ausgänge
Dabei wird die Gleichwahrscheinlichkeit“ der Versuchsausgänge vorausgesetzt!
”
• Die von Mises’sche Definition der Wahrscheinlichkeit (Häufigkeitsinterpretation):
Bezeichnen wir mit hn (A) die absolute Häufigkeit des Eintretens des Ereignisses
A in n Versuchen.
P (A) ≈
hn (A)
n
für große n.
• Die geometrische Wahrscheinlichkeit:
P (A) =
Fläche der für A günstigen Ausgänge
Fläche der möglichen Ausgänge
5
Beschreibung des zugrundeliegenden Sachverhalts
1.
A tritt sicher ein
2.
A tritt sicher nicht ein
3.
4.
5.
6.
7.
8.
Bezeichnung
weise)
(Sprech- Darstellung in Ω
(Schreibweise als
Teilmenge)
A ist sicheres Ereignis A = Ω
A ist unmögliches
Ereignis
wenn A eintritt, tritt B ein
A ist Teilereignis von
B
genau dann, wenn A eintritt, tritt A und B sind äquivaB ein
lente Ereignisse
wenn A eintritt, tritt B nicht ein A und B sind disjunkte Ereignisse
genau dann, wenn A eintritt, tritt A und B sind kompleB nicht ein
mentäre Ereignisse
genau dann, wenn mindestens A ist Vereinigung der
ein Aj eintritt (auch: genau dann, Aj
wenn A1 oder A2 oder ... eintritt), tritt A ein
genau dann, wenn alle Aj eintre- A ist Durchschnitt
ten (auch: genau dann, wenn A1 der Aj
und A2 und ... eintreten), tritt A
ein
A=∅
A⊂B
A=B
A∩B =∅
B=A
A=
∪
Aj
j
A=
∩
Aj
j
Tabelle 1.1: Zusammenstellung wichtiger Sprech- und Schreibweisen bei der Bildung
von Ereignissen
• Axiome der Wahrscheinlichkeiten
Die Ereignisse aus Ω (nicht notwendig Elementarereignisse) bilden einen Boolschen
Mengenring.
Jedem Ereignis A dieser Menge wird eine Maßzahl P (A) zugeordnet, so daß
P (A) ≥ 0,
P (Ω) = 1,
P (A1 ∪ A2 ∪ ... ∪ An ) = P (A1 ) + P (A2 ) + · · · + P (An ) für Ai ∩ Aj = ∅, i ̸= j.
Im weiteren sehen wir vorerst die Wahrscheinlichkeiten als gegeben an und lernen Gesetzmäßigkeiten der Wahrscheinlichkeitsrechnung kennen. Später werden Methoden zur
Ermittlung des Wahrscheinlichkeitsmaßes behandelt (Statistik).
1.3 Rechenregeln für Wahrscheinlichkeiten
1. P (A) ≤ 1
6
A1
A2
A3
'
$
B %
&
A4
...
An
Abbildung 1.1: Eine Zerlegung
2. P (∅) = 0
(jedoch nicht umgekehrt!)
3. A ⊂ B → P (A) ≤ P (B)
4. P (A) = 1 − P (A)
5. Additionssatz:
P (A1 ∪ A2 ∪ ... ∪ An ) = P (A1 ) + P (A1 ∩ A2 ) + ... + P (A1 ∩ ... ∩ An−1 ∩ An )
P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 )
P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) bei disjunkten Ereignissen
6. Zerlegung:
A1 , A2 , ...An bilden eine Zerlegung von Ω, wenn sie paarweise disjunkt sind
(Ai ∩ Aj = ∅, i ̸= j) und wenn A1 ∪ A2 ... ∪ An = Ω (siehe Abbildung 1.1).
Dann gelten
B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ ... ∪ (B ∩ An )
P (B) =
n
∑
und
P (B ∩ Ai )
i=1
1.4 Bedingte Wahrscheinlichkeiten und unabhängige
Ereignisse
Oft ist die Wahrscheinlichkeit eines Ereignisses von Interesse, wenn man weiß, daß ein anderes Ereignis bereits eingetreten ist. Diese Wahrscheinlichkeit wird als bedingte Wahrscheinlichkeit von A unter der Bedingung B bezeichnet. Schreibweise: P (A|B)
Für die Wahrscheinlichkeit eines bedingten Ereignisses gilt
P (A|B) =
P (A ∩ B)
P (B)
für P (B) > 0 .
7
Hieraus erhält man für den Durchschnitt von Ereignissen den Multiplikationssatz:
P (A ∩ B) = P (B) · P (A|B) = P (A) · P (B|A)
Formel über die totale Wahrscheinlichkeit:
A1 , A2 , ...An bilden eine Zerlegung von Ω. Dann gilt
P (B) =
=
n
∑
i=1
n
∑
P (B ∩ Ai )
P (B|Ai ) · P (Ai )
i=1
Der Satz von Bayes:
A1 , A2 , ...An bilden eine Zerlegung von Ω. Dann gilt
P (Ai ∩ B)
P (B)
P (B|Ai ) · P (Ai )
= ∑
n
P (B|Ai ) · P (Ai )
P (Ai |B) =
i=1
P (Ai ) heißt a-priori–Wissen und P (Ai |B) heißt a-posteriori–Wissen.
Unabhängigkeit von Ereignissen:
Definition 1.3 Die Ereignisse A und B heißen unabhängig, wenn
P (A|B) = P (A)
oder
P (A|B) = P (A|B).
Multiplikationssatz für unabhängige Ereignisse:
P (A ∩ B) = P (A) · P (B) .
8
Herunterladen