Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.Prof. Dr. Waltraud Kahle Empfehlenswerte Bücher: Beichelt, F.: Stochastik für Ingenieure. Teubner, Stuttgart, 1995. Beyer, O.; Hackel, H.; Pieper, V.; Tiedge, J.: Wahrscheinlichkeitsrechnung und Mathematische Statistik. Stuttgart-Leipzig: Teubner-Verlag 1999. Christoph/Hackel: Starthilfe Stochastik. Teubner-Verlag 2002 bzw. 2010. Henze, N.: Stochastik für Einsteiger. Braunschweig: Vieweg-Verlag 2000. Kahle, W., Liebscher, E.: Zuverlässigkeitsanalyse und Qualitätssicherung. Stuttgart: Oldenbourg-Verlag 2013. Lehn, J.; Wegmann, H.: Einführung in die Statistik. Teubner 2000. Lehn, J.; Wegmann, H.; Rettig, S.: Aufgabensammlung zur Einführung in die Statistik. Teubner 2001. Müller, Ch., Denecke, L.: Stochastik in den Ingenieurwissenschaften. Eine Einführung mit R. Berlin Heidelberg: Springer 2013. Nollau, V.; Partzsch, L.; Storm, R.; Lange, C.: Wahrscheinlichkeitsrechnung und Statistik in Beispielen und Aufgaben. Teubner 1997. Storm, R.: Wahrscheinlichkeitsrechnung, Mathematische Statistik und Statistische Qualitätskontrolle. Leipzig: Fachbuchverlag 2001. 1 2 Inhaltsverzeichnis 1 Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 1.1 Zufällige Versuche (Zufallsvorgänge) und Ereignisse . . . . 1.2 Die Wahrscheinlichkeit von Ereignissen . . . . . . . . . . . 1.3 Rechenregeln für Wahrscheinlichkeiten . . . . . . . . . . . 1.4 Bedingte Wahrscheinlichkeiten und unabhängige Ereignisse . . . . . . . . . . . . . . . . 5 5 5 6 7 2 Zufallsgrößen (Zufallsvariablen) und Wahrscheinlichkeitsverteilungen 2.1 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Wahrscheinlichkeitsverteilungen diskreter Zufallsvariablen . . . . . . 2.3 Wahrscheinlichkeitsverteilungen stetiger Zufallsgrößen . . . . . . . . 2.4 Parameter von Wahrscheinlichkeitsverteilungen . . . . . . . . . . . 2.4.1 Der Erwartungswert . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Standardabweichung, Varianz und Quantile . . . . . . . . . 2.5 Die Ungleichung von Tschebyschev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 9 10 11 11 13 14 . . . . . . . . . . . 15 15 15 15 16 17 17 18 18 19 19 20 3 Spezielle Wahrscheinlichkeitsverteilungen 3.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . 3.1.1 Die Null-Eins-Verteilung (Bernoulli-Verteilung) 3.1.2 Die Binomialverteilung . . . . . . . . . . . . . . 3.1.3 Die geometrische Verteilung . . . . . . . . . . . 3.1.4 Die Poissonverteilung . . . . . . . . . . . . . . . 3.1.5 Die hypergeometrische Verteilung . . . . . . . . 3.2 Stetige Wahrscheinlichkeitsverteilungen . . . . . . . . . 3.2.1 Die Normalverteilung . . . . . . . . . . . . . . . 3.2.2 Die Exponentialverteilung . . . . . . . . . . . . 3.2.3 Die gleichmäßig stetige Verteilung . . . . . . . . 3.2.4 Die Weibullverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Approximationsmöglichkeiten, das Gesetz der großen Zahlen und der zentrale Grenzwertsatz 4.1 Approximationsmöglichkeiten innerhalb der diskreten Verteilungen . . . . 4.2 Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21 22 22 5 Mehrdimensionale Zufallsgrößen 24 5.1 Diskrete zweidimensionale Zufallsgrößen . . . . . . . . . . . . . . . . . . 24 5.2 Stetige zweidimensionale Zufallsgrößen . . . . . . . . . . . . . . . . . . . 25 3 5.3 5.4 Die Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Funktionen von Zufallsgrößen und Grundverteilungen Statistik 6.1 Funktionen von Zufallsgrößen . . . . . . . . . . . . 6.2 Funktionen zufälliger Vektoren . . . . . . . . . . . . 6.3 Verteilungen der mathematischen Statistik . . . . . 6.3.1 Die χ2 –Verteilung . . . . . . . . . . . . . . . 6.3.2 Die Student–Verteilung (t–Verteilung) . . . 6.3.3 Die F –Verteilung . . . . . . . . . . . . . . . 7 Punktschätzungen 7.1 Eigenschaften von Schätzungen 7.2 Maximum–Likelihood–Methode 7.3 Momentenmethode . . . . . . . 7.4 Methode der kleinsten Quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 27 der mathematischen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 29 30 31 31 32 32 . . . . 34 34 35 36 37 8 Konfidenzschätzungen 39 8.1 Konfidenzschätzungen für den Parameter µ der Normalverteilung bei bekanntem σ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 8.2 Konfidenzschätzungen für den Parameter µ der Normalverteilung bei unbekanntem σ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 8.3 Konfidenzintervalle für den Parameter σ 2 der Normalverteilung . . . . . . 41 8.4 Konfidenzschätzungen für eine unbekannte Wahrscheinlichkeit p . . . . . 42 9 Testtheorie 9.1 Aufgabenstellung und Begriffe . . . . . . . . . . . . . . . . . . . . 9.2 Parametertests für die Parameter der Normalverteilung . . . . . . 9.2.1 Der Gauß–Test . . . . . . . . . . . . . . . . . . . . . . . . 9.2.2 Der t–Test . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.3 Der χ2 -Test für die Varianz bei bekanntem µ . . . . . . . . 9.2.4 Der χ2 -Test für die Varianz bei unbekanntem µ . . . . . . 9.3 Tests zum Vergleich zweier Mittelwerte . . . . . . . . . . . . . . . 9.3.1 Der doppelte Gaußtest . . . . . . . . . . . . . . . . . . . . 9.3.2 Der doppelte t–Test . . . . . . . . . . . . . . . . . . . . . . 9.3.3 Der Test von Welch . . . . . . . . . . . . . . . . . . . . . . 9.3.4 Der t–Differenzentest . . . . . . . . . . . . . . . . . . . . . 9.4 Der einfache Gauß–Test für eine unbekannte Wahrscheinlichkeit p 9.5 Der χ2 -Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . . 9.6 Der χ2 -Unabhängigkeitstest . . . . . . . . . . . . . . . . . . . . . Tabellen 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 43 44 44 44 45 45 46 46 46 47 48 48 49 50 53 1 Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 1.1 Zufällige Versuche (Zufallsvorgänge) und Ereignisse Definition 1.1 Ein zufälliger Versuch ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist. Die möglichen, nicht mehr zerlegbaren, sich gegenseitig ausschließenden Ergebnisse heißen Elementarereignisse ω1 , ..., ωn . Definition 1.2 Die Menge aller Elementarereignisse eines zufälligen Versuches heißt Ereignisraum Ω = {ω1 , ..., ωn }. Wir betrachten im weiteren Ereignisse, die aus Elementarereignissen zusammengesetzt sind und sich nicht gegenseitig ausschließen müssen. Für die Ereignisse A1 , A2 , ..., B, C, ... sowie für die Beziehungen zwischen ihnen gibt es Sprech- und Schreibweisen, die in der Tabelle 1.1 zusammengestellt sind. 1.2 Die Wahrscheinlichkeit von Ereignissen • Der klassische Wahrscheinlichkeitsbegriff (Laplace’sche Definition der Wahrscheinlichkeit): P (A) = Anzahl der für A günstigen Ausgänge Anzahl der möglichen Ausgänge Dabei wird die Gleichwahrscheinlichkeit“ der Versuchsausgänge vorausgesetzt! ” • Die von Mises’sche Definition der Wahrscheinlichkeit (Häufigkeitsinterpretation): Bezeichnen wir mit hn (A) die absolute Häufigkeit des Eintretens des Ereignisses A in n Versuchen. P (A) ≈ hn (A) n für große n. • Die geometrische Wahrscheinlichkeit: P (A) = Fläche der für A günstigen Ausgänge Fläche der möglichen Ausgänge 5 Beschreibung des zugrundeliegenden Sachverhalts 1. A tritt sicher ein 2. A tritt sicher nicht ein 3. 4. 5. 6. 7. 8. Bezeichnung weise) (Sprech- Darstellung in Ω (Schreibweise als Teilmenge) A ist sicheres Ereignis A = Ω A ist unmögliches Ereignis wenn A eintritt, tritt B ein A ist Teilereignis von B genau dann, wenn A eintritt, tritt A und B sind äquivaB ein lente Ereignisse wenn A eintritt, tritt B nicht ein A und B sind disjunkte Ereignisse genau dann, wenn A eintritt, tritt A und B sind kompleB nicht ein mentäre Ereignisse genau dann, wenn mindestens A ist Vereinigung der ein Aj eintritt (auch: genau dann, Aj wenn A1 oder A2 oder ... eintritt), tritt A ein genau dann, wenn alle Aj eintre- A ist Durchschnitt ten (auch: genau dann, wenn A1 der Aj und A2 und ... eintreten), tritt A ein A=∅ A⊂B A=B A∩B =∅ B=A A= ∪ Aj j A= ∩ Aj j Tabelle 1.1: Zusammenstellung wichtiger Sprech- und Schreibweisen bei der Bildung von Ereignissen • Axiome der Wahrscheinlichkeiten Die Ereignisse aus Ω (nicht notwendig Elementarereignisse) bilden einen Boolschen Mengenring. Jedem Ereignis A dieser Menge wird eine Maßzahl P (A) zugeordnet, so daß P (A) ≥ 0, P (Ω) = 1, P (A1 ∪ A2 ∪ ... ∪ An ) = P (A1 ) + P (A2 ) + · · · + P (An ) für Ai ∩ Aj = ∅, i ̸= j. Im weiteren sehen wir vorerst die Wahrscheinlichkeiten als gegeben an und lernen Gesetzmäßigkeiten der Wahrscheinlichkeitsrechnung kennen. Später werden Methoden zur Ermittlung des Wahrscheinlichkeitsmaßes behandelt (Statistik). 1.3 Rechenregeln für Wahrscheinlichkeiten 1. P (A) ≤ 1 6 A1 A2 A3 ' $ B % & A4 ... An Abbildung 1.1: Eine Zerlegung 2. P (∅) = 0 (jedoch nicht umgekehrt!) 3. A ⊂ B → P (A) ≤ P (B) 4. P (A) = 1 − P (A) 5. Additionssatz: P (A1 ∪ A2 ∪ ... ∪ An ) = P (A1 ) + P (A1 ∩ A2 ) + ... + P (A1 ∩ ... ∩ An−1 ∩ An ) P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ) P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) bei disjunkten Ereignissen 6. Zerlegung: A1 , A2 , ...An bilden eine Zerlegung von Ω, wenn sie paarweise disjunkt sind (Ai ∩ Aj = ∅, i ̸= j) und wenn A1 ∪ A2 ... ∪ An = Ω (siehe Abbildung 1.1). Dann gelten B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ ... ∪ (B ∩ An ) P (B) = n ∑ und P (B ∩ Ai ) i=1 1.4 Bedingte Wahrscheinlichkeiten und unabhängige Ereignisse Oft ist die Wahrscheinlichkeit eines Ereignisses von Interesse, wenn man weiß, daß ein anderes Ereignis bereits eingetreten ist. Diese Wahrscheinlichkeit wird als bedingte Wahrscheinlichkeit von A unter der Bedingung B bezeichnet. Schreibweise: P (A|B) Für die Wahrscheinlichkeit eines bedingten Ereignisses gilt P (A|B) = P (A ∩ B) P (B) für P (B) > 0 . 7 Hieraus erhält man für den Durchschnitt von Ereignissen den Multiplikationssatz: P (A ∩ B) = P (B) · P (A|B) = P (A) · P (B|A) Formel über die totale Wahrscheinlichkeit: A1 , A2 , ...An bilden eine Zerlegung von Ω. Dann gilt P (B) = = n ∑ i=1 n ∑ P (B ∩ Ai ) P (B|Ai ) · P (Ai ) i=1 Der Satz von Bayes: A1 , A2 , ...An bilden eine Zerlegung von Ω. Dann gilt P (Ai ∩ B) P (B) P (B|Ai ) · P (Ai ) = ∑ n P (B|Ai ) · P (Ai ) P (Ai |B) = i=1 P (Ai ) heißt a-priori–Wissen und P (Ai |B) heißt a-posteriori–Wissen. Unabhängigkeit von Ereignissen: Definition 1.3 Die Ereignisse A und B heißen unabhängig, wenn P (A|B) = P (A) oder P (A|B) = P (A|B). Multiplikationssatz für unabhängige Ereignisse: P (A ∩ B) = P (A) · P (B) . 8