Stochastik Ba-Studiengang Scientific Programming Wintersemester 2016/2017 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES Vorlesungsinhalte Stochastik I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik I.2 Grundbegriffe I.3 Wahrscheinlichkeit I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen I.5 Spezielle Wahrscheinlichkeitsverteilungen I.6 Mehrdimensionale Zufallsvariablen I.7 Kovarianz und Korrelation I.8 Gesetze der großen Zahlen und Grenzwertsätze © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 2 Vorlesungsinhalte Stochastik II. Beschreibende Statistik II.1 Merkmale und weitere wichtige Begriffe II.2 Darstellung der Beobachtungsergebnisse II.3 Statistische Maßzahlen III. Schließende Statistik III.1 Grundbegriffe III.2 Punktschätzungen III.3 Intervallschätzungen III.4 Statistische Testverfahren © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 3 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik 1.1 Das Urnenmodell Prinzip: In einer Urne befinden sich n verschiedene Kugeln, die sich (z.B. in ihrer Farbe) unterscheiden: • Wie viele Anordnungsmöglichkeiten gibt es für die Kugeln? • Mögliche Zusammensetzungen der „Stichprobe“ bei zufälliger Entnahme von k Kugeln? •...... Kein langweiliges Modell zur Einführung kombinatorischer Grundlagen, taucht immer wieder in Anwendungen der Statistik zur Entscheidungsfindung auf! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 4 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Beispiel: Die Endfertigung benötigt für ein Produkt 5 Halterungen. Wegen Lieferproblemen wurden Halterungen bei 3 verschiedenen Lieferanten gekauft und auf dem Lager nicht getrennt gehalten. Die Endmontage erhält ein Los von 1000 Halterungen (200 von Lieferant A, 500 von B und 300 von C). Lieferant A „beichtet“ zu spät, dass seine Halterungen nicht die Mindestfestigkeit aufweisen. Wie viele der Endprodukte müssen aussortiert werden, da sie mindestens eine Halterung von A enthalten? Die „Urne“ ist hier das Lieferlos, die „Kugeln“ sind die Halterungen, die „Farben“ sind die Lieferanten! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 5 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik 1.2 Permutationen Es befinden sich n verschiedenfarbige Kugeln in einer Urne: Wie viele Möglichkeiten der Anordnung nebeneinander gibt es? Beispiel: n=3 Allgemein: Eine Anordnung von n verschiedenen Elementen in einer bestimmten Reihenfolge heißt eine „Permutation“ der n Elemente. Wie groß ist die Anzahl P der Permutationen von n Elementen? © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 6 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Wie groß ist die Anzahl P der Permutationen von n Elementen? P(n) = n ⋅ (n − 1) ⋅ (n − 2) ⋅ K ⋅1 = n! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 7 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Problem: Was tun, wenn sich unter den n Kugeln n1 gleiche befinden? Alle Anordnungen, die durch Vertauschen der gleichen Kugeln untereinander entstehen, fallen zusammen. Bei n1 gleichen Kugeln gibt es P(n1)=n1! Möglichkeiten, die gleichen Kugeln untereinander zu vertauschen. P(n) n! P(n; n1 ) = = P(n1 ) n1! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES verschiedene Anordnungsmöglichkeiten bleiben. 30. August 2016 | 8 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Problem: Was tun, wenn sich unter den n Kugeln n1 gleiche befinden? P(n) n! P(n; n1 ) = = P(n1 ) n1! verschiedene Anordnungsmöglichkeiten bleiben. Falls sich unter den n Kugeln jeweils n1, n2, ..., nk gleiche befinden: n! mit P(n; n1 ; n2 ;K nk ) = n1!⋅ n2 !⋅K⋅ nk ! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES k ∑n i = n; k ≤ n i =1 30. August 2016 | 9 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik 1.3 Kombinationen Nächster Schritt: Einer Urne mit n verschiedenen Kugeln werden nacheinander k Kugeln entnommen. Dabei ist prinzipiell zwischen zwei verschiedenen Arten der Ziehung zu unterscheiden: Ziehung ohne Zurücklegen Jede Kugel kann höchstens einmal gezogen werden, da sie nach der Ziehung ausscheidet. Ziehung mit Zurücklegen Jede Kugel ist bei der nächsten Ziehung wieder dabei. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 10 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Ziehung ohne Zurücklegen Jede Kugel kann höchstens einmal gezogen werden, da sie nach der Ziehung ausscheidet. Ziehung mit Zurücklegen Jede Kugel ist bei der nächsten Ziehung wieder dabei. Zusätzliche Unterscheidung: Soll die Reihenfolge der gezogenen Kugeln berücksichtigt werden oder nicht? Geordnete Stichprobe: Reihenfolge der gezogenen Elemente wird berücksichtigt Ungeordnete Stichprobe: Reihenfolge der gezogenen Elemente spielt keine Rolle © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 11 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik 1. Möglichkeit: k Kugeln ziehen ohne Zurücklegen ohne Berücksichtigung der Reihenfolge (ungeordnete Stichprobe) „Kombination k-ter Ordnung ohne Wiederholung“ Beispiel: Diese beiden Stichproben unterscheiden sich lediglich in der Reihenfolge und werden daher als Kombinationen 2. Ordnung nicht unterschieden! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 12 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Wie viele Kombinationen k-ter Ordnung ohne Wiederholung gibt es bei n verschiedenen Kugeln in der Urne? Gedankenexperiment: •Man ordne die n Kugeln auf n Plätzen nebeneinander an. •Jedem Platz (nicht der Kugel auf dem Platz!) wird zufällig eines der beiden Merkmale „wird gezogen“ (k Plätze) bzw. „wird nicht gezogen“ (n-k Plätze) zugeordnet; damit ist eine Kombination k-ter Ordnung ohne Wiederholung festgelegt. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 13 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Um alle möglichen Kombinationen k-ter Ordnung ohne Wiederholung zu erhalten, müssen alle Permutationen der n Kugeln betrachtet werden, wobei ein Vertauschen der Kugeln auf Plätzen mit demselben Merkmal („wird gezogen“ bzw. „wird nicht gezogen“) keine neue Kombination ergibt. n n! C (n; k ) = P(n; k ; n − k ) = = k!⋅ (n − k )! k © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 14 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik 2. Möglichkeit: k Kugeln ziehen mit Zurücklegen ohne Berücksichtigung der Reihenfolge (ungeordnete Stichprobe) „Kombination k-ter Ordnung mit Wiederholung“ Beispiel: n=6 Kugeln; k=8 Ziehungen mit Zurücklegen Falls i-te Kugel gezogen wird: Einen grünen Chip in ites Fach eines Setzkastens legen Am Ende der Ziehungen liegen k=8 Chips in n=6 Fächern: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 15 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik 3.Kugel wurde dreimal gezogen, usw. 2.Kugel wurde nicht gezogen 1.Kugel wurde zweimal gezogen Alle k (=8) Chips und 5 (=n-1) Trennwände permutieren, wobei die Vertauschung der k Chips untereinander und der n-1 Trennwände untereinander keine neue Kombination ergibt: (k + n − 1)! n + k − 1 CW (n; k ) = P (k + n − 1; k ; n − 1) = = k!⋅ (n − 1)! k © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 16 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik 1.4 Variationen 3. Möglichkeit: k Kugeln ziehen ohne Zurücklegen mit Berücksichtigung der Reihenfolge (geordnete Stichprobe) „Variation k-ter Ordnung ohne Wiederholung“ Beispiel: n=3 Kugeln, Ziehung zweier Kugeln ohne Zurücklegen © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 17 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Die beiden Versuchsausgänge unterscheiden sich in der Reihenfolge der gezogenen Kugeln und werden daher als zwei verschiedene Variationen 2. Ordnung ohne Wiederholung betrachtet. Wie viele Variationen k-ter Ordnung ohne Wiederholung gibt es bei n verschiedenen Kugeln in der Urne? Die Zahl der Kombinationen k-ter Ordnung ohne n n! Wiederholung C (n; k ) = = k!⋅ (n − k )! k enthält k verschiedene Kugeln, die sich auf k! verschiedene Arten anordnen lassen: n! V (n; k ) = k!⋅ C (n; k ) = (n − k )! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 18 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik 4. Möglichkeit: k Kugeln ziehen mit Zurücklegen mit Berücksichtigung der Reihenfolge (geordnete Stichprobe) „Variation k-ter Ordnung mit Wiederholung“ Jeder der k Plätze in einer solchen Anordnung kann mit jeder der n Kugeln besetzt werden. VW (n; k ) = n © FH AACHEN UNIVERSITY OF APPLIED SCIENCES k 30. August 2016 | 19 I. Wahrscheinlichkeitsrechnung I.1 Einführung in die Kombinatorik Zusammenfassung: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 20 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Beispiel: Wurf eines homogenen Würfels Dieses „Experiment“ ist ein einfaches Beispiel für einen speziellen stochastischen Vorgang, nämlich ein „Ideales Zufallsexperiment“: Das Experiment wird unter genau festgelegten Bedingungen, den sogenannten Versuchsbedingungen, durchgeführt. Die Menge der möglichen Ergebnisse (Ausgänge) ist vor der Durchführung des Experiments bekannt. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 21 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Das Ergebnis einer konkreten Durchführung des Experiments lässt sich nicht mit Sicherheit voraussagen, sondern ist zufallsbedingt. Das Experiment kann zumindest prinzipiell beliebig oft unter gleichen Bedingungen wiederholt werden. Weitere Beispiele: •Wurf einer Münze •Ziehen einer Karte aus einem Skatspiel •Ziehen eines elektronischen Bauteils aus einem Lieferlos und Test auf Funktionstüchtigkeit •Durchmesser eines Bolzens aus einer laufenden Fertigung © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 22 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Die Menge aller möglichen Ergebnisse eines Zufallsexperiments bezeichnen wir als „Ergebnismenge“ Ω Für unser Beispiel des einfachen Würfelwurfes: Ω = {1, 2, 3, 4, 5, 6} Interessieren wir uns nicht für alle möglichen Ergebnisse des Zufallsexperimentes, sondern nur für bestimmte, z.B. „Würfeln einer geraden Zahl“, so sprechen wir von einem „Ereignis“ A ist eingetreten, wenn das Ergebnis des Zufallsexperiments in A liegt: A = 2, 4, 6 { © FH AACHEN UNIVERSITY OF APPLIED SCIENCES }; A⊆Ω 30. August 2016 | 23 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Spezialfall: Einelementige Teilmengen von Ω sind „Elementarereignisse“ ω ⊆ Ω mit ω =1 Wir betrachten zunächst nur endliche oder abzählbar unendliche Ergebnismengen: Beispiele: 1.) Endliche Ergebnismenge beim Wurf eines Würfels: Ω = {1, 2, 3, 4, 5, 6}; ω i = {} i ; i = 1, K ,6 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 24 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe 2.) Solange würfeln, bis erstmalig die „6“ kommt: „Abzählbar unendliche“ Ergebnismenge Ω = {1, 2, 3, K} = Ν Gegenbeispiele: R; {x ∈ R | 0 ≤ x ≤ 1} Spezialfälle: Unmögliches Ereignis und sicheres Ereignis: ∅⊆Ω Ω⊆Ω © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 25 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Ein Ereignis A ist damit entweder •Das unmögliche Ereignis (A enthält kein Element von Ω) •Ein Elementarereignis (A enthält genau ein Element von Ω) •Eine Zusammenfassung mehrerer Elementarereignisse (A enthält mehrere Elemente von Ω) •Das sichere Ereignis (A enthält alle Elemente von Ω; A=Ω) Die Menge aller Ereignisse, die sich aus der Ergebnismenge bilden lässt, heißt „Ereignisraum“ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 26 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Da Ereignisse Teilmengen der Ergebnismenge sind, lassen sie sich auch wie Mengen verknüpfen. Wir erhalten dadurch zusammengesetzte Ereignisse: Schnittmenge: A und B treten gleichzeitig ein A ∩ B = {ω ∈ Ω | ω ∈ A ∧ ω ∈ B} Allgemein: Jedes Ereignis A1 bis An tritt ein: A1 ∩ A2 ∩ A3 ∩ K ∩ An © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 27 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Vereinigungsmenge: Mindestens eines der Ereignisse A oder B tritt ein, evtl. auch beide A ∪ B = {ω ∈ Ω | ω ∈ A ∨ ω ∈ B} Allgemein: Mindestens eines der Ereignisse A1 bis An tritt ein: A1 ∪ A2 ∪ A3 ∪ K ∪ An Teilmenge: Jedes Element von A gehört auch zu B; das Eintreten von A zieht das Eintreten von B nach sich A⊆ B © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 28 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Differenzmenge: B vermindert um A B \ A = {ω ∈ Ω | ω ∈ B ∧ ω ∉ A} Komplement von A: Tritt ein, wenn A nicht eintritt A =Ω\ A Unvereinbare Ereignisse: Durchschnitt ist die leere Menge; A und B können nie gleichzeitig eintreten: „Disjunkte Ereignisse“ A∩ B = ∅ = { } © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 29 I. Wahrscheinlichkeitsrechnung I.2 Grundbegriffe Disjunkte Ereignisse sind eine im Hinblick auf die Berechnung von Wahrscheinlichkeiten besonders angenehme Situation, darum für die Vereinigung disjunkter Ereignisse auch übliche Schreibweise: A∪ B = A+ B (Nur für disjunkte Ereignisse!) Hilfreich bei der Berechnung von Komplementen zu bereits verknüpften Ereignissen sind die Formeln von De Morgan: A∪ B = A∩ B © FH AACHEN UNIVERSITY OF APPLIED SCIENCES A∩ B = A∪ B 30. August 2016 | 30 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 3.1 Laplace-Experimente Wir betrachten ein Zufallsexperiment mit einer endlichen Ergebnismenge: Ω = {ω1 , ω 2 ,K , ω m } Es gibt eine Reihe von Zufallsexperimenten, bei denen keines der Elementarereignisse gegenüber einem anderen bevorzugt ist, d.h. bei ausreichend häufiger Wiederholung des Experimentes tritt jedes Elementarereignis mit nahezu gleicher Häufigkeit auf. Ein derartiges Experiment bezeichnen wir als „Laplace – Experiment“ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 31 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Beispiele: 1.) Wurf einer Münze Ω = {W , Z } Absolute Häufigkeit n(W ) ≈ n( Z ) Relative Häufigkeit n (W ) n( Z ) 1 hn (W ) = ≈ hn ( Z ) = ≈ n n 2 „Stabdiagramm“ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 32 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 2.) Urne mit 3 weißen und 2 schwarzen Kugeln; Ziehung einer Kugel mit Zurücklegen Ω = {W 1, W 2, W 3, S1, S 2}; W = {W 1, W 2, W 3} ⊆ Ω; S = {S1, S 2} ⊆ Ω Bei n=1000 Ziehungen Erwartung für die absoluten Häufigkeiten: 3 2 n(W ) ≈ ⋅1000 = 600; n( S ) ≈ ⋅1000 = 400 5 5 Bei der praktischen Durchführung ergeben sich zufallsbedingt nie genau diese Zahlen, sondern leicht abweichende relative Häufigkeiten: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 33 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Einem Elementarereignis ωi aus einer Ergebnismenge Ω mit m gleichmöglichen Elementarereignissen wird definitionsgemäß die positive Zahl 1 p (ω i ) = m als „Wahrscheinlichkeit“ zugeordnet. Das Bild k ann zurzeit nicht angezeigt werden. Genauer: Das Bild k ann zurzeit nicht angezeigt werden. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 34 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 35 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Problem: Diese „klassische“ Definition der Wahrscheinlichkeit ist nur sehr begrenzt anwendbar: •Die Ergebnismenge Ω muss endlich sein. •Alle Elementarereignisse müssen gleichwahrscheinlich sein. Für alle anderen Fälle ist eine allgemeinere Einführung der Wahrscheinlichkeit erforderlich! Allgemein wird die Wahrscheinlichkeit nicht inhaltlich, sondern durch nicht beweisbare GrundPostulate (Axiome) definiert, die sich an den Eigenschaften relativer Häufigkeiten orientieren. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 36 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 3.2 Wahrscheinlichkeitsaxiome Eigenschaften der relativen Häufigkeit: Beispiel: Urne mit einer weißen, zwei grauen und drei schwarzen Kugeln Ziehung einer Kugel mit Zurücklegen: Laplace-Experiment Ω = {W 1, G1, G 2, S1, S 2, S 3}; A = {W 1}; B = {G1, G 2}; C = {S1, S 2, S 3} Bei n Ziehungen absolute Häufigkeiten: n( A) + n( B ) + n(C ) = n © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 37 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Relative Häufigkeiten: n(C ) n( B ) n( A) hn ( A) = ; hn ( B ) = ; hn (C ) = n n n 0 ≤ hn ≤ 1 Betrachte Ereignis „Ziehung einer weißen oder grauen Kugel“ A ∪ B = {W 1, G1, G 2} A und B schließen sich gegenseitig aus (disjunkt) Absolute Häufigkeit: n( A) + n( B) n( A) + n( B) = hn ( A) + hn ( B) Relative Häufigkeit: hn ( A ∪ B ) = n © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 38 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Allgemein für zwei sich gegenseitig ausschließende Ereignisse A und B: hn ( A ∪ B) = hn ( A) + hn ( B) Relative Häufigkeit für das sichere Ereignis: n( A) + n( B) + n(C ) hn (Ω) = hn ( A ∪ B ∪ C ) = =1 n Verhalten der relativen Häufigkeit bei umfangreichen Versuchsreihen: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 39 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Ziehung einer Kugel mit Zurücklegen: Laplace-Experiment Ω = {W 1, G1, G 2, S1, S 2, S 3}; 1 A = {W 1}; P( A) = 6 Mit zunehmender Anzahl von Ziehungen n streben die beobachteten relativen Häufigkeiten gegen einen stabilen Wert, der der klassischen Wahrscheinlichkeit entspricht. Daher naheliegender Versuch für die Definition einer Wahrscheinlichkeit: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 40 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit P ( A) = lim hn ( A) n →∞ Aber: Existenz- und Eindeutigkeitsprobleme bei diesem Grenzwert, darum wird ein axiomatischer Wahrscheinlichkeitsbegriff gesucht. Wir betrachten zunächst wieder nur den Fall einer endlichen Ergebnismenge Ω: Kolmogoroff-Axiome: Jedem Ereignis E wird eine Zahl P(E) als „Wahrscheinlichkeit“ zugeordnet, wobei gelten soll: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 41 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 1.) P( E ) ≥ 0 2.) P(Ω) = 1 3.) E1 ∩ E2 = ∅ ⇒ P( E1 ∪ E2 ) = P( E1 ) + P ( E2 ) Das dritte Axiom lässt sich sofort auf endlich viele disjunkte Ereignisse verallgemeinern: P( E1 ∪ E2 ∪ E3 ∪ K ∪ En ) = P( E1 ) + P( E2 ) + P( E3 ) + K + P( En ) Keine Aussage darüber, wie die Zahl P(E) im konkreten Fall zu berechnen ist! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 42 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Folgerungen für die Eigenschaften von Wahrscheinlichkeiten: 1.) P (∅) = 0 2.) P( E ) = 1 − P ( E ) 3.) 0 ≤ P ( E ) ≤ 1 4.) A ⊆ B ⇒ P( A) ≤ P( B ) 5.) P ( A ∪ B ) = P ( A) + P( B ) − P ( A ∩ B) ≤ P ( A) + P( B ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 43 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Festlegung unbekannter Wahrscheinlichkeiten in der Praxis: •Einfachster Fall: Laplace-Experiment; dann klassische Definition der Wahrscheinlichkeit verwendbar; Kolmogoroff-Axiome automatisch erfüllt. •Falls kein Laplace-Experiment: Unbekannte Wahrscheinlichkeit über die relative Häufigkeit einer hinreichend großen Versuchsreihe schätzen: P ( A) ≈ hn ( A) „Empirische“ oder „statistische“ Festlegung der Wahrscheinlichkeit © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 44 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Bei den bisher betrachteten endlichen Ergebnismengen Ω haben wir für die möglichen Ereignisse (Teilmengen von Ω) vorausgesetzt (S sei die Menge aller möglichen Ereignisse): 1) Ω ∈ S; ∅ ∈ S 2) Bei jedem Ereignis E ist auch E = Ω \ E ∈ S 3) Wenn E1 und E2 Ereignisse sind, dann ist auch E1 oder E2 ( E1 ∪ E2 ) ∈ S, E1 und E2 ( E1 ∩ E2 ) ∈ S und insbesonde re ist n UE ∈S i i =1 n sowie I E ∈ S. i i =1 Was ist zu tun, wenn die Ergebnismenge unendlich viele Elemente enthält? Die Abgeschlossenheit von S unter „endlicher Vereinigungsbildung“ reicht nicht mehr aus! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 45 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Betrachte zunächst nur abzählbar unendliche Ergebnismengen Ω: Für eine vollständige Beschreibung benötigen wir eine Ereignisalgebra S, die zu einem Vorgang mit zufälligem Ergebnis die Menge der Ereignisse beschreibt, denen man eine Wahrscheinlichkeit zuordnen möchte. Offensichtlich: S ist eine Menge von Teilmengen von Ω; um uninteressante Fälle auszuschließen, sollte S nicht die leere Menge sein. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 46 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Wesentliche Forderung an die Ereignisalgebra: Vereinigung und Durchschnitt abzählbar unendlich vieler Elemente der Ereignisalgebra sind wieder Element dieser Ereignisalgebra. Definition : Es sei Ω eine nichtleere Menge. Eine Ereignisalgebra über Ω ist eine nichtleere Menge S von Teilmengen von Ω, für die gilt : a) Für jedes E ∈ S ist E ∈ S. ∞ b) Für jede Folge E1, E2 , K ∈ S ist UE n ∈S n =1 Folgerunge n : a)Für beliebige E1, E2 , K ∈ S gilt ∞ IE n ∈S n =1 b) ∅ ∈ S und Ω ∈ S © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 47 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Fragen zur Ereignisalgebra: •Gibt es überhaupt eine Ereignisalgebra? (Sind die in der Definition aufgestellten Forderungen miteinander verträglich?) •Existiert über jeder nichtleeren Menge eine Ereignisalgebra? •Kann es über einer nichtleeren Menge mehr als eine Ereignisalgebra geben? Wenn ja, welche wählt man zur Beschreibung des Vorganges? Für jede nichtleere Menge Ω ist die Potenzmenge P (Ω) eine Ereignisalgebra über Ω. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 48 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Beispiel: Ω = {ω1 ; ω 2 ; ω 3 } P (Ω) = {∅; Ω; {ω1}; {ω 2 }; {ω 3 }; {ω1 ; ω 2 }; {ω1 ; ω 3 }; {ω 2 ; ω 3 }} Die Potenzmenge ist die größtmögliche Ereignisalgebra über Ω. Sie erfasst sämtliche möglichen Aussagen über die Ereignisse des betrachteten Vorganges. Ist Ω endlich oder abzählbar unendlich, wählt man als Ereignisalgebra stets die Potenzmenge. Enthält Ω mindestens zwei Elemente, so ist die Potenzmenge P (Ω) nicht die einzige Ereignisalgebra über Ω: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 49 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Ω ≠ ∅ ⇒ S1 = {∅; Ω} ist Ereignisalgebra über Ω Ω > 2 und A ⊂ Ω mit A ≠ ∅ und A ≠ Ω ⇒ S 2 = {∅; Ω; A; A }ist Ereignisalgebra Mit der Wahl der Ereignisalgebra wird festgelegt, welche Aussagen zur Beschreibung des betreffenden Vorganges zur Verfügung stehen! Problem: Was ist zu tun bei einer überabzählbar unendlichen Ergebnismenge? Die Potenzmenge ist „zu groß“! Beispiel: Lebensdauer eines technischen Gerätes © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 50 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Ω=R Interessierende Ereignisse : + {Die Lebensdauer ist kleiner als x Zeiteinheiten} = {ω ∈ R : ω < x} ∀x ≥ 0 Wähle die kleinste Ereignisalgebra über Ω, die alle interessierenden Ereignisse enthält! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 51 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Kolmogoroff - Axiome für Wahrscheinlichkeiten Es sei Ω eine Ergebnisme nge und S eine Ereignisalgebra (über Ω ). Eine Zuordnungs vorschrift P : S → R (d.h. jedem Ereignis E ∈ S wird eine reelle Zahl P(E) als " Wahrschein lichkeit" für das Eintreten von E zugeordnet ) heißt Wahrschei nlichkeits maß, wenn gilt : 1.) P( E ) ≥ 0 ∀ E ∈ S 2.) P(Ω) = 1 3.) Falls E1 , E2, K sich gegenseiti g ausschließende Ereignisse sind, gilt ∞ ∞ P U Ei = ∑ P( Ei ) ("σ − Additivität" ) i =1 i =1 Das Tripel (Ω, S,P) mit Ω als Ergebnisme nge, S als Ereignisalgebra und P als Wahrschei nlichkeits maß bezeichnet man als Wahrschei nlichkeits raum. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 52 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 3.3 Bedingte Wahrscheinlichkeit In vielen Anwendungen ist das Eintreten eines Ereignisses A nicht unabhängig davon, ob vorher ein anderes Ereignis B eingetreten ist oder nicht: Ziehung ohne Zurücklegen bei einer Urne mit 3 weißen und 3 schwarzen Kugeln: Wahrscheinlichkeit, bei der zweiten Ziehung eine weiße Kugel zu erhalten (A) ? Schreibweise: P( A | B) B: Ziehung einer weißen Kugel im ersten Zug © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 53 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 2 P( A | B) = 5 3 P( A | B ) = 5 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 54 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit P( A | B) = P( A ∩ B) P( B) P ( A | B ) ≠ P ( B | A) aber : P ( A ∩ B ) P ( B ∩ A) P( B ∩ A) P( A) = = ⋅ P( B) P( B) P ( A) P( B) P ( A) ⇒ P ( A | B ) = P ( B | A) ⋅ P( B) Die bedingte Wahrscheinlichkeit erfüllt alle Axiome für eine Wahrscheinlichkeit und damit auch die daraus abgeleiteten Folgerungen, z.B.: P( A | B) = 1.) E1 ⊆ E2 ⇒ P( E1 | B) ≤ P( E2 | B) 2.) P( A | B) = 1 − P( A | B) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 55 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 3.4 Multiplikationssatz Löst man die Definition der bedingten Wahrscheinlichkeit auf nach der Wahrscheinlichkeit für das gleichzeitige Eintreten zweier Ereignisse A und B, so ergibt sich der Multiplikationssatz der Wahrscheinlichkeitsrechnung: P ( A ∩ B ) = P( A | B) ⋅ P( B ) = P( B | A) ⋅ P( A) Verallgemeinerung: P( A ∩ B ∩ C ) = P( A) ⋅ P( B | A) ⋅ P(C | A ∩ B) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 56 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 3.5 Stochastische Unabhängigkeit von Ereignissen In einigen Anwendungen ist die Wahrscheinlichkeit für das Eintreten des Ereignisses A unabhängig davon, ob B eingetreten ist oder nicht: P( A | B) = P( A | B ) = P( A) Aus dem Multiplikationssatz ergibt sich damit als Definition für die stochastische Unabhängigkeit zweier Ereignisse A und B: P ( A ∩ B ) = P ( A) ⋅ P ( B ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 57 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Verallgemeinerung für n Ereignisse A1 bis An: P I A j = ∏ P( A j ) für jede mindestens j∈T j∈T zweielemen tige Teilmenge T ⊆ {1,2,K,n} Wie stellt man fest, „wie stark“ zwei Ereignisse A und B stochastisch abhängig sind ? Vierfeldertafel A B P( A ∩ B) B P( A ∩ B ) A P( A ∩ B) P( A ∩ B ) Spaltensumme P( B) P( B ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES Zeilensumme P( A) P( A ) 1 30. August 2016 | 58 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Bei vollständiger Unabhängigkeit der Ereignisse A und B voneinander: A B P( A) ⋅ P( B) B P( A) ⋅ P( B ) A P( A ) ⋅ P( B) P( A ) ⋅ P( B ) Spaltensumme P( B) P( B ) Bei vollständiger Unabhängigkeit der Ereignisse A und B verschwindet die Determinante von : © FH AACHEN UNIVERSITY OF APPLIED SCIENCES Zeilensumme P( A) P( A ) 1 P( A ∩ B) P( A ∩ B ) P( A ∩ B) P( A ∩ B ) 30. August 2016 | 59 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Definition „Zusammenhangskoeffizient“ oder „Assoziationsmaß“: P( A ∩ B) ⋅ P( A ∩ B ) − P( A ∩ B ) ⋅ P( A ∩ B) Q= ; Q ∈ [−1;1] P( A ∩ B) ⋅ P( A ∩ B ) + P( A ∩ B ) ⋅ P( A ∩ B) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 60 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 3.6 Mehrstufige Zufallsexperimente Kompliziertere Zufallsprozesse bestehen häufig aus mehreren nacheinander ablaufenden Zufallsexperimenten: „Mehrstufiges Zufallsexperiment“ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 61 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Hilfsmittel zur Veranschaulichung: „Ereignisbäume“: Regeln für die Berechnung von Wahrscheinlichkeiten im Ereignisbaum: 1.) Die Wahrscheinlichkeiten längs eines Pfades werden miteinander multipliziert. 2.) Führen mehrere Pfade zum gleichen Endergebnis, so addieren sich ihre Wahrscheinlichkeiten. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 62 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Wichtig: In den „Zweigen“ sind ab der zweiten Stufe alle Ereignisse noch vom Ausgang der vorangegangenen Stufe abhängig, d.h. hier müssen an die Zweige die bedingten Wahrscheinlichkeiten angetragen werden, z.B. P( B5 ) = P( A2 ) ⋅ P( B5 | A2 ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 63 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Beispiel: Zwei Ziehungen ohne Zurücklegen aus einer Urne mit 4 schwarzen und 2 weißen Kugeln Wahrscheinlichkeit für das Ziehen zweier gleichfarbiger Kugeln: 1 1 2 3 7 P = P(OWW ) + P(OSS ) = ⋅ + ⋅ = 3 5 3 5 15 Wahrscheinlichkeit für das Ziehen zweier verschiedenfarbiger Kugeln: 1 4 2 2 8 P = P(OWS ) + P(OSW ) = ⋅ + ⋅ = 3 5 3 5 15 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 64 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit 3.7 Totale Wahrscheinlichkeit eines Ereignisses und Bayes‘sche Formel Beispiel: Ziehung einer schwarzen Kugel aus einer zuvor zufällig ausgewählten Urne: 1. Stufe: 1 P( A) = P( B) = P(C ) = 3 2. Stufe: P ( S | A) = © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 1 3 P(S | B) = 1 2 P( S | C ) = 2 3 30. August 2016 | 65 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Ereignis S: 1 1 1 P(OAS ) = P( A) ⋅ P( S | A) = ⋅ = 3 3 9 1 1 1 P(OBS ) = P( B) ⋅ P( S | B) = ⋅ = 3 2 6 1 2 2 P(OCS ) = P (C ) ⋅ P( S | C ) = ⋅ = 3 3 9 „Totale“ Wahrscheinlichkeit für das Ereignis S: P( S ) = P (OAS ) + P (OBS ) + P(OCS ) = © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 1 1 2 1 + + = 9 6 9 2 30. August 2016 | 66 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit P ( B ) = P (OA1 B ) + P (OA2 B ) + P (OA3 B) = P ( A1 ∩ B ) + P( A2 ∩ B ) + P ( A3 ∩ B) = P ( A1 ) ⋅ P ( B | A1 ) + P ( A2 ) ⋅ P( B | A2 ) + P( A3 ) ⋅ P ( B | A3 ) 3 = ∑ P( Ai ) ⋅ P ( B | Ai ) i =1 Allgemein: Totale Wahrscheinlichkeit für das Eintreten des Ereignisses B: n P( B) = ∑ P( Ai ) ⋅ P( B | Ai ) i =1 Wahrscheinlichkeit für einen Pfad: P( Ai ) ⋅ P( B | Ai ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 67 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Umgekehrte Fragestellung: Das Ereignis B sei eingetreten. Wie wahrscheinlich wurde es über einen bestimmten Pfad bzw. ein bestimmtes Zwischenergebnis Aj erreicht? Gesucht ist die bedingte Wahrscheinlichkeit, dass das Ereignis Ai eintritt, wenn B bereits eingetreten ist: Bayes‘sche Formel P( A j | B) = P( A j ∩ B) P( B) = P( A j ) ⋅ P( B | A j ) n ∑ P( A ) ⋅ P( B | A ) i i i =1 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 68 I. Wahrscheinlichkeitsrechnung I.3 Wahrscheinlichkeit Bayes‘sche Formel P( A j | B) = P( A j ∩ B) P( B) = P( A j ) ⋅ P( B | A j ) n ∑ P( A ) ⋅ P( B | A ) i i i =1 Merkregel: Die Wahrscheinlichkeit, dass B über einen bestimmten Pfad eintritt, ergibt sich als Verhältnis der Wahrscheinlichkeit für diesen Pfad zur totalen Wahrscheinlichkeit von B. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 69 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.1 Zufallsvariable (Zufallsgrößen) Eine Zufallsvariable X ordnet jedem Elementarereignis aus der Ergebnismenge eindeutig eine reelle Zahl zu, bildet also die Ergebnismenge auf die Menge der reellen Zahlen ab: X :Ω →R X ist somit eine reellwertige Funktion mit Definitionsbereich: D =Ω Wertebereich: W X = {X | X = X (ω ) und ω ∈ Ω} © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 70 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.1 Zufallsvariable (Zufallsgrößen) Definitionsbereich: D =Ω Wertebereich: W X = {X | X = X (ω ) und ω ∈ Ω} © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 71 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen X " diskret": W enthält endlich viele oder abzählbar unendlich viele reelle Werte X X " stetig ": W enthält überabzählbar unendlich viele reelle Werte X © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 72 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.2 Verteilungsfunktion einer Zufallsvariablen Mit welcher Wahrscheinlichkeit nimmt die Zufallsvariable einen bestimmten Wert an (bei diskreten Variablen) bzw. liegt sie in einem bestimmten Intervall (bei stetigen Variablen, manchmal auch bei diskreten Variablen)? X sei eine Zufallsvariable. Die Funktion FX ( x) := P ({ω ∈ Ω | X (ω ) ≤ x}) ∀x ∈ R; FX : R → [0;1] heißt Verteilungsfunktion der Zufallsvariablen X. Anschaulich: F(x) ist die Wahrscheinlichkeit dafür, dass die Zufallsvariable X einen Wert < x annimmt: „Antwort auf höchstens x“. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 73 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Eigenschaften der Verteilungsfunktion Abkürzung: P ({ω ∈ Ω | X (ω ) ≤ x}) := P ( X ≤ x) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 74 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Beispiel: Verteilungsfunktion beim Würfeln Genauere Betrachtung der Sprungstellen bei diskreten Zufallsvariablen erforderlich: F ( x + ) = lim F ( x + ε ); F ( x − ) = lim F ( x − ε ) ε →o ;ε > 0 ε →o ;ε > 0 P(a < X ≤ b) = F (b) − F (a) ⇒ P( x − ε < X ≤ x + ε ) = F ( x + ε ) − F ( x − ε ) ⇒ lim P( x − ε < X ≤ x + ε ) = F ( x + ) − F ( x − ) ε →o ;ε > 0 ⇒ P( X = x) = F ( x + ) − F ( x − ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 75 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Beispiel: Würfeln einer „3“: P(X=3) = F(3+) - F(3-) = F(3) – F(2) Bei stetiger Verteilungsfunktion F(x) ist P(X=x)=0. Funktionswert an der Unstetigkeitsstelle: z.B. F(3) = P(X<3) = 3/6 = F(3+) Die Verteilungsfunktion ist rechts – stetig. + F ( x) = F ( x ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 76 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Folgerungen: P (a < X ≤ b) = F (b) − F (a ) P (a ≤ X ≤ b) = P(a ) + F (b) − F (a ) = F (a + ) − F (a − ) + F (b) − F (a ) = F (b) − F (a − ) P (a ≤ X < b) = F (b) − F (a − ) − P (b) = F (b) − F (a − ) − F (b + ) + F (b − ) = F (b − ) − F (a − ) P (a < X < b) = F (b − ) − F (a − ) − P (a ) = F (b − ) − F (a − ) − F (a + ) + F (a − ) = F (b − ) − F (a + ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 77 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.3 Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen Bei einer diskreten Zufallsvariablen X gehört zu jedem Wert xi, den sie annehmen kann, eine bestimmte Wahrscheinlichkeit: „Verteilungstabelle“ P ( X = xi ) = pi Wahrscheinlichkeitsfunktion der diskreten Verteilung: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 78 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen x = xi pi f ( x) = für mit f ( xi ) = pi ≥ 0 sonst 0 ∞ ∞ ∑ f (x ) = ∑ p i i =1 i = 1 (Normierung) i =1 Anschaulich: f(x) ist die Wahrscheinlichkeit dafür, dass die Zufallsvariable X den Wert x annimmt: „Antwort auf genau x“. Zugehörige Verteilungsfunktion der diskreten Zufallsvariablen: Treppenfunktion mit F ( x) = P( X ≤ x) = ∑ f ( xi ) Sprungstellen bei xi der xi ≤ x Höhe pi © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 79 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 80 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Beispiel: Wurf eines Würfels Diskrete Zufallsvariable X = Erreichte Augenzahl Stabdiagramm der Wahrscheinlichkeitsfunktion f(x) Verteilungsfunktion F(x) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 81 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Beispiel: Wurf mit zwei unterscheidbaren Würfeln Diskrete Zufallsvariable: X = Augensumme Häufigkeitstabelle: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 82 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.4 Wahrscheinlichkeitsverteilung einer stetigen Zufallsvariablen Kontinuierliche Zufallsgrößen (stetige Zufallsvariablen) können in einem Intervall jeden Wert annehmen. Typische Vertreter: Messwerte, z.B. Längenmaße, Spannungen, Viskositäten usw. Definition : X heißt kontinuier lich (oder stetig), falls für die Verteilungsfunktion F eine Darstellung existiert mit x F ( x) = ∫ f (t ) dt −∞ mit f ≥ 0 und integrierbar als " Dichtefunk tion" © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 83 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen +∞ Wegen lim F ( x) = 1 x →∞ ⇒ ∫ f (t ) dt = 1 Normierung −∞ P (a < X ≤ b) = F (b) − F (a ) = b a b −∞ −∞ a ∫ f (t ) dt − ∫ f (t ) dt = ∫ f (t ) dt Wahrscheinlichkeit, dass die stetige Zufallsvariable X exakt den Wert a annimmt: a +δ 0 ≤ P( X = a ) ≤ P(a − δ < X < a + δ ) = ∫δ f (t ) dt δ→ 0 →0 a− ⇒ P( X = a ) = 0 Bei stetigen Zufallsvariablen ist die Wahrscheinlichkeit für die Realisierung eines exakten Wertes immer Null! Nur für die Lage in einem Intervall ergeben sich von Null verschiedene Wahrscheinlichkeiten. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 84 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Eigenschaften der Verteilungsfunktion einer kontinuierlichen Zufallsgröße X: •Die Verteilungsfunktion F einer kontinuierlichen Zufallsgröße X ist stetig •F ist stetig differenzierbar, wenn es eine stetige Dichtefunktion f zu F gibt. Dann ist F ' ( x) = f ( x) ∀x ∈ R Bei kleinen Intervallen beliebte Näherung für die konkrete Berechnung: P(a − δ δ < X ≤a+ )= 2 2 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES a+ δ 2 ∫δ f (t ) dt ≅ f (a) ⋅ δ a− 2 30. August 2016 | 85 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Beispiel: Kontinuierliche Gleichverteilung Für eine im Intervall [a;b] gleichverteilte Zufallsvariable X gilt: 1 für f X ( x) = b − a 0 sonst x ∈ [a; b] 0 x x −a FX ( x) = ∫ f X (t ) dt = −∞ b − a 1 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES für x≤a für a< x≤b für x>b Verteilungsfunktion 30. August 2016 | 86 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Beispiel: Exponentialverteilte Lebensdauer eines elektronischen Bauteils 0 für t < 0 f (t ) = c ⋅ exp{− 0,1 ⋅ t} für t ≥ 0 c = 0,1 aus Normierung 0 für t < 0 F (t ) = 1 − exp{− 0,1 ⋅ t} für t ≥ 0 Anteil von Bauelementen, deren Lebensdauer den Wert t=10 überschreitet: P (t ≥ 10) = 1 − F (10) = 1 − (1 − e −1 ) = e −1 = 0,368 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 87 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Zusammenfassung: Wahrscheinlichkeitsverteilung einer stetigen Zufallsvariablen Bekanntester Vertreter: Gaußsche Normalverteilung (s. Kap. I.5) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 88 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.5 Funktionen einer Zufallsgröße: Transformierte Zufallsvariable Häufig vorkommendes Problem: Die Verteilungsfunktion FX(x) einer Zufallsvariablen X ist bekannt, wie verhält sich die Verteilung einer daraus nach Y:=g(X) berechneten Größe (neue Zufallsvariable)? „Abbildungskette“ Ω → R → R X Y Bedingung für g: Der Definitionsbereich von g muss den Wertebereich von X enthalten! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 89 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 1.) g1 ( X ) = a ⋅ X + b Lineare Transformation U = R ⋅ I +U0 2.) g 2 ( X ) =| X | Betragsfunktion Beispiele: Gleichrichter 3.) g 3 ( X ) = a ⋅ X 2 Ekin m 2 = ⋅v 2 Energiefunktion oder Pel = R ⋅ I 2 Transformation der Verteilungsfunktion (Problem: g(x) nicht immer eindeutig umkehrbar) Ziel : Verteilungsfunktion der transformi erten Variablen FY ( y ) = P (Y ≤ y ) durch die bekannten Größen FX ( x) und g ( x) ausdrücken . © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 90 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen g ( X ) ≤ y legt Intervalle fest, für die die Ungleichung erfüllt ist: Fasse alle Intervalle, die die Ungleichung erfüllen, in einer Menge θ zusammen: Θ := {x | g ( x) ≤ y} Damit sind die Wahrscheinlichkeiten der beiden Ereignisse {g ( X ) ≤ y} und {X ∈ Θ} gleich, wobei man P( X ∈ Θ) aus FX(x) berechnen kann. FY(y) ist nicht immer geschlossen darstellbar, nur bei eineindeutigen Abbildungen Y=g(X). © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 91 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Wichtiger Spezialfall: g sei streng monoton wachsend auf dem Wertebereich von X FY ( y ) = P({ω ∈ Ω | Y (ω ) ≤ y}) = P({ω ∈ Ω | g ( X (ω )) ≤ y}) ({ }) = P ω ∈ Ω | X (ω ) ≤ g −1 ( y ) = FX ( g −1 ( y )) Beispiel: Lineare Transformation Y = g ( X ) = a ⋅ X + b; a > 0 y −b FY ( y ) = FX ( g ( y )); x = = g −1 ( y ) a y −b ⇒ FY ( y ) = FX a −1 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 92 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Transformation der Dichtefunktion Einfachster Weg, falls FY(y) geschlossen darstellbar: dFY ( y ) fY ( y ) = dy Beispiel: Lineare Transformation d y −b y −b y −b d y −b FY ( y ) = FX FX ⇒ fY ( y ) = = fX ⋅ dy a a a dy a y −b 1 = fX ⋅ a a © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 93 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Allgemein: (Anschaulicher Beweis über die Wahrscheinlichkeit) f X ( x ) ⋅ dx = fY ( y ) ⋅ dy dx 1 ⇒ fY ( y ) = f X ( x ) ⋅ = f X ( x) ⋅ dy dy dx 1 f X ( g −1 ( y )) ⇒ fY ( y ) = f X ( x) ⋅ = −1 g ' ( x) g ' ( g ( y )) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 94 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.6 Kennwerte oder Maßzahlen einer Wahrscheinlichkeitsverteilung Kennwerte erlauben eine zusammenfassende Beschreibung einer Verteilung durch Angabe der „mittleren Lage“ (z.B. Maximum der Dichte f) und der „Breite“ (Streuung). 4.6.1 Lageparameter einer Verteilung Wichtigster Lageparameter ist der „Erwartungswert“. Beispiel: Mittlere Augenzahl beim Würfeln; alle Augenzahlen sind gleich wahrscheinlich n 1 1 n 1 n ⋅ (1 + 2 + 3 + 4 + 5 + 6) = 3,5 ⇒ ⋅ ∑ xi = ∑ xi ⋅ = ∑ xi ⋅ P( xi ) 6 n i =1 n i =1 i =1 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 95 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen X-Werte mit höherer Wahrscheinlichkeit werden stärker gewichtet, darum Definition des Erwartungswertes E(X) einer diskreten Zufallsvariablen X: E ( X ) := ∑ xi ⋅ P( X = xi ) falls i E ( X ) := ∑ X (ω i ) ⋅ P({ω i }) i © FH AACHEN UNIVERSITY OF APPLIED SCIENCES ∑ | x | ⋅P( X = x ) <" ∞" i i i ωi ∈ Ω 30. August 2016 | 96 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Erwartungswert einer kontinuierlichen Zufallsgröße Annahme : Der Wertebereich von X sei R; f X ( x ) sei stetig Wahrscheinlichkeit, dass X im Intervall [xi ; xi + ∆x ] liegt : P( xi < X ≤ xi + ∆x ) ≈ f X ( xi ) ⋅ ∆x Äquidistante Unterteilung der x - Achse : xi +1 − xi = ∆x ∀i ⇒ E( X ) = ∞ ∑ x ⋅ P( x i i < X ≤ xi + ∆x ) i = −∞ ≈ +∞ ∞ +∞ ∆x →0 ⋅ ( ) ⋅ ∆ → ∫ x ⋅ f X ( x ) dx x f x x ∑i X i i = −∞ −∞ Vorraussetzung: ∫| x | ⋅ f X ( x) dx <" ∞" −∞ +∞ E( X ) = µ X = ∫ x⋅ f X ( x) dx „Schwerpunkt“ der Dichtefunktion −∞ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 97 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Eigenschaften und Berechnung des Erwartungswertes Diskrete Zufallsvariable, im allgemeinen : a) µX ≠ X (X berechnet aus allen x i ∈ WX ) b) µ X ≠ xi ∀xi ∈ WX Stetige Zufallsvariable : µX ist im allgemeinen nicht der Abszissenwert des Maximums der Dichtefunktion, nur bei symmetrischen Dichtefunktionen liegt der Flächenschwerpunkt immer auf der Symmetrieachse E ( X ) = xS © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 98 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Bei Transformation auf eine neue Zufallsvariable Y=g(X): +∞ E (Y ) = µY = ∫ y⋅ f Y ( y ) dy −∞ E ( a ⋅ X + b) = a ⋅ E ( X ) + b +∞ E (Y ) = µY = ∫ g ( x) ⋅ f Speziell bei linearer Transformation: X ( x) dx −∞ Erwartungswert unanschaulich bzw. irreführend bei sehr „schiefen“ Verteilungen: Studiendauer Alternative zum Erwartungswert: Median (Wert, der die Verteilung „halbiert“) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES ~ x = x0,5 30. August 2016 | 99 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Einfach bei stetigen Zufallsvariablen: P( X ≤ ~ x ) = FX ( ~ x) = ~ x ∫f X ( x) dx = 0,5 −∞ Vorteil: Der Median existiert immer! Der Median ist problematischer bei diskreten Zufallsvariablen: Bis auf wenige Ausnahmen gibt es keinen x-Wert der Zufallsvariablen X, bei dem die Verteilungsfunktion exakt den Wert 0,5 annimmt. Daher ist andere Definition erforderlich: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 100 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 1 1 ~ ~ P( X < x ) ≤ und P ( X ≤ x ) ≥ 2 2 Anschaulich: Man sucht in der Verteilungsfunktion FX(x) den Sprung von FX(xi)<0,5 auf FX(xi+1)>0,5. xi+1 ist dann der gesuchte Median. Für den seltenen Fall mit FX(xi)=0,5 ist xi der gesuchte Median. Der Median ist nur ein Spezialfall des „α-Quantils“ xα © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 101 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen P( X < xα ) ≤ α und P( X ≤ xα ) ≥ α 1 α= 4 3 α= 4 „Unteres Quartil“ „Oberes Quartil“ Der Quartilabstand x0,25 – x0,75 ist ein Streuungsmaß, denn im Intervall zwischen unterem und oberem Quartil liegen die „inneren“ 50% der Verteilung! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 102 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.6.2 Streuungsparameter einer Verteilung Ziel: Maß für die „Breite“ einer Verteilung finden, z. B. mittlere Abweichung einer Zufallsvariablen X von ihrer mittleren Lage. Y := X − µ mit µ = E ( X ) ⇒ E (Y ) = E ( X − µ ) = E ( X ) − µ = 0 Mittlere Abweichung von der mittleren Lage ist ungeeignet! Daher Definition der Varianz bzw. Standardabweichung als Streuungsmaß: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 103 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen X sei eine Zufallsvariable mit Erwartungs wert E(X) = µ " Varianz" V(X) := E((X - µ )2 ) = σ 2 " Standardab weichung" σ = V(X) Konkrete Berechnung: V ( X ) = ∑ ( xi − µ ) 2 ⋅ P ( X = xi ) X diskret i +∞ V ( X ) = ∫ ( x − µ ) 2 f ( x) dx X kontinuierlich −∞ Konkrete Berechnung in der Praxis immer nach dieser Definition? © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 104 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Wichtiger Zusammenhang zwischen Erwartungswert und Varianz: +∞ σ 2 = E (( X − µ ) 2 ) = E ( X 2 − 2 µX + µ 2 ) = ∫ ( x 2 − 2 µx + µ 2 ) f ( x ) dx = −∞ = +∞ +∞ +∞ −∞ −∞ −∞ 2 2 x f ( x ) dx − 2 x f ( x ) dx + µ µ ∫ ∫ ∫ f ( x ) dx = E ( X 2 ) − 2µ 2 + µ 2 = E ( X 2 ) − µ 2 Ist µ bekannt, braucht man „nur“ noch den Erwartungswert von X2 zu berechnen! Speziell bei linearer Transformation: V ( a ⋅ X + b) = a 2 ⋅ V ( X ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES Beweis? 30. August 2016 | 105 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen Durch Umformung gewinnt man daraus eine nützliche Abschätzung: Sei ε > 0 +∞ µ −ε −∞ −∞ σ 2 = ∫ ( x − µ ) 2 f ( x) dx ≥ 2 µ ( x − ) f ( x) dx + ∫ +∞ 2 µ ( x − ) f ( x) dx ∫ µ +ε x ∈ (− ∞; µ − ε ] ⇒ ( x − µ ) ∈ (− ∞;−ε ] ⇒ ( x − µ ) 2 ≥ ε 2 x ∈ [µ + ε ; ∞ ) ⇒ ( x − µ ) ∈ [ε ; ∞ ) ⇒ ( x − µ ) 2 ≥ ε 2 µ −ε ⇒σ 2 ≥ε2 ∫ +∞ f ( x) dx + ε 2 −∞ ∫µ ε f ( x) dx = ε 2 ⋅ P(| X − µ |≥ ε ) + σ2 P(| X − µ |≥ ε ) ≤ 2 Tschebyscheff-Ungleichung ε Je kleiner die Varianz, um so unwahrscheinlicher werden große Abstände von X zum Erwartungswert! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 106 I. Wahrscheinlichkeitsrechnung I.4 Wahrscheinlichkeitsverteilung einer Zufallsvariablen 4.6.3 Verallgemeinerte Momente einer Verteilung Verallgemeinertes Moment k-ter Ordnung zur Dichtefunktion f(x): Zwei wichtige Spezialfälle: +∞ E (( X − a ) k ) = ∫ ( x − a ) k f ( x) dx a=µ („Zentralmomente“) −∞ und a=0 („Momente“) Rückschlüsse auf die Symmetrie der Dichtefunktion, z.B. aus experimentellen Daten. MS=-0,81 MS=1,62 „Schiefe“ MS = ( E ( x − µ )3 σ3 )= s3 s23 / 2 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 107 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 5.1 Binomialverteilung Bernoulli-Experiment Zwei verschiedene, sich gegenseitig ausschließende Ereignisse treten mit konstanter Wahrscheinlichkeit p bzw. 1-p ein, auch bei Wiederholung des Experimentes. Beispiele : 1) Wurf einer Münze : A : " Zahl" ; A : " Wappen" 1 1 p = P ( A) = ; q = 1 − p = P ( A ) = 2 2 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 108 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 2) Ziehung einer weißen Kugel aus einer Urne mit 5 weißen und 3 schwarzen Kugeln A : " Ziehung einer weißen Kugel" ; A : " Ziehung einer schwarzen Kugel" 5 3 p = P ( A) = ; q = 1 − p = p( A ) = 8 8 Bei mehrfachen Ziehungen : Mit Zurücklegen! „Bernoulli-Experiment vom Umfang n“ Mehrstufen-Experiment: n-fache Ausführung eines Bernoulli-Experiments mit der Voraussetzung, dass die Ergebnisse der einzelnen Stufen voneinander unabhängig sind. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 109 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Zufallsvariable: X=Anzahl der Versuche, in denen das Ereignis A bei einer n-fachen Ausführung des BernoulliExperiments eintritt. Ω = {0;1; 2;K n} Gesucht: Wahrscheinlichkeit für das Ereignis X=x, d.h. das Ereignis A tritt bei n Versuchsdurchführungen genau x-mal ein. Urnenmodell: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 110 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Ereignis A: „Ziehung einer weißen Kugel“; P(A)=p; Ziehung von n Kugeln mit Zurücklegen: x weiße und n-x schwarze Kugeln wurden gezogen Eine mögliche Realisierung der Zufallsvariablen: Wahrscheinlichkeit für diese spezielle Realisierung: (Multiplikationssatz für stochastisch unabhängige Ereignisse) x n− x ( p ⋅ p ⋅ p ⋅K ⋅ p) ⋅ (q ⋅ q ⋅ q ⋅K ⋅ q) = p ⋅ q 1442443 144244 3 x − mal © FH AACHEN UNIVERSITY OF APPLIED SCIENCES ( n − x ) − mal 30. August 2016 | 111 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Weitere Realisierungen von X=x entstehen durch Permutation der n gezogenen Kugeln, wobei eine Vertauschung der Anordung innerhalb der x weißen bzw. n-x schwarzen Kugeln keine neue Realisierung bildet: Alle Realisierungen n n! P(n; x; n − x) = = (Anordnungen) schließen x!⋅(n − x)! x sich gegenseitig aus; Additionssatz: Wahrscheinlichkeitsfunktion der Binomialverteilung: n x n− x f ( x) = P ( X = x) = ⋅ p ⋅ q x © FH AACHEN UNIVERSITY OF APPLIED SCIENCES ( x = 0,1, 2, K n) 30. August 2016 | 112 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen n f ( x) = P( X = x) = ⋅ p x ⋅ q n − x x ( x = 0,1, 2,K n) Die Wahrscheinlichkeiten f(x) entsprechen der Reihe nach den Summanden in der binomischen Entwicklung von (q+p)n: n n−2 2 n n −1 pn ( q + p ) = q{ + ⋅ q ⋅ p + ⋅ q ⋅ p + K + { 1 2 1 f ( 0) f (n) 4243 142 4 43 4 n n f (1) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES f ( 2) 30. August 2016 | 113 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Verteilungsfunktion n k n−k F ( x) = P ( X ≤ x) = ∑ ⋅ p ⋅ q k≤x k © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 114 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 5.2 Hypergeometrische Verteilung Problem: Ziehung ohne Zurücklegen ist kein BernoulliExperiment mehr, da sich die Wahrscheinlichkeit p durch das Ziehen einer Einheit verändert! Urnenmodell: N Möglichkeiten, n n Kugeln ohne Zurücklege n zu ziehen. (Kombinati on n - ter Ordnung von N Elementen ohne Wiederhol ung) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 115 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen M Möglichkeiten, x x weiße Kugeln aus den M weißen auszuwähle n N −M Möglichkeiten, n−x n - x schwarze Kugeln aus den N - M schwarzen auszuwählen © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 116 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion hypergeometrische Verteilung: M N − M ⋅ x n−x f ( x ) = P ( X = x) = N n Mittelwert und Varianz: M N n M ( N − M )( N − n) 2 σ = N 2 ( N − 1) µ =n ( x = 0,1, 2, K n) Merke: Ziehung mit Zurücklegen: Binomialverteilung Ziehung ohne Zurücklegen: Hypergeometrische Verteilung © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 117 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Faustregel: Die hypergeometrische Verteilung kann näherungsweise durch die „bequemere“ Binomialverteilung ersetzt werden, falls gilt: n < 0,05 ⋅ N h( x; N , M , n) ≈ b( x; n, p) mit M p= N Wie sieht`s aus beim Skat? Wahrscheinlichkeit, vier Buben auf die Hand zu bekommen? © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 118 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 5.3 Poisson - Verteilung Bernoulli – Experimente, bei denen Ereignisse mit nur sehr geringen Wahrscheinlichkeiten auftreten: Rutherford – Geiger Experiment 1910 2608 Zeitintervalle von je 7,5s Länge: Insgesamt 10097 Zerfälle beobachtet. Im Mittel also 3,87 Zerfälle während eines Zeitintervalles von 7,5s Länge, aber eben nur im Mittel: Radioaktiver Zerfall © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 119 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Gesucht: Verteilung für „seltene Ereignisse“! n x µ x −µ n− x lim ⋅ p ⋅ (1 − p ) = ⋅e n →∞ x x! n⋅ p = µ ( x = 0;1; 2 K) Wahrscheinlichkeitsfunktion der Poisson-Verteilung: f ( x) = P ( X = x) = µx x! ⋅ e−µ ( x = 0,1, 2, K ) f(x) ist durch den Parameter µ eindeutig festgelegt: Erwartungswert © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 120 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Faustregel: Die Binomialverteilung kann näherungsweise durch die „bequemere“ Poisson-Verteilung ersetzt werden, falls gilt: n ⋅ p < 10 und n > 1500 ⋅ p b( x; n, p ) ≈ po( x; µ ) mit µ = n ⋅ p Merke: Anteil/Anzahl in einer Stichprobe: Binomialverteilung Zahl pro Einheit: Poisson - Verteilung © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 121 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 5.4 Gaußsche - Normalverteilung Betrachte die Wahrscheinlichkeitsfunktion der Binomialverteilung im Grenzfall eines gegen unendlich strebenden Stichprobenumfangs n: Lokaler Grenzwertsatz von de Moivre-Laplace 2 n k k np 1 ( − ) n−k ⋅ p ⋅ (1 − p ) = ⋅ exp− ⋅ [1 + Rn (k )] 2π ⋅ np(1 − p ) k 2np (1 − p ) mit lim Rn (k ) = 0 n →∞ Linke Seite: Rechte Seite: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES n und k ganzzahlig Auch für reelle Werte von n und k auswertbar! 30. August 2016 | 122 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Idee: Schreibe im Grenzfall die rechte Seite als Wahrscheinlichkeitsdichte (k − np) 2 ! 1 ⋅ exp− = f (k ) ⋅ dk 2π ⋅ np(1 − p) 2np(1 − p) k − np Substitution : x := np(1 − p) x2 1 f (k ) dk = f ( x) dx ⇒ f ( x) = ⋅ exp− 2π 2 ! Eigenschaften von x2 1 ⋅ exp− f ( x) = 2π 2 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 123 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen f (− x) = f ( x) symmetrisc h um Null +∞ x2 1 µ = ∫ x⋅ ⋅ exp− dx = 0 2π 2 −∞ +∞ 2 1 x 2 2 2 σ = ∫x ⋅ ⋅ exp− dx = 2π 2π 2 −∞ „Standardnormalverteilung“ „X ist N(0;1) – verteilt“ ∞ 2 x 2 ∫0 x ⋅ exp− 2 dx = 1 144 42444 3 = π 2 Verallgemeinerung: Betrachte neue Zufallsvariable Y =σ ⋅ X + µ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES Lineare Transformation! 30. August 2016 | 124 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen ( y − µ )2 1 y−µ ⋅ exp − fY ( y ) = ⋅ fX ⇒ fY ( y ) = 2 |σ | 2σ σ ⋅ 2π σ 1 (σ > 0) Bei Umbenennung von Y in X: ( x − µ )2 f X ( x) = ⋅ exp − 2 2σ σ ⋅ 2π 1 Dichte der Normalverteilung „X ist N(µ;σ2) – verteilt“ Eigenschaf ten : 1) f(x) ist symmetrisc h um x = µ 1 bei x = µ σ 2π 3) f(x) hat Wendepunk te bei x = µ ± σ 2) f(x) hat ein Maximum der Höhe © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 125 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen σ bestimmt „Höhe“ und „Breite“ der Wahrscheinlichkeitsdichtefunktion; µ bestimmt die Lage des Maximums. Verteilungsfunktion der Gaußschen Normalverteilung: (t − µ ) 2 dt F ( x) = P ( X ≤ x) = ⋅ ∫ exp − 2 2σ σ ⋅ 2π −∞ 1 x Problem: Das Integral ist nicht geschlossen lösbar! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 126 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Integral numerisch lösen und ausführlich tabellieren! Mit vertretbarem Aufwand aber nur für eine Kombination aus (µ;σ) machbar: Für die Standardnormalverteilung! Jede Gaußsche Normalverteilung läßt sich auf die Standardnormalverteilung transformieren. Die konkrete Berechnung der Verteilungsfunktion erfolgt daher in zwei Schritten: 1) Transformation der Variablen auf eine „standardisierte Variable“ 2) Ablesen der Verteilungsfunktion in der Tabelle der Standardnormalverteilung © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 127 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Transformation auf standardisierte Variable u= x−µ σ Wahrscheinlichkeitsdichte der Standardnormalverteilung Verteilungsfunktion der Standardnormalverteilung u= x−µ σ ⇒ F ( x ) = G (u ) G(u) ist tabelliert © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 128 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen x−µ P( X ≤ x ) = F ( x ) = Φ = Φ (u ) σ x−µ P( X ≥ x ) = 1 − P( X ≤ x ) = 1 − Φ σ = 1 − Φ (u ) P ( a ≤ X ≤ b) = F ( b ) − F ( a ) b−µ a−µ = Φ − Φ σ σ Symmetrische Intervalle: P ( µ − kσ ≤ X ≤ µ + kσ ) = F ( µ + kσ ) − F ( µ − kσ ) = Φ (k ) − Φ (− k ) = Φ (k ) − (1 − Φ (k )) = 2 ⋅ Φ (k ) − 1 0,6826 = 0,9544 0,9973 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES für k = 1 für k = 2 für k = 3 30. August 2016 | 129 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen P(U ≤ c) = Φ (c) = 0,9 ⇒ c = u0,9 = 1,282 Quantile P (U ≥ c) = 1 − P(U ≤ c) = 1 − Φ (c) = 0,9 ⇒ Φ (c) = 0,1 ⇒ c = u0,1 = −1,282 P (U ≤ c) = Φ (c) = 0,95 + 0,025 = 0,975 ⇒ c = u0,975 = 1,960 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 130 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 5.5 „Spezialitäten“ Geometrische Verteilung: Diskrete Verteilung für das „Warten auf den ersten Erfolg“ •Erste Sechs bei „Mensch ärgere Dich nicht“ •Pasch im Gefängnis von „Monopoly“ •Periodische kurze Belastungen ohne Nachwirkung, die Geräte, Bauteile etc. funktionsuntüchtig machen Die Zufallsvariable X besitzt eine geometrische Verteilung mit Parameter p (0<p<1), falls ihre Verteilung gegeben ist durch: P ( X = k ) = (1 − p ) ⋅ p; k ∈ N 0 k © FH AACHEN UNIVERSITY OF APPLIED SCIENCES X ist die Zahl der „Nieten“ vor dem ersten „Treffer“, der mit Wahrscheinlichkeit p eintritt. 30. August 2016 | 131 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Erwartungswert : E ( X ) = © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 1− p p Varianz : σ 2 = 1− p p2 30. August 2016 | 132 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Negative Binomialverteilung: (Verallgemeinerung der Geometrischen Verteilung) Betrachte die Wahrscheinlichkeit, dass in einem Bernoulli-Experiment der r-te Erfolg (Treffer, Einzelwahrscheinlichkeit p, r = 1,2,3,...) im k-ten Versuch (k ≥ r) auftritt. k − 1 ⋅ (1 − p) k − r ⋅ p r ; k = r , r + 1, r + 2,K P(Y = k ) = r − 1 Bei Betrachtung der Zufallsvariablen X = Y-r (Zahl der Misserfolge bis zum r-ten Erfolg) ergibt sich die Wahrscheinlichkeitsfunktion der negativen Binomialverteilung: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 133 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen r + k − 1 ⋅ (1 − p ) k ⋅ p r ; k = 0,1, 2, K P ( X = k ) = k Erwartungswert : E ( X ) = r ⋅ 1− p ; p Varianz : σ 2 = r ⋅ 1− p p2 Falls r ganzzahlig: „Pascal – Verteilung“ Anwendungen: •Modellierung von Ansteckungsvorgängen (Schädlinge auf Blättern oder Bäumen) •Versicherungsmathematik: Modell für Schadenzahlen © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 134 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Stetige gleichmäßige Verteilung: (Analogon zur diskreten gleichmäßigen Verteilung) Die Zufallsvariable X kann im Intervall [a; b] alle Werte mit gleicher Wahrscheinlichkeit annehmen; Wahrscheinlichkeitsdichte : 1 für a ≤ x ≤ b f ( x) = b − a 0 für x < a und x > b Erwartungswert b E( X ) = µ = ∫ x ⋅ a b+a 1 dx = b−a 2 Varianz b 1 (b − a ) 2 Var ( X ) = σ = ∫ ( x − µ ) ⋅ dx = b−a 12 a 2 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 2 30. August 2016 | 135 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Weibull - Verteilung: Beschreibung des Ausfallverhaltens von Geräten, Baugruppen etc. Dreiparame trige Weibull - Verteilung Wahrschein lichkeitsdichte : b x − c b −1 x − c b ⋅ ⋅ exp− für x > c f ( x) = a a a 0 für x ≤ c Verteilungsfunktion x − c b 1 − exp− F ( x) = a 0 für x ≤ c © FH AACHEN UNIVERSITY OF APPLIED SCIENCES für x>c 30. August 2016 | 136 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen a: Maßstabsparameter (Charakteristische Lebensdauer) b: Formparameter (Ausfallsteilheit) c: Lageparameter (Ausfallfreie Zeit; c=0: zweiparametrige Weibullverteilung) Spezialfall: b=1; c=0 Exponentialverteilung © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 137 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 5.6 Zusammenfassung und Näherungen © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 138 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen µ>9 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 139 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Beispiel: Näherung der Binomialverteilung durch die Normalverteilung 1 n = 10; p = ; 10 Münzwürfe; 2 X = Anzahl mit dem Ergebnis " Zahl" Wahrscheinlichkeitsfunktion der Binomialverteilung x 10− x 10 1 1 f B ( x ) = ⋅ ⋅ x 2 2 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 1 10 = ⋅ 1024 x 30. August 2016 | 140 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen n ⋅ p ⋅ (1 − p ) = 2,5 ⇒ Näherung durch die Normalverteilung eigentlich noch nicht erlaubt! (zu ungenau) Wir versuchen es trotzdem : µ = n ⋅ p = 5; σ = n ⋅ p ⋅ (1 − p ) = 2,5 Dichtefunktion der Normalverteilung f N ( x) = 2 1 1 1 x − 5 1 = ⋅ exp − ( x − 5)2 ⋅ exp − ⋅ 2π ⋅ 2,5 5π 5 2 2,5 Vergleich © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 141 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen Wahrscheinlichkeit, bei 10 Würfen drei-, vier bzw. fünfmal " Zahl" zu erhalten : P (3 ≤ x ≤ 5) = f B (3) + f B (4) + f B (5) = 0,5684 Verschieben der drei Stäbe um jeweils 0,5 nach links und nach rechts:Histogramm Breite der Rechtecke: ∆x=1, Höhe:fB(x) Gesamtfläche: Gesuchte Wahrscheinlichkeit © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 142 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 1 1 2 ⋅ exp− ⋅ ( x − 5) Näherungslösung f N ( x) = 5π 5 Das Histogramm ist die gesuchte exakte Wahrscheinlichkeit: Für eine vernünftige Näherung müssen die alten Intervallgrenzen um 0,5 nach außen verschoben werden, sonst ist die Fläche unter der Gaußschen Glockenkurve zu klein! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 143 I. Wahrscheinlichkeitsrechnung I.5 Spezielle Wahrscheinlichkeitsverteilungen 5, 5 P(3 ≤ X ≤ 5) ≈ ∫ 2,5 1 1 2 ⋅ exp− ⋅ ( x − 5) = F (5,5) − F (2,5) 5π 5 Standardis ieren : 5,5 − 5 2,5 − 5 uo = = 0,316 uu = = −1,581 2,5 2,5 P(3 ≤ X ≤ 5) ≈ Φ (0,316) − Φ (−1,581) = 0,5670 Allgemein : b + 0,5 − µ a − 0,5 − µ P( a ≤ X ≤ b) ≈ F (b + 0,5) − F ( a − 0,5) = Φ − Φ σ σ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 144 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen 6.1 Einführendes Beispiel Zwei oder mehr Zufallsvariablen werden gleichzeitig beobachtet: Mehrdimensionale Wahrscheinlichkeitsverteilungen Beispiel: Gleichzeitiger Wurf einer Münze und eines Würfels X=„Anzahl Wappen bei der Münze“; Y=Augenzahl beim Würfel X ∈ {0;1} Y ∈ {1; 2; 3; 4; 5; 6} Für die zweidimensionale Zufallsvariable (X,Y) gibt es damit 12 verschiedene Elementarereignisse: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 145 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Laplace-Experiment: Alle Elementarereignisse treten mit derselben Wahrscheinlichkeit ein 1 P ( X = x; Y = y ) = 12 ( x = 0,1; y = 1, 2, K 6) Verteilungstabelle: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 146 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Die Wahrscheinlichkeitsfunktion dieser zweidimensionalen Verteilung ist dann eine Funktion von zwei unabhängigen Variablen: 1 / 12 f ( x; y ) = P ( X = x; Y = y ) = 0 für x = 0,1; y = 1, 2, K , 6 alle übrigen ( x; y ) Räumliches Stabdiagramm dieser diskreten Wahrscheinlichkeitsfunktion: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 147 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen In der Verteilungstabelle die Wahrscheinlichkeitswerte zeilenweise addieren: f1 (0) = ∑ y 1 1 f (0; y ) = 6 ⋅ = 12 2 f1 (1) = ∑ f (1; y ) = 6 ⋅ y 1 1 = 12 2 f1(x) ist die Wahrscheinlichkeit für das Ereignis X=x, unabhängig von der gewürfelten Augenzahl Y. In der Verteilungstabelle die Wahrscheinlichkeitswerte spaltenweise addieren: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 148 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen 1 1 = 12 6 1 1 f ( x;2) = 2 ⋅ = 12 6 f 2 (1) = ∑ f ( x;1) = 2 ⋅ x f 2 (2) = ∑ x M f 2 (6) = ∑ f ( x;6) = 2 ⋅ x f2(y) ist die Wahrscheinlichkeit für das Ereignis Y=y, unabhängig vom Ergebnis des Münzwurfes X. 1 1 = 12 6 Die beiden eindimensionalen Wahrscheinlichkeitsfunktionen f1(x) und f2(y) der Zufallsvariablen X und Y werden als Randverteilungen der zweidimensionalen Verteilung (X;Y) bezeichnet. Hier ist f(x;y)=f1(x) f2(y) Dies gilt aber nicht allgemein! (s. später!) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 149 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen 6.2 Zweidimensionale Wahrscheinlichkeitsverteilungen Verteilungsfunktion einer zweidimensionalen Zufallsvariablen Die Wahrscheinlichkeitsfunktion einer zweidimensionalen Zufallsvariablen (X;Y) (auch „Zufallsvektor“ genannt) lässt sich vollständig durch die Verteilungsfunktion darstellen: „Gemeinsame Verteilung“ der Zufallsvariablen X und Y: F ( x; y ) = P( X ≤ x; Y ≤ y ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 150 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Eigenschaften der Verteilungsfunktion: lim F ( x; y ) = lim F ( x; y ) = 0 x → −∞ y → −∞ lim F ( x; y ) = 1 x →∞ y →∞ P( a1 < X ≤ b1; a2 < Y ≤ b2 ) = F (b1; b2 ) − F ( a1 ; b2 ) − F (b1; a2 ) + F (a1; a2 ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 151 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Diskrete zweidimensionale Verteilung (X;Y) heißt diskret, wenn beide Komponenten diskrete Zufallsvariablen sind. Annahme: X und Y können nur endlich viele Werte annehmen: x1 , x2 ,K xm bzw. y1 , y2 ,K yn P( X = xi ;Y = yk ) = pik Zweidimensionale Verteilungstabelle © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 152 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Wahrscheinlichkeitsfkt.: x = xi ; y = yk pik f ( x; y ) = für alle übrigen ( x; y ) 0 f ( x; y ) ≥ 0 m n ∑∑ f ( x ; y ) = 1 i k Normierung i =1 k =1 Randverteilung von Y Randverteilung von X pi * x = xi ; i = 1, 2, K, m f1 ( x) = für alle übrigen x 0 Verteilungsfunktion: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES pk ** y = yk ; k = 1, 2, K, n f 2 ( y) = für alle übrigen y 0 F ( x; y ) = ∑ ∑ f ( xi ; yk ) xi ≤ x y k ≤ y 30. August 2016 | 153 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Stetige zweidimensionale Verteilung (X;Y) heißt stetig, wenn beide Komponenten stetige Zufallsvariablen sind. Verteilungsfunktion: y x F ( x; y ) = ∫ ∫ f (u; v) dv du u = −∞ v = −∞ Dichtefunktion der Randverteilung von X ∞ f1 ( x) = ∫ f ( x; y) dy y = −∞ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES Dichtefunktion: ∞ ∞ ∫ ∫ f ( x; y) dy dx = 1 x = −∞ y = −∞ Dichtefunktion der Randverteilung von Y ∞ f 2 ( y) = ∫ f ( x; y) dx x = −∞ 30. August 2016 | 154 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Beispiel: Zweidimensionale Gleichverteilung 0 ≤ x ≤ 2; 0 ≤ y ≤ 5 const = c f ( x; y ) = für alle übrigen ( x; y ) 0 P ( X ≤ 1; Y ≤ 3) = ? © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 155 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen 6.3 Stochastisch unabhängige Zufallsvariable Hat bei gleichzeitiger Beobachtung zweier Zufallsvariablen X und Y der beobachtete Wert der einen Zufallsvariablen Einfluss auf den Wert der anderen? Beispiel: Würfeln mit zwei unterscheidbaren Würfeln X= Augenzahl 1. Würfel, Y=Augenzahl 2. Würfel Definition: Die Zufallsvariablen X und Y mit den Verteilungsfunktionen F1(x) und F2(y) und der gemeinsamen zweidimensionalen Verteilungsfunktion F(x;y) heißen stochastisch unabhängig, wenn die Bedingung F(x;y)=F1(x)F2(y) für alle (x;y) erfüllt ist. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 156 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen •Ist die Bedingung nicht erfüllt, sind die Zufallsvariablen stochastisch abhängig •Ist die Bedingung erfüllt, sind die beiden Ereignisse „X=x“ und „Y=y“ stochastisch unabhängig •Sind X und Y stochastisch unabhängige Zufallsvariable, so gilt für die Wahrscheinlichkeitsbzw. Dichtefunktionen f(x;y)=f1(x)f2(y) •Sinngemäße Erweiterung auf n Zufallsvariablen Beispiel: Positionsschwankungen bei Bohrlöchern © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 157 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Verteilung der Bohrlöcher in x - Richtung Verteilung der Bohrlöcher in y - Richtung 2 1 1 x − µ1 f1 ( x) = ⋅ exp− 2π ⋅ σ 1 2 σ 1 2 1 1 y − µ 2 f 2 ( y) = ⋅ exp− 2π ⋅ σ 2 2 σ 2 Wegen stochastischer Unabhängig keit : © FH AACHEN UNIVERSITY OF APPLIED SCIENCES f ( x; y ) = f1 ( x) ⋅ f 2 ( y ) 30. August 2016 | 158 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen 6.4 Erweiterung auf n-dimensionale Zufallsvariablen Über dem gleichen Wahrscheinlichkeitsraum sind mehrere (n) Zufallsvariablen gleichzeitig erklärt : X 1 : Ω → R; X 2 : Ω → R; X 3 : Ω → R; © FH AACHEN UNIVERSITY OF APPLIED SCIENCES X 4 : Ω → R;K 30. August 2016 | 159 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Definition : r Eine Funktion X = ( X 1 ,K X n ) : Ω → R n heißt n - dimensionale Zufallsgröße (n - dimensionale Zufallsvariable oder kurz Zufallsvektor), wenn jede einzelne Komponente X i eine Zufallsgröße (über der gleichen Ereignisalgebra) ist. Die durch FXr ( x1 ,K xn ) := P ( X 1 ≤ x1 , X 2 ≤ x2 ,K, X n ≤ xn ) gegebene Funktion FXr : R n → R heißt verbundene oder gemeinsame r Verteilungsfunktion von X . Man kombiniere die Kenntnisse aus Analysis 2 mit den bisher in der Stochastik gewonnenen… © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 160 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Definition : r Eine n - dimensiona le Zufallsgröße X = ( X 1 ,K X n ) heißt kontinuier lich oder stetig, falls es eine nichtnegat ive, integrierbare Funktion f Xr : R n → R gibt mit x1 xn −∞ −∞ FXr ( x1 , K xn ) = ∫ K ∫ f Xr (t1 , Kt n ) dt1 K dt n Die Funktion f Xr heißt (verbunden e oder gemeinsame ) Dichtefunk tion der Zufallsgrößen X 1 , K X n . ∂n FXr ( x1 , K xn ) = f Xr ( x1 , K xn ) ∂x1 K ∂xn Die Zufallsgrößen X 1 K X n heißen (vollständ ig) unabhängig , falls ihre gemeinsame Verteilungsfunktion faktorisierbar ist : FXr ( x1 , K , xn ) = FX 1 ( x1 ) ⋅ FX 2 ( x2 ) K ⋅ FX n ( xn ) Dann ist auch f Xr ( x1 , K , xn ) = f X 1 ( x1 ) ⋅ f X 2 ( x2 ) K ⋅ f X n ( xn ) für stetige Zufallsvariablen bzw. P ( X 1 = x1 , K , X n = xn ) = P ( X 1 = x1 ) ⋅ K ⋅ P( X n = xn ) für diskrete Zufallsvariablen © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 161 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen 6.5 Summen von Zufallsgrößen Die neue Zufallsvariable wird als Summe von anderen Zufallsvariablen definiert: Z := X 1 + X 2 + K X n Den Zahlenwerten x1 := X 1 (ω ),K, xn := X n (ω ) eines Zufallsversuches mit Resultat ω wird die Zahl z := x1 + K + xn als Ergebnis Z (ω ) der neuen Zufallsgröße Z zugeordnet. Beispiel für zwei Zufallsvariablen: Z = X +Y X ∈ {0,1,2,K} = N 0 Y ∈ {0,1,2,K} = N 0 ⇒ ( X , Y ) ∈ {(i, j ) | i, j ∈ N 0 } P( Z = 3) = ? © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 162 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen P( Z = 3) = ? P( Z = 3) = P( X = 0, Y = 3) + P( X = 1, Y = 2) + P( X = 2, Y = 1) + P( X = 3, Y = 0) Allgemein : k P ( Z = k ) = ∑ P ( X = i; Y = k − i ) i =0 Diskreter Fall : P( Z = z ) = ∑ P( X = xi ; Y = z − xi ) i +∞ Kontinuierlicher Fall : f Z ( z ) = ∫f −∞ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES XY ( x, z − x) dx Dichtefunktion der Summe zweier stetiger Zufallsgrößen 30. August 2016 | 163 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Spezialfall : X und Y sind stochastisch unabhängig : ∞ f Z ( z) = ∫f X ( x) ⋅ fY ( z − x) dx (" Faltung" ) −∞ 6.6 Produkt und Quotient zweier stetiger Zufallsgrößen +∞ z 1 f X •Y ( z ) = ∫ f XY , y ⋅ dy y | y| −∞ +∞ f X ( z) = Y ∫ f (zy, y )⋅ | y | dy XY −∞ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES Produkt Z = X ⋅ Y X Quotient Z = Y 30. August 2016 | 164 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen 6.7 Erwartungswert und Streuung für die Summe von Zufallsgrößen X und Y seien als Funktionen auf Ω explizit bekannt ⇒ ( X + Y )(ω ) = X (ω ) + Y (ω ), ( X ⋅ Y )(ω ) = X (ω ) ⋅ Y (ω ) Erwartungswert E(X + Y ) = ∑ ( X + Y )( ω ) ⋅ P (ω ) = ∑ X (ω ) P (ω ) + ∑ Y (ω ) P (ω ) i i i i i i i i i = E ( X ) + E (Y ) E (α X ) = α ⋅ E ( X ) ∀ α ∈ R Allgemein : E ( X1 + K + X n ) = E ( X 1) + K + E ( X n ) E (α X + β Y ) = α ⋅ E ( X ) + β ⋅ E (Y ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 165 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Varianz Var (αX ) = E ((αX ) 2 ) − ( E (αX )) 2 = E (α 2 X 2 ) − (αE ( X )) 2 [ ] = α 2 E ( X 2 ) − ( E ( X )) 2 = α 2 ⋅ Var ( X ) Var ( X + Y ) = E (( X + Y ) 2 ) − ( E ( X + Y )) 2 = E ( X 2 + 2 XY + Y 2 ) − ( E ( X ) + E (Y )) 2 = E ( X 2 ) + 2 E ( XY ) + E (Y 2 ) − ( E ( X )) 2 − 2 E ( X ) E (Y ) − ( E (Y )) 2 = E ( X 2 ) − ( E ( X )) 2 + E (Y 2 ) − ( E (Y )) 2 + 2[E ( XY ) − E ( X ) E (Y )] 144 42444 3 1442443 144424443 =Var ( X ) =Var ( Y ) = cov( X ,Y ) Var ( X + Y ) = Var ( X ) + Var (Y ) + 2 ⋅ cov( X , Y ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 166 I. Wahrscheinlichkeitsrechnung I.6 Mehrdimensionale Zufallsvariablen Falls X und Y stochastisch unabhängige Zufallsvariablen sind: E ( X ⋅ Y ) = E ( X ) ⋅ E (Y ) ⇒ cov( X , Y ) = 0 ⇒ Var ( X + Y ) = Var ( X ) + Var (Y ) Var X Bei n Zufallsgrößen: ∑ i = ∑ Var ( X i ) + 2∑ cov( X i , X j ) i, j i i i< j © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 167 I. Wahrscheinlichkeitsrechnung I.7 Kovarianz und Korrelation Die Kovarianz wurde eingeführt als : cov( X , Y ) = E ( X ⋅ Y ) − E ( X ) ⋅ E (Y ) Andere Schreibweise : cov( X , Y ) = E{( X − E ( X )) ⋅ (Y − E (Y ))} Eigenschaften der Kovarianz: 1.) cov( X , Y ) = cov(Y , X ) 2.) cov( X , X ) = Var ( X ) 3.) cov(aX + b, cY + d ) = ac ⋅ cov( X , Y ) 4.) Falls X, Y stochastisch unabhängig ⇒ cov( X , Y ) = 0 n m m n 5.) cov ∑ ai ⋅ X i , ∑ b j ⋅ Y j = ∑∑ ai b j ⋅ cov( X i , Y j ) j =1 i =1 i =1 j =1 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 168 I. Wahrscheinlichkeitsrechnung I.7 Kovarianz und Korrelation Zwei Zufallsvariablen X, Y heißen unkorreliert, falls cov(X,Y)=0 ist. Im Allgemeinen darf aus der Unkorreliertheit zweier Zufallsvariablen nicht auf deren stochastische Unabhängigkeit geschlossen werden! Die Kovarianz lässt sich als Maß für die Proportionalität von (X-E(X)) und (Y-E(Y)) auffassen. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 169 I. Wahrscheinlichkeitsrechnung I.7 Kovarianz und Korrelation Wegen cov( X , Y ) = E{( X − E ( X )) ⋅ (Y − E (Y ))} wird die Kovarianz positiv, wenn für beide Zufallsvariablen die Abweichungen vom Erwartungswert für die „meisten“ Elementarereignisse in „die gleiche Richtung“ gehen; bei überwiegend entgegengesetztem Vorzeichen wird die Kovarianz negativ. Die Kovarianz selber ist als Maß für die Korrelation ungeeignet, z.B. ändert sie sich, wenn beide Zufallsvariablen mit einem Faktor multipliziert werden, obwohl sich dadurch an einer evtl. vorhandenen Proportionalität nichts ändert: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 170 I. Wahrscheinlichkeitsrechnung I.7 Kovarianz und Korrelation cov(λX , λY ) = λ2 ⋅ cov( X , Y ) Durch eine Art „Normierung“ ergibt sich der (Pearson‘sche) Korrelationskoeffizient: ρ XY cov( X , Y ) := σ X ⋅σ Y Seine wesentliche Bedeutung ist die Lösung eines Optimierungsproblemes: Die Realisierungen der Zufallsvariablen Y sollen durch die Realisierungen der Zufallsvariablen X möglichst gut vorhergesagt werden, wobei von einem linearen Zusammenhang ausgegangen wird: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 171 I. Wahrscheinlichkeitsrechnung I.7 Kovarianz und Korrelation Y (ω ) = a + b ⋅ X (ω ) " Vorhersagefehler" : Y − a − b ⋅ X ⇒ E ((Y − a − b ⋅ X ) )= min (mittlere quadratische Abweichung minimieren) 2 ! cov( X , Y ) cov( X , Y ) b= ; a = E (Y ) − ⋅ E( X ) Var ( X ) Var ( X ) Damit Minimum des mittleren quadratischen Fehlers: 2 M = var(Y ) ⋅ (1 − ρ XY ) © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 172 I. Wahrscheinlichkeitsrechnung I.7 Kovarianz und Korrelation Folgerungen für den Korrelationskoeffizienten: 1.) M ≥ 0 ⇒ | ρ XY | ≤ 1 2.) | ρ XY | ≤ 1 ⇒ cov 2 ( X , Y ) ≤ var( X ) ⋅ var(Y ) " Cauchy - Schwarz - Ungleichung" 3.) | ρ XY |= 1 ⇒ M = 0 ⇒ E ((Y − a − b ⋅ X )2 ) = 0 ⇒ P(Y = a + b ⋅ X ) = 1 4.) ρ XY = +1 ⇒ b > 0 : " Y wächst mit wachsendem X" ρ XY = −1 ⇒ b < 0 : " Y fällt mit wachsendem X" © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 173 I. Wahrscheinlichkeitsrechnung I.7 Kovarianz und Korrelation Von einer vorhandenen Korrelation zweier Zufallsvariablen darf nicht auf eine kausalen Zusammenhang geschlossen werden! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 174 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Tschebyscheff-Ungleichung: σ2 P(| X − µ |≥ ε ) ≤ 2 ε Gilt für jede Verteilung, für die Erwartungswert E(X)=µ und Varianz var(X)=σ2 existieren! Betrachte n-malige Wiederholung eines Zufallsexperimentes mit Messung der Zufallsvariablen X: wir erhalten n stochastisch unabhängige Ergebnisse. Xi sei die Realisierung der Zufallsvariablen im i-ten Versuch. Xi ist eine Zufallsvariable mit der gleichen Verteilung wie X, insbesondere mit gleichem Erwartungswert und gleicher Varianz. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 175 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze X ( n) 1 n = ∑ Xi n i =1 ist dann ebenfalls eine Zufallsvariable mit 1 n 1 n 1 E ( X (n) ) = ∑ E ( X i ) = ∑ µ = ⋅ n ⋅ µ = µ n i =1 n i =1 n 1 var( X ( n ) ) = n 2 n 1 = X var( ) ∑ i n i =1 P (| X ( n ) − µ |≥ ε ) ≤ var( X ( n ) ) ε 2 2 n 2 σ2 σ 1 2 2 = n ⋅ ⋅ = ⇒ = σ σ σ ∑ X n n n i =1 σ2 1 1 σ2 = ⋅ 2 = ⋅ 2 ε n ε n { = const . 1 n 1 σ2 ⇒ 0 ≤ P ⋅ ∑ X i − µ ≥ ε ≤ ⋅ 2 n ε n i =1 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES Wende Tschebyscheff – Ungleichung auf X (n ) an! 30. August 2016 | 176 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze 1 n ⇒ lim P ⋅ ∑ X i − µ ≥ ε = 0 n →∞ n i =1 Schwaches Gesetz großer Zahlen „Stochastische Konvergenz“: Die Wahrscheinlichkeit, dass ein Mittelwert um mehr als ein beliebiges, festes ε>0 von µ abweicht, geht für wachsendes n gegen Null. (Schwächere Aussage als die „übliche“ Konvergenz wie z.B. bei Zahlenfolgen!) Starkes Gesetz großer Zahlen © FH AACHEN UNIVERSITY OF APPLIED SCIENCES (schwieriger Beweis!) 30. August 2016 | 177 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Bei gleichen Voraussetzungen wie in der Herleitung für das schwache Gesetz großer Zahlen gilt: 1 n P lim ⋅ ∑ X i − µ = 0 = 1 n→∞ n i =1 Bei unbeschränkt oftmaliger Wiederholung der Messung einer Zufallsgröße konvergiert das Stichprobenmittel gegen den Erwartungswert von X. Unterschied zwischen dem schwachen und dem starken Gesetz großer Zahlen? © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 178 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Das „schwache“ Gesetz schließt nicht aus, dass auch für unbeschränkt wachsende n-Werte gelegentlich noch größere Abweichungen als ε auftreten; es besagt aber, dass die Wahrscheinlichkeit für solche „Ausreißer“ mit wachsendem n gegen Null geht: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 179 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Das „starke“ Gesetz kann dieses Verhalten auch nicht mit Sicherheit ausschließen, jedoch konvergiert mit Wahrscheinlichkeit „1“ das Stichprobenmittel gegen den Erwartungswert: Während das „schwache“ Gesetz Aussagen über die Abweichung der gemittelten Größe nach n Versuchen macht, bezieht sich die Aussage des „starken“ Gesetzes auf die Serie als Gesamtheit. © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 180 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Für die Praxis: Das arithmetische Stichprobenmittel ist also eine „sinnvolle“ Schätzung für den Erwartungswert! X (n ) ≈ µ Wichtiger Spezialfall: Bernoullisches Gesetz der großen Zahlen Wir betrachten ein Bernoulli-Experiment, bei dem entweder das Ereignis E eintritt oder nicht eintritt. Bei Eintritt von E bekommt eine neue Zufallsgröße Z den Wert „1“ zugewiesen, bei Nichteintreten von E den Wert „0“: „Indikatorgröße“ Z © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 181 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Bernoulli - Versuch : E E E K E ↓ ↓ ↓ K ↓ 1 0 1 K Z1 Z 2 Z3 K Z n Wert von Z : 0 n ∑Z i ist die absolute Häufigkeit von E i =1 1 n 1 n ⋅ ∑ Z i ist die relative Häufigkeit von E : hn ( E ) = ⋅ ∑ Z i n i =1 n i =1 Erwartungswert von Z : E ( Z ) = 0 ⋅ P( E ) + 1 ⋅ P( E ) = P( E ) Einsetzen in die Gesetze der großen Zahlen: © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 182 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Wichtiger Spezialfall: Bernoullisches Gesetz der großen Zahlen lim P ( hn ( E ) − P( E ) ≥ ε ) = 0 schwach n →∞ ( ) P lim hn ( E ) − P ( E ) = 0 = 1 stark n →∞ Verbindung zwischen der Wahrscheinlichkeitstheorie und der statistischen Analyse mit relativen Häufigkeiten! Erster Versuch der Definition von P ( E ) = lim hn ( E ) „Wahrscheinlichkeit“ nach von Mises: n →∞ © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 183 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze P ( A) = lim hn ( A) Als Definition für P nicht haltbar, Aber mit Gesetz der großen Zahlen: P( E ) ≈ hn ( E ) für „große“ n n →∞ Das starke Gesetz der großen Zahlen ist also der Grund, warum Wahrscheinlichkeiten für Ereignisse über die relative Häufigkeit des Ereignisses geschätzt werden können! Wichtig für die Praxis! © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 184 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Zentraler Grenzwertsatz (Lindeberg und Levy) Die unabhängigen Zufallsgrößen X 1 , X 2 , K sollen die gleiche Verteilung haben mit E ( X 1 ) = E ( X 2 ) = K = µ und var( X 1 ) = var( X 2 ) = K = σ 2 n Betrachte die Summe Sn := ∑ X i i =1 n n i =1 i =1 E ( Sn ) = ∑ E ( X i ) = n ⋅ µ und var( Sn ) = ∑ var( X i ) = n ⋅ σ 2 n Sn − E ( Sn ) * Betrachte die neue Zufallsgröße Sn = = var( Sn ) 1 n Xi − µ = ⋅∑ n i =1 σ ∑X i −n⋅µ i =1 n ⋅σ " Standardisierte" Version von Sn © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 185 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Zentraler Grenzwertsatz (Lindeberg und Levy) n Sn − E (Sn ) Für die Standardisierung S = der Summe S n := ∑ X i var(S n ) i =1 * n s gilt die Grenzwertbeziehung lim P ( S n* ≤ s ) = n →∞ 1 ⋅ ∫e 2π −∞ − x2 2 dx ∀s ∈ R Die Verteilungsfunktionen FS * , n = 1, 2, K der stann dardisierten Summe konvergieren gegen die Verteilungsfunktion Φ der Standardnormalverteilung. Bedeutung für die Praxis? © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 186 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze Anwendung des zentralen Grenzwertsatzes auf die Stichproben-Mittelwertbildung: X (n) n 1 n 1 1 = ⋅ ∑ X i = ∑ X i' ⇒ E ( X i' ) = ⋅ µ X ; var( X i' ) = 2 ⋅ σ X2 n i =1 n n i =1 n ' ' 1 − X E X ∑ ∑ i i X (n) − n ⋅ ⋅ µ X X − µ (n) X 1 i = i =1 = n = 1 σX n ' ⋅ σ n X var ∑ X i n n i =1 n X ( n ) ist asymptotisch normalvert eilt mit Erwartungswert µ X und 1 Standardab weichung ⋅σ X n © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 187 I. Wahrscheinlichkeitsrechnung I.8 Gesetze der großen Zahlen und Grenzwertsätze n=4 k=400 n=1; k=400; Rechteckverteilung n=8 k=400 © FH AACHEN UNIVERSITY OF APPLIED SCIENCES 30. August 2016 | 188 FH Aachen Fachbereich Medizintechnik und Technomathematik Prof. Dr. Horst Schäfer Heinrich-Mußmann-Str. 1 52428 Jülich T +49. 241. 6009 53927 [email protected] www.fh-aachen.de © FH AACHEN UNIVERSITY OF APPLIED SCIENCES | FACHBEREICH XXXXXX XXXXXXXXXXXXX | WWW.FH-AACHEN.DE