Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Zuverlässigkeitstheorie 3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze“ ” 20. November 2008 Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Übersicht 1 Gesetz der großen Zahlen von Bernoulli 2 Erste Grundlagen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit 3 Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Binomialverteilung Poisson-Verteilung Normalverteilung Exponentialverteilung Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Gesetz der großen Zahlen von Bernoulli Sei A ein zufälliges Ereignis, das im Ergebnis eines Zufallsexperiments auftreten kann oder nicht. Dieses Experiment werde unter konstanten Bedingungen n-fach durchgeführt. Dabei sei mit n(A) die absolute Häufigkeit des Eintretens des Ereignisses A bezeichnet, mit p(A) = n(A)/n die relative Häufigkeit. Sei p die Wahrscheinlichkeit für das Eintreten von A, dann gilt: Gesetz der großen Zahlen von Bernoulli Für eine beliebig kleine Zahl gibt es eine Experimentanzahl n, so dass mit beliebig nahe bei 1 liegender Wahrscheinlichkeit die relative Wahrscheinlichkeit p(A) nicht weiter als um von p abweicht. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Interpretation Interpretation Bei genügend großer Anzahl von Versuchen einer zufälligen Ereignisses lässt sich die Wahrscheinlichkeit für dessen Auftreten beliebig genau bestimmen. Bedeutung der Wahrscheinlichkeit Die Natur der Wahrscheinlichkeit ist derart, dass sie erlaubt, ziemlich genau (und nicht exakt) die Anzahl gewisser Ereignisse bei einer großen Zahl von Versuchen vorherzusagen. Der Ausgang eines einzelnen Versuchs kann jedoch nicht vorhergesagt werden, lediglich die Wahrscheinlichkeit des Eintretens eines besttimmten Ereignisses bei einem Einzelexperiment kann genau abgeschätzt werden. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Interpretation für technische Systeme Interpretation der Zuverlässigkeit technischer Systeme Es kann niemals exakt vorausgesagt werden, ob eine betrachtete technische Einheit einen vorgegebenen Zeitraum überlebt (oder nicht überlebt). Allerdings ist die Angabe einer Wahrscheinlichkeit für das Überleben (oder Ausfallen) der Einheit möglich. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Wahrscheinlichkeit beim Würfeln Man würfle n-mal. Die Ergebnisse sind Ai = i für i = 1, 2, 3, 4, 5, 6. Jedes Ergebnis Ai trat mit der Häufigkeit ni auf. Für jedes Ergebnis Ai kann eine relative Häufigkeit hn (Ai ) = nni angegeben werden. ni n→∞ n Es gilt lim hn (Ai ) = lim n→∞ = P(Ai ) P(Ai ) ist die Wahrscheinlichkeit für das Auftreten von Ai . Aus 0 ≤ ni ≤ n folgt 0 ≤ P(Ai ) ≤ 1. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Allgemeines In der Praxis sind Wahrscheinlichkeiten meist relative Häufigkeiten: Zahl der günstigen Ausgänge Wahrscheinlichkeit = Zahl der möglichen Ausgänge Die Wahrscheinlichkeit des unmöglichen Ereignisses: P(unmöglich) = 0 oder P(O) = 0 Die Wahrscheinlichkeit des sicheren Ereignisses: P(sicher) = 1 oder P(E ) = 1 Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Ereignisse A und Ā Sei das Auftreten eines bestimmten Ereignisses mit A beschrieben und daher das nicht-Auftreten desselben Ereignisses mit Ā. Dann gilt für die Auftretenswahrscheinlichkeiten: PA + PĀ = 1 PĀ = 1 − PA P(A∪Ā) = 1 = PA + PĀ Prof. J. Seitz Zuverlässigkeitstheorie (1) (2) (3) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Verbundwahrscheinlichkeiten sich ausschließender Ereignisse Allgemein gilt für die Verbundwahrscheinlichkeit sich gegenseitig ausschließender Ereignisse A1 , A2 : P(A1 ∪A2 ) = PA1 + PA2 (4) oder allgemein für n sich gegenseitig ausschließende Ereignisse: P(A1 ∪A2 ∪A3 ∪···∪An ) = n X PAi i=1 Prof. J. Seitz Zuverlässigkeitstheorie (5) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Verbundwahrscheinlichkeiten sich nicht ausschließender Ereignisse Für beliebige Ereignisse A und B, die sich nicht ausschließen, gilt: P(A∪B) = PA + PB − P(A∩B) (6) Dies ist verträglich zu Gleichung 4, da bei sich gegenseitig ausschließenden Ereignissen A und B die Wahrscheinlichkeit, dass beide gleichzeitig auftreten, gleich 0 ist, d. h. P(A∩B) = 0 Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel – I Gegeben sei ein Kartenspiel mit 52 Karten. Gesucht sei die Wahrscheinlichkeit, dass beim Kartenziehen ein König gezogen wird (PK ). Lösung: PK = PKkreuz + PKpik + PKherz + PKkaro 1 1 1 1 + + + 52 52 52 52 = Prof. J. Seitz Zuverlässigkeitstheorie = 1 13 Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel – II Gegeben sei ein Kartenspiel mit 52 Karten. Gesucht sei nun die Wahrscheinlichkeit, dass eine Herz-Karte oder eine 4 gezogen wird. Lösung: Sei PHerz die Wahrscheinlichkeit, dass eine Herz-Karte gezogen wird, und P4 die Wahrscheinlichkeit, dass eine 4 gezogen wird. Diese Ereignisse schließen sich nicht aus, da das Ereignis “eine Herz-4 wurde gezogen” in beiden Ereignissen enthalten ist! Daher muss wie folgt vorgegangen werden: Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel – III 1 PHerz = 2 P4 = 1 13 3 PHerz 4 1 4 → es gibt vier Farben; → es gibt vier Karten mit 4; = 1 52 → genau die Herz-4 wird gezogen. Aus Gleichung 6 folgt: Prot∪4 = PHerz + P4 − PHerz 1 1 1 + − = 4 13 52 4 = 13 Prof. J. Seitz Zuverlässigkeitstheorie 4 Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit Die bedingte Wahrscheinlichkeit hat große Bedeutung in der Zuverlässigkeitstheorie. Es gilt: PA∩B = PB ∗ PA/B (7) PA∩B = PA ∗ PB/A PA∩B = PB PA∩B = PA (8) PA/B PB/A Prof. J. Seitz Zuverlässigkeitstheorie (9) (10) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei einem Kartenspiel – I Gesucht: Die Wahrscheinlichkeit, dass eine gezogene Karte die Herz-5 ist, wenn bereits bekannt ist, dass die gezogene Karte eine Herz-Karte ist. Sei dafür A das Ereignis, dass eine Herz-5 gezogen wurde und B das Ereignis, dass eine Herz-Karte gezogen wurde. Gesucht ist somit PA/B . Lösung: Es gilt 1 PA = 52 ; 1 PB = 4 ; 1 PA∩B = 52 (= PA ). Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei einem Kartenspiel – II Somit ist PA/B = = Prof. J. Seitz PA∩B PB PA PB = 1 52 1 4 = 1 13 Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei unabhängigen Ereignissen Wenn die Ereignisse unabhängig sind, d.h. wenn gilt PA/B = PA (Interpretation: Die Auftretenswahrscheinlichkeit von A ist unabhängig davon, ob B aufgetreten ist) gilt für die Wahrscheinlichkeit für das gemeinsame Auftreten dieser Ereignisse: n Y PA1 ∩A2 ∩A3 ∩···∩An = PAi (11) i=1 Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Zufallsvariablen Zufallsvariablen, die interessierende Beobachtungsgegenstände beschreiben, können kontinuierlich oder diskret sein: Zufallsvariablen sind diskret, wenn ein zufälliges Ereignis endlich viele oder abzählbar unendlich viele Werte annehmen kann. Beispiele sind somit das Auftreten einer bestimmten Karte in einem Kartenspiel, das Erscheinen einer bestimmten Zahl bei einem Würfelspiel oder die Anzahl von defekten respektive funktionierenden Einheiten eines Ensembles. Bei stetigen Zufallsvariablen ist die Menge der möglichen Ereignisse nicht abzählbar. Hierzu können beispielhaft Zeit, Temperatur, Spannung u.s.w. genannt werden. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Beispiel: Würfeln – I Prinzipiell kann es beim Würfeln mit genau einem Würfel sechs mögliche Ereignisse geben. Der Ereignisvektor ist somit E = [x1 , x2 , x3 , x4 , x5 , x6 ] = [1, 2, 3, 4, 5, 6]. Die Wahrscheinlichkeitsdichte f (x) ist dann die Zuordnung genau eines Wahrscheinlichkeitswertes zu jedem möglichen Ereignis, d.h. zu jedem Element des Ereignisvektors: P(X = xi ) = P(xi ) = f (xi ) (12) Da die xi den gesamten Ereignisraum bilden, es also keine anderen Ereignisse geben kann, gilt immer: X P(xi ) = 1 (13) ∀i Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Beispiel: Würfeln – II Für das Beispiel des Würfelns ergibt sich 1 f (xi ) = 6 Das Auftreten der einzelnen Zahlen ist also gleich wahrscheinlich. Über die angegebene Bedingung X X P(xi ) = f (xi ) ∀i ∀i = X1 ∀i 6 1 =1 6 kann man auch die Plausibilität dieser Funktion überprüfen. = 6∗ Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Verteilungsfunktion Die Verteilungsfunktion gibt dann an, wie wahrscheinlich es ist, dass ein Ereignis innerhalb eines bestimmten Bereiches eintritt. Sie wird auf der Basis der Wahrscheinlichkeitsdichte definiert als F (xi ) = P(X ≤ xi ) X = f (xi ) (14) (15) X ≤xi Eine Verteilungsfunktion ist somit monoton wachsend und hat als Grenzwerte 0 und 1. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion beim Würfeln f(x) 1 F(x) 1/6 x 1 2 3 4 5 6 Prof. J. Seitz x 1 2 3 Zuverlässigkeitstheorie 4 5 6 Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Stetige Zufallsvariablen Betrachtet man nun Wahrscheinlichkeitsdichte und -verteilung einer stetigen Zufallsvariablen, so ist offensichtlich, dass diese ebenfalls stetig sind. Die Wahrscheinlichkeitsverteilung gibt dabei wiederum an, mit welcher Wahrscheinlichkeit ein zufälliger Wert eines Vorganges kleiner als das übergebene Argument x ist: F (x) = P(X ≤ x). Die Wahrscheinlichkeitsdichte ergibt sich aus f (x) = F 0 (x): Zk F (k) = P(X ≤ k) = f (y ) dy (16) −∞ F (−∞) = 0 (17) F (∞) = 1 (18) Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Beispiel für stetige Zufallsvariablen I Ein elektrisches Signal hat eine zufällige Spannung X im Bereich zwischen 0 und 1 V. Die Auftretenswahrscheinlichkeit ist im angegebenen Intervall gleich. Damit ergibt sich folgende Wahrscheinlichkeitsdichte: Die Fläche unter der Wahrscheinlichkeitsdichtefunktion ist gleich 1. Die Wahrscheinlichkeit für das Auftreten einer Spannung genau x ist gleich 0, da der Vorrat an möglichen Werten unendlich groß ist. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Beispiel für stetige Zufallsvariablen II Für stetige Zufallsvariablen ist die Wahrscheinlichkeit dafür, dass genau ein Wert auftritt, immer gleich 0. Es kann lediglich eine Wahrscheinlichkeit dafür angegeben werden, dass ein gemessener oder anders ermittelter Wert in einem spezifizierten Intervall liegt. Diese Wahrscheinlichkeit ergibt sich aus Zx2 P(x1 < X ≤ x2 ) = f (x) dx (19) x1 Wichtig Mit der Dichte- oder Verteilungsfunktion einer Zufallsvariablen ist damit deren vollständige Beschreibung möglich. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Wichtige Werte Oftmals sind Aussagen über das mittlere Gesamtverhalten einer Zufallsvariablen ausreichend. Die wichtigsten Aussagen, die über eine Zufallsvariable getroffen werden können, sind deren Mittelwert oder Erwartungswert; deren quadratischer Mittelwert; deren mittlere quadratische Abweichung Diese werden im Folgenden kurz behandelt. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen (Linearer) Mittelwert einer diskreten Zufallsvariablen Der Mittelwert einer diskreten Zufallsvariablen berechnet sich aus m1 = = = = = m E [X ] x̄ P xi ∗Ni ∀xi P N P(xi ) ∗ xi ∀xi Prof. J. Seitz Zuverlässigkeitstheorie (20) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen (Linearer) Mittelwert einer stetigen Zufallsvariablen Für stetige Zufallsvariablen gilt: Z∞ x ∗ f (x) dx m= −∞ Prof. J. Seitz Zuverlässigkeitstheorie (21) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Beispiel: Dreiecksverteilung I Diese ensteht bei der Summe von zwei unabhängigen, gleichverteilten R(0, 1) Zufallsvariablen [1]. Die Wahscheinlichkeitsdichte ist somit gegeben durch 0≤x <1 x, 2 − x, 1 ≤ x < 2 f (x) = 0, sonst (22) Die Verteilungsfunktion errechnet sich durch Integration, die der Übung überlassen bleibt. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Beispiel: Dreiecksverteilung II 1.2 f(x) 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -1 -0.5 0 0.5 Prof. J. Seitz 1 1.5 2 Zuverlässigkeitstheorie 2.5 3 Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Quadratischer Mittelwert Der quadratische Mittelwert gibt darüber Auskunft, wie stark die Zufallsvariable um den Wert 0 streut. Für diskrete Zufallsvariablen gilt: X m2 = E [x 2 ] = P(xi ) ∗ xi2 (23) ∀xi Der quadratische Mittelwert für stetige Zufallsvariablen dagegen berechnet sich aus Z∞ m2 = x 2 ∗ f (x) dx −∞ Prof. J. Seitz Zuverlässigkeitstheorie (24) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Mittlere quadratische Abweichung Die mittlere quadratische Abweichung, auch Zentralmoment zweiter Ordnung oder Varianz genannt, ist ein Maß dafür, wie stark eine Zufallsvariable um ihren Mittelwert streut. Im Fall einer diskreten Zufallsvariablen ergibt sich die Varianz wie folgt: X µ2 = E [(x − x̄)2 ] = (xi − x̄)2 ∗ P(xi ) (25) ∀xi Bei stetigen Zufallsvariablen gilt dann allgemein: Z∞ µ2 = (x − x̄)2 ∗ f (x) dx −∞ Prof. J. Seitz Zuverlässigkeitstheorie (26) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Zusammenhang Der Zusammenhang zwischen linearem, quadratischem Mittelwert und der mittleren quadratischen Abweichung lässt sich einfach herleiten: µ2 = m2 − m12 Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Bernoulli-Experiment Interessiert bei einem Versuch lediglich das Auftreten eines gegebenen Ereignisses A oder ¬A, so kann das Versuchsergebnis durch eine Zufallsvariable X beschrieben werden, die nur zwei Werte annimmt: X = 1, wenn das Ereignis A eintritt X = 0, wenn A nicht eintritt. Die Wahrscheinlichkeit, dass das Ereignis A eintritt, sei mit p gegeben. Daraus lassen sich ableiten: E [X ] = 1 ∗ p + 0 ∗ (1 − p) = p 2 2 2 E [X ] = 1 ∗ p + 0 ∗ (1 − p) = p 2 2 Var [X ] = E [X ] − E [X ] 2 2 = 1 ∗ p − p = p ∗ (1 − p) Prof. J. Seitz Zuverlässigkeitstheorie (27) (28) (29) (30) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Binomialverteilung Für die Wahrscheinlichkeit, dass das Ereignis A bei n Versuchen genau k-mal auftritt, gilt dann die Binomialverteilung: n Pk (X = k) = p k (1 − p)n−k (31) k Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Binomialverteilung – Erklärung Auf diese Formel kommt man ganz anschaulich, indem man sich die möglichen Kombinationen betrachtet, die zum gewünschten Ereignis führen. Eine Möglichkeit ergibt sich daraus, dass die ersten k Versuche bereits A als Resultat haben. Dann müssen die restlichen (n − k) Versuche ¬A zum Ergebnis haben. Die Wahrscheinlichkeit hierfür ist p k (1 − p)n−k , da die einzelnen Versuche unabhängig voneinander sind. n Insgesamt gibt es unabhängige Kombinationen. k Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Verteilungsfunktion der Binomialverteilung Für die Verteilungsfunktion gilt dann x X n F (x) = P(X ≤ x) = p i (1 − p)n−i i i=0 Prof. J. Seitz Zuverlässigkeitstheorie (32) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Poisson-Verteilung Die Poisson-Verteilung ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen Durchführen eines Bernoulli-Experiments entsteht. Führt man ein solches Experiment sehr oft durch und ist die Erfolgswahrscheinlichkeit gering, so ist die Poisson-Verteilung eine gute Näherung für die entsprechende Wahrscheinlichkeitsverteilung. Sie gibt somit an, mit welcher Wahrscheinlichkeit eine bestimmte Anzahl statistisch unabhängiger Ereignisse auftritt. Die Abstände, in denen die Ereignisse eintreten, sind dabei exponentiell verteilt. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Mathematische Beschreibung der Poisson-Verteilung Verteilungsdichte der Poisson-Verteilung: f (k) = Pλ (X = k) λk −λ e = k! (33) (34) Verteilungsfunktion der Poisson-Verteilung F (k) = Pλ (X ≤ k) = k X i=0 Prof. J. Seitz λi −λ e i! Zuverlässigkeitstheorie (35) (36) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Poisson-Verteilung mit λ = 6 Quelle: http://de.wikipedia.org/w/index.php?title=Bild: Poisson-lambda6.png&filetimestamp=20050723201419 Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Normalverteilung Viele quantitative Größen konzentrieren sich oft um einen bestimmten Wert und größere Abweichungen sind eher selten. ⇒ Glockenkurve Normalverteilung dient als Approximation eines solchen Verhaltens. Unter bestimmten Voraussetzungen kann man auch theoretisch zeigen, dass die Verteilung einer Summe von unabhängigen “ Zufallsvariablen gegen die Normalverteilung ” strebt. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Dichte der Normalverteilung Die Dichte der Normalverteilung – bezeichnet mit N(µ, σ 2 ) – ist gegeben durch f (x) = √ (x−µ)2 1 e − 2σ2 , µ, x ∈ (−∞, ∞), σ > 0 2πσ wobei µ einen Ortsparameter (das Mittel) und σ einen Skalierungsparameter darstellen [2]. Prof. J. Seitz Zuverlässigkeitstheorie (37) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Dichte der Normalverteilung Quelle: http://de.wikipedia.org/w/index.php?title=Bild: Normal_density.svg&filetimestamp=20080316210707 Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Verteilungsfunktion der Normalverteilung Die Verteilungsfunktion ist natürlich das Integral über f , d. h. Zx F (x) = Zx f (t)dt = −∞ −∞ √ (t−µ)2 1 e − 2σ2 dt 2πσ Ihre Berechnung ist nicht ganz einfach, entsprechende Werte werden üblicherweise Tabellen entnommen. Prof. J. Seitz Zuverlässigkeitstheorie (38) Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Standard-Normalverteilung I Betrachten wir nun die transformierte Zufallsvariable Z = X σ−µ , wobei X N(µ, σ 2 ) verteilt ist. Die Verteilungsfunktion G(z) wird zu G (z) = P(Z ≤ z) X −µ = P( ≤ z) σ = P(X ≤ zσ + µ) = F (zσ + µ) zσ+µ Z (t−µ)2 1 √ = e − 2σ2 dt 2πσ −∞ Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Standard-Normalverteilung II Die Transformation der Integrationsvariablen t → zσ + µ liefert Zz G (z) = −∞ Zz = t2 1 √ e − 2 dt 2π g (t)dt −∞ Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Standard-Normalverteilung III G und g werden dann Verteilungsfunktion bzw. Dichtefunktion der Standard-Normalverteilung N(0,1) genannt, die manchmal auch mit Φ respektive φ bezeichnet werden. Die Verteilung heißt auch Gauß’sch. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Beispiel I Ein Psychologe benutzt ein Instrument, das ihm Werte liefert, die N(500, 10.000) verteilt sind. Gesucht ist die Wahrscheinlichkeit, dass ein Wert kleiner oder gleich 600 ist. 600 − 500 X − 500 ≤ ) 100 100 = P(Z ≤ 1) P(X ≤ 600) = P( = G (1) = 0.8413 Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Beispiel II Wie groß ist die Schranke, unter der ein Wert mit 95% Wahrscheinlichkeit liegt? 0.95 = P(X ≤ x) x − 500 X − 500 ≤ ) = P( 100 100 x − 500 = G( ) 100 Aus der Tabelle folgt x = 664 ergibt. x−500 100 = 1.64, woraus sich die Schranke Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Exponentialfunktion Die Exponentialverteilung hat die Dichtefunktion f (t) = λe −λt , t ≥ 0, λ > 0 (39) und die Verteilungsfunktion F (t) = 1 − e −λt , t ≥ 0, λ > 0 (40) Diese Verteilung wird im weiteren Verlauf der Vorlesung mit anderen wichtigen Verteilungen zur Modellierung des Zuverlässigkeitsverhaltens genauer behandelt. Prof. J. Seitz Zuverlässigkeitstheorie Gesetz der großen Zahlen von Bernoulli Erste Grundlagen Diskrete und kontinuierliche Zufallsvariablen Wahrscheinlichkeitsdichte und Verteilungsfunktion Mittelwerte von Zufallsvariablen Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Literatur R. Dutter, “Einführung in die wahrscheinlichkeitsrechnung und statistik (für informatiker).” http: //pc2.statistik.tuwien.ac.at/public/dutt/inf/, Sommersemester 1998/99. Skriptum zur Vorlesung an der Technischen Universität Wien. W. Gromes, “Mathematik für biologen und humanbiologen.” http://www.mathematik.uni-marburg.de/~gromes/ biologen.html, Wintersemester 2000/2001. Skript zur Vorlesung an der Universität Marburg. Prof. J. Seitz Zuverlässigkeitstheorie