Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 1 Grundlagen der Mengenlehre (2) Auflistung der Elemente Beschreibung der Eigenschaften M 1 = {m1, m2 , m3} M 2 = {x | x ∈ ¥ ∧ x ≤ 4} à ⊂ = "ist Teilmenge von" bzw. ⊄ = "ist nicht Teilmenge von" à Nullmenge, leere Menge ∅ ={ } à Komplement, Komplementmenge à Vereinigungsmenge ("oder") à Schnittmenge ("und") à Differenzmenge ("minus") Mengenalgebra à Kommutativgesetze A A∪ B A∩ B A\B = A ∩ B A ∩ B = B∩ A A ∪ B = B∪ A à Assoziativgesetze ( A ∩ B) ∩ C = A ∩(B ∩C ) ( A ∪ B) ∪ C = A ∪(B ∪C ) à Distributivgesetze A ∩ ( B ∪ C ) = ( A∩ B ) ∪ ( A ∩ C ) A ∪ ( B ∩ C ) = ( A∪ B ) ∩ ( A ∪ C ) à De-Morgansche Gesetze A∩ B = A ∪ B A∪ B = A ∩ B Der Wahrscheinlichkeitsbegriff (3) Zufallsexperiment (ZE) à mehrere Versuche unter selben Bedingungskomplex mit nicht vorhersagbaremAusgang • • • • Versuchsausgang = Ereignis Menge aller möglichen Ereignisse = sicheres Ereignis Ω (endlich viele, abzählbar unendlich viele, überabzählbar unendlich viele Elemente) unmögliches Ereignis ∅ ={ } disjunkte Ereignisse A∩ B = ∅ (auch: unvereinbar, unverträglich) Elementarereignisse à nicht als Vereinigung zweier disjunkter, von ∅ verschiedener Ereignisse darstellbar à Merkmalsmenge Ω = Menge sämtlicher Elementarereignisse à Ω = {ω1 , ω2 ,....} Relative Häufigkeit hN ( A) absolute Häufigkeit = N Anzahl N der Versuche es gilt: 0 ≤ rN ( A ) ≤ 1 ⇒ normierte Größe (Konvergenz bei steigender Versuchsanzahl erkennbar, jedoch nicht deterministisch à Achtung: P = lim rN ( A) !!!!!!!) à rN ( A) = N →∞ © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 2 Wahrscheinlichkeit nach Kolmogorov à Wahrscheinlichkeit P = auf System S von Ereignissen definiertes Maß, dass Axiome erfüllt System à Menge aller möglichen Teilmengen der Merkmalsmenge à Komplement, Durchschnitt, Vereinigung von Ereignissen des Systems führen wieder zu Ereignissen des Systems Axiome K I: K II: K III: P( A ) ≥ 0 P( Ω ) = 1 P( A ∪ B) = P( A) + P( B) für A ∩ B = ∅ (nichtnegative Zahl) (normiert) (Additivität) falls Merkmalsmenge abzählbar unendlich viele Elementarereignisse hat à ∞ K III': ∞ P( ∪ Ai ) = ∑ P ( Ai ) i =1 für paarweise disjunkte Ereignisse Ai i =1 Wahrscheinlichkeit nach Laplace Laplace-Experiment à spezielles Zufallsexperiment, für das gilt L I: Ω = {ω1 ,...., ωm } , m endlich (endliche Merkmalsmenge) L II: P(ω1 ) = .... = P(ωm ) (gleichwahrscheinlich) Laplace'sche Wahrscheinlichkeit g Anzahl der fürAgünstigen Elementarereignisse L III: P( A) = = m Gesamtzahl allermöglichen Elementarereignisse Zusammenhang zwischen den Begriffen • • relative Häufigkeit und Laplace'sche Wahrscheinlichkeit erfüllen Kolmogorov-Axiome L III berechnet Wahrscheinlichkeit, rN ( A) nur Näherungswert à Güte der Näherung für große N (statistische Wahrscheinlichkeit) P ( A) ⋅ (1 − P ( A)) 1 P( rN ( A) − P( A) > ε ) < ≤ 2 2 N ⋅ε 4 ⋅ N ⋅ε Gesetz der großen Zahlen: lim P ( rN ( A) − P( A) > ε ) = 0 N →∞ ⇒ "stochastische Konvergenz" © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 3 Rechnen mit Wahrscheinlichkeiten (4) Wahrscheinlichkeiten verknüpfter Ereignisse komplementäres Ereignis Normiertheit unmögliches Ereignis sich nachziehende Ereignisse P( A ) = 1 − P( A) bzw. P( A ) ≤ 1 P(∅ ) = 0 P( A) ≤ P( B) für A ⊂ B beliebige vereinigte Ereignisse P( A ∪ B) = P ( A) + P ( B) − P( A ∩ B ) P( A ) = 1 − P( A) Bedingte Wahrscheinlichkeiten " A / B " à A unter der Bedingung B P ( A ∩ B) P( A / B) = für P( B ) ≠`0 P( B) P( A ∩ B) = P ( A) ⋅ P( B / A) = P( B ) ⋅ P ( A / B) à Multiplikationssatz: à allgemeine Form: P( A1 ∩ A2 ∩ .... ∩ An ) = P ( A1 ) ⋅ P( A2 / A1 ) ⋅ P ( A3 / A1 ∩ A2 ) ⋅ .... ⋅ P ( An / A1 ∩ A2 ∩ ... ∩ An −1 ) vollständige Ereignisdisjunktion Ω = A1 ∪ A2 ∪ ... ∪ An mit Ai ∩ Ak = ∅ ∀ i ≠ k à Satz von der vollständigen Wahrscheinlichkeit n P( B ) = ∑ P( B / Ai ) ⋅ P( Ai ) mit Ai ∩ Ak = ∅ ∀ i ≠ k und P( Ai ) > 0 ∀i i =1 à Bayes'sche Formel P( B / Ak ) ⋅ P( Ak ) P( Ak / B ) = n ∑ P(B / Ai )⋅ P( Ai ) i =1 mit Ai ∩ Ak = ∅ ∀ i ≠ k , P( Ai ) > 0 ∀i , P( B )> 0 Stochastische Unabhängigkeit (5) à Ereignis A heißt stochastisch unabhängig von Ereignis B, falls gilt à A stochastisch unabhängig von B ⇒ es gilt: (Umkehrung erlaubt!) P( A / B) = P( A/ B) P( A) = P( A/ B) P( A ∩ B ) = P( A) ⋅ P( B) [Anm.: o.g. Gleichungen sind äquivalent zueinander !] à Für A, B mit 0 < P ( A) bzw. P( B ) < 1 gilt: Ist A unabhängig von B, dann ist auch B unabhängig von A und umgekehrt! © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 4 Stochastische Unabhängigkeit von n Ereignissen à A1 , A2 ,...., An heißen vollständig stochastisch unabhängig, wenn für jede Auswahl von zwei und mehr Ereignissen Ai1 , Ai2 ,...., Aik mit verschiedenen Indizes gilt: P( Ai1 ∩ Ai2 ∩ ... ∩ Aik ) = P( Ai1 ) ⋅ P ( Ai2 ) ⋅ ... ⋅ P ( Aik ) für 2 ≤ k ≤ n ( 2 n − n − 1 Gleichungen) à vollständig stochastisch unabhängige Ereignisse sind immer auch paarweise stochastisch unabhängig (Umkehrung gilt nicht) à A1 ,..., Ai ,..., An seien vollständig stochastisch unabhängig. Ersetzt mal beliebige Ai ,... durch Ai ,... , dann bleiben A1 ,..., Ai ,..., An vollständig stochastisch unabhängig. Stochastisch unabhängige, disjunkte und sich nachziehende Ereignisse • Sich nachziehende Ereignisse A, B nie disjunkt und immer stochastisch abhängig. ( für A ⊂ B gilt A∩ B = A ≠ ∅ à somit P( A ∩ B) = P ( A) ≠ P ( A) ⋅ P( B ) ) • Disjunkte Ereignisse A, B immer stochastisch abhängig Gesetze für disjunkte und stochastisch unabhängige Ereignisse A, B disjunkt A, B stochast. unabhängig A∪ B P( A ∪ B) = P( A) + P( B) P( A ∪ B) = P ( A) + P ( B) − P( A) ⋅ P( B) A∩ B P( A ∩ B) = 0 P( A ∩ B ) = P( A) ⋅ P( B) Zuverlässigkeitstheorie • Eigenschaft von System oder Systemkomponente beabsichtigte Funktion zu erfüllen (best. Randbedingungen, best. Zeit) • zahlenmäßige Beurteilung à Verfügbarkeit (Wahrscheinlichkeiten bestimmter Ereignisse) à Festlegung Ki = Ereignis, dass i-te Komponente eines Systems verfügbar P( K i ) = Verfügbarkeit von Ki Ki = P( K i ) = Ereignis, dass i-te Komponente nicht verfügbar ist Unverfügbarkeit von Ki à es gilt: P( K i) = 1 − P( Ki ) à analog für aus Komponenten zusammengesetzte Systeme S = Ereignis, dass Gesamtsystem Funktion erfüllt P(S) = Verfügbarkeit des Gesamtsystems • Gesucht: Verfügbarkeit des Gesamtsystems à Annahme: alle n Komponenten seien vollständig stochastisch unabhängig © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 5 Wahrscheinlichkeit von Verbundexperimenten (6) Allgemeines Verbundexperiment à mehrere Zufallsexperimente im Verbund betrachtet • Das Verbundexperiment aus den beiden Einzelexperimenten ZE1 , ZE2 mit Ω1 = {ω11 ,ω12 ,..., ω1n } und Ω 2 = {ω21, ω 22 ,...,ω 2m } besitzt als Merkmalsmenge ΩV das kartesische Produkt ΩV = Ω1 × Ω 2 = {(ω11, ω21 ) ,..., (ω11, ω2 m ) , (ω12 ,ω 21 ) ,..., ( ω1n , ω 2m )} (à n ⋅ m geordnete Paare) • Zufallsexperimente ZE1 , ZE2 mit Ω 1 , Ω 2 heißen stochastisch unabhängig, wenn für alle Elemente von Ω V gilt: P(ω1i , ω2 k ) = P(ω1i )⋅ P (ω 2 k ) ∀ i, k • Verbundexperiment aus p Einzelexperimenten ZE1 , ZE2 , ..., ZEp mit den Merkmalsmengen Ω 1 , Ω 2 , ...,Ω p à Merkmalsmenge: ΩV = Ω1 × Ω2 × ... × Ω p ⇒ stochastisch unabhängig, wenn für alle Elemente von Ω V gilt: P(ω1i , ω2 k ,..., ω pj ) = P (ω1i ) ⋅ P (ω 2k ) ⋅ ... ⋅ P (ω pj ) ∀i , k ,..., j Bernoulli-Experiment à n-malige Wiederholung desselben Experimentes, mit Ergebnissen A und A à P(A) muß in allen Einzelexperimenten gleich sein • Bernoulli-Experment = Verbundexperiment, das aus n-maliger Durchführung des gleichen Einzelexperiments mit den Ausgängen A, A besteht. Dabei sind alle n Einzelexperimente vollständig stochastisch unabhängig. Für Einzelexperiment in der i-ten Durchführung (i) gilt: Ω (i ) = A( i) ∪ A( i) i = 1,..., n P( A(i ) ) = P( A) = p i = 1,..., n Binomial-Wahrscheinlichkeitsverteilung • Bn ,k : Ereignis A mit P( A) = p tritt in Bernoulli-Experiment vom Umfang n genau k mal ein à Einzelexperimente: P(ωG ) = p k ⋅ (1 − p ) n− k • Satz aus Kombinatorik n Dinge, von denen jeweils n1 , n2 ,...nr gleich sind, wobei gilt n1 + n2 + ... + nr = n , können n! auf N Σ = Arten angeordnet werden n1 !⋅ n2 !... ⋅ ⋅ nr ! n! n ⇒ hier: n1 = k , n2 = n − k → NΣ = = k !⋅ (n − k )! k © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) • • • Seite 6 n → P( Bn, k ) = pn,k = ⋅ p k ⋅ (1 − p) n− k k Darstellung der Ergebnisse als Folge k , pn,k mit k = 0,1,..., n ⇒ Binomialverteilung Vereinigung der n + 1 disjunkten Ereignisse Bn,0 , Bn,1,..., Bn , n stellt das sichere Ereignis n ∑p dar. Es gilt mit pn ,k = P( Bn,k ) : n ,k =1 k=0 Polynomial-Wahrscheinlichkeitsverteilung à Verallgemeinerung der Binomialverteilung à Einzelexperimente haben r statt 2 disjunkte Ausgänge • • erweitertes Bernoulli-Experiment ist ein Verbundexperiment, das aus der n-maligen Durchführung des gleichen Einzelexperimentes mit den paarweise disjunkten Ausgängen A1 , A2 , ...., Ar besteht. Dabei alle n Einzelexperimente vollständig stochastisch unabhängig. Für Einzelexperiment in der i-ten Durchführung (i) gilt: (i ) (i ) (i ) (i ) Ω = A1 ∪ A2 ∪ ... ∪ Ar wobei j = 1,..., r und i = 1,..., n P( A(ji ) ) = P( Aj ) = p j P( Bn, k1 ,k2 ,..., kr ) = pn, k1 ,k 2 ,..., kr = n! ⋅ p1k1 ⋅ p2k 2 ⋅ ... ⋅ prkr k1 !⋅ k2 !... ⋅ ⋅ kr ! Zufallsvariable, Verteilungs-, Dichtefunktion (7) • Zuordnungsvorschrift, welche jedem Elementarereignis ω aus Ω eine reelle Zahl X zuordnet, heißt Zufallsvariable oder Zufallsgröße X (ω ) Es muss gelten: P( X = −∞ ) = 0 und P ( X = ∞ ) = 0 à Definitionsbereich sind Elemente der Merkmalsmenge Ω { } à Wertebereich der ZV: WX = X | X = X (ω ) und ω ∈ Ω • Zufallsvariable heißt diskret wenn WX endlich viele oder abzählbar unendlich viele Elemente, stetig wenn WX überabzählbar unendlich viele Elemente besitzt. • Relationen von X auf WX legen Ereignisse fest, das unmögliche und das sichere Ereignis eingeschlossen. Verteilungsfunktion à Wahrscheinlichkeitsverteilungsfunktion • • • Verteilungsfunktion einer Zufallsvariablen X ist definiert als FX ( x) = P ( X ≤ x) Index à Name der ZV, Argument à beliebiger Wert der reellen Zahlengerade kumulierende Eigenschaft à mit wachsendem x können in X ≤ x nur weitere Ereignisse hinzukommen ⇒ Wahrscheinlichkeit für Eintreten von X ≤ x kann für wachsendes x nie abnehmen (nur gleich bleiben oder anwachsen) © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 7 Eigenschaften der Verteilungsfunktion • F ( −∞ ) = 0, F ( +∞ ) = 1 • • • • aus x1 < x2 folgt F ( x1 ) < F (x2 ) ⇒ F ist monoton wachsend P ( X > x ) = 1 − F ( x) P( x1 < X ≤ x2 ) = F ( x2 ) − F ( x1 ) P( X = x) = F ( x + ) − F ( x− ) ( F ( x + ), F ( x− ) à rechts-/linksseitiger Grenzwert) [à nur bei unstetigem F(x) ist P( X = x ) ≠ 0 ] • Funktionswert an Unstetigkeitsstelle: F ( x) = F ( x + ) [F ist rechts-stetig] Dichtefunktion à definiert anhand von Verteilungsfunktion • • Dichtefunktion einer ZV X ist definiert als f x ( x) = durch Integration: x Fx ( x ) = ∫ dFx ( x ) dx f x (ξ ) dξ −∞ Eigenschaften der Dichtefunktion • • • ∞ ∫ f ( x) dx = 1 −∞ f ( x ) ≥ 0 , da F(x) monoton steigend f (−∞ ) = 0, f (+∞ ) = 0 Momente und Zentralmomente (9) Definition und Bedeutung des Erwartungswertes • Die diskrete ZV X mit dem Wertebereich Wx = {x1 ,..., xn } besitzt den Erwartungswert n E ( X ) = µ x = ∑ xi ⋅ P( X = xi ) i =1 [Erwartungswert als mittlerer Wert der Realisierungen der ZV bei sehr vielen Versuchen interpretierbar] à Erweiterung auf stetige ZV (gilt auch für diskrete ZV) ∞ • Für Erwartungswert einer ZV X gilt: E ( X ) = µ x = ∫ x ⋅ fx ( x )dx −∞ Eigenschaften und Berechnung des Erwartungswertes allgemeine Eigenschaften • µ x muss nicht gleich dem arithmetischen Mittelwert der Elemente von WX sein • µ x muss nicht identisch mit einem Element von WX sein • stetige ZV: µ x muss nicht identisch mit Abszisse xM des Maximums der Funktion f x ( x) sein © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) • Seite 8 µ x ist identisch mit der Abszisse des Flächenschwerpunktes der Funktion f x ( x) ∞ [folgt aus E ( X ) = ∫ ∞ x ⋅ fx ( x) dx x = −∞ 1 ∫ x ⋅ f (x )dx −∞ ∞ ∫ ] f x ( x ) dx −∞ • • bei einer um x = xS symmetrischen Dichtefunktion f x ( x) gilt: E ( X ) = xS ∞ ∫ g (x ) ⋅ f E (Y ) = µ y = Erwartungswert der transformierten ZV Y = g ( x) : x ( x) dx −∞ • • E ( a ⋅ X + b) = a ⋅ E ( X ) + b Linearitätsgesetz des Erwartungswertes: geometrischer Zusammenhang zwischen µ x und der Verteilungsfunktion ∞ à bei gegebener Verteilungsfunktion Fx ( x ) gilt: E ( X ) = µ x = ∫ [1 − Fx ( x ) − Fx ( − x)]dx 0 Varianz und Standardabweichung ∞ • Varianz σ x2 der ZV X ist der Erwartungswert σ x2 = E ( ( X − µ x) 2 ) = ∫ ( x − µ x ) 2 ⋅ f x ( x ) dx −∞ 2 positive Wurzel aus Varianz heißt Standardabweichung (Streuung): σ x = + σ x • • σ x2 für ε > 0 ε2 Zusammenhang zw. Erwartungswert und Varianz: σ x2 = E ( X 2 ) − µ x2 Tschebyscheff Ungeleichung: P (| X − µ x |≥ ε ) ≤ Verallgemeinerte Momente • Unter dem verallgemeinerten Moment k-ter Ordnung der zur ZV X gehörenden Dichtefunktion f x ( x) versteht man den Erwartungswert E ( ( X − a) k ) = • ∞ ∫ ( x − a) k ⋅ f x ( x) dx −∞ wichtige Spezialfälle: a=0 a = µx Momente mk = E ( X ) k • Zentralmomente sk = E ( ( X − µ x ) k ) k = 0: k = 1: m0 = 1 m1 = µ x s0 = 1 s1 = 0 k = 2: m2 = E ( X 2 ) s2 = σ x2 k = 3: m3 = E ( X 3 ) Maß für Schiefe der Verteilungsfunktion: M S = s3 = E ( ( X − µ x ) 3 ) E (( X − µx )3 ) σ 3 x = s3 3 s2 2 symmetrische Dichtefunktion: MS = 0 ⇒ Schiefe = Maß für Abweichung von symmetrischer Verteilung © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 9 Spezielle Verteilungen diskreter ZV (10) Grundlegende Zusammenhänge diskreter ZV • • Unter der Verteilung der diskreten ZV X mit dem Wertebereich Wx = {x1, x2 ,..., xn} mit xi+1 > xi verstehen wir die Folge der Zahlenpaare [ xi , P ( X = xi ) ] , i = 1,..., n • Verteilung tabellarisch oder grafisch darstellbar Verteilungsfunktion der diskreten ZV X: Fx ( x ) = P( X ≤ x ) = ∑ P( X = xi ) • à Treppenfunktion dFx ( x) n Dichtefunktion der diskreten ZV X: f x ( x) = = ∑ δ ( x − xi ) ⋅ P( X = xi ) dx i =1 à Dirac-Impulse • Erwartungswert einer diskreten ZV X: µ x = ∑ xi ⋅ P( X = xi ) xi ≤ x n i =1 • n Varianz einer diskreten ZV X: σ x2 = ∑ xi2 ⋅ P( X = xi ) − µ x2 i =1 Diskrete Gleichverteilung à einfachste Verteilung einer diskreten ZV • diskrete Gleichverteilung: [ xi , 1n ] i = 1,..., n à alle Elemente gleichwahrscheinlich ⇒ gleiche Sprunghöhen bei Dichtefunktion ⇒ gleiche Impulsgewichte bei Dichtefunktion 1 n • Erwartungswert: µ x = ∑ xi n i=1 • • 1 n 2 2 xi − µ x ∑ n i=1 stochastisches Mittel der ZV = arithmetisches Mittel der Elemente des Wertebereichs Varianz: σx = 2 Binomialverteilung à ZV: X = Anzahl der Ereignisse A mit p = P ( A) im Bernoulli-Experiment vom Umfang n • • n k n− k Binomialverteilung: k , ⋅ p ⋅ (1 − p ) für k = 0,1,..., n k B(n,p)-verteilt à "binomialverteilt beim Umfang n und der Einzelwahrscheinlichkeit p" µx = n ⋅ p Erwartungswert: • Varianz: • σ x2 = n ⋅ p ⋅ (1 − p) © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 10 Poissonverteilung à Näherung für Binomialverteilung • • • • λ k −λ Poisson-Verteilung: k , ⋅ e k! µx = λ Erwartungswert: k = 0,1,2,... und mit λ > 0 σ x2 = λ Varianz: Erwartungswert und Varianz gleich à näherungsweise auch bei Binomialverteilung, wenn p als "sehr klein" angenommen ⇒ Verteilung der seltenen Ereignisse Spezielle Verteilungen stetiger ZV (11) Stetige Gleichverteilung à einfachste Verteilung • • • • 1 f x ( x) = b − a 0 für x ∈ [ a ,b ] sonst X fällt mit gleicher Wahrscheinlichkeit in jedes gleich große Intervall zw. a und b a +b µx = Erwartungswert: 2 ( b − a) 2 σ x2 = Varianz: 12 Exponentialverteilung à oft Variablen, die Zeiten repräsentieren ⇒ können nur größer oder gleich Null sein ! für x < 0 0 f x ( x) = −λx für x ≥ 0, mit λ > 0 λ ⋅ e • bei gleich großen Intervallen auf x-Achse wir Wahrscheinlichkeit dass x in Intervall fällt nach rechts kleiner, jedoch niemals exakt 0 1 µx = • Erwartungswert: λ 1 σ x2 = 2 • Varianz: (à Standardabweichung = Erwartungswert) λ • © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 11 Erlangverteilung à realitätsnäher in best. Anwendungsfällen (z.B. Reparatur in 1.-2. Stunde) • • • • 0 f x ( x) = λ ⋅ e − λ x ⋅ (λ x) n−1 ( n − 1)! für x < 0 für x ≥ 0 mit λ > 0, n ∈ ¥ Exponentialverteilung für Spezialfall n = 1 n µx = Erwartungswert: λ n σ x2 = 2 Varianz: λ Normalverteilung • Standardnormalverteilung: f x ( x) = x² − 1 ⋅e 2 2π 1 damit Fläche unter Dichtefunktion = 1 2π µx = 0 Erwartungswert: à • • • Varianz: (wegen Symmetrie) σ =1 2 x (nicht normierte) Normalverteilung: f x ( x) = 1 σ x ⋅ 2π ⋅e − ( x − µ x )² 2 2⋅σ x "X ist N ( µ ,σ ²) -verteilt" also normalverteilt, mit o stochastischem Mittelwert µ o Varianz σ ² Gaußsche Glockenkurve • symmetrisch um x = µ 1 • Maximum bei x = µ σ ⋅ 2π • Wendepunkte bei x = µ ± σ • Hauptanteile f x ( x) > 0 zwischen µ − 3σ und µ + 3σ à sprich: • Integral für Verteilungsfunktion nicht geschlossen lösbar à numerische Lösung mit tabellarischer Angabe der Ergebnisse à Tabellen mit einem Parameter x, Integral der Standardnormalverteilung à wegen Symmetrie der Glockenkurve à Teilflächen mit x > 0 • Berechnung der Verteilungsfunktion bei nicht normierter Normalverteilung y−µ à Betrachten der Transformation ⇒ Fy ( y) = Fx ( ) σ à neues Argument in Standardnormalverteilung einsetzen à "Entnormierung" © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 12 Zuverlässigkeitstheorie als Anwendung stetiger ZV (12) Lebensdauer und Lebensdauerverteilungen • Zuverlässigkeitstheorie à Zufallsvariablen meist Zeiten ⇒ ZV = T ⇒ Wert auf reeller Zahlengerade = t TB = stetige ZV für Zeit von Inbetriebnahme bis Ausfallzeitpunkt à Betriebsdauer, Lebensdauer • Lebensdauerverteilungen (stetige Verteilungen, f TB (t ) = 0 für t < 0 und fTB ( t ) ≥ 0 für t ≥ 0 ) • • • fTB (t) = Ausfalldichte FTB (t ) = Ausfallwahrscheinlichkeit FTB (t) = P(TB ≤ t ) R(t ) = Überlebenswahrscheinlichkeit, Zuverlässigkeitsfunktion R(t ) = P(TB > t) = 1 − FTB (t ) à mit Exponentialverteilung f TB (t ) = λ ⋅ e − λt FTB (t ) = 1 − e− λt je mit λ > 0, t ≥ 0 −λ t R(t ) = e • bei exponentialverteilter Lebensdauer altert eine Komponente nicht, d.h. es gilt P ({t < TB ≤ t + ∆t }/{T B > t} ) = P({TB ≤ ∆t }) = P(∆ t) . fTB (t ) FT′B ( t ) R′( t ) d = =− = − (ln R (t) ) R( t ) R(t ) R (t ) dt Wahrscheinlichkeit des Ausfalls in ∆t [= ] ∆t à exponentialverteilte Lebensdauer d ⇒ Ausfallrate ist konstant λE (t ) = − (ln R(t )) = λ = const . dt • oft: Frühausfälle – eingefahrener Zustand – Spätausfälle à Badewannenkurve γ λH (t ) = α ⋅ t + α , β ,γ > 0 à Hjorth-Verteilung, IDB-Verteilung 1+ β ⋅t • Ausfallrate λ (t ) = Reparaturdauer und Reparaturdauerverteilungen TA = stetige ZV für die Zeit vom Ausfall bis zum Wiederinbetriebnahmezeitpunkt àAusfalldauer, Reparaturdauer • • Instandsetzungsdichte f TA ( t ) Instandsetzungswahrscheinlichkeit FTA ( t ) = P(TA ≤ t ) © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) • Instandsetzungsrate δ (t ) = − Seite 13 d [ ln(1 − FTA (t ) ] dt à Exponentialverteilung f TA ( t ) = δ ⋅ e− δt FTA ( t ) = 1 − e −δ t E (TA ) = µ A = mit δ > 0, t ≥ 0 1 δ Berechnung der Komponentenverfügbarkeit à geht davon aus, dass sich Betriebsphasen mit der ZV TB und Ausfall- oder Reparaturphasen mit der ZV TA aneinander anschließen • • E (TB ) = µT B = MTBF ( Mean timebetween failure) E (TA ) = µT A = MTTR ( Meantimetorepair ) Verfügbarkeit einer Komponente Ki à Exponentialverteilung P( K i ) := P( K i ) = MTBFi MTBFi + MTTRi 1 λ 1+ i δi Zweidimensionale Zufallsvariable (13) Einführung à ausgehend vom selben Experiment 2 ZV oder ZV aus 2 unterschiedlichen ZE • zwei Zuordnungsvorschriften, welche den Elementarereignissen eines oder zweier Zufallsexperimente reelle Zahlen X und Y zuordnen, heißen zweidimensionale Zufallsvariable (X,Y) [können diskret oder stetig sein, Paar kann auch beide enthalten] • Verbundverteilungsfunktion einer zweidimensionalen ZV (X,Y) Fxy ( x , y ) = P( X ≤ x, Y ≤ y) = P ( { X ≤ x} ∩{Y ≤ y}) à Wahrscheinlichkeit der Konjunktion zweier Ereignisse à Verbundverteilungsfunktion Fxy ( x , y ) = ∑ ∑ P( X = xi , Y = yi ) • Verbundverteilungsfunktion bei diskreten ZV xi ≤ x yi ≤ y Eigenschaften der Verbundverteilungsfunktion (unabhängig von Art der ZV) • Fxy ( −∞, y ) = 0 • Fxy ( x, −∞ ) = 0 • Fxy ( ∞ , ∞ ) = 0 • Verbunddichtefunktion einer zweidimensionalen ZV (X,Y) ∂ 2Fxy ( x, y ) f xy ( x , y ) = ∂x∂y © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 14 wichtige Eigenschaften der Verbunddichtefunktion • ∞ ∞ ∫∫ f xy (u , v )dudv = 1 à Volumen unter Gebirge = 1 −∞−∞ • f xy ( x , y ) ≥ 0 Randverteilung und Randdichte à Fxy ( x , y ) ist i.a. nicht aus Fx ( x ) und Fy ( y ) berechenbar, umgekehrt jedoch möglich à Analoges gilt für f xy ( x , y ) • Fx ( x ) und Fy ( y ) auch Randverteilungen genannt à Fxy ( x, ∞) = Fx ( x) = x ∞ ∫∫ f xy ( u, v) dvdu −∞−∞ mit Fx ( x ) = x ∫ f x (u ) du ⇒ f x ( x) = ∞ ∫ f xy (u , v) dv −∞ −∞ ⇒ Randdichte folgt durch Integration der Verbunddichte f x ( x) = • ∞ ∫ f xy ( x , y )dy −∞ Zusammenhang zw. Randdichten und der Verbunddichtenfunktion: f y ( y) = ∞ ∫ f xy ( x , y )dx −∞ • Verbunddichtefunktion enthält i.a. mehr Information als Randdichten Stochastische Unabhängigkeit von ZV à bisher: stochastische Unabhängigkeit von Ereignissen: P( A ∩ B ) = P( A) ⋅ P( B) à Übertragung auf zweidimensionale ZV à P ({ X ≤ x} ∩{Y ≤ y} ) = P( X ≤ x ) ⋅ P (Y ≤ y ) • Zufallsvariablen X und Y heißen stochastisch unabhängig, falls gilt Fxy ( x , y ) = Fx ( x) ⋅ Fy ( y ) ∀( x , y ) ∈ ¡ × ¡ "Verbundverteilung = Produkt der Randverteilungen" • Dichtefunktionen stochastisch unabhängiger ZV X und Y f xy ( x , y) = f x ( x) ⋅ f y ( y ) ∀( x , y) ∈ ¡ × ¡ "Verbunddichte bei stochastisch unabhängigen ZV gleich dem Produkt der Randdichten" Momente zweidimensionaler ZV (14) Transformation zweidimensionaler ZV à einfachste Möglichkeit: Z = h( X, Y) à Erwartungswert der transformierten ZV Z: E (Z ) = µ z = ∞ ∞ ∫ ∫ h( x, y) ⋅ f xy ( x , y )dxdy −∞−∞ © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 15 Z=X+Y • Erwartungswert einer Summe ist gleich der Summe der Erwartungswerte E ( X1 + X 2 + ... + X n ) = E ( X1 ) + E ( X 2 ) + ... + E( X n ) Z=X AY E ( X ⋅ Y) ≠ E ( X ) ⋅ E (Y ) • i.a. gilt: à Spezialfall • bei stochastisch unabhängigen ZV X und Y ist der Erwartungswert des Produkts gleich dem Produkt der Erwartungswerte. E ( X ⋅ Y) = E ( X ) ⋅ E (Y ) fürstoch. unabhängige X , Y Die Umkehrung dieses Satzes gilt nicht ! Verallgemeinerte Momente zweier ZV • Unter dem verallgemeinerten Moment k-ter Ordnung ( k = i + j ) der zur zweidimensionalen ZV (X,Y) gehörenden Verbunddichtefunktion f xy ( x , y ) versteht man den Erwartungswert E ( ( X − a )i ⋅ (Y − b) j ) = ∞ ∞ ∫ ∫ (x − a) ( y − b ) i j ⋅ f xy ( x , y )dxdy −∞−∞ für spezielle Zahlenwerte a,b: • für a = b = 0 à Momente mij k = 1: m10 = µ x m 01 = µ y k = 2: m20 = E ( X ²) m11 = E( X ⋅ Y) • für a = µ x , b = µ y à Zentralmomente sij k = 1: s10 = 0 s01 = 0 k = 2: s20 = σ x2 s11 = C xy m02 = E (Y ²) s02 = σ y2 mit Cxy = COV ( X , Y ) = E( X ⋅ Y ) − µ x µ y à Kovarianz von X und Y [vgl. Varianz σ x2 = E ( X ²) − µ 2x ] Unkorreliertheit und Korrelationskoeffizient à unkorreliert à schwanken unabhängig voneinander um die Null • Zwei ZV X und Y heißen unkorreliert, falls ihre Kovarianz verschwindet: Cxy = E ( ( X − µ x )(Y − µ y ) ) = 0 ⇒ es gilt dann: • E ( X ⋅ Y) = E ( X )⋅ E (Y ) ⇔ ZV X undYunkorreliert Als normiertes Maß für die Unkorreliertheit der ZV X und Y dienst der Cxy Korrelationskoeffizient: rxy = σ x ⋅σ y © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 16 à Eigenschaften von rxy • rxy = 0 ⇔ X und Y unkorreliert • −1 ≤ rxy ≤ 1 "Normiertheit des Korrelationskoeffizienten" à schwächste Korrelation bei rxy = 0 "Unkorreliertheit" à stärkste bei | rxy |= 1 "vollständige Korrelation" à negatives rxy "gegenseitig korreliert, antikorreliert" • | rxy |= 1 für linear abhängige ZV X und Y • Aus nachgewiesener Korrelation ( rxy ≠ 0 ) darf nicht zwingend auf kausale Abhängigkeit geschlossen werden. Stochastische Unabhängigkeit und Unkorreliertheit Aussagen für Unkorreliertheit X undYunkorreliert à ⇔ Cxy = 0 ⇔ rxy = 0 ⇔ E( X ⋅ Y ) = E( X )⋅ E(Y ) • Stochastisch unabhängige ZV X und Y sind stets unkorreliert. (Umkehrung gilt nicht!) Aussagen für stochastische Unabhängigkeit X undYstoch. unabhängig à ⇔ Fxy ( x , y ) = Fx ( x) ⋅ Fy ( y) ⇔ f xy ( x , y ) = f x ( x) ⋅ f y ( y ) ⇒ E ( X ⋅ Y) = E ( X ) ⋅ E (Y ) • Sind normalverteilte ZV X und Y unkorreliert, dann sind sie auch stochastisch unabhängig. Zufallsvektoren und Kovarianzmatrix (15) à Verallgemeinerung einer zweidimensionalen ZV auf n-dimensionale ZV • Zufallsvektor X ist ein Spaltenvektor, der als Elemente n Zufallsvariablen Xi enthält, die aus einem oder mehreren Zufallsexperimenten stammen können: X1 X T X = 2 = [ X 1 X 2 .... X n ] ..... X n [stetige, diskrete oder beide ZV-Typen; unterschiedliche Verteilungen möglich] • Verbundverteilungsfunktion des Zufallsvektors X Fx ( x ) = Fx ( x1 , x2 ,..., x n ) = P( X 1 ≤ x1 , X 2 ≤ x 2,..., X n ≤ xn ) [Ereignisse konjunktiv verknüpft: {X 1 ≤ x1} ∩ { X 2 ≤ x2 } ∩... ] © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) • Seite 17 Verbunddichtefunktion der zweidimensionalen ZV (X,Y) ist definiert als ∂F ( x ,x ,..., xn ) f x ( x) = f x (x1 , x2 ,..., xn ) = x 1 2 ∂x1∂x2 ...∂xn Randdichten, -verteilungen, stochastische Unabhängigkeit à m-dimensionaler Rand • Bei einem Zufallsvektor X mit n Elementen und gegebenen Verbundverteilungs- und Verbunddichtefunktionen Fx ( x ) und f x ( x) existieren für jedes gegebene 1 ≤ m ≤ n − 1 n genau verschiedene Randverteilungen und Randdichten. m • Aus Verbundverteilungsfunktion erhält man beliebige m-dimensionale Randverteilungen, indem man an entsprechenden Stellen "∞" als Argument einsetzt. • Zufallsvariablen X1 , X2 , ..., Xn heißen stochastisch unabhängig, falls gilt Fx ( x ) = Fx1 ( x1 ) ⋅ F x2 ( x2 ) ⋅ ... ⋅ Fxn ( xn ) ∀ ( x1, x2 ,..., xn ) ∈ ¡ n "Verbundverteilung ist gleich dem Produkt der eindimensionalen Randverteilungen" • partielle Differentiation à Dichtefunktionen f x ( x) = fx1 ( x1) ⋅ f x2 ( x2 ) ⋅ ... ⋅ f xn ( xn ) ∀( x1 , x2 ,..., xn ) ∈ ¡ n "Verbunddichte bei stochastisch unabhängigen ZV gleich dem Produkt der eindimensionalen Randdichten" Transformation von Zufallsvektoren • g1( X 1,... X n ) Y = g ( x ) = .... g n ( X 1,... X n ) • transformierte Verbunddichtefunktion f y ( y) = f x (x) det J ∂g1 ∂x 1 mit Jacobi-Matrix J = ... ∂g n ∂x1 • ∂g1 ∂xn ... ... ∂g n ... ∂x1 ... Dichtefunktion der Summe Z zweier stochastisch unabhängiger ZV X und Y erhält man durch Faltung der Dichtefunktionen X und Y: f z ( z ) = fx ( z ) ∗ f y ( z ) = ∞ ∫ f x ( z −τ ) ⋅ f y (τ ) dτ −∞ • Die Summe Z von stochastisch unabhängigen, normalverteilten ZV X1 , ..., Xn ist ebenfalls normalverteilt, wobei sich die Erwartungswerte und die Varianzen addieren: µ z = µ x1 + ... + µ xn σ z2 = σ x21 + ... + σ x2n © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 18 Momente transformierter Zufallsvektoren • Erwartungswert des transformierten Zufallsvektors E (Yi ) = • • ∞ ∞ −∞ −∞ 1 2 ...dxn ∫ ... ∫ gi ( x) ⋅ f x (x )dxdx E (Y1 ) Erwartungswert eines Vektors = Vektor der Erwartungswerte E (Y ) = .... E(Y2 ) Erwartungswert einer Summe von ZV ist gleich der Summe der Erwartungswerte der ZV • Varianz einer Summe stochastisch unabhängiger ZV ist gleich der Summe der Varianzen der einzelnen ZV. Unkorreliertheit und Kovarianzmatrix • • n Vektor mit n Komponenten ⇒ verschiedene Kovarianzen möglich 2 Zufallsvariablen X1 ,...,Xn heißen unkorreliert, wenn alle Kovarianzen Cxi y j verschwinden: • ( ) Cxi y j = E ( X i − µ xi )( X j − µ x j ) = 0 Kovarianzmatrix C enthält alle Kovarianzen ∀i ≠ j C = E ( ( X − µ x )( X − µ x ) T ) à Hauptdiagonale = Varianzen der Elemente des Zufallsvektors à Nebendiagonalelemente = sämtliche Kovarianzen • Zufallsvariablen X1 ,...,Xn heißen unkorreliert, wenn die Kovarianzmatrix eine σ 2x1 0 Diagonalmatrix ist: C= ... 2 0 σ xn • Sind verbundnormalverteilte ZV X1 ,...,Xn unkorreliert, dann sind sie auch stochastisch unabhängig. Zentraler Grenzwertsatz • Sind X1 ,...,Xn stochastisch unabhängige ZV mit beliebigen Verteilungen, dann tendiert n unter bestimmten allgemeinen Bedingungen die Summe Z = ∑ X i für n → ∞ zur i =1 Normalverteilung. © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 19 Mathematische Statistik (16) Beschreibende Statistik arithmetischer Mittelwert: 1 n x = ⋅ ∑ xi n i=1 • mittlere quadratische Abweichung: 1 n s ² = ⋅ ∑ ( xi − x )² n i=1 • mittlere Abweichung: s = + s² • Mathematische Statistik, Stichprobenfunktion • Zufallsvektor X mit n Zufallsvariablen Xi des selben Merkmals X heißt Stichprobenvektor X = ( X1 , X 2 ,..., X n )T , wenn gilt: alle Xi haben die selbe Verteilung und sind stochastisch unabhängig. à Stichprobenfunktion • arithmetischer Stichprobenmittelwert: x= 1 n ⋅ ∑ xi n i=1 • Stichprobenvarianz: s² = 1 n ⋅ ∑ ( xi − x )² n i=1 • Stichprobenkovarianz: sxy = • Stichprobenkorrelationskoeffizient: Rxy = 1 n ⋅ ∑ ( xi − x ) ⋅( yi − y ) n i=1 sxy s 2x + s 2y Parameterschätzung à es existieren wahre Werte ϑ à berechnet ist ϑ̂ • Schätzfunktion (Schätzer): ˆ n = g n ( X 1 , X 2 ,..., X n ) = gn ( X ) Θ à Güte eines Schätzers • Erwartungstreue: ˆ n) = ϑ E (Θ • asymptotische Erwartungstreue: ˆ ) =ϑ lim E( Θ n • Konsistenz: ˆ −ϑ | >ε ) = 0 lim P(| Θ n • n →∞ n →∞ hinreichende Kriterien o asymptotisch Erwartungstreu : ˆ ) =ϑ lim E( Θ n o asymptotisch verschwindende Varianz: ˆ − ϑ )²) = 0 lim E((Θ n n →∞ n →∞ Effizienz ˆ = g ( x) heißt effizient oder wirksamst, falls für alle à erwartungstreuer Schätzer Θ n ,e n ,e © T.N 2002 Zusammenfassung – Wahrscheinlichkeitstheorie (Litz) Seite 20 ˆ = g ( x ) gilt: anderen erwartungstreuen Schätzer Θ n, a n, a ( ) ( ˆ n ,e − ϑ )² < E ( Θ ˆ n, a − ϑ )² E (Θ ) a≠e Intervallschätzung, Konfidenzintervall à Ziel: anstatt Einzelwert ϑ ein Intervall [ϑu ,ϑo ] ˆ n (α ) ≤ ϑ ≤ Θ ˆ o (α )) = 1 − α à P( Θ "Konfidenzschätzer zum Konfidenzniveau 1 − α " à Vorgehensweise: Schätzer für Intervallmitte und Intervallbreite à Konf (ϑu ≤ ϑ ≤ ϑo ) = 1 − α P(U ≤ uα ) = Φ (uα ) = α à Standardnormalverteilt à uα = Quantile à aus Standardnormalverteilung, jedoch jetzt umgekehrt gelesen © T.N 2002