Grundbegriffe Ω ... Ereignisraum: enthält Zufallsexperiments. alle möglichen Versuchsausgänge eines E ... Ereignis: Eine Menge von Versuchsausgängen wird zu einem Ereignis E zusammengefasst. Es gilt: E ⊆ Ω |Ω| ... Anzahl der Elemente von Ω E ... Komplementäres Ereignis zu E: E = Ω\E A∩B ... Durchschnitt der beiden Ereignisse A und B. D.h.: Es tritt sowohl Ereignis A als auch Ereignis B ein. A∪B ... Vereinigung der beiden Ereignisse A und B. D.h.: Es tritt Ereignis A oder Ereignis B ein oder beide. Wahrscheinlichkeit P(E) eines Ereignisses E P(E) ... entspricht der relativen Häufigkeit des Eintretens von Ereignis E, wenn das Experiment unendlich oft durchgeführt wird. P(E) = 0 ... E heißt unmögliches Ereignis P(E) = 1 ... E heißt sicheres Ereignis Es gilt: 0 ≤ P(E) ≤ 1 und P(Ω) = 1 Wahrscheinlichkeit des komplementären Ereignisses: P(E) = 1 − P(E) Wahrscheinlichkeit der Differenz: P(A\B) = P(A) − P(A ∩ B) 1 Einander ausschließende Ereignisse Zwei Ereignisse A und B heißen ausschließende Ereignisse, wenn sie keine gemeinsamen Elementarereignisse besitzen. D.h.: A ∩ B = 0/ Für einander ausschließende Ereignisse A und B gilt: P(A ∩ B) = 0 P(A ∪ B) = P(A) + P(B) Die Ereignisse A1 , A2 , . . . , An heißen ausschließende Ereignisse, falls gilt: Ai ∩ A j = 0/ ∀ i, j = 1, . . . , n mit i 6= j Allgemeiner Additionssatz: P(A ∪ B) = P(A) + P(B) − P(A ∩ B) Additionssatz für einander ausschließende Ereignisse A1 , A2 , . . . , An : P(A1 ∪ A2 ∪ . . . ∪ An ) = P(A1 ) + P(A2 ) + . . . + P(An ) Laplace’sche Wahrscheinlichkeit: Sind alle Elemente von Ω gleich wahrscheinlich, dann gilt für jedes Ereignis A: P(A) = |A| |Ω| ... ... |A| |Ω| Anzahl der Elemente in A Anzahl der Elemente in Ω Kombinatorik: Permutation ohne Wiederholung: N! Permutation mit Wiederholung: N! k1 !·k2 !·...·ki ! Werden n Objekte aus einer Menge von N Objekten gezogen, dann wird die Anzahl der Möglichkeiten folgendermaßen berechnet: mit Zurücklegen ohne Zurücklegen Nn N! (N−n)! Reihenfolge wird berücksichtigt Reihenfolge wird nicht berücksichtigt à ! N +n−1 n à ! N n 2 Bedingte Wahrscheinlichkeit: P(B|A) ... Wahrscheinlichkeit dafür, dass B eintritt unter der Bedingung, dass A eingetreten ist. Es gilt: P(B|A) = P(B ∩ A) P(A) Unabhängige Ereignisse: Zwei Ereignisse A und B heißen unabhängig, wenn gilt: P(A|B) = P(A) Es gilt dann auch P(B|A) = P(B) Für zwei unabhängige Ereignisse A und B gilt: P(A ∩ B) = P(A) · P(B) Satz von der totalen Wahrscheinlichkeit: A1 , A2 , . . . , An seien einander ausschließende Ereignisse, die A überdecken, (d.h.: Ai ∩A j = 0/ ∀ i 6= j und A ⊆ A1 ∪A2 ∪. . .∪An ) dann gilt: P(A) = P(A|A1 )·P(A1 )+. . .+P(A|An )·P(An ) bzw. n P(A) = ∑ P(A|Ai ) · P(Ai ) i=1 Insbesondere gilt (ohne weitere Voraussetzungen): P(A) = P(A|B) · P(B) + P(A|B) · P(B) Bayes’sche Formel P(A|B) = P(B|A) · P(A) P(B) P(A|B) = P(B|A) · P(A) P(B|A) · P(A) + P(B|A) · P(A) bzw. Bayes’sches Theorem: A1 , A2 , . . . , An seien einander ausschließende Ereignisse, die A überdecken, (d.h.: Ai ∩A j = 0/ ∀ i 6= j und A ⊆ A1 ∪A2 ∪. . .∪An ) dann gilt: P(Ak |A) = P(A|Ak ) · P(Ak ) n ∑ P(A|Ai ) · P(Ai ) i=1 3 Maßzahlen für nicht klassifizierte Daten: Arithemtisches Mittel: 1 n x1 + x2 + . . . + xn ∑ xi = n i=1 n x̄ = n x̄(w) = ∑ wi · xi Gewichtetes arithmetisches Mittel: n wobei: wi ≥ 0 und i=1 1 Geometrisches Mittel: x̃G = (x1 · x2 · . . . · xn ) n Harmonisches Mittel: x̃H = 1 x1 Gewichtetes harmonisches Mittel: 100α %−Quantil: + 1 x2 n + . . . + x1n x̃H (w) = ( w1 x1 x[hn·α i] Q̂(α ) = x[n·α ] +x[n·α +1] 2 + w2 x2 1 + . . . + wxnn n wobei: wi ≥ 0 und , n · α gebrochene Zahl , n · α ganze Zahl hn · α i ist die auf n · α folgende ganze Zahl. Median: x̃ = Q̂(0.5) Modalwert: Der am häufigsten auftretende Zahlenwert aus x1 , x2 , . . . , xn s2 = Varianz: 1 n ∑ (xi − x̄)2 n − 1 i=1 √ s = s2 = Standardabweichung: Spannweite: s 1 n ∑ (xi − x̄)2 n − 1 i=1 x[n] − x[1] vs = Variationskoeffizient: s x̄ 1 n ∑ |xi − x̃| n i=1 Mittlere absolute Abweichung vom Median: k−tes Moment: mk = 1 n ∑ (xi − x̄)k n i=1 n Schiefe: α3 = m3 3/2 m2 3 ∑ (xi − x̄) √ i=1 = n· ¸3/2 n 2 ∑ (xi − x̄) i=1 oder α30 = ∑ wi = 1 i=1 3 (x̄ − x̃) s Empirische Verteilungsfunktion Fn (x): Sei x[1] ≤ x[2] ≤ x[3] ≤ . . . ≤ x[n] Fn (x) gibt den relativen Anteil der Werte an, die kleiner oder gleich x sind. Mathematisch exakt: Ermittle jenes j, für das gilt: x[ j] ≤ x und x[ j+1] > x Dann gilt: Fn (x) = nj 4 ∑ wi = 1 i=1 Maßzahlen für klassifizierte Daten: n x̄k = ∑ xi0 · fi Arithmetisches Mittel: xi0 . . . Klassenmitte i=1 α −Quantil für 0 < α < 1: Median: Q̂k (α ) = ai−1 + bi α − Fi−1 fi wobei : Fi−1 < α ≤ Fi und F0 := 0 x̃k = Q̂k (0.5) Modalklasse: Klasse mit maximaler Balkenhöhe fi∗ (Es kann auch mehrere geben.) n ¡ ¢2 s2k := ∑ xi0 − x̄k · fi Varianz: i=1 q sk = s2k = Standardabweichung: s n ∑ (xi0 − x̄k )2 · fi i=1 Diskrete Zufallsvariable: n Erwarungswert: E(X) = µ = ∑ xi · P(X = xi ) i=1 Varianz: n n ¡ ¢ Var(X) = σ 2 = ∑ (xi − µ )2 · P(X = xi ) = ∑ xi2 · P(X = xi ) − µ 2 = E X 2 − µ 2 i=1 i=1 Verteilungen von diskreten Zufallsvariablen: Gleichverteilung: Eine Zufallsvariable X mit Werten x1 , x2 , . . . , xn heißt gleichverteilt, falls gilt: P(X = x1 ) = P(X = x2 ) = . . . = P(X = xn ) = 1 n Für eine gleichverteilte Zufallsvariable X gilt: 1 n E(X) = ∑ xi , n i=1 1 n Var(X) = ∑ xi2 − n i=1 à 1 n ∑ xi n i=1 !2 Anwendung: Problemstellungen bei denen jeder Wert der Zufallsvariable mit der selben Wahrscheinlichkeit auftritt. Geometrische Verteilung: Eine Zufallsvariable X mit Werten k = 1, 2, 3, . . . heißt geometrisch verteilt mit Parameter p, falls gilt: P(X = k) = (1 − p)k−1 · p Dann gilt: E(X) = 1 p und Var(X) = 1− p p2 Anwendung: Ein Ereignis A tritt bei einem Versuch mit der Wahrscheinlichkeit p auf. Der Versuch wird solange wiederholt, bis das Ereignis A auftritt. Die Zufallsvariable X zählt die Anzahl der Versuche bis zum ersten mal das Ereignis A auftritt. 5 Hypergeometrische Verteilung: Eine Zufallsvariable X mit Werten k = 0, 1, 2, 3, . . . , n heißt hypergeometrisch verteilt mit Parametern N, M, n wobei M < N und n < N, falls gilt: ¡M¢ ¡N−M¢ · P(X = k) = k ¡N ¢n−k n Es gilt dann: E(X) = n · p und Var(X) = n · p · (1 − p) N −n N −1 mit p= M N Anwendung: Ziehen ohne Zurücklegen: In einer Urne befinden sich N Kugeln. M von diesen Kugeln sind schwarz. Es werden n Kugeln ohne zurücklegen gezogen. Die Zufallsvariable X zählt die Anzahl der schwarzen Kugeln. Binomialverteilung: Eine Zufallsvariable X mit Werten k = 0, 1, 2, 3, . . . , n heißt binomialverteilt mit Parametern n und p, falls gilt: P(X = k) = µ ¶ n · pk · (1 − p)n−k k Es gilt: E(X) = n · p und Var(X) = n · p · (1 − p) Wir schreiben auch X ∼ B(n, p) Anwendung: Bei einem Versuch tritt ein bestimmtes Ereignis A mit Wahrscheinlichkeit p auf. Der Versuch wird n mal durchgeführt. Die Zufallsvariable X zählt, wie oft das Ereignis A bei diesen n Versuchsdurchführungen auftritt. Poisson-Verteilung: Eine Zufallsvariable X mit Werten k = 0, 1, 2, 3, . . . heißt poissonverteilt mit Parameter λ ∈ R, wenn gilt: P(X = k) = λ k −λ ·e k! Es gilt weiters: E(X) = λ und Var(X) = λ Wir schreiben auch X ∼ P(λ ) Anwendung: Die Poissonverteilung kann als Approximation der Binomialverteilung für n > 10 und p < 0.05 verwendet werden. Die Wahrscheinlichkeiten solcher binomialverteilter Zufallsvariable können mit der Poissonverteilung berechnet werden, wobei gilt: λ = n · p 6