Ereignisse und ihre Wahrscheinlichkeiten Stichprobenräume Handling von Aktienkursen Ereignisse Quiz Wahrscheinlichkeitsverteilungen Additionstheorem Gleichverteilung Bedingte Wahrscheinlichkeiten Unabhängigkeit von Ereignissen Gesetz der totalen Wahrscheinlichkeit Satz von Bayes Die Menge Ω der möglichen Ergebnisse eines Experiments heißt Stichprobenraum1. Beispiele: • Werfen eines Würfels Ω={1, 2, 3, 4, 5, 6} • Werfen eines roten und eines grünen Würfels Ω={(1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (2,1), (2,2), (2,3), (2,4), (2,5), (2,6), (3,1), (3,2), (3,3), (3,4), (3,5), (3,6), (4,1), (4,2), (4,3), (4.4), (4,5), (4,6), (5,1), (5,2), (5,3), (5,4), (5,5), (5,6), (6,1), (6,2), (6,3), (6,4), (6,5), (6,6)} 2 1 2 • Beurteilung einer Magisterarbeit Ω={1, 2, 3, 4, 5} • Messung der Arbeitslosenrate (in %, 1 Nachkommastelle) Ω={0.0, 0.1, 0.2, …, 99.8, 99.9, 100.0} sample space Im Unterschied zur Menge {6,1} kommt es beim geordneten Paar (6,1) auf die Reihenfolge an. Daher gilt: {6,1}={1,6}, (6,1)≠(1,6). 1 Ereignisse3 sind Teilmengen des Stichprobenraums. Beispiele: • Werfen eines Würfels • Messung der Arbeitslosenrate Mögliche Ergebnisse: 1, 2, 3, 4, 5, 6 Stichprobenraum: Ω={1,2,3,4,5,6} Ereignisse: {1,3,5} (ungerade Zahl) {6} (Sechser) {1,2,3,4,5} (kein Sechser) {2,3,5} (Primzahl) φ (unmögliches Ereignis) Ω (sicheres Ereignis) {1,2,4} (Zweier-Potenz) {3,6} (Vielfaches von 3) M Mögliche Ergebnisse: 0.0, 0.1, 0.2, …, 100.0 Stichprobenraum: Ω={0.0,0.1,0.2,…,100.0} Ereignisse: {0.0,0.1,…,3.4} (Vollbeschäftigung4) {3.5,…,100.0} (keine Vollbeschäftigung) {0.0,…,9.9} (1-stellige Arbeitslosenrate) {3.5,…,5.0} M 4 3 events Vollbeschäftigung bedeutet, dass es praktisch nur zyklische Arbeitslosigkeit gibt. Die genaue Definition (in %) hängt von der Region und der Zeitperiode ab. 2 Der Durchschnitt5 A∩B der Ereignisse A und B enthält genau diejenigen Elemente von Ω, die sowohl in A als auch in B enhalten sind. Die Vereinigung6 A∪B der Ereignisse A und B enthält genau diejenigen Elemente von Ω, die in A oder in B enthalten sind. Das Komplement7 Ac eines Ereignisses A enthält genau diejenigen Elemente des Stichprobenraumes Ω, die nicht in A enthalten sind. Die Ereignisse A und B heißen disjunkt8, falls ihr Durchschnitt A∩B leer ist. Beispiel: Werfen eines Würfels Ω={1,2,3,4,5,6} A={1,3,5}, B={2,3,5} A∩B={3,5} A∪B={1,2,3,5} Ac={2,4,6} Bc={1,4,6} Die Ereignisse A∩B und Ac sind disjunkt, ebenso die Ereignisse A∩B und Bc. (Ac∪B)c=({1,3,5}c∪{2,3,5})c =({2,4,6}∪{2,3,5})c 5 6 7 8 intersection union complement disjoint ={2,3,4,5,6}c ={1} 3 Eine Wahrscheinlichkeitsverteilung9 P ist eine Funktion, die jedem Ereignis A seine Wahrscheinlichkeit P(A) zuordnet. Eine Wahrscheinlichkeitsverteilung P heißt Gleichverteilung10, wenn es nur endlich viele mögliche Ergebnisse gibt und alle gleich wahrscheinlich sind. Es gilt dann für jedes Ereignis A A Anzahl der Elemente von A P ( A) = = . Ω Anzahl der Elemente von Ω Beispiele: • Zweimaliges Werfen eines Würfels Ω={(1,1),(1,2),(1,3),(1,4),(1,5),(1,6), (2,1),(2,2),(2,3),(2,4),(2,5),(2,6), (3,1),(3,2),(3,3),(3,4),(3,5),(3,6), (4,1),(4,2),(4,3),(4.4),(4,5),(4,6), (5,1),(5,2),(5,3),(5,4),(5,5),(5,6), (6,1),(6,2),(6,3),(6,4),(6,5),(6,6)}, Ω = 36 ⇒ P ({(1,4), ( 2,3), (3,2), ( 4,1)}) = (1,0,0),(1,0,1),(1,1,0),(1,1,1)} 12, Ω = 8 ⇒ P ({(0,1,1), (1,0,1), (1,1,0), (1,1,1)}) = 48 Ω={1,2,3,4,5,6}, Ω = 6 ⇒ {2,4,6} P ({2,4,6}) = = Ω (höchstens einmal Kopf) 3 6 (gerade Zahl) 11 12 9 10 probability distribution uniform distribution (Summe ist 5) • 3-maliges Werfen einer Münze (Kopf: 0, Zahl: 1) Ω={(0,0,0),(0,0,1),(0,1,0),(0,1,1), • Werfen eines Würfels 11 4 36 F ⇒ G bedeutet, dass die Aussage G aus der Aussage F folgt. Ebenso wie beim geordneten Paar (a,b) kommt es beim Tripel (a,b,c), Quadrupel (a,b,c,d), Quintupel (a,b,c,d,e) usw. auf die Reihenfolge an. 4 Die Wahrscheinlichkeit, dass beim Würfeln das Ereignis {6} eintritt, ist gegeben durch: P({6}) = 16 = 0.166666... Würfelt man mehrmals, so kann man erwarten, dass dieses Ereignis in ungefähr einem Sechstel der Versuche eintritt, also z.B. bei 60 Versuchen 10 Mal. Anstatt tatsächlich zu würfeln, verwenden wir einen Zufallszahlengenerator. Wir erzeugen 60 Zufallszahlen zwischen 1 und 6 mit Hilfe der R13-Funktion sample, speichern sie im Vektor z ab und lassen sie uns anzeigen: z <- sample(1:6,60,replace=TRUE); z 31663413553656226624 34225224234246344515 64243151346566134255 Die absoluten Häufigkeiten14 aller einelementigen Ereignisse (Elementarereignisse15) {1},{2},…,{6} können mit Hilfe der Funktion table berechnet werden und ihre relativen Häufigkeiten16 in weiterer Folge durch Division durch die Anzahl der Versuche. table(z) 1 2 3 4 5 6 6 11 10 12 10 11 table(z)/60 1 2 3 4 5 6 0.10000 0.18333 0.16667 0.20000 0.16667 0.18333 Falls die Wahrscheinlichkeit P ( A) eines Ereignisses A unbekannt ist, kann sie durch die relative Häufigkeit Pˆ ( A) geschätzt werden. 14 absolute frequencies elementary events 16 relative frequencies 15 13 Für erste Schritte mit der freien Software R siehe Appendix A. 5 Beim Werfen eines Würfels gilt einerseits P({1,3,5} ∪ {2,4}) = 1 P({ 14 ,22 ,34 ,4,4 53 }) 4 Im letzteren Fall kommt die Ungleichheit dadurch zustande, dass die Elemente des Durchschnitts {1,3,5}∩{2,3,5}={3,5} 5 6 =1 P4 ({12 ,34 ,53 }) + 1 P4 ({2 24 ,3 4}) , 3 6 in 2 6 P({1,3,5}∪{,2,3,5})=P({1,2,3,5}) nur einmal gezählt werden und in weil {1,3,5} und {2,4} disjunkt sind, und andererseits P({1,3,5})+P({2,3,5}) doppelt. P({1,3,5} ∪ {2,3,5}) = 1 P ({ 1,2,343 ,5}) 42 4 6 ≠1 P({ ,34 ,53 }) + 1 P4 ({2 2,34 ,3 5}) , 412 3 6 3 6 Gleichheit wird erreicht, wenn die Wahrscheinlichkeit des Durchschnitts von der Summe abgezogen wird. Allgemein gilt das Additionstheorem17: weil {1,3,5} und {2,3,5} nicht disjunkt sind. P ( A ∪ B ) = P ( A) + P ( B ) − P ( A ∩ B ) 17 additive rule of probability 6 Das sichere Ereignis Ω tritt immer ein und das unmögliche Ereignis φ niemals. Es gilt daher P (Ω) = 1 18 und P (φ ) = 0 . Da die Ereignisse A und Ac disjunkt sind, gilt auch P( A) + P( Ac ) = P( A ∪ Ac ) = P(Ω) = 1 bzw. P( Ac ) = 1 − P( A) . 18 Es muss immer zumindest ein mögliches Ergebnis geben, Ω darf also nicht leer sein. 7 Nehmen wir an, wir wüssten nur, dass eine gerade Zahl gewürfelt wurde, nicht aber welche, dann wären die Ergebnisse 1, 3 und 5 nicht mehr länger möglich und die noch möglichen Ergebnisse 2, 4 und 6 wären immer noch gleich wahrscheinlich. Z.B. erhält man für die Ereignisse A={1,2,3,4} und Ω Es wäre dann sinnvoll, statt der ursprünglichen Wahrscheinlichkeiten P({1}) = P({2}) = P({3}) = P({4}) = P({5}) = P({6}) = die durch das Eintreten des Ereignisses B={2,4,6} bedingten neuen Wahrscheinlichkeiten Die nach dem Eintreten des Ereignisses B={2,4,6} nicht mehr möglichen Ergebnisse 1, 3 und 5 können aus allen Ereignissen entfernt werden, indem man alle Ereignisse mit dem Ereignis B schneidet. A∩B={1,2,3,4}∩{2,4,6}={2,4} 1 6 und Ω∩B={1,2,3,4,5,6}∩{2,4,6}={2,4,6}. Die bedingte Wahrscheinlichkeit von A, gegeben B, ist gegeben durch P({1} B ) = P({3} B ) = P({5} B ) = 0 , P({2} B ) = P({4} B ) = P({6} B ) = zu betrachten. 1 3 P( A B ) = = Anzahl der noch möglichen Elemente von A Anzahl der noch möglichen Elemente von Ω A∩ B 2 = . Ω∩B 3 8 Die bedingte Wahrscheinlichkeit des Ereignisses A, gegeben dass das Ereignis B eingetreten ist19, ist im Fall einer Gleichverteilung gegeben durch P( A B ) = = Allgemein, also auch wenn keine Gleichverteilung vorliegt, wird die bedingte Wahrscheinlichkeit20 von A, gegeben B, definiert durch Anzahl der noch möglichen Elemente von A Anzahl der noch möglichen Elemente von Ω P( A B ) = P( A ∩ B ) . P( B ) A∩ B . Ω∩B Diese bedingte Wahrscheinlichkeit kann man auch schreiben als A∩ B A∩ B Ω P( A ∩ B ) P( A ∩ B ) P( A B ) = = = = . Ω∩B Ω∩B P (Ω ∩ B ) P( B ) Ω 19 Die Annahme, dass B eingetreten ist, macht nur Sinn, wenn P(B)≠0. 20 conditional probability 9 Zwei Ereignisse A und B heißen unabhängig21, wenn gilt P(A∩B)=P(A)P(B). Sind die Ereignisse A und B unabhängig und ist P(B)≠0, • Werfen eines Würfels A={1,3,5} und B={2,3,5} sind nicht unabhängig wegen P( A ∩ B ) = P({3,5}) = 2 6 ≠ P( A) P( B ) = = 2 3 33 66 = 9 36 . Weiters gilt: dann ist die bedingte Wahrscheinlichkeit P( A B ) gleich der unbedingten Wahrscheinlichkeit P(A): P( A B ) = Beispiele: P ( A ∩ B ) P ( A) P ( B ) = = P ( A) P( B ) P( B ) P( A ∩ B ) P( A B ) = = P( B ) 2 6 3 6 ≠ P ( A) = 3 6 • Zweimaliges Werfen eines Würfels Die Ereignisse 22 Zwei Ereignisse A und B heißen abhängig , wenn sie nicht unabhängig sind.23 A={(6,1),…,(6,5),(6,6)} (Sechser beim 1. Wurf) und B={(1,6),…,(5,6),(6,6)} (Sechser beim 2. Wurf) sind unabhängig wegen 21 independent dependent 23 Wenn zwei Ereignisse abhängig sind, muss nicht zwangsläufig eine kausale Beziehung zwischen ihnen bestehen. 22 P ( A ∩ B ) = P ((6,6)) = = P( A) P( B ) = 6 6 36 36 = 1 36 1 36 . 10 Beim Würfeln sind die Ereignisse Verwendet man hingegen die relativen Häufigkeiten 6 , 11 , 10 , 12 , 10 , 11 60 60 60 60 60 60 A={2,3,5} und B={1,2} der Elementarereignisse unabhängig, weil die Wahrscheinlichkeit des Durchschnitts P( A ∩ B ) = P({2}) = 1 6 gleich dem Produkt der Wahrscheinlichkeiten P( A) P( B ) = ist. 32 66 = {1}, {2}, {3}, {4}, {5}, {6} aus der obigen R-Anwendung anstatt der theoretischen Wahrscheinlichkeiten 1, 1, 1, 1, 1, 1 6 6 6 6 6 6 1 6 , so ist Pˆ ( A ∩ B ) = Pˆ ({2}) = 11 60 ungleich Pˆ ( A) Pˆ ( B ) = 558 . (1160 + 1060 + 1060 )(606 + 1260 ) = 3600 Es ist aber zu erwarten, dass die Übereinstimmung besser wird, wenn die Anzahl der Versuche zur Ermittlung der relativen Häufigkeiten erhöht wird. 11 Downloaden und Importieren von Aktienkursen: • Auf der Website finance.yahoo.com gibt man den Namen eines Unternehmens, z.B. Procter & Gamble, oder - falls bekannt - gleich das Symbol, PG, im Feld Search ein. • Nach dem Anklicken von Historical Data und der Wahl von Time Period und Frequency klickt man zunächst auf Apply und schließlich auf Download Data. • Das heruntergeladene File table.csv24 wird in ein zuvor angelegtes Verzeichnis, z.B. C:\R Projects\PG, kopiert. • Nach dem Starten von R wird das Working Directory C:\R Projects\PG gewählt, die Daten werden mit der Funktion read.csv vom File table.csv eingelesen und im Data Frame Y gespeichert. • Zur Kontrolle lässt man sich die ersten und letzten Zeilen mit den Funktionen head bzw. tail anzeigen. 24 setwd("C:/R Projects/PG") # Achtung! / statt \ in R. Y <- read.csv("table.csv",header=TRUE) # header=TRUE: names of variables in first line head(Y) Date 1 2017-03-10 2 2017-03-09 3 2017-03-08 4 2017-03-07 5 2017-03-06 6 2017-03-03 Open 90.80 90.14 90.02 90.14 89.89 90.91 High 91.16 90.49 90.35 90.49 90.51 90.91 Low Close Volume Adj.Close 90.65 91.07 6733300 91.07 90.10 90.34 5587400 90.34 89.76 90.14 5503700 90.14 90.06 90.29 5236200 90.29 89.59 90.37 6462800 90.37 89.89 90.50 8334900 90.50 tail(Y) Date Open High Low Close Volume 11901 1970-01-09 113.00 113.00 112.250 112.75 262400 11902 1970-01-08 111.75 113.50 111.500 113.00 531200 11903 1970-01-07 110.25 112.00 110.250 111.75 710400 11904 1970-01-06 110.25 110.25 109.250 110.00 480000 11905 1970-01-05 110.00 110.75 109.375 110.50 518400 11906 1970-01-02 109.50 110.25 109.375 110.00 832000 Adj.Close 0.464127 0.465156 0.460011 0.452807 0.454865 0.452807 PG-Kurse heruntergeladen am 13.03.2017. 12 • Die zeitlich absteigende Reihenfolge der Zeilen von Y wird umgedreht. • Die 7. Spalte (bereinigte Schlusskurse) wird gegen die 1. Spalte (Kalendertage) geplottet. n <- nrow(Y) Y[1:n,] <- Y[n:1,]; Y d <- as.Date(Y[,1]) # Umwandlung in Datums-Vektor y <- Y[,7]; plot(d,y,type="l") # type="l": Linienplot # n = Anzahl der Zeilen von Y # Zeile n wird zu Zeile 1, … head(Y) Date Open High Low Close Volume Adj.Close 1 1970-01-02 109.50 110.25 109.375 110.00 832000 0.452807 2 1970-01-05 110.00 110.75 109.375 110.50 518400 0.454865 3 1970-01-06 110.25 110.25 109.250 110.00 480000 0.452807 4 1970-01-07 110.25 112.00 110.250 111.75 710400 0.460011 5 1970-01-08 111.75 113.50 111.500 113.00 531200 0.465156 6 1970-01-09 113.00 113.00 112.250 112.75 262400 0.464127 tail(Y) Date 11901 2017-03-03 11902 2017-03-06 11903 2017-03-07 11904 2017-03-08 11905 2017-03-09 11906 2017-03-10 Open 90.91 89.89 90.14 90.02 90.14 90.80 High 90.91 90.51 90.49 90.35 90.49 91.16 Low 89.89 89.59 90.06 89.76 90.10 90.65 Close Volume Adj.Close 90.50 8334900 90.50 90.37 6462800 90.37 90.29 5236200 90.29 90.14 5503700 90.14 90.34 5587400 90.34 91.07 6733300 91.07 Die Abbildung schafft es nicht, zu vermitteln, dass für einen Investor eine Verdoppelung des ersten Kurses von 0.452807 auf 0.905614 den gleichen Wert hat wie die Verdoppelung des letzten Kurses von 91.07 auf 182.14. 13 Eine graphische Darstellung des Kursverlaufs wäre wünschenswert, bei der beispielsweise der Anstieg von 1 auf 2 (eine Verdoppelung) identisch ist mit dem von 10 auf 20 (ebenfalls eine Verdoppelung). Eine solche Darstellung erhält man, wenn man die logarithmierten Kurse anstelle der ursprünglichen Kurse plottet. plot(d,log(y),type="l") Es gilt nämlich: log(2) − log(1) = log (21 ) = log(1020 ) = log(20) − log(10) Die Log-Returns rt = log( yt ) − log( yt −1 ) entsprechen ungefähr den relativen Änderungen y − yt −1 Rt = t yt −1 der Kurse yt gegenüber den Vortageskursen yt-1. Beispiel: yt = 101, yt −1 = 100 ⇒ Rt = 0.01, rt ~ 0.0099503 14 Log-Returns können für die Tage 2,3,4,…,n berechnet werden, nicht aber für den ersten Tag, weil es in diesem Fall keinen Vorwert gibt. r <- log(y[2:n])-log(y[1:(n-1)]) # log(y[2])-log(y[1]),… Eine wichtige Frage in Bezug auf Log-Returns ist, ob es Beziehungen zwischen aufeinanderfolgenden LogReturns gibt. Wir untersuchen im Folgenden, ob sich die bedingte Wahrscheinlichkeit P(rt > 0 rt −1 > 0) von der unbedingten Wahrscheinlichkeit P (rt > 0) c1 <- which((r[2:(n-1)]>0)&(r[1:(n-2)]>0)) # n-1 Log-Returns, n-2 Paare: (r[2],r[1]),(r[3],r[2]),… c2 <- which(r[1:(n-2)]>0); c <- length(c1)/length(c2); c 0.4928485 u1 <- which(r[2:(n-1)]>0); u <- length(u1)/(n-2); u 0.4874832 Der Unterschied zwischen der (geschätzten) bedingten und der (geschätzten) unbedingten Wahrscheinlichkeit ist nicht so groß, dass er mit der Unabhängigkeit der beiden Ereignisse rt > 0 und rt −1 > 0 unvereinbar wäre.25 unterscheidet. 25 Das ist nur eine erste, grobe Einschätzung. Ausführlicher wird auf diese Fragestellung in einem späteren Kapitel eingegangen. 15 Multiplikationssatz26: P ( A ∩ B ) = P ( A) Gesetz der totalen Wahrscheinlichkeit28: P ( B ∩ A) = P ( A) P ( B A) 27 P ( A) P ( A) = P ( A ∩ Ω) = P( A ∩ ( B ∪ B c )) = P(( A ∩ B ) ∪ ( A ∩ B c )) 29 = P( A ∩ B ) + P( A ∩ B c ) P (C ∩ ( B ∩ A)) P( A ∩ B ∩ C ) = P( A ∩ B ) P ( B ∩ A) = P( A) P( B A) P(C A ∩ B ) P( A ∩ B ∩ C ∩ D ) = P( A ∩ B ∩ C ) P ( D ∩ ( A ∩ B ∩ C )) P( A ∩ B ∩ C ) = P( A B ) P( B ) + P( A B c ) P ( B c ) B und Bc sind zwei disjunkte Mengen, deren Vereinigung Ω ergibt. Allgemein gilt für n paarweise disjunkte Mengen B1,…,Bn, deren Vereinigung Ω ergibt, = P( A) P( B A) P(C A ∩ B ) P( D A ∩ B ∩ C ) P ( A) = P ( A ∩ B1 ) + ... + P ( A ∩ Bn ) = P( A B1 ) P( B1 ) + ... + P( A Bn ) P ( Bn ) . 26 27 chain rule Hier und im Folgenden nehmen wir immer an, dass alle auftretenden Nenner ungleich 0 sind. 28 29 law of total probability Distributivgesetze: A∩(B∪C)=(A∩B)∪(A∩C) A∪(B∩C)=(A∪B)∩(A∪C) 16 Satz von Bayes30: P( B A) = Im Fall der Log-Returns von PG lassen sich beispielsweise die bedingten Wahrscheinlichkeiten P( A ∩ B ) P ( B ∩ A) = P ( A) P( A ∩ B ) + P( A ∩ B c ) P(rt≥0||rt|≥1%), P(rt<0||rt|≥1%), P(rt≥0||rt|<1%), P(rt<0||rt|<1%) genauso einfach schätzen wie = P( A B ) P( B ) P( A B ) P( B ) + P( A B c ) P( B c ) Oder allgemeiner: Sind B1,…,Bn paarweise disjunkte Mengen, deren Vereinigung Ω ergibt, dann gilt für alle i∈{1,…,n} P ( Bi A) = P ( A ∩ Bi ) P ( Bi ∩ A) = P ( A) P ( A ∩ B1 ) + ... + P ( A ∩ Bn ) = 30 P ( A Bi ) P ( Bi ) . P ( A B1 ) P ( B1 ) + ... + P ( A Bn ) P ( Bn ) P(|rt|≥1%|rt≥0), P(|rt|<1%|rt≥0), P(|rt|≥1%|rt<0), P(|rt|<1%|rt<0). length(which((r>=0)&(abs(r)>=0.01))) / length(which(abs(r)>=0.01)) 0.52962 length(which((abs(r)>=0.01)&(r>=0))) / length(which(r>=0)) 0.353219 Das ist auch in vielen anderen ökonomischen Anwendungen so. Die umständliche Berechnung/Schätzung von bedingten Wahrscheinlichkeiten mit Hilfe des Satzes von Bayes ist nur in seltenen Ausnahmefällen nötig. Bayes‘ theorem 17 Quiz Lösungen Ω={0,1,…,5}, A={1,3,5}, B={0,1}, |A∩Bc|=? A∩Bc={1,3,5}∩{2,3,4,5}={3,5}, |A∩Bc|=2 P({0,1,…,4})= 79 , P({3})= 29 , P({0,4})= 19 , P({1,2})=? P({0,1,…,4})=P({3})+P({0,4})+P({1,2}) ⇒ P({1,2})= 49 4 , P(A∪B)= 10 , P(A∩B)= 2 , P(B)=? P(A)= 11 11 11 8 P(A∪B)=P(A)+P(B)−P(A∩B) ⇒ P( B ) = 10 −114 + 2 = 11 P(A∩B∩C)= 19 , P(A)= 12 , P(C|A∩B)= 13 , P(B|A)=? P(A∩B∩C)=P(A)P(B|A)P(C|A∩B) ⇒ P(B|A)= 191 = 1 ⋅ 2 3 P(A)= 12 , P(A|B)= 23 , P(A|Bc)= 13 , b=P(B)=? 1 =P(A)=P(B)P(A|B)+P(Bc)P(A|Bc)=b 2 +(1−b) 1 2 3 3 P(B)= 53 , P(A|B)= 73 , P(A|Bc)= 27 , P(B|A)=? P(B|A) = h <- which(1:5+2*c(1,2,1,0,3)>4) # R code # length(h)=? h=which(c(3,6,5,4,11)>4)=c(2,3,5), length(h)=3 P( A B) P( B) P( A B) P( B) + P( A B c ) P( B c ) = 3⋅3 7 5 3⋅3 + 2⋅2 7 5 7 5 2 3 ⇒ b= 12 = 139 18