Skript zum Modul 141 - Statistik 9 Einführung in die schließende Statistik Die deskriptive (beschreibende) Statistik befasste sich mit der Aufbereitung, Beschreibung und Analyse von mehr oder weniger großen Datenmengen mit entsprechenden Methoden. In vielen Anwendungsfällen wird dabei nicht die Grundgesamtheit sondern lediglich eine repräsentative Teilmenge (=Stichprobe) untersucht. Um Rückschlüsse von den Erkenntnissen, die aus der statistischen Bearbeitung der Stichprobe gewonnen wurden auf die Grundgesamtheit zu treffen, werden die Methoden der schließenden (=induktiven, analytischen) Statistik verwendet. Grundlage hierfür ist die Wahrscheinlichkeitsrechnung. 9.1 Einführung in die Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitstheorie ist eine der wichtigsten mathematischen Grundlagen der analytischen Statistik. Sie untersucht Zufallsvorgänge mit dem Ziel Aussagen über den möglichen Ausgang zu treffen. Es gilt die Chance für das „Eintreten einer möglichen Folgeerscheinung („Ereignis“) durch eine Maßzahl („Wahrscheinlichkeit“) zu charakterisieren“. Hierzu werden die Merkmalsausprägungen nicht mehr als Beobachtungen oder Messwerte angesehen sondern als Zufallsvariablen. 9.1.1 Zufallsexperiment, Ereignis, Ereignisraum und Zufallsvariable Ein Zufallsexperiment ist ein beliebig oft wiederholbarer, nach bestimmten Vorschriften ausgeführter Vorgang oder Versuch, dessen Ergebnis im Voraus nicht eindeutig bestimmt werden kann, also zufällig ist. Das Ergebnis dieses Versuchs wird Ereignis genannt. Auch wenn das Ereignis im Voraus nicht eindeutig bestimmt werden kann, kann zumeist der mögliche Wertebereich dieses Ereignisses zuvor abgegrenzt werden. Dieser Wertebereich wird als Ereignisraum Ω bezeichnet. Die einzelnen möglichen Ausprägungen Zufallsvariable xi (mit xi ∈ Ω ) bezeichnet. des Ereignisraumes werden als Das Gegenteil der zufälligen (stochastischen) Ereignisse sind die deterministischen Ereignisse bei denen eine eindeutige Beziehung zwischen Ursache und Wirkung besteht. 9-1 Skript zum Modul 141 - Statistik Zufallsexperiment Ereignisraum Ereignis Zufallsvariable Werfen einer Münze {Kopf, Zahl} z.B. Kopf x0, x1 Werfen eines Würfels {1,2,3,4,5,6} z.B. 4 x1, x2, x3, x4, x5, x6 Werfen von zwei Würfeln {2,3,4,5,6,7,8, 9,10,11,12} z.B. 7 x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11 9.1.2 Die Wahrscheinlichkeit Da bei Zufallsvorgängen immer ungewiss ist, welcher der möglichen Ausgänge eintritt, wurde der Begriff der Wahrscheinlichkeit definiert. Dieser beschreibt die Chance, dass ein bestimmtes Ereignis A eintritt und ist als die Wahrscheinlichkeit P(A) definiert. Ziel ist es die relativen Häufigkeiten für jeden möglichen Ausgang, die bei unendlich oft wiederholtem Zufallsexperiment resultieren würden, vorab zu bestimmen. Beispiel: Ergebnis verschiedener historischer Münzwurfexperimente: Autor n Versuche xk = Kopf F(k) Buffon 4040 2048 0.5080 Pearson 12000 6019 0.5016 Pearson 24000 12012 0.5005 Quelle: Bahrenberg, Giese & Nipper, 1975, S.60 Aus der Tabelle lässt sich für die Wahrscheinlichkeit, dass „Kopf“ der Ausgang des Zufallsexperimentes Münzwurf ist, bestimmen: P ( Kopf ) = 0.5 Daraus ergibt sich für das Komplementärereignis „Zahl“: P ( Zahl ) = 1 − P ( Kopf ) = 0.5 Aus den empirischen Beobachtungen ergeben sich folgende Minimalforderungen für den Wahrscheinlichkeitsbegriff. Die Axiome Wahrscheinlichkeitsrechnung: 9-2 drei der Skript zum Modul 141 - Statistik 1. P(A) ≥ 0 für jedes Ereignis A 2. P(Ω) = 1 3. P(A1 U A2 U A3 ...) = P(A1) + P(A2) + P(A3) + ...(für disjunkte Ereignisse) Beispiel Würfel: 1. Die Wahrscheinlichkeit eine Eins zu Würfeln ist größer 0 2. Die Wahrscheinlichkeit, dass eine Zahl zw. 1 und 6 gewürfelt wird ist 1 3. Die Wahrscheinlichkeit eine ungerade Zahl zu Würfeln ist gleich der Wahrscheinlichkeit eine 1, 3 oder 5 zu Würfeln Aus den Axiomen der Wahrscheinlichkeitsrechnung lässt sich der klassische Wahrscheinlichkeitsbegriff ableiten: P( A) = A Ω = Anzahl der für A günstigen Fälle Anzahl aller möglichen Fälle Beispiel Münze: P( K ) = 1 = 0. 5 2 P( Z ) = 1 = 0 .5 2 Beispiel Wurf mit zwei Würfeln: Ereignis Ausprägung Wahrscheinlichkeit P(i) 2 (1,1) P(2) = 1 / 36 0.0278 3 (1,2) (2,1) P(3) = 2 / 36 0.0556 4 (1,3) (2,2) (3,1) P(4) = 3 / 36 0.0833 5 (1,4) (2,3) (3,2) (4,1) P(5) = 4 / 36 0.1111 6 (1,5) (2,4) (3,3) (4,2) (5,1) P(6) = 5 / 36 0.1389 7 (1,6) (2,5) (3,4) (4,3) (5,2) (6,1) P(7) = 6 / 36 0.1667 8 (2,6) (3,5) (4,4) (5,3) (6,2) P(8) = 5 / 36 0.1389 9 (3,6) (4,5) (5,4) (6,3) P(9) = 4 / 36 0.1111 10 (4,6) (5,5) (6,4) P(10) = 3 / 36 0.0833 11 (5,6) (6,5) P(11) = 2 / 36 0.0556 12 (6,6) P(12) = 1 / 36 0.0278 36 mögliche 1.0 Aus den drei Axiomen lassen sich folgende Regeln ableiten: 1. Komplementärregel: Die Wahrscheinlichkeit, dass A nicht eintritt ist gleich P( A ) = 1 − P( A) Wahrscheinlichkeit von A: 9-3 Eins minus der Skript zum Modul 141 - Statistik 2. Teilereignisregel: Ist A eine Teilmenge von B, dann ist die Wahrscheinlichkeit, dass A eintrifft kleiner 1-P(A) Ω=1 A A oder gleich der Wahrscheinlichkeit für B. P ( A) ≤ P ( B ) für A ⊂ B B A 3.1 Additionssatz (für disjunkte Ereignisse): Bei disjunkten (sich ausschließende) Ereignisse ist die Wahrscheinlichkeit, dass ein Experiment den Ausgang A oder B hat, gleich der Wahrscheinlichkeit von A plus der Wahrscheinlichkeit von B. P ( A) ∪ P ( B ) = P ( A) + P ( B ) A B (für disjunkte Ereignisse A und B) 3.2 Additionssatz (für überschneidende Ereignisse): Bei sich überschneidenden Ereignissen ist die Wahrscheinlichkeit, dass ein Experiment den Ausgang A oder B hat gleich der Wahrscheinlichkeit von A plus der Wahrscheinlichkeit von B abzüglich der Schnittmenge von A und B. P ( A) ∪ P ( B ) = P ( A) + P ( B ) − P ( A ∩ B ) 9-4 Skript zum Modul 141 - Statistik A B Beispiel: Die Wahrscheinlichkeit A aus der linken Grundgesamtheit ein Dreieck zu ziehen ist 3/5. Die Wahrscheinlichkeit B ein graues Element zu ziehen ist 4/5. P(∆)=3/5 P(g) = 4/5 Aus dem Additionssatz folgt für die Wahrscheinlichkeit ein Element zu ziehen, das entweder ein Dreieck oder grau ist: P ( A) ∪ P( B) = P( A) + P( B) − P( A ∩ B) 3 4 2 = + − =1 5 5 5 A B 9.1.3 Bedingte Wahrscheinlichkeit Bisher wurde bei der Bestimmung der Wahrscheinlichkeiten für ein bestimmtes Ergebnis immer der gesamte Ereignisraum Ω betrachtet. Oft ist es aber von Interesse die Wahrscheinlichkeit eines Ereignisses A unter der Bedingung, dass auch das Ereignis B eintrete, bestimmen zu können. • Beispielsweise könnte eine Kontrollbehörde daran interessiert sein, dass bei einem BSE Test von Rindfleisch sowohl Probe A wie auch Probe B positiv sei. • Beim Werfen mit einem Würfel soll berechnet werden, wie hoch die Wahrscheinlichkeit ist, dass im Fall einer ungeraden Augenzahl gerade die Eins geworfen wird. Für solche Fragestellungen ist der Ereignisraum also eingeschränkt. Es wird die bedingte Wahrscheinlichkeit berechnet. 9-5 Skript zum Modul 141 - Statistik Ω A B (A ∩ B) Die Betrachtung des gesamten Ereignisraumes Ω zeigt die sich darin befindlichen Mengen A (Kreis) und B (unteres Rechteck), die sich überschneiden. Ist nun die bedingte Wahrscheinlichkeit A unter der Bedingung B (= P(A|B)) gesucht, ist nur noch der Teilraum B von Interesse: „Die Anzahl der möglichen“ ist damit B und nicht mehr Ω. Damit ergibt sich für die bedingte Wahrscheinlichkeit: Beispiel: Die Wahrscheinlichkeit A aus der linken Grundgesamtheit ein Dreieck zu ziehen ist 3/5. Die Wahrscheinlichkeit B ein graues Element zu ziehen ist 4/5. P(∆)=3/5 Die Wahrscheinlichkeit ein graues Dreieck zu ziehen ist: P(g) = 4/5 2 P( A ∩ B) 1 P( A | B) = = 5= 4 P( B) 2 5 A B 9.1.4 Stochastische Unabhängigkeit Zwei Variablen werden als „stochastisch unabhängig“ bezeichnet wenn eine der drei folgenden Beziehungen gilt: 1. P( A ∩ B ) = P ( A) ⋅ P ( B ) 2. P( A | B) = P( A) für P( B) > 0 3. P( B | A) = P( B) für P( A) > 0 9-6 Skript zum Modul 141 - Statistik Für das Beispiel mit den grauen und schwarzen Elementen gilt: P( A ∩ B) = 12 2 ≠ P ( A) ⋅ P ( B ) = 25 5 Daraus folgt die Ereignisse sind nicht unabhängig voneinander! Beispiel 2: Wie hoch ist die Wahrscheinlichkeit bei zwei Würfen mit einem Würfel im ersten Wurf eine 1 und im zweiten Wurf eine 2 zu werfen? Gefragt ist die bedingte Wahrscheinlichkeit: P(2|1) Die Wahrscheinlichkeiten im ersten Wurf eine 2 zu werfen ist P1(1)=1/6. Die Wahrscheinlichkeit im zweiten Wurf eine 1 zu werfen ist P2(2) = 1/6. Die Wahrscheinlichkeit genau die Kombination 1 dann 2 in zwei Würfen zu werfen beträgt P(1|2) = 1/36. Nun gilt: P1(1) * P2(2) = P(2|1) also sind die Ereignisse unabhängig! Dies war zu erwarten, da der Ausgang des ersten Wurfes ja keinen Einfluss auf den Ausgang des zweiten Wurfes hat. 9.2 Wahrscheinlichkeitsfunktionen, Verteilungsfunktionen Die Verteilung aller möglichen Ausgänge eines Experimentes (= alle möglichen Einzelwahrscheinlichkeiten und deren Häufigkeiten des Auftretens) können durch Wahrscheinlichkeitsfunktionen beschrieben werden. Hierbei wird zwischen den Verteilungsfunktionen diskreter und denen stetiger Variablen unterschieden. 9.2.1 Diskrete Variablen Die Verteilungsfunktion F(x) beschreibt die Wahrscheinlichkeit, dass eine Zufallsvariable X kleiner oder gleich einem bestimmten Wert z ist, nach: Für das Würfelexperiment mit einem Würfel ergeben sich die Werte der Verteilungsfunktion F(x) für x = 1 … 6 als: 1/6 für X ≤ 1 (es wird genau 1 gewürfelt) 2/6 für X ≤ 2 (es wird 1 oder 2 gewürfelt) 3/6 für X ≤ 3 (es wird 1, 2 oder 3 gewürfelt) usw. Daraus folgt die Verteilungsfunktion F(x): 9-7 Skript zum Modul 141 - Statistik 1 6 2 F ( 2) = 6 3 F (3) = 6 4 F ( 4) = 6 5 F (5) = 6 6 F ( 6) = 6 F (1) = für ( X ≤ 1) für ( X ≤ 2) für ( X ≤ 3) für ( X ≤ 4) für ( X ≤ 5) für ( X ≤ 6) Die graphische Darstellung von Wahrscheinlichkeitsfunktionen diskreter Variablen erfolgt als „Treppenkurve“: 1.0 F(x) 0.8 0.6 0.4 0.2 0.0 0 1 2 3 4 5 6 x Die Verteilungsfunktion entspricht den kumulierten relativen Häufigkeiten der empirischen Verteilung. Mit der Verteilungsfunktion F(x) lassen sich die Wahrscheinlichkeiten für das Eintreten bestimmter Ereignisausprägungen direkt berechnen, mit: P ( a < X ≤ b ) = F (b ) − F ( a ) Beispiel: Die Wahrscheinlichkeit mit einem Würfel 3, 4 oder 5 zu werfen beträgt: P (2 < X ≤ 5) = F (5) − F ( 2) = 5 2 − = 0.5 6 6 Bei einer diskreten Zufallsvariablen X kann für jede mögliche Ausprägung im Ereignisraum Ω die Wahrscheinlichkeit P(x) für das Eintreffen jeder Ausprägung x bestimmt werden. 9-8 Skript zum Modul 141 - Statistik Dies geschieht durch die Wahrscheinlichkeitsfunktion f(x), die jedem Ereignis xi die entsprechende Wahrscheinlichkeit seines Eintreffens P(xi) zuordnet nach: ⎧ P ( X = xi ) f ( x) = ⎨ 0 ⎩ Die Wahrscheinlichkeitsfunktion entspricht den einfachen relativen Häufigkeiten von empirischen Verteilungen. Wie dort gilt: n ∑ f (x ) = 1 i =1 i Für ein Würfelexperiment mit einem Würfel ergibt sich f(x) nach: ⎧⎪ 1 f ( x) = ⎨ 6 ⎪⎩ 0 für x = {1K 6} sonst Für das Würfelexperiment mit zwei Würfeln ergibt sich f(x) nach: ⎧1 / 36 für ⎪2 / 36 für ⎪ ⎪3 / 36 für ⎪ f ( x) = ⎨4 / 36 für ⎪5 / 36 für ⎪ ⎪6 / 36 für ⎪0 sonst ⎩ x = {2,12} x = {3,11} x = {4,10} x = {5,9} x = {8,6} x = {7} Die graphische Darstellung der Wahrscheinlichkeitsfunktion Zufallsvariablen erfolgt durch ein Stabdiagramm. 9-9 diskreter Skript zum Modul 141 - Statistik 0.18 0.16 0.14 0.12 0.1 f(x) 0.08 0.06 0.04 0.02 0 2 3 4 5 6 7 8 9 10 11 12 Augensumme 9.2.2 Stetige Variablen Handelt es sich bei der Zufallsvariablen X nicht um eine diskrete, sondern um eine stetige Variable, kann die Wahrscheinlichkeit mit der die Zufallsvariable X einen Wert kleiner oder gleich einer bestimmten Zahl z annimmt (= P(X ≤ z)) nicht mehr mit einem einzigen Wert beschrieben werden. Aufgrund der Stetigkeit sind vielmehr unendlich viele Wahrscheinlichkeiten innerhalb eines bestimmten Werteintervalls möglich. Daher ergibt sich für die Verteilungsfunktion F(x) stetiger Zufallsvariablen: x F ( x) = ∫ f (t )dt −∞ Beispiel: Wären die Wahrscheinlichkeiten des Würfelexperimentes nicht diskret, sondern stetig verteilt, d.h. es treten nicht nur die Werte 1 bis 6 sondern auch alle dazwischen (z.B. 3.2, 1.4, 5.0) auf so lautet die Verteilungsfunktion: 1.2 x 1.0 1 F ( x) = ∫ ( x) dx 6 −∞ Die Darstellung im stetigen Fall erfolgt durch ein Summenpolygon: F(x) 0.8 0.6 0.4 0.2 0.0 0 1 2 3 X Data 9-10 4 5 6 Skript zum Modul 141 - Statistik Handelt es sich bei der Zufallsvariablen X nicht um eine diskrete, sondern um eine stetige Variable, existiert keine Wahrscheinlichkeitsfunktion mehr, da die Wahrscheinlichkeit für ein Ereignis X ≤ z unendlich viele Werte annehmen kann. Im stetigen Fall wird diese Funktion deshalb als Wahrscheinlichkeitsdichte oder Dichtefunktion bezeichnet. Sie berechnet sich als erste Ableitung aus der Verteilungsfunktion nach: f ( x) = F ' ( x) Für das Beispiel des „stetigen“ Würfels war die Verteilungsfunktion definiert nach: ⎧ 0 ⎪1 F ( x) = ⎨ x ⎪6 ⎩ 0 für x<0 für 0≤ x≤6 für x>6 Daraus ergibt sich die Dichtefunktion als erste Ableitung nach: ⎧⎪ 1 f ( x) = ⎨ 6 ⎪⎩ 0 für sonst 0≤ x≤6 9.3 Erwartungswert, Varianz und Standardabweichung Wie bei der deskriptiven Statistik existieren auch in der analytischen Statistik Lageund Streuungsparameter, die die Verteilung charakterisieren. Dem Mittelwert einer Verteilung in der deskriptiven Statistik entspricht der Erwartungswert E(x), der sich für diskrete Zufallsvariablen wie folgt berechnet: n E ( x) = ∑ xi ⋅ f ( xi ) i =1 Für den Würfel ergibt sich E(x) nach: 1 1 1 1 1 1 E ( x) = 1 ⋅ + 2 ⋅ + 3 ⋅ + 4 ⋅ + 5 ⋅ + 6 ⋅ = 3.5 6 6 6 6 6 6 Bei stetigen Zufallsvariablen berechnet sich der Erwartungswert Erwartungswert E(x) oder µ nach: +∞ E ( x) = ∫ x ⋅ f ( x)dx −∞ Beispiel: Eine stetige Zufallsvariable sei nach f ( x) = 3 2 x mit 0 ≤ x < 2 verteilt. 8 E(x) berechnet sich dann nach: 9-11 Skript zum Modul 141 - Statistik +∞ 2 2 3 3 E ( x) = ∫ x ⋅ f ( x)dx = ∫ x ⋅ x 2 dx = ∫ x 3 dx 8 8 0 0 −∞ 2 1 3 3 4 3 4 48 3 2 − 0 = = ⋅ x4 = = 4 8 0 32 32 32 2 Die Varianz σ² einer diskreten Zufallsvariable berechnet sich nach: n σ = ∑ ( x i − µ )2 ⋅ f ( x i ) 2 i =1 Für den Würfel ergibt sich die Varianz σ² nach: 6 σ = ∑ (xi − 3.5)2 ⋅ = (1 − 3.5) 2 ⋅ + (2 − 3.5) 2 ⋅ + L + (6 − 3.5) 2 ⋅ = 2.92 2 i =1 1 6 1 6 1 6 1 6 Die Standardabweichung σ ergibt sich aus σ ² nach: σ = σ2 Die Varianz σ ² einer stetigen Zufallsvariable berechnet sich nach: σ = 2 +∞ 2 ( ) x − µ ⋅ f ( x)dx ∫ −∞ 9.4 Übungsaufgaben Aufgabe 1: Bestimmen Sie die Wahrscheinlichkeit p, oder eine Schätzung für sie, für jedes der folgenden Ereignisse: a) Beim Werfen eines Würfels erscheint eine ungerade Zahl. b) Bei zwei Würfen einer Münze erscheint wenigstens einmal Kopf. c) Beim Ziehen einer einzigen Karte aus einem Kartenspiel von 52 Karten zeigt sich ein As, die Karo-Zehn oder die Pik-Zwei. d) Beim Werfen zweier Würfel die Augensumme sieben zu erhalten. e) Beim nächsten Wurf einer Münze ergibt sich Zahl, wenn von 100 Würfen dieser Münze 56 mal Kopf erschienen war. (Begründen Sie Ihre Antwort) Aufgabe 2: Auf einem Parkplatz befinden sich 8 grüne, 7 blaue, 3 rote und 2 weiße Autos. Wie groß ist die Wahrscheinlichkeit dafür, dass: a) morgens zuerst ein rotes, dann ein blaues und schließlich ein weißes Auto den Parkplatz verlässt. 9-12 Skript zum Modul 141 - Statistik b) morgens zuerst zwei blaue Autos den Parkplatz verlassen. Aufgabe 3: Wenn es regnet kann ein Schirmverkäufer 30 € pro Tag verdienen. Bei Sonnenschein verliert er dagegen 6 € pro Tag. Für den nächsten Tag ist eine Regenwahrscheinlichkeit von 30% vorhergesagt. a) Stellen Sie die Wahrscheinlichkeitsfunktion auf b) Zeichnen Sie diese. c) Welchen Verdienst kann der Schirmverkäufer erwarten? Aufgabe 4: Um die Hochwasserwahrscheinlichkeit am Saale-Pegel Jena im Januar abschätzen zu können, suchen Sie den Pegel insgesamt vier mal auf und schauen nach ob Hochwasser herrscht oder nicht. a) Leiten Sie die Wahrscheinlichkeitsfunktion für die Zufallsvariable Anzahl der Hochwasserereignisse im Januar ab. b) Stellen Sie diese zeichnerisch dar. c) Wie groß ist die Wahrscheinlichkeit dass genau an einem Beobachtungstag kein Hochwasser herrscht? d) Wie groß ist die Wahrscheinlichkeit dass an genau zwei Beobachtungstagen Hochwasser herrschte? e) Berechnen Sie den Erwartungswert und die Standardabweichung Ihrer Zufallsvariablen. Aufgabe 5: Eine Maschine führt einen bestimmten Arbeitsgang aus, welcher jeweils genau 10 Minuten dauert. Ein Mechaniker, der die Maschine einer routinemäßigen Kontrolle unterziehen soll, will dazu das Ende des gerade laufenden Arbeitsganges abwarten. Da er dessen Beginn nicht kennt, sieht er die Zeit X, die er warten muss, als Zufallsvariable an. Dabei weiß er erstens sicher, dass er höchstens 10 Minuten zu warten hat, d.h. P(X ≤ 10) = 1; zum zweiten nimmt er für die Wahrscheinlichkeit, dass er höchsten noch x Minuten warten muss an, dass sich diese proportional zu x verhält. Aus den beiden Annahmen ergibt sich die Verteilungsfunktion: F ( x) = 1 x für 0 ≤ x ≤ 10 10 a) Zeichnen Sie die Verteilungsfunktion der Wartezeit X. b) Wie groß ist die Wahrscheinlichkeit, dass der Mechaniker mehr als 3 Minuten warten muss c) er mehr als drei aber höchstens fünf Minuten warten muss d) höchstens noch 2 Minuten warten muss, nachdem er bereits 3 Minuten gewartet hat. 9-13 Skript zum Modul 141 - Statistik 9.5 Musterlösung zu den Übungsaufgaben Aufgabe 1: Bestimmen Sie die Wahrscheinlichkeit p, oder eine Schätzung für sie, für jedes der folgenden Ereignisse: a) Beim Werfen eines Würfels erscheint eine ungerade Zahl. Lösung: p(1) + p(3) + p(5) = 1/6 + 1/6 + 1/6 = 0.5 b) Bei zwei Würfen einer Münze erscheint wenigstens einmal Kopf. Lösung: Es gibt insgesamt vier mögliche Kombinationen des Ausgangs, nämlich: „Kopf und Kopf“, „Kopf und Zahl“, „Zahl und Kopf“ und „Zahl und Zahl“. Die Anzahl der Möglichen ist damit 4, da die Reihenfolge eine Rolle spielt. Aber nur die ersten drei Ausgänge entsprechen der Fragestellung. Die Anzahl der Günstigen ist daher 3. Daraus ergibt sich die Wahrscheinlichkeit als „Günstige“ durch „Mögliche“ als 3/4 = 0.75. Oder die Einzelwahrscheinlichkeit für jede Kombination beträgt ¼. Dann ist die Wahrscheinlichkeit der Fragestellung: p(k,k) + p(k,z) + p(z,k) = ¼ + ¼ + ¼ = ¾ = 0.75 c) Beim Ziehen einer einzigen Karte aus einem Kartenspiel von 52 Karten zeigt sich ein As, die Karo-Zehn oder die Pik-Zwei Lösung: Das Kartenspiel enthält 4 Asse: also ist p(As) = 4 / 52 = 0.077. Also 7.7% Das Kartenspiel enthält 1 Pik-Zehn: also ist p(pik-10) = 1 / 52 = 0.019 Also 1.9% Das gleiche gilt für die Pik-Zwei p(pik-2) = 1 / 52 Damit ergibt sich die Gesamtwahrscheinlichkeit also nach: p(As) + p(pik10) + p(pik2) = 4 / 52 + 1 / 52 + 1 / 52 = 6 / 52 = 0.115. Die Gesamtwahrscheinlichkeit beträgt also 11.5%. d) Beim Werfen zweier Würfel die Augensumme sieben zu erhalten. Lösung: Auch hier gibt es mehrere Möglichkeiten: (1,6) (2,5) (3,4) (4,3) (5,2), (6,1). Obwohl die Würfel gleichzeitig geworfen werden, spielt die Reihenfolge eine Rolle. Daher gibt es insgesamt 36 Möglichkeiten. Die Wahrscheinlichkeit für 7 ist daher: 6 / 36 also 0.1667. Das entspricht 16.67% e) Beim nächsten Wurf einer Münze ergibt sich Zahl, wenn von 100 Würfen dieser Münze 56 mal Kopf erschienen war. (Begründen Sie Ihre Antwort) 9-14 Skript zum Modul 141 - Statistik Lösung: Hier gibt es zwei Möglichkeiten. Entweder (im Falle einer idealen Münze) ist die Wahrscheinlichkeit für Kopf oder Zahl gleich nämlich ½. Dann ist auch die Wahrscheinlichkeit für den nächsten Wurf unabhängig von den vorhergehenden 0.5 oder 50 %. Es kann aber auch eine nicht ideale Münze sein bei der Kopf häufiger erscheint. Dann lässt sich aus dem Versuchen eine Wahrscheinlichkeit für Kopf von 0.56 bestimmen (oder schätzen) und die Gegenwahrscheinlichkeit für Zahl ist dann 1 – p(kopf) also 0.44. In diesem Fall wäre dann die Wahrscheinlichkeit für Zahl gleich 44% Aufgabe 2: Auf einem Parkplatz befinden sich 8 grüne, 7 blaue, 3 rote und 2 weiße Autos. Wie groß ist die Wahrscheinlichkeit dafür, dass: a) morgens zuerst ein rotes, dann ein blaues und schließlich ein weißes Auto den Parkplatz verlässt? Lösung: Dies entspricht dem Urnenmodell „Ziehen ohne Zurücklegen“. Die Lösung ergibt sich aus der Berechnung der Einzelwahrscheinlichkeiten: Zuerst die Wahrscheinlichkeit für ein rotes Auto ist gleich 3 / 20 = 0.15 Dann die Wahrscheinlichkeit für ein blaues: 7 / 19 = 0.36 (es sind ja nur noch 19 Autos auf dem Parkplatz, da das erste rote schon fort ist) Dann die Wahrscheinlichkeit für ein weißes Auto: 2 / 18 = 0.11 Da die Autos nicht „zurückgelegt“ werden handelt es sich um bedingte Wahrscheinlichkeiten! Die Gesamtwahrscheinlichkeit ergibt sich dann aus dem Produkt der Einzelwahrscheinlichkeiten, weil die Einzelereignisse gleichzeitig stochastisch unabhängig sind. Also:P(RBW) = P(R) * P(B|R) * P(W|RB) = 0.15 * 0.36 * 0.11 = 0.00594 b) morgens zuerst zwei blaue Autos den Parkplatz verlassen. Lösung: Wie oben nur, dass: P(blau1) = 7 / 20 und P(blau2) = 6 / 19. Damit ergibt sich die Gesamtwahrscheinlichkeit nach: P(b,b) = 7/20 * 6/19 = 0.11 also 11% Aufgabe 3: Wenn es regnet kann ein Schirmverkäufer 30 € pro Tag verdienen. Bei Sonnenschein verliert er dagegen 6 € pro Tag. Für den nächsten Tag ist eine Regenwahrscheinlichkeit von 30% vorhergesagt. a) Stellen Sie die Wahrscheinlichkeitsfunktion auf Die Wahrscheinlichkeit für einen Verdienst von +30 € ist 0.3 (Regen) und für einen „Verdienst“ von -6 € ist 0.7 (Sonne). Daher ergibt sich die 9-15 Skript zum Modul 141 - Statistik Wahrscheinlichkeitsfunktion nach: ⎧0.3 für x = 30 f ( x) = ⎨ ⎩ 0.7 für x = −6 b) Zeichnen Sie diese. 0.8 0.7 0.6 f(x) 0.5 0.4 0.3 0.2 0.1 0 30 Euro -6 Euro Ereignis x c) Welchen Verdienst kann der Schirmverkäufer erwarten? Gesucht ist der Erwartungswert. Dieser ergibt sich nach: n E ( x) = ∑ xi ⋅ f ( xi ) = (30 ⋅ 0.3) + (−6 ⋅ 0.7) = 4.8 i =1 Der Schirmverkäufer kann also einen Verdienst von 4.80 € erwarten. Aufgabe 4: Um die Hochwasserwahrscheinlichkeit am Saale-Pegel Jena im Januar abschätzen zu können, suchen Sie den Pegel insgesamt viermal auf und schauen nach ob Hochwasser herrscht oder nicht. a) Leiten Sie die Wahrscheinlichkeitsfunktion für die Zufallsvariable Anzahl der Hochwasserereignisse im Januar ab. Lösung: Wird Hochwasser (HQ) mit 1 und kein Hochwasser mit 0 codiert ergeben sich folgende 16 Möglichkeiten der Kombination: 1. 0000 2. 1000 3. 0100 4. 0010 5. 0001 6. 1100 9-16 Skript zum Modul 141 - Statistik 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 1010 1001 0110 0101 0011 1110 1101 1011 0111 1111 Damit ergeben sich folgende Wahrscheinlichkeiten: P(0HQ) = 1 / 16 P(1HQ) = 4 / 16 P(2HQ) = 6 / 16 P(3HQ) = 4 / 16 P(4HQ) = 1 / 16 Und daraus die Wahrscheinlichkeitsfunktion: ⎧1/16 ⎪ 4 /16 ⎪⎪ f ( x) = ⎨6 /16 ⎪ 4 /16 ⎪ ⎪⎩1/16 für für für für für HQ = 0 HQ = 1 HQ = 2 HQ = 3 HQ = 4 b) Stellen Sie diese zeichnerisch dar. 0.40 0.35 0.30 f(x) 0.25 0.20 0.15 0.10 0.05 0.00 0 1 2 3 Hochwasser x 9-17 4 Skript zum Modul 141 - Statistik c) Wie groß ist die Wahrscheinlichkeit dass genau an einem Beobachtungstag kein Hochwasser herrscht? Lösung: P(HQ=3) = 4/16 = 0.25 d) Wie groß ist die Wahrscheinlichkeit dass an genau zwei Beobachtungstagen Hochwasser herrschte? Lösung: P(HQ=2) = 6/16 = 0.375 e) Berechnen Sie den Erwartungswert und die Standardabweichung Ihrer Zufallsvariablen. n E ( x) = ∑ xi ⋅ f ( xi ) = (0 ⋅ 0.0625) + (1 ⋅ 0.25) + (2 ⋅ 0.375) + (3 ⋅ 0.25) + (4 ⋅ 0.0625) i =1 = 0 + 0.25 + 0.75 + 0.75 + 0.25 = 2 n σ2 = ∑ ( xi − µ) 2 f ( xi ) i =1 = (4 ⋅ 0.0625) + (1 ⋅ 0.25) + (0 ⋅ 0.375) + (1 ⋅ 0.25) + (4 ⋅ 0.0625) = 0.25 + 0.25 + 0 + 0.25 + 0.25 =1 Der Erwartungswert beträgt also 2 Standardabweichung von 1 Hochwassertag. Hochwassertage bei einer Aufgabe 5: Eine Maschine führt einen bestimmten Arbeitsgang aus, welcher jeweils genau 10 Minuten dauert. Ein Mechaniker, der die Maschine einer routinemäßigen Kontrolle unterziehen soll, will dazu das Ende des gerade laufenden Arbeitsganges abwarten. Da er dessen Beginn nicht kennt, sieht er die Zeit X, die er warten muss, als Zufallsvariable an. Dabei weiß er erstens sicher, dass er höchstens 10 Minuten zu warten hat, d.h. P(X ≤ 10) = 1; zum zweiten nimmt er für die Wahrscheinlichkeit, dass er höchsten noch x Minuten warten muss an, dass sich diese proportional zu x verhält. Aus den beiden Annahmen ergibt sich die Verteilungsfunktion: F ( x) = 1 x für 0 ≤ x ≤ 10 10 1 0.9 a) Zeichnen Sie die Verteilungsfunktion der Wartezeit X. 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 Wart ezeit in M inut en (x) 9-18 7 8 9 10 Skript zum Modul 141 - Statistik b) Wie groß ist die Wahrscheinlichkeit, dass der Mechaniker mehr als 3 Minuten warten muss Lösung: P(3 < X <= 10) = F(10) – F(3) = 1 – 3/10 = 7/10 = 0.7 c) er mehr als drei aber höchstens fünf Minuten warten muss Lösung: P(3 < X < 5) = F(5) – F(3) = 5/10 – 3/10 = 2/10 = 0.2 d) höchstens noch 2 Minuten warten muss, nachdem er bereits 3 Minuten gewartet hat. Lösung: P(2|3) = (P(3 < X <= 5)) / (P(X > 3)) = (F(5) – F(3)) / (1 - F(3)) = 0.2 / 0.7 = 0.2857 9-19