Beschreibende Statistik anhand realer Situationen Paula Lagares Barreiro∗ Frederico Perea Rojas-Marcos∗ Justo Puerto Albandoz∗ MaMaEuSch† Management Mathematics for European Schools 94342 - CP - 1 - 2001 - 1 - DE - COMENIUS - C21 ∗ Universität Sevilla MaMaEuSch wurde unterstützt durch die EU mittels einer teilweisen Förderung im Rahmen des Socrates Programmes und einer teilweisen Förderung durch das Land Rheinland-Pfalz. Der Inhalt des Projektes reflektiert nicht notwendigerweise den Standpunkt der EU, noch unterliegt es irgendeiner Verantwortung seitens der EU. † Inhaltsverzeichnis 1 Zufall und Wahrscheinlichkeit 2 1.1 Ziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Das Spiel ”Mus” 3 1.3 Zufällige Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4 Zufällige Ereignisse und Ereignisfelder . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4.1 Ergebnisse und zufällige Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . 5 1.4.2 Konsistente und inkonsistente Ereignisse . . . . . . . . . . . . . . . . . . . . . 5 1.4.3 Das sichere Ereignis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4.4 Das unmögliche Ereignis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4.5 Das Komplement eines Ereignisses . . . . . . . . . . . . . . . . . . . . . . . . 7 1.5 Operationen an zufälligen Ereignissen . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.5.1 Vereinigung: ein Ereignis oder das andere . . . . . . . . . . . . . . . . . . . . 7 1.5.2 Durschnitt von Ereignissen: ein Ereignis und ein anderes . . . . . . . . . . . . 8 1.5.3 Differenz von Ereignissen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.5.4 Eigenschaften der Operationen mit Ereignissen . . . . . . . . . . . . . . . . . 9 2 Wahrscheinlichkeit 10 2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.1.1 Definition der Wahrscheinlichkeit über relative Häufigkeiten: empirische Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.1.2 Laplace’sche Regel: theoretische Wahrscheinlichkeit . . . . . . . . . . . . . . . 12 2.2 Ziehen mit Zurücklegen und Ziehen ohne Zurücklegen. Baum Diagramme . . . . . . 13 2.2.1 Ziehen mit Zurücklegen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2.2 Ziehen ohne Zurücklegen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3 Axiomatische Definition der Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . 15 2.4 Berechnung der Wahrscheinlichkeit in komplexeren Fällen . . . . . . . . . . . . . . . 17 2.4.1 Die bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.4.2 Unabhängigkeit von zufälligen Ereignissen . . . . . . . . . . . . . . . . . . . . 18 2.4.3 Totale Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.4.4 Bayes’sche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.5 Antwort auf die anfängliche Frage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1 3 Eindimensionale Wahrscheinlichkeitsverteilungen 3.1 Zielsetzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Einleitung. Diskrete Zufallsvariablen und Wahrscheinlichkeitsverteilungen 3.4 Häufigkeits Cumulative Wahrscheinlichkeitsfunktionen . . . . . . . . . . . 3.5 Der Modus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Der Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Die Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Resümee der anfänglichen Frage . . . . . . . . . . . . . . . . . . . . . . . 4 Ein 4.1 4.2 4.3 Beispiel einer diskreten Zufallsvariablen: Ziele . . . . . . . . . . . . . . . . . . . . . . . Beispiel . . . . . . . . . . . . . . . . . . . . . Einleitung . . . . . . . . . . . . . . . . . . . . 4.3.1 Der Erwartungswert . . . . . . . . . . 4.3.2 Die Varianz . . . . . . . . . . . . . . . 5 Kontinuierliche 5.1 Ziele . . . . 5.2 Beispiel . . 5.3 Einleitung . die Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 28 28 29 31 33 34 34 37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 38 38 39 43 44 Verteilungen: Normalverteilung 46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2 Kapitel 1 Zufall und Wahrscheinlichkeit Lassen Sie uns das ”Mus” Spiel spielen. Die Karten sind ausgeteilt und es ist Zeit sich auf eine Wette einzulassen. Wir müssen bedenken, dass wir nicht alleine spielen sondern gegen andere Spieler antreten. Nervös betrachten wir die neuen Karten, die wir jedesmal bekommen. Welche Karte wird es sein? Sind meine Karten besser als die der anderen? Bevor wir beginnen werden wir uns die Spielregeln und das Ziel des ”Mus” Spiels genauer ansehen. 1.1 Ziele • Verständnis über das Konzept des zufälligen Experiments und dessen Unterscheidung von dem deterministischen. • Erkennen eines zufälligen Ereignisses nach einem Experiment und Kenntnis über den Unterschied zwischen dem Ereignis und dem Ergebnis. • Finden von speziellen Ereignissen: das unmögliche und das sichere Ereignis. • Arbeiten mit dem zufälligen Ereignis und Interpretieren der Ergebnisse nach Betrachten von Vereinigung, Durchschnitt und Differenzen. • Zuordnen eines einfachen zufälligen Ereignisses auf zwei Arten: von der relativen Häufigkeit und von der Laplace’schen Formel. • Verständnis über die bedingte Wahrscheilichkeit und deren Anwendung. • Verständnis über die Unabhängigkeit von zufälligen Ereignissen und den WahrscheinlichkeitsRechenregeln. • Arbeiten mit der totalen Wahrscheinlichkeit und der Baye’schen Formel; deren Unterschiede und Anwendung der Rechenregeln. 3 1.2 Das Spiel ”Mus” In dieser Klasse spielen wir ein einfaches Kartenspiel. Es spielen jeweils zwei pro Team gegen ein anderes Team. Auch wird in diesem Spiel nicht um Geld gespielt. Viel wichtiger ist der Spass. Bevor wir nun mit dem Spiel starten brauchen wir zunächst 40 Karten: • Acht Asse • Vier Vierer • Vier Fünfer • Vier Sechser • Vier Siebener • Vier Buben • Vier Damen • Vier Könige Die Karten werden gemischt und jeder Spieler bekommt zufällig 4 Karten. Folgende Optionen stehen zur Verfügung: • Wenn man zwei gleiche Karten hat und die restlichen zwei sind unterschiedlich und unterscheiden sich von den ersten beiden, dann hat man ein Paar. Zum Beispiel ist dies ein Damenpaar: (Fünf, Dame, Dame, As). • Wenn man drei gleiche Karten hat und sich nur die vierte unterscheidet, dann hat man ein Trio. Zum Beispiel: (Sechs, König, König, König)ist ein Königsdreier. • Weisen die vier Karten zwei Paare auf dann hat man ein Doppel. Diese können verschieden oder gleich sein. Zum Beispiel sind: (As, König, König, As) und (As, As, As, As) zwei verschiedene Doppel. In diesem Spiel ist ein Doppel mehr wert als ein Trio und ein Trio ist wiederum besser als ein Paar. Sollte ein Spieler zwei Paare, zwei Trio oder zwei Doppel haben dann ist jener Spieler der Gewinner, der die höchsten Karten im Paar, im Trio oder im Paar aufweist. Die Karten werden wie folgt von unten nach oben beginnend bewertet: As, Vier, Fünf, Sechs, Sieben, Bube, Dame, König. Zum Beispiel gewinnt jener Spieler mit einem Doppel von Königen und Assen gegen jenen Spieler mit einem Doppel von Buben und Damen weil das höchste Paar vom ersten Spieler (Königs-Paar) mehr wert ist als das höchste Paar des zweiten Spielers (Damen-Paar). Deswegen ist auch ein Paar von Buben höher bewertet als ein Paar von Sechsen. Sollten zwei Spieler dasselbe Doppel, denselben Trio, dasselbe Paar von gleichen Karten haben, dann gewinnt jener Spieler dessen restliche Karte bzw. restliche Karten höherwertig sind. Haben zwei Spieler identische vier Karten, dann gewinnt jener Speiler, der die Karten als erster bekommen hat, d.h. der Spieler, der rechts vom Kartengeber sitzt. 4 Nehmen wir an vier Freunde spielen sehr oft dieses Spiel und haben bemerkt, dass ein Paar von Königen, ein Trio von Königen oder Assen und irgendwelche Doppel zu einer bestimten Zeit immer wieder vorkommen. Sie diskutieren nun welche Schritte für sie selbst am günstigsten wären. Was denken Sie darüber? Beantworten Sie die Frage jetzt noch nicht, sie wird in diesem Kapitel behandelt. 1.3 Zufällige Experimente Beispiel 1.3.1 Stellen Sie sich folgende Situation vor: Die Karten des Spiels sind ausgeteilt. Wissen wir bereits vorher welche Karten wir bekommen haben? Wie Sie sehen können wir nicht mit Sicherheit sagen welche Karten wir bekommen haben, da wir sie nicht sehen. Wir können drei Könige und ein As oder vier Buben bekommen. Beide Möglichkeiten, und natürlich viele mehr, können auftreten. Die Tatsache, dass wir vorher nicht wissen können welche Karten wir bekommen heisst Zufälligkeit. In unserem Fall haben wir ein Experiment: Nehmen Sie vier Karten von dem Stapel. Es können dabei unterschiedlichste Kartenzusammenstellungen auftreten. Wir bezeichnen dieses Ereignis als zufälliges Ereignis. Wenn wir das Ergebnis eines Versuchs bereits im Voraus wissen, dann wird dies als bestimmtes Ereignis bezeichnet. Zum Beispiel: Lassen wir einen Stein in unserer Hand plötzlich los, dann wird er zu Boden fallen. Hier gibt es nur eine Möglichkeit, nämlich dass der Stein zu Boden fällt. Zusammenfassend können wir also sagen, dass bei einem zufälligen Ereignis verschiedene Ergebnisse auftreten können, beim bestimmten Ereignis hingegen gibt es nur ein Endergebnis. Übung 1.3.1 Beschreiben Sie zwei zufällige und zwei bestimmte Ereignisse. Definition 1.3.1 (Zufälliges Ereignis) Ein zufälliges Ereignis ist ein Vorgang, der im Voraus nicht bekannt ist. 1.4 Zufällige Ereignisse und Ereignisfelder Haben wir das Konzept des zufälligen Experiments verstanden, dann werden wir uns sicherlich fragen welche Resultate möglich sind. Nachdem die Karten ausgeteilt wurden stehen eine Menge von möglichen Kartenkombinationen zur Verfügung. So können wir zum Beispiel folgende vier Karten bekommen (As, König, As, Bube) oder (Vier, König, Fünf, Sieben). Jede dieser Kombinationen wird als zufälliges Ereignis betrachtet. Wie vorhin als zufälliges Ereignis definiert beschreibt z.B. (As, Sieben, Bube, Sechs) ein zufälliges Ereignis. Die Summe aller zufälligen Ereignisse wird als Ereignisfeld bezeichnet und wir kürzen es mit E ab. In unserem Beispiel besteht das Ereignisfeld aus allen möglichen Ereignissen. Übung 1.4.1 Lassen Sie uns folgendes zufälliges Ereignis genauer betrachten: Nehmen Sie eine Karte zufällig von dem Kartenstapel. Beschreiben Sie nun das Ereignisfeld dieses Experiments durch Auflisten aller möglichen zufälligen Ereignisse. 5 Definition 1.4.1 (Ereignisfeld) Alle Ereignisse eines zufälligen Experiments werden im Ereignisfeld E zusammengefaßt. Jede Teilmenge eines Ereignisfeldes ergibt ein Ereignis. 1.4.1 Ergebnisse und zufällige Ereignisse Wir unterscheiden die verschiedenen Ergebnisse in zwei Gruppen: Ergebnisse und zufällige Ereignisse. Stellen Sie sich vor, Sie betrachten die erste Karte ihrer vier Karten und es ist eine As. Stellen sie sich folgende Ergebnisse vor: • die erste Karte ist eine As • die erste Karte ist weniger wert als die Sieben Sie werden sicherlich bemerken, dass zwischen diesen zwei möglichen Ereignissen ein gravierender Unterschied besteht. Im ersten Fall legen wir eine bestimmte Karte fest, während wir im zweiten Fall nur einschränken, d.h. die Karte könnte eine As, eine Vier, eine Fünf oder eine Sechs sein. Der zweite Fall (eine Karte weniger wert als Sieben zu ziehen) beschreibt also einen Versuch bei dem mehrere zufällige Ereignisse möglich sind. Zusammenfassend lässt sich aussagen, dass im ersten Fall ein einziges Ergebnis auftritt, während im zweiten Fall ein zufälliges Ereignis beschrieben wird. Im ersten Fall sprechen wir von einen Ergebnis und im zweiten Fall von einem zufälligen Ereignis. Definition 1.4.2 Wir sagen, dass das Ergebnis eines zufälligen Ereignisses ein Ergebnis ist, wenn es aus nur einem einzigen Element des Ereignisfeldes besteht. Ansonsten bezeichnen wir dies als ein zufälliges Ereignis. Beispiel 1.4.1 Überlegen Sie sich folgendes zufällige Experiment: Nehmen Sie von einem Kartenstapel zufällig eine Karte heraus. Das Ereignisfeld ist wie folgt: ”Karo As”, ”Karo Zweier”,..., ”Herz König” Das Ziehen des Herz Königs ist ein Ergebnis. Aber wenn wir nun das Ziehen des Königs betrachten, dann ist dies ein zufälliges Ereignis, weil es vier Möglichkeiten gibt: Ziehen des ”Herz Königs”, ”Ziehen des Karo Königs”, ”Ziehen des Schell Königs” und ”Ziehen des Pik Königs”. 1.4.2 Konsistente und inkonsistente Ereignisse Lassen Sie uns zurückkehren zu unserem Kartenspiel. Jeder Spieler bekommt wiederum vier Karten. Wir wollen nun zwei zufällige Ereignisse betrachten: • Ereignis A=”Zwei von den vier Karten sind Könige” • Ereignis B=”Zwei von den vier Karten sind Asse” Ist es möglich, dass das Ereignis A und das Ereignis B zugleich eintreten? Ist es also möglich zwei Könige und gleichzeitig zwei Asse zu ziehen? Ja es ist möglich ein Doppel von Königen und Assen zu ziehen. Da nun das Ereignis A und das Ereignis B zur gleichen Zeit auftreten können bezeichnen wir sie als konsistente Ereignisse. Jedoch ist die Situation nicht immer so klar. Es gibt einen Anzahl an Ereignissen, die niemals gleichzeitig auftreten können. Stellen Sie sich folgende zwei Ereignisse vor: 6 • Ereignis C = ”Drei von vier Karten sind Könige” • Ereignis D = ”Zwei von vier Karten sind Asse” Und wir fragen uns wiederum: Ist es möglich, dass das Ereignis C und das Ereignis D gleichzeitig eintreten können? Ist es also möglich drei Könige und zwei Asse zu ziehen? Es ist unmöglich, da wir ja nur vier Karten ziehen! Das Ereignis C und das Ereignis D können also nicht im selben zufälligen Experiment vorkommen. Wir bezeichnen sie als inkonzistente Ereignisse. Übung 1.4.2 Finden Sie ein Paar von konsistenten und ein Paar von inkonsistenten Ereignissen; diese müssen von den gegebenen Beispielen unterschiedlich sein, sollen aber demselben zufälligen Ereignis angehören. Definition 1.4.3 Haben wir zwei zufällige Ereignisse in einem zufälligen Experiment, dann bezeichnen wir sie als konstistent, wenn sie gleichzeitig vorkommen können und als inkonsistent wenn sie niemals zur gleichen Zeit eintreten können. 1.4.3 Das sichere Ereignis Wir nehmen nun unseren Kartenstapel und teilen ihn in zwei Teile. In dem einen Teil befinden sich die Asse (acht Karten) und im anderen Teil die restlichen 32 Karten. Wir betrachten nun den Teil mit den Assen und ziehen willkürlich eine Karte. Können wir wissen welche Karte es sein wird? Ja wir können. Wir können annehmen, dass die Karte eine As ist. Dises Beispiel beschreibt ein sicheres Ereignis, ein Ereignis, dass mit Sicherheit eintritt. Übung 1.4.3 Finden Sie nun in dem ”Mus” Spiel ein sicheres Ereignis mit ihren vier Karten. Definition 1.4.4 Ein sicheres Ereignis ist ein zufälliges Ereignis eines zufälligen Experiments, das immer eintritt. Jedes Ereignisfeld besteht aus dem sicheren Ereignis. 1.4.4 Das unmögliche Ereignis Jedoch können wir in demselben zufälligen Ereignis sicher sein, dass wir keine Sechs ziehen werden, weil der Kartenstapel ja nur aus Assen besteht. Das zufällige Ereignis eine Sechs zu ziehen ist daher ein unmögliches Ereignis. Übung 1.4.4 Beschreiben Sie nun ein unmögliches Ereignis basierend auf dem ”Mus” Spiel, mit vier Karten. Definition 1.4.5 Wir sagen, ein zufälliges Ereignis ist ein unmögliches Ereignis, wenn es niemals vorkommt. 7 1.4.5 Das Komplement eines Ereignisses Nehmen wir wieder an, die Karten werden in zwei Stapel geteilt: im ersten Stapel befinden sich alle Könige und alle Asse (16 Karten) und im zweiten der Rest der Karten (24 Karten). Wir ziehen nun eine Karte vom ersten Stapel. Betrachten wir die Ereignisse: • A=”Die gezogene Karte ist eine As” • B=”Die gezogene Karte ist ein König” Die spezielle Eigenschaft dieser Ereignisse ist, dass das Ereignis A niemals eintreten kann wenn das Ereignis B eintritt, und umgekehrt kann auch das Ereignis B nicht eintreten wenn bereits A vorkommt. Eines der beiden Ereignisse kommt immer vor. Beide sind inkonsistente Ereignisse, d.h. sie können niemals gleichzeitig eintreten. Das eine Ereignis ist jeweils das Komplement des anderen Ereignisses. Übung 1.4.5 Beschreiben Sie komlementäre Ereignisse nachdem Sie willkürlich eine Karte des ”Mus” Spiels ziehen. Definition 1.4.6 Zwei Ereignisse werden als Komplement bezeichnet, wenn sie inkonsistent sind (Sie können niemals gleichzeitig eintreten) und eines immer vorkommt. Wenn wir das Ereignis mit A bezeichnen dann wird das Komplement mit A oder Ac bezeichnet. 1.5 Operationen an zufälligen Ereignissen Auf die selbe Weise wie wir mit Zahlen operieren (addieren, subtrahieren, multiplizieren,...) so operieren wir auch mit zufälligen Ereignissen. Die Operationen unterscheiden sich dadurch, dass bei zufälligen Ereignissen von Vereinigung, Durchschnitt und Differenz gesprochen wird. 1.5.1 Vereinigung: ein Ereignis oder das andere Wir wollen nun wieder an das ”Mus” Speil denken, wo jeder Spieler 4 Karten bekommt. Das zufällige Ereignis ist also das willkürliche Ziehen von vier Karten aus dem Kartenstapel. Lassen Sie uns zwei mögliche Ereignisse dieses zufälligen Ereignisses beschreiben: • A=”Besitzen von zwei Königen” • B=”Besitzen einer As” Nehmen wir nun an, dass unsere Karten (As, Bube, Sieben, Sieben) sind. Ist nun das Ereignis A eingetreten? Nein, denn wir haben nicht zwei Könige unter unseren vier Karten. Ist das Ereignis B eingetreten? Ja, denn wir haben eine As unter unseren vier Karten. In diesem Fall sagen wir, dass das Ereignis A oder das Ereignis B eintritt und schreiben A ∪ B. Haben wir nun zwei zufällige Ereignisse und eines der beiden oder sogar beide treten ein dann sprechen wir vonA ∪ B. 8 Übung 1.5.1 Wiederum haben wir das Mus Spiel im Hinterkopf und spielen mit vier Karten. Stellen sie sich folgende Ereignisse vor: A=”Wir ziehen drei Könige” B=”Wir ziehen drei Asse” Beschreiben Sie nun ausgehend von dieser Angabe das Ereignis A ∪ B. Definition 1.5.1 Gegeben sei ein Ereignis A und ein Ereignis B. Wir definieren das Ereignis A oder B( und schreiben dafür A ∪ B) so, dass ein Ereignis der beiden oder sogar beide eintreten. Bemerkung: Sind beide Ereignisse gegeben, dann ist auch A ∪ B gegeben. 1.5.2 Durschnitt von Ereignissen: ein Ereignis und ein anderes Lassen Sie uns nun zwei neue zufällige Ereignisse betrachten, indem wir wieder vier Karten des ”Mus” Spielstaplels ziehen. • A=”Ziehen von zwei Assen” • B=”Ziehen von einer Sieben” Stellen Sie sich vor wir erhalten folgende vier Karten: (As, König, Sieben, As). Ist nun das Ereignis A eingetreten? Ja, denn wir haben zwei Asse unter unseren Karten. Wie sieht es mit dem Ereignis B aus? Dieses ist auch eingetreten, da unsere dritte Karte eine Sieben ist. Beide Ereignisse A und B sind eingetreten. Wir bezeichnen diese Ereignis mit A ∩ B. Übung 1.5.2 Denken Sie über folgende zufällige Ereignisse, nach dem Ziehen von vier Karten, nach: • A=”Ziehen von zwei Königen” • B=”Ziehen von zwei Assen” Beschreiben Sie nun ein Ereignis in welchem das Ereignis A ∩ B eintritt und ein anderes Ereignis in welchem A ∩ B eintritt. Definition 1.5.2 Gegeben sei ein Ereignis A und ein Ereignis B. Das Ereignis A UND B ist definiert als ein zufälliges Ereignis, in welchem sowohl A als auch B eintritt. Wir schreiben A ∩ B. Beachten Sie: wenn der Durchschnitt zweier zufälliger Ereignisse das unmögliche Ereignis (∅)ist dann sind die Ereignisse inkonstistent (siehe Definition der inkonstistenten Ereignisse). Wenn der Durchschnitt nicht das unmögliche Ereignis ist, dann sind die beiden Ereignisse konstistent. 1.5.3 Differenz von Ereignissen Wieder betrachten wir zwei neue Ereignisse: • A= ”Ziehen von drei Buben” • B= ”Ziehen eines Königs” 9 Nach dem Austeilen der Karten haben wir (Bube, As, Bube, Bube). Ist das Ereignis A eingetreten? Natürlich, wir haben ja drei Buben unter unseren vier Karten. Ist das Ereignis B auch eingetreten? Nein, denn in keiner unserer vier Karten läßt sich ein König finden. Wir sagen nun, dass das Ereignis A minus B eingetreten ist und schreiben A \ B. Immer wenn also ein Ereignis eintritt und ein anderes nicht dann sprechen wir von der Differenz von zwei Ereignissen. Übung 1.5.3 Sehen wir uns nun folgendes Experiment genauer an: A= ”Wir habe zwei Asse” B= ”Wir haben zwei Buben” Versuchen Sie nun ein passendes Ereignis A \ B und ein passendes Ereignis B \ A zu beschreiben. Definition 1.5.3 Gegeben sei ein Ereignis A und ein Ereignis B. Das Ereignis A \ B ist definiert als das Eintreten des Ereignisses A und das Nicht- Eintreten des Ereignisses B. 1.5.4 Eigenschaften der Operationen mit Ereignissen Die folgenden Eigenschaften sind von Bedeutung. Zuvor definieren wir das sichere Ereignis mit E und das unmögliche Ereignis mit ∅. Das Ereignis A, B und C sind beliebige zufällige Ereignisse, Teilmengen des Ereignisfeldes und Ac bezeichnet das Komplement des Ereignisses A. Vereinigung: A ∪ B = B ∪ A, A ∪ E = E, A ∪ ∅ = A, A ∪ Ac = E Durchschnitt: A ∩ B = B ∩ A, A ∩ E = A, A ∩ ∅ = ∅, A ∩ Ac = ∅ Differenz: A \ B = A ∩ Bc De Morgan’sche Regel: (A ∪ B)c = Ac ∩ B c , (A ∩ B)c = Ac ∪ B c Zusätzliche Eigenschaften: A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C), A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) 10 Kapitel 2 Wahrscheinlichkeit 2.1 Einleitung Im vorigen Kapitel haben wir das zufällige Ereignis genauer betrachtet und sind zum Schluss gekommen, dass wir hierbei keine Sicherheit über ein Ergebnis erhalten. In anderen Worten haben wir es mit einer Unsicherheit zu tun, die wir messen werden. Diese Zahl werden wir dann Wahrscheinlichkeit benennen. Nehmen wir zum Beispiel zufällig eine Karte vom Kartenstapel. Wir können im Voraus nicht vorhersagen welche Karte es sein wird. Jedoch wissen wir, dass im Stapel mehr Asse als Siebener sind und so wäre es naheliegend zu denken, dass die Wahrscheinlichkeit höher ist eine As als einen Siebener zu ziehen. So hat die As eine höhere Wahrscheinlichkeit gezogen zu werden als die Sieben. In diesem Kapitl möchten wir uns näher mit den verschiedenen Techniken der Häufigkeit des Auftretens eines Ereignisses beschäftigen. Übung 2.1.1 Schreiben Sie zwei Ereignisse, basierend auf den ”Mus” Spiel, zusammen von welchen Sie denken, dass sie unterschiedlich oft eintreten (verschiedene Wahrscheinlichkeiten haben) und erklären Sie warum. 2.1.1 Definition der Wahrscheinlichkeit über relative Häufigkeiten: empirische Wahrscheinlichkeit Im obigen Teil definierten wir die Wahrscheinlichkeit als eine Zahl, die wir jedem Ereignis zuordnen. Mit dieser Zahl wollen wir auch die Häufigkeit des Eintretens eines zufälligen Ereignisses beschreiben. Ein direkter Weg die Wahrscheinlichkeit eines zufälligen Ereignisses zu bestimmen ist es eine Tabelle, in der die relativen Häufigkeiten des Ereignisses zu finden sind, anzusehen. Die Wahrscheinlichkeit wird als empirische Wahrscheinlichkeit bezeichnet da sie nach dem Experiment erst aufgestellt werden kann. Wenn also ein Experiment n mal durchgeführt wurde und wir sehen, dass in k Fällen das Ereignis eingetreten ist, dann bezeichnen wir dies mit A. Die Wahrscheinlichkeit des Auftretens des 11 Ereignisses A ist also k n, und wir schreiben dafür P (A). D.h. also: k n Beispiel 2.1.1 Nehmen wir an wir ziehen wiederum Karten vom Kartenstapel, eine nach der anderen. Nachdem wir die Karte gesehen haben legen wir sie wieder zurück bevor wir die nächste ziehen. Schlussendlich erhalten wir folgende Häufigkeitstabelle: P (A) = Karte As Vier Fünf Sechs Sieben Bube Dame König Relative Häufigkeit 38 200 17 200 21 200 24 200 21 200 23 200 18 200 38 200 Von dieser Tabelle können wir folgende Wahrscheinlichkeiten anlesen: 38 P(”Die Karte ist eine As”)= 200 = 00 19 17 P(”Die Karte ist eine Vier”)= 200 = 00 085 21 P(”Die Karte ist eine Fünf”)= 200 = 00 105 24 P(”Die Karte ist eine Sechs”)= 200 = 00 12 21 0 P(”Die Karte ist eine Sieben”)= 200 0 105 23 P(”Die Karte ist ein Bube”)= 200 = 00 115 18 P(”Die Karte ist eine Dame”)= 200 = 00 09 38 P(”Die Karte ist ein König”)= 200 = 00 19 Nehmen Sie an wir machen dies 1000 mal, dann erhalten wir folgende relative Häufigkeiten: Karte Relative Häufigkeit 192 As 1000 111 Vier 1000 109 Fünf 1000 85 Sechs 200 87 Sieben 1000 116 Bube 1000 91 Dame 1000 209 König 1000 Ausgehend von dieser Tabelle können wir auf folgende neue Wahrscheinlichkeiten schließen: 192 P(”Die Karte ist eine As”)= 1000 = 00 192 111 P(”Die Karte ist eine Vier”)= 1000 = 00 111 109 = 00 109 P(”Die Karte ist eine Fünf”)= 1000 85 P(”Die Karte ist eine Sechs”)= 1000 = 00 085 87 P(”Die Karte ist eine Sieben”)= 1000 = 00 087 116 P(”Die Karte ist ein Bube”)= 1000 = 00 116 91 P(”Die Karte ist eine Dame”)= 1000 = 00 091 209 P(”Die Karte ist ein König”)= 1000 = 00 209 12 Wenn wir verstanden haben, dass die Wahrscheinlichkeit einen Zahl ist, die jedem zufälligen Ereignis zugeschrieben wird, dann können wir sagen, dass das Ereignis ”die gezogene Karte ist ein König” häufiger auftritt, bzw. eine höhere Wahrscheinlichkeit ausweist, als das Ereignis ”die gezogene Karte ist eine Sieben”, da ja P(König) > P(Sieben). Das Ereignis ”die gezogene Karte ist ein Bube” ist wahrscheinlicher als das Ereignis ”die gezogene Karte ist eine Dame ”,... Bemerkung 2.1.1 Diese Möglichkeit der Wahrscheinlichkeitsbestimmung basiert auf dem Gesetz der großen Zahlen für relative Häufigkeiten. Jedem Ereignis wird eine Zahl zugeordnet (die Wahrscheinlichkeit) sodass bei mehrfachen Wiederholen des zufälligen Experiments die relativen Häufigkeiten des Ereignisses immer besser mit der Wahrscheinlichkeit des Ereignisses übereinstimmen. Je mehr zufällige Experimente durchgeführt werden, desto besser stimmt die relative Häufigkeit mit der speziellen Zahl (Wahrscheinlichkeit) überein. Nehmen wir etwa 100 Karten wie im vorigen Beispiel, dann ist die Zuverlässlichkeit der Wahrscheinlichkeit nicht so hoch als wie wenn man 200 Karten gezogen hätte. Und zieht man 10000 Karten anstatt 1000 Karten, dann ist die Wahrscheinlichkeit näher an der wirklichen Wahrscheinlichkeit als bei 1000 Karten. In jedem Fall ist die Tabelle die man nach 1000 Durchführungen des Experiments erhält verlässlicher als jene nach 200 Durchführungen. Übung 2.1.2 Führen Sie folgendes Experiment durch: Teilen sie 20 mal die Karten des ”Mus” Spiels aus und nehmen Sie vier Karten ohne sie zuzückzulegen und notieren sie sich ob in jeder Austeilung: ein Paar, ein Trio, ein Doppel oder nichts davon aufgetreten ist. Machen Sie nun eine Tabelle wo Sie die relative Häufigkeiten des Experiments eintragen und bestimmen Sie dann die Wahrscheinlichkeit der zufälligen Ereignisse (Paar, Trio, Doppel, nichts). Denken Sie, dass diese Wahrscheinlichkeiten zuverlässig sind? Warum? Der nächste Abschnitt beschäftigt sich mit einem anderen Zugang zur Wahrscheinlichkeit. Hier müssen wir nicht ein Experiment durchführen um auf die Wahrscheinlichkeiten zu kommen deshalb ist dieser Zugang oft einfacher als jener den wir zuvor besprochen haben (relative Häufigkeiten). 2.1.2 Laplace’sche Regel: theoretische Wahrscheinlichkeit Wie Sie gesehen haben ist die Wahrscheinlichkeit, über die relativen Häufigkeit definiert, oft zu langwierig. Ein Experiment muss öfters wiederholt werden um ein vernünfiges Ergebnis zu erzielen. Und selbst dann können wir nicht sicher sein die genaue Wahrscheinlichkeit zu erhalten. Aus diesem Grund ist es nötig eine alternative, besser anwendbare Methode zur Berechnung der Wahrscheinlichkeit einzuführen. Stellen wir uns folgendes Beispiel vor: Wir haben den Stapel mit Karten des ”Mus” Spiels vor uns liegen und ziehen nun eine Karte. Wir wollen nun die verschiedenen Wahrscheinlichkeiten aller möglichen Ereignisse wissen. Nun gut, logisch denken wir, dass der Kartenstapel ordentlich zusammengestellt ist und dass wir eine Karte mit der selben Wahrscheinlichkeit ziehen wie alle anderen Karten. Es sind also keine Karten fehlerhaft und so können wir irgendeine von den 40 Karten mit gleicher Wahrscheinlichkeit 13 ziehen. In diesem Fall sagen wir die Karten sind gleichwahrscheinlich. Ein anderes gleichwahrscheinliches Ergebnis wäre eine gewürfelte Nummer d.h. die Eins, Zwei,..., Sechs werden mit gleicher Wahrscheinlichkeit gewürfelt. Ein anderes Beispiel ist das Münzenwerfen: Hier haben wir auch mit gleicher Wahrscheinlichkeit entweder Kopf oder Zahl, natürlich unter der Voraussetzung dass die Münze bzw. der Würfel nicht präpariert sind. Kehren wir nun zu unserem Ausgangsbeispiel dem ”Mus” Spiel zurück. Wir haben 40 Karten, alle mit gleichem Gewicht, Form,... Unter den 40 Karten befinden sich 8 Asse und so schließen wir daraus, dass 40 Durchgängen die As 8 mal gezogen wurde. Dies ist jedoch sehr theoretisch und Sie werden bemerken, dass Sie nicht immer 8 Asse nach 40 Durchgängen erhalten (Sie können auch 3 oder 12 Asse ziehen, je nach Zufall). Die Tatsache aber, dass sich 8 Asse in dem Kartenstapel befinden gibt uns eine Idee, wie wahrscheinlich es sein kann eine As zu ziehen. 8 . Dies ist eine theoretische WahrWir sagen die Wahrscheinlichkeit eine As zu ziehen ist 40 scheinlichkeit und wir müssen die Durchgänge wiederholen. In der Praxis erhalten wir natürlich nicht immer 8 Asse nach 40 Durchgängen. In diesem Fall, da wir gesamt 40 Karten haben kommen wir zu dem Schluss, dass hier 40 mögliche Ergebnisse auftreten können (wir können 40 verschiedene Karten vom Kartenstapel ziehen) und 8 Ergebnisse die wir anaysieren können, z.B. das Ziehen einer As, da sie 8 Möglichkeiten hat aufzutreten. Da wir nun die Konzepte eingeführt haben können wir zur Laplace’schen Definition der Berechnung der Wahrscheinlichkeit übergehen: Definition 2.1.1 Wenn alle Ergebnisse eines zufälligen Experiments gleich wahrscheinlich sind dann beschäftigen wir uns mit dem zufälligen Ereignis dieses zufälligen Experiments genannt A. Es gilt: Anzahl der Ergebnisse in A P (A) = Anzahl aller Ergebnisse Die Anzahl der Ereignisse in A ist die Wahrscheinlichkeit des Auftretens des Ereignisses A. Diese Definition war die erste formale Definition in der Geschichte und geht zurück auf Pierre Simon de Laplace am Beginn des 19. Jahrhunderts. Nach dieser Erklärung können Sie folgende Übung bewältigen: Übung 2.1.3 Berechnen Sie, unter Verwendung der Laplace’ schen Regel, die Wahrscheinlichkeit des Erhaltens jeder Karte nach zufälligem Ziehen einer Karte vom ”Mus” Spielkartenstapel. 2.2 Ziehen mit Zurücklegen und Ziehen ohne Zurücklegen. Baum Diagramme In diesem Abschnitt möchten wir gerne einige neue und kompliziertere zufällige Experimente einführen. Anstatt immer nur eine Karte nach der anderen zu ziehen, ziehen wir nun mehrere Karten. Nach Studieren dieses Unterkapitels werden Sie im Stande sein alle verschiedenen Schritte im ”Mus” Spiel zu analysieren. 14 2.2.1 Ziehen mit Zurücklegen Lassen Sie uns mit einer einfachen Situation beginnen. Wir ziehen zwei Karten vom ”Mus” Spiel Kartenstapel, eine nach der anderen und mit Zurücklegen der Karte nachdem wir sie angesehen haben. Dieser Vorgang wird als SZiehen mit Zurücklegen”bezeichnet. Bezeichnen wir A1 mit dem Ereignis ”Die erste Karte ist ein König” und A2 mit dem Ereignis ”Die zweite Karte ist ein Bube”. Wir können uns nun fragen wie hoch die Wahrscheinlichkeit des Eintretens beider Ereignisse zur selben Zeit ist; also die erste gezogene Karte ist ein König und die zweite gezogene Karte ist ein Bube. Um die Wahrscheinlichkeit des Ereignisses zu berechnen skizzieren wir folgendes Diagramm, welches als Baum Diagramm bezeichnet wird: Die Wahrscheinlichkeit, dass die erste Karte ein König und die zweite Karte ein Bube ist setzt sich zusammen als Multiplikation des Pfades welcher zum gewünschten Ergebnis führt (Produktre8 4 1 gel): 40 = 50 · 40 Wenn wir uns nur für beide Karten (König und Bube) interessieren und uns die Reihenfolge ihres Auftretens egal ist, dann haben wir entweder (König, Bube) oder (Bube, König). Sei B1 das Ereignis ”Die erste Karte ist ein Bube” und B2 das Ereignis ”Die zweite Karte ist ein König”. Für das Eintreten der Kombination (Bube, König) ist das Ereignis B1 ∩ B2 nötig. Aus demselben Grund wie vorhin, unter Verwendung eines ähnlichen Baumdiagramms, erhalten 4 8 1 · 40 = 50 . wir als Wahrscheinlichkeit für das Ziehen von (Bube, König) 40 Um nun die Wahrscheinlichkeit für das Erhalten von Bube und König, ohne Rücksicht auf die Reihenfolge, zu berechnen müssen wir die Wahrscheinlichkeiten von vorhin addieren: ”(König, 1 1 1 + 50 = 25 . Bube) + (Bube, König )” (Additionsregel) Und wir erhalten 50 Übung 2.2.1 In dem zufälligen Experiment von vorhin berechnen Sie nun die Wahrscheinlichkeit, dass beide Karten Asse sind. Zeichnen Sie auch ein passendes Baum Diagramm. Im folgenden Abschnitt befassen wir uns nun mit dem Fall, dass die Karten nach dem Ziehen und Ansehen nicht zurückgelegt werden. 15 2.2.2 Ziehen ohne Zurücklegen In dem zufälligen Experiment von vorhin haben wir die Karten nach dem Ansehen wieder zurückgelegt. Was passiert wenn wir die Karten nicht zurücklegen? Nun gut, die Sache ändert sich, aber die Begründung ist ähnlich. Das einzige was sich ändert ist die zweite Wahrscheinlichkeit, jene Wahrscheinlickeit beim zweiten Ziehen. Dies ist logisch den die Ausgangssituation ist in beiden Fällen die gleiche. Am Anfang ziehen wir immer aus 40 Karten. Beim zweiten Ziehen stehen uns in diesem Fall aber nur mehr 39 Karten zur Verfügung, da die erst Karte ja nicht zurückgelegt wird. Wenn wir wie oben zuerst einen König und dann einen Buben ziehen möchten dann ist das Baum Diagramm dasselbe. Die Wahrscheinlichkeit der zweiten Ziehung ändert sich jedoch. Lassen Sie uns nun auch für diesen Fall die Wahrscheinlichkeit einen König und einen Buben zu ziehen berechnen unter der Voraussetzung, dass wir die Karten nicht wieder zurücklegen. Dieses Vorgehen wird als Ziehen ohne zurücklegen bezeichnet. Das Baum Diagramm dieses Experiments sieht ähnlich aus wie das vorige: 8 4 In diesem Fall haben wir die Wahrscheinlichkeit des Ziehens von (König, Bube) 40 · 39 . 4 Beachten Sie, dass in diesem Fall der zweite Faktor 39 lautet, da wir beim zweiten Mal ja nur mehr 39 Karten zur Verfügung in denen 4 Buben zu finden sind. Auf einen vergleichbare Weise können wir auch die Wahrscheinlichkeit der Kombination (Bube, 4 8 König) berechnen. Sie ist: 40 · 39 . Und wiederum müssen wir nur die einzelen Wahrscheinlichkeiten miteinander addieren (Additionsregel) wenn wir die Wahrscheinlichkeit des Ziehens eines Königs und eines Bubens, ohne 4 8 4 8 4 8 Rücksicht auf die Reihenfolge, berechnen möchten. Wir erhalten: 40 · 39 + 40 · 39 = 2 40 · 39 Übung 2.2.2 Bearbeiten Sie dieselbe Übung wie zuvor nur unter der Voraussetzung dass ein SZiehen ohne zurücklegen”vorliegt. 2.3 Axiomatische Definition der Wahrscheinlichkeit Wir wollen nun eine abstraktere Definition der Wahrscheinlichkeit einführen. Die folgenden Grundprinzipien nehmen wir als wahr an und nennen sie Axiome. Die Axiome lauten: 16 1. Für jedes Ereignis A ist dessen Wahrscheinlichkeit eine Zahl zwischen 0 und 1. Es gilt: 0 ≤ P (A) ≤ 1 2. P (E) = 1, wobei E das sichere Ereignis bezeichnet. 3. Sind A und B zwei inkonsistente Ereignisse dann gilt: P (A ∪ B) = P (A) + P (B) Von diesen Axiomen ausgehend können wir eine beträchtliche Anzahl an Eigenschaften der Wahrscheinlichkeit ableiten: 1. Bezeichnen wir Ac als Komplement des Ereignisses A, dann gilt: P (Ac ) = 1 − P (A) Übung 2.3.1 Beweisen Sie diese Eigenschaft mit Hilfe der Axiome. 2. Haben wir eine Reihe von Ereignissen A1 , A2 , ..., An , und sind diese paarweise inkonsistent (Ai ∩ Aj = ∅ ∀i 6= j), dann gilt: P( n [ Ai ) = i=1 n X P (Ai ) i=1 Sn Als Spezialfall betrachten wir den Fall wenn die Reihe der Ereignisse A1 , A2 , ..., An i=1 Ai = E erfüllt, wobei E das sichere Ereignis ist. In diesem Fall sagen wir, dass die Reihe Pnder Ereignisse A1 , A2 , ..., An eine vollständige Reihe von Ereignissen darstellt, und es gilt: i=1 P (Ai ) = 1 3. Kann das Ereignisfeld in n Ergebnisse oder einzelne Ereignisse zerfallen, E = {x1 , ..., xn }, dann gilt: P (x1 ) + P (x2 ) + ... + P (xn ) = n X P (xi ) = 1 i=1 Spezialfall: Ist die Wahrscheinlichkeit in jedem einzelen Ereignis oder Ergebnis dasselbe, P (xi ) = 1/n, und das Ereignis A besteht aus k Ergebnissen, dann gilt: P (A) = k/n, welches die Laplace’sche Regel darstellt. 4. Sind A und B zwei zufällige Ereignisse dann gilt: P (A ∪ B) = P (A) + P (B) − P (A ∩ B) Diese Eigenschaft trifft auch im Falle von drei Ereignissen zu, und wir erhalten: P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C) 17 Beispiel 2.3.1 Gehen Sie von folgenden Experiment aus: Wir ziehen vier Karten vom ”Mus” Kartenstapel ohne diese wieder zurückzulegen. Zusätzlich notieren wir uns ob die gezogene Karte eine höhere Karte (Bube, Dame, König) ist oder nicht. Am Ende zählen wir die aufgetretenen höheren Karten zusammen. Denken Sie sich folgendes Ereignisfeld die Anzahl der höheren Karten, die wir gezogen haben (0,1,2,3 ó 4). a)Beschreiben Sie das Ergebnis und berechnen Sie deren Wahrscheinlichkeiten. Die Ergebnisse lauten Ai = ”wir haben i ... Karten, i = 0, 1, 2, 3, 4” Da ja 16 höhere Karten im gesamten Kartenstapel existieren, wenden wir nun die Laplas’sche Regel an. Die Wahrscheinlichkeit zufällig eine Karte vom ”Mus” Spielkartenstapel zu ziehen ist 2 24 3 16 40 = 5 und die Wahrscheinlichkeit dass die Karte keine höhere Karte ist 40 = 5 . Von diesen Berechnungen und der vorigen Erklärungen sehen wir, dass die Wahrscheinlichkeit dieser Ereignisse folgend berechnet wird: 3 2 3 2 3 2 3 2 P (A0 ) = ( )4 , P (A1 ) = 4 ( )3 , P (A2 ) = 6( )2 ( )2 , P (A3 ) = 4( )3 , P (A4 ) = ( )4 5 5 5 5 5 5 5 5 b)Wenn B = ”Wir haben eine höhere Karte gezogen ”, berechnen Sie P (B). Es gilt dass B = Ac0 ,also, P (B) = P (Ac0 ) = 1 − P (A0 ) = 1 − ( 53 )4 = c) C = ”Wir haben drei oder mehr höhere Karten gezogen ” C = A3 ∪ A4 , also A3 ∩ A4 = ∅. Es gilt P (C) = P (A3 ∪ A4 ) = P (A3 ) + P (A4 ) = 4( 25 )3 35 + ( 25 )4 = 2.4 2.4.1 Berechnung der Wahrscheinlichkeit in komplexeren Fällen Die bedingte Wahrscheinlichkeit Wir teilen die Karten erneut. Es wird eine nach der anderen Karte ausgeteilt und wir erhalten unsere Karten nach der 4. Runde, der letzten Runde. Der erste Spieler hat einen König, der zweite Spieler hat eine As und der dritte Spieler hat einen Buben bekommen. Wie hoch ist die Wahrscheinlichkeit, dass wir eine As erhalten? Wenden wir die Laplac’sche Regel an dann beträgt die 7 , da ja bereits drei Karten ausgeteilt wurden und 37 Karten Wahrscheinlichkeit eine As zu haben 37 übrigbleiben und eine As ist bereits an den zweiten Spieler gegangen. Folglich befinden sich noch 7 Asse im Kartenstapel. Stellen Sie sich nun vor kein Spieler hätte eine As erhalten. Was hoch wäre dann die Wahrscheinlichkeit? In diesem Fall wären 8 Asse im Kartenstapel, folglich wäre die Wahr8 scheinlichkeit: 37 . Stellen Sie sich diesmal vor zwei Spieler hätten eine As bekommen. Wie hoch ist 6 in diesem Fall die Wahrscheinlichkeit eine As zu erhalten? Sie wäre 37 . Wie Sie sehen ändert sich der Wert der Wahrscheinlichkeit eine As zu erhalten ständig und hängt auch von den Karten, die unsere Rivalen erhalten haben ab. Also hängt die Wahrscheinlichkeit eines Ereignises auch davon ab wieviel Infomationen wir vor dem Experiment erhalten. In diesem Fall ist die Information, die wir zuvor erhalten, die Spielkarten unserer Gegner, d.h. wir wissen welche Karten nicht im Stapel sein werden wenn wir an der Reihe sind. In diesen Fällen ist es sehr einfach die Wahrscheinlichkeiten zu berechnen. Jedoch benötigen wir für schwierigere Fälle eine Formel zur Berechnung der Wahrscheinlichkeiten. Lassen Sie uns nun zum vorhin erklärten Beispiel zurückkehren. Bezeichnen wir das Ereignis A mit ”Meine Karte ist eine As” A und das Ereignis B mit ”Die ersten drei Spieler haben: einen 18 König, eine As bzw. einen Buben erhalten”, dann müssen wir P (A) berechnen, wobei wir die Karten der anderen Spieler wissen, d.h. wir wissen, dass das Ereignis B eingetreten ist. Wir wollen die Wahrscheinlichkeit des Ereignisses A unter Voraussetzung des Ereignisses B berechnen und schreiben A/B. Für die Berechnung wenden wir die Formel für die bedingte Wahrscheinlichkeit an, die lautet: P (A/B) = P (A ∩ B) P (B) Wir müssen also P (A ∩ B) und P (B) berechnen. Zur Berechnung von P (B) wenden wir das bereits kennengelernte Konzept ”Ziehen ohne zurücklegen” an und erhalten: P (B) = 8 8 4 · · 40 39 38 während es für das Eintreten von A ∩ B nötig ist dass die vier Spieler einen König, eine As, einen Buben und eine As erhalten. Die Wahrscheinlichkeit von A ∩ B ist P (A ∩ B) = 8 8 4 7 · · · 40 39 38 37 Nun wenden wir die Formel der bedingten Wahrscheinlichkeit an: P (A/B) = P (A ∩ B) = P (B) 8 40 · 8 40 8 39 · · 8 39 4 38 · · 4 38 7 37 = 7 37 In diesem Fall hätten wir auch ohne bedingte Wahrscheinlichkeit auskommen können, aber in anderen Fällen ist sie unumgänglich. Definition 2.4.1 Wir schreiben das Eintreten des Ereignisses A unter der Bedingung von B als A/B. Es gilt: P (A ∩ B) P (A/B) = P (B) 2.4.2 Unabhängigkeit von zufälligen Ereignissen Lassen Sie uns nochmals die Erklärungen von vorhin und das Beispiel im Unterkapitel über die Baum Diagramme betrachten. Wenn Sie sich erinnern haben wir einige Operationen durchführen müssen um die Wahrscheinlichkeit zu berechnen, nur es handelte sich eher um einen einfachen Fall. Überlegen Sie sich anstelle der zwei möglichen Ergebnisse (König oder nicht König im ersten Durchgang und Bube oder nicht Bube im zweiten Durchgang) drei Ergebnisse. Es wären dann neun Wahrscheinlichkeiten im Gesamten, wenn wir vier mögliche Ergebnisse nach jedem Durchgang hätten dann hätten wir 16 Wahrscheinlichkeiten nach dem zweiten Durchgang. Allgemein: Wenn wir n Ergebnisse in jedem Durchgang haben dann haben wir nach zwei Durchgängen n2 Fälle zu untersuchen. Das ist sehr viel. Und das nur bei zwei Durchgängen. Wenn die Anzahl der Durchgänge 3 beträgt dann hätten wir n3 mögliche Ergebnisse. Bei 4 hätten wir n4 ,... Die Baum Diagramm Technik kommt hier nicht mehr zum Tragen denn bei grösseren Zahlen ist es fast unmöglich einen Baum zu zeichnen. 19 Es gibt einen einfacheren Weg die Wahrscheinlichkeit von diesen Ereignissen zu berechnen. Es bedarf jedoch zuvor noch einer Einführung eines neuen Konzepts: der Unabhängigkeit von zufälligen Ereignissen. Definition 2.4.2 Gegeben sei ein zufälliges Experiment und zwei Ereignisse dieses Experiments, bezeichnet mit A und B. Wir erklären die beiden Ereignisse für unabhängig, wenn es für das Eintreten des einen Ereignisses nicht nötig ist, dass das andere Ereignis eintritt. In anderen Worten: Zwei Ereignisse A und B sind unabhängig wenn die Wahrscheinlichkeit von A gleich der bedingten Wahrscheinlichkeit A unter der Bedingung von B und umgekehrt ist. P (A/B) = P (A) and P (B/A) = P (B) Zwei Ereignisse A und B werden als unabhängig bezeichnet wenn die Wahrscheinlichkeit von A und B gleich dem Produnkt der Wahrscheinlichkeit von A und B ist. P (A ∩ B) = P (A) · P (B) Dieses Erkenntnis wird häufig bei der Berechnung von Wahrscheinlichkeiten in der Wiederholung von zufälligen Experimenten angewendet. Also wenn wir ein zufälliges Ereignis n mal wiederholen und wir wissen, dass das Resultat nach einigen Malen unabhängig von den vorigen ist und wir zusätzlich die Wahrscheinlichkeit des Eintretens von Ai in jeder Wiederholung, ∀ i = 1, ..., n, berechnen dann erhalten wir die Wahrscheinlichkeit für alle Ereignisse. Es ist dies der Durchschnitt aller Ereignisse: A1 ∩ A2 ∩ ... ∩ An , P (A1 ∩ A2 ∩ ... ∩ An ) = P (A1 ) · P (A2 ) · ... · P (An ) Beispiel 2.4.1 Ziehen wir zufällig zwei Karten von dem ”Mus” Spiel mit zurücklegen. Wie hoch ist die Wahrscheinlichkeit, dass beide Karten höhere Karten sind? Wie hoch ist die Wahrscheinlichkeit dass keine Karte eine höhere Karte ist? Wie hoch ist die Wahrscheinlichkeit dass eine der beiden Karten eine höhere Karte ist und die andere nicht? Bezeichnen wir das Ereignis ”Die erste Karte ist eine höhere Karte” mit A und das Ereignis ”Die zweite Karte ist eine höhere Karte”mit B, dann erhalten wir das Ereignis ”Beide Karten sind höhere Karten” mit A ∩ B. Natürlich sind dies alles unabhängige Ereignisse, da wir ja Ziehen mit zurücklegen und sich daher auch die Ausgangsbedingungen bei jedem Durchgang nicht unterscheiden. Es gilt: 16 16 P (A ∩ B) = P (A) · P (B) = · 40 40 Das Ereignis ”Keine der beiden Karten ist eine höhere Karte” wird auf folgende Weise durch die Ereignisse A und B repräsentiert: Ac ∩ B c . Es sind auch dies zufällig Ereignisse daher wird die Wahrscheinlichkeit dieser Ereignisse so berechnet: P (Ac ∩ B c ) = P (Ac ) · P (B c ) = (1 − P (A)) · (1 − P (B)) = 24 24 · 40 40 Das Ereignis ”Eine Karte ist eine höhere Karte, die andere nicht” wird auf folgende Weise durch die Ereignisse A und B repräsentiert: Ac ∩ B und A ∩ B c . Es kann möglich sein, dass die erste Karte eine höhere Karte ist und die zweite nicht und umgekehrt. Das Ereignis das wir untersuchen 20 möchten ist die Vereinigung beider Ereignisse (Ac ∩ B) ∪ (A ∩ B c ). Da sie unabhängige Ereignisse sind, Zerlegung wegen (Ac ∩ B) ∩ (A ∩ B c ) ⊂ A ∩ Ac = ∅ ⇒ (Ac ∩ B) ∩ (A ∩ B c ) = ∅), kann die Wahrscheinlichkeit dieses Ereignisses folgend berechnet werden: (P (Ac ∩B)∪(A∩B c )) = P ((Ac ∩B))+P ((A∩B c )) = P (Ac )·P (B)+P (A)·P (B c ) = 24 16 16 24 · + · 40 40 40 40 Sie können nun erkennen welches der drei Ereignisse eher eintritt. Übung 2.4.1 Überlegen Sie sich folgendes Experiment: Ziehen Sie willkürlich zwei Karten vom Kartenstapel mit zurücklegen. Sie legen die Karte also nachdem sie sie gesehen haben wieder zurück bevor Sie die nächste ziehen. Addieren Sie Werte der Karten im ”Mus” Spiel. Beantworten Sie folgende Fragen: a) Beschreiben Sie das Ereignisfeld, das sichere und das unmögliche Ereignis des Experiments. b)Berechnen Sie die Wahrscheinlichkeit der Summe der Karten mit Wert 20. c) Berechnen Sie die Wahrscheinlichkeit der Summe der Karten mit Wert sechs oder weniger als sechs. Übung 2.4.2 Wiederholen Sie die Übung aber diesmal mit dem Konzept des Ziehens ohne zurücklegen, d.h. sie legen die Karte nicht wieder auf den Stapel zurück. 2.4.3 Totale Wahrscheinlichkeit Stellen Sie sich vor wir ziehen zwei Karten von Kartenstapel ohne diese zurückzulegen. Wir betrachten zunächst die erste und dann die zweite Karte. Wir groß ist die Wahrscheinlichkeit, dass die zweite Karte ein König ist? Mit dem Wissen das wir bereits haben, können wir sagen, dass wenn die erste Karte ein König war die Wahrscheinlichkeit für die zweite Karte ein König zu sein gleich 7 39 ist. Ist jedoch die erste Karte kein König, dann ist die Wahrscheinlichkeit für die zweite Karte ein 8 . Hier wird deutlich, dass es von der ersten Karte abhängt mit welcher König zu sein gleich 39 Wahrscheinlichkeit eine bestimmte Karte als zweite Karte gezogen wird. Im Teilkapitel über die bedingte Wahrscheinlichkeit haben wir vorteilhaft begonnen. Wir kannten nämlich die erste Karte. Nun wissen wir dies nicht mehr. Wie können wir dieses Problem nun lösen? Wir müssen in diesem Fall beide Wahrscheinlichkeiten berücksichtigen. Die erste Karte kann also ein König oder irgendeine andere Karte sein. Lösung des Problems: Überlegen Sie sich folgende zufällige Ereignisse: 1. A1 = ”Die erste Karte ist ein König” 2. A2 = ”Die zweite Karte ist ein König” Wir wollen P (A2 ) berechnen. WAlso werden wir sehen, ob das Ereignis A1 eintritt oder nicht. Wie können wir das machen? Nunja wir werden einfach P (A2 ) in verschiedene Wahrscheinlichkeiten aufteilen, die ein Rechnen erleichtern. Dazu werden wir auf die Operationen, die wir bei den zufälligen Ereignissen angewendet hatten, zurückgreifen. Wir nehmen an A1 sei das Komplement des Ereignisses A1 , dann erhalten wir: A1 ∪ A1 = E, A1 ∩ A1 = ∅ 21 Weiters gilt: A2 = A2 ∩ E =⇒ A2 = (A2 ∩ A1 ) ∪ (A2 ∩ A1 ) und: (A2 ∩ A1 ) ∩ (A2 ∩ A1 ) = ∅ es gilt: P (A2 ) = P (A2 ∩ A1 ) + P (A2 ∩ A1 ) Wenden wir nun die Formel der bedingten Wahrscheinlichkeit an, dann erhalten wir: P (A2 ∩ A1 ) = P (A2 /A1 )P (A1 ) und P (A2 ∩ A1 ) = P (A2 /A1 )P (A1 ) Jetzt können wir die zwei Wahrscheinlichkeiten leicht berechnen. Die Laplace’sche Regel und die Techniken, die wir bei den Ziehungen ohne zurücklegen behandelt haben, ermöglichen uns ein Lösen und es ergibt sich: P (A2 /A1 )P (A1 ) = 7 8 · 39 40 und 8 32 = ... = 00 2 · 39 40 Wie Sie an diesem Beispiel gesehen haben wurde die Wahrscheinlichkeit in zwei Summanden aufgeteilt. Im ersten Summanden setzen wir voraus, dass die erste Karte ein König ist, A1 , und im zweiten nehmen wir an die erste Karte ist kein König, A1 . Die Ereignisse A1 und A1 haben zwei wichtige Eigenschaften P (A2 /A1 )P (A1 ) = A1 ∩ A1 = ∅ y A1 ∪ A1 = E Diese Technik kann als allgemeingültige Regel benutzt werden: Haben wir eine Reihe inkonsistenter Ereignisse A1 , A2 , ..., An in Paaren (Ai ∩ Aj = ∅ ∀i 6= j), und gilt dass A1 ∪ A2 ∪ ... ∪ An = E, (stimmen sie mit diesen Bedingungen übererein so ist diese Reihe eine komplette Reihe der Ereignisse), dann ist die Wahrscheinlichkeit eines Ereignisses S ⊂ E gleich mit P (S) = P (A1 ) · P (S/A1 ) + P (A2 ) · P (S/A2 ) + ... + P (An ) · P (S/An ) und diese Formel wird als Formel der Totalen Wahrscheinlichkeit bezeichnet. Der schwierigste Teil des Anwendens der Formel über die Totale Wahrscheinlichkeit ist es eine geeignete Reihe von Ereignissen zu wählen. Eine schlecht gewählte Reihe von Ereignissen bringt noch größere Schwierigkeiten mit sich. Also ist es nötig geeignete Ereignisse herauszufinden, denn eine schlechte Wahl von Ereignissen einer kompletten Reihe von Ereignissen hilft nicht das Problem zu lösen. 22 Übung 2.4.3 Finden Sie die Wahrscheinlichkeit, in demselben Experiment wie am Anfgang dieses Kapitels, sodass die zweite Karte keine höhere Karte ist. Übung 2.4.4 Lassen Sie uns mit folgender Übung fortfahren: Wir teilen drei Karten im Zuge des ”Mus” Spiels aus. Berechnen Sie zuvor eine komplette Reihe von Ereignissen und wenden Sie die Formel der Totalen Wahrscheinlichkeit darauf an, sodass die dritte Karte eine As ist. Wie hoch ist die Wahrscheinlichkeit, dass die dritte Karte keine As ist? Vorschlag: Wählen Sie als komplette Reihe von Ereignissen die Anzahl der gezogenen Assen als die zwei ersten Karten. 2.4.4 Bayes’sche Regel Lassen Sie uns zurückgehen auf das vorige Beispiel und dessen Situation. Wir haben zwei Karten ohne zurücklegen gezogen. Es stellt sich nun eine neue Frage: Wie hoch ist die Wahrscheinlichkeit, dass die erste Karte ein König ist wobei wir bereits wissen, dass die zweite Karte ein König ist. Diese Frage klingt wie eine Fragen, die wir im vorigen Kapitel bereits behandeln hätten können. Es besteht aber ein bedeutender Unterschied: In diesem Fall haben wir ein Experiment bereits durchgeführt (wir haben die zweite Karte schon gesehen)und fragen uns nun welche Karte die erste war. Nennen wir die Eeignisse A1 und A2 wie zuvor, dann berechnen wir: P (A1 /A2 ) Wenden nun die Formel der bedingten Wahrscheinlichkeit an und erhalten: P (A1 /A2 ) = P (A1 ∩ A2 ) P (A2 ) Ändern wir nun den Nenner entsprechend der Formel für die Totale Wahrscheinlichkeit und wenden die Formel der bedingten Wahrscheinlichkeit im Zähler an, dann sehen wir: P (A1 /A2 ) = P (A2 /A1 )P (A1 ) P (A2 /A1 )P (A1 ) + P (A2 /A1 )P (A1 )) Diese Berechnung ist nun einfacher als jene im vorigen Kapitel. Es ergibt sich: P (A1 /A2 ) = 7 8 39 40 1 5 = 7 39 Im Allgemeinen wird die Bayes’sche Formel wie folgt angewandt: Gegeben sei eine vollständige Reihe von Ereignissen A1 , A2 , ..., An und ein Ereignis S. Wir möchten die Wahrscheinlichkeit des Auftretens des Ereignisses Ai berechnen wobei wir wissen, dass nachdem wir das Experiment durchgeführt haben das Ereignis S eintritt, d.h. wir werden P (Ai /S) berechnen. Wegen vorhin gilt: P (Ai /S) = P (Ai ∩ S) P (S/Ai ) · P (Ai ) = Pn P (S) i=i P (S/Ai ) · P (Ai ) 23 wobei P (Ai ) die Wahrscheinlichkeit a priori des Ereignisses Ai ist (sie ist bereits im Vorhinein bekannt) und P (Ai /S) die Wahrscheinlichkeit a posteriori, da sie erst berechnet wird wenn das Experiment durchgeführt wurde. Wie auch schon im Kapitel über die bedingte Wahrscheinlichkeit hervorgegangen ist, ist es auch hier bei der Anwendung der Bayes’schen Formel nötig eine geeignete Reihe von vollständigen Ereignissen zu wählen (CSE), welches den schwierigsten Teil darstellt. Übung 2.4.5 Sie spielen wieder das ”Mus” Spiel und ziehen diesmal zwei Karten. Berechnen Sie die Wahrscheinlichkeit eine Sieben beim ersten Ziehen zu erhalten wobei die wissen, dass die zweite gezogene Karte ein Bube ist. Übung 2.4.6 Nun ziehen wir zufällig vier Karten vom Kartenstapel. Wir wissen, dass die erste Karte eine As ist. Wie hoch ist die Wahrscheinlichkeit, dass auch die erste Karte eine As ist? Wie hoch ist die Wahrscheinlichkeit, dass die erste Karte ein Bube ist? Hinweis: Für die zwei Fragen müssen Sie zwei verschiedene vollstängige Reihen von Ereignissen wählen. 2.5 Antwort auf die anfängliche Frage Am Beginn dieser Arbeit stellten wir folgendes Beispiel vor: Vier Freunde spielten das ”Mus Spiel”. Sie erhielten acht Paare von Königen, sechs Trios von Assen oder Königen und fünf Doppel. Die Freunde unterhielten sich welche dieser Kombinationen am ehesten eintritt und kamen zu keiner Einigung. Also halfen wir ihnen. Die folgenden Ereignisse benennen wir: • RR = ”Erhalten eines Paares von Königen” • M = ”Erhalten eines Trios von Assen oder Königen ” • D = ”Erhalten irgendeines Doppels” Wir werden nun die Wahrscheinlichkeit berechnen ein Paar von Königen zu erhalten, also P (RR). Um dieses Paar zu erhalten müssen wir (offensichtlich) zwei Könige und zwei andere Karten ausser Königen haben. Dise können auch nicht gleich sein, da wir sonst ein Doppel von Königen und anderen zwei Karten hätten. Nun werden wir zwei Fälle unterscheiden. Im ersten Fall haben wir eine As und im zweiten Fall nicht, da die Anzahl der Asse im Kartenstapel unterschiedlich der anderen Karten ist. Ereignis B sei nun ”Erhalten einer As”. Nach Anwendung der Regel für die Totale Wahrscheinlichkeit ergibt sich: P (RR) = P (RR/B)P (B) + P (RR/B)P (B) = P (RR ∩ B) + P (RR ∩ B) Wir bezeichnen das Ereignis A mit dem Erhalten einer As und C und C 0 als Erhalten von unterschiedlichen Karten ausser Königen oder Assen und wiederum unterschiedlich dann könnte ein Paar von Königen folgend aussehen: (R, R, A, C) 24 Haben wir eine As oder (R, R, C, C‘) , haben wir keine As und die Karten (R, R, A, C) mit allen möglichen Variationen in der Anordnung ergibt das Ereignis RR∩B. Die anderen Karten (R, R, C, C 0 ) mit allen möglichen Anornungen ergibt das Ereignis RR ∩ B. Lassen Sie uns zunächst die Wahrscheinlichkeit berechnen, dass nach dem Austeilen folgende Karten in dieser Ordnung erhalten wurden (R, R, A, C). Dann werden wir berechnen wieviele mögliche Variationen es gibt und da ja alle die gleiche Wahrscheinlichkeit aufweisen brauchen wir nurmehr die Wahrscheinlichkeiten zu multiplizieren. Lassen Sie uns P (R, R, A, C) berechnen. Die 8 , die Wahrscheinlichkeit dass die zweite Wahrscheinlichkeit dass die erste Karte ein König ist ist 40 7 Karte auch ein König ist ist 39 . Die Wahrscheinlichkeit der dritten Karte eine As zu sein beträgt 8 38 , während die Wahrscheinlichkeit der vierten Karte eine andere Karte als ein König oder eine As 24 zu sein gleich 37 ist. Es gilt: 8 7 8 24 P (R, R, A, C) = 40 39 38 37 Lassen Sie uns die Wahrscheinlichkeit nun in einem anderen Auftreten der Karten berechnen um zu sehen, dass die Wahrscheinlichkeit dieselbe ist. Zum Beispiel: P (A, R, C, R) = 8 8 24 7 8 7 8 24 = = P (R, R, A, C) 40 39 38 37 40 39 38 37 Dies könnte man nun auch für die anderen Variationen durchrechnen. Es müsste aber nun einsichtig sein dass sie alle gleich sind. Wenn einmal die Wahrscheinlichkeit eines dieser gefunden wurde, dann kann man die Anzahl der möglichen Variationen der Karten leicht berechnen. Wir haben eine Variation von vier Karten in welcher zwei Karten doppelt auftreten. Die allgemeine Formel für Variation mit Wiederholung von n Elementen wo n1 Elemente von derselben Art sind, n2 Elemente einer anderen Art,... und nk wieder einer anderen Art Vnn1 ...nk = n! n1 ! · n2 ! · ... · nk ! In unserem Fall also P (R, R, A, C) = 4! 24 = = 12 2!1!1! 2 Wir erhalten: P (RR ∩ B) = 12 8 7 8 24 40 39 38 37 Um P (RR∩B) zu erhalten müssen wir mit einem ähnlichen Prozess fortfahren. Als erstes werden wir P (R, R, C, C 0 ) berechnen. Nun folgt das Anwenden der Laplace’schen Regel Karte für Karte. Dies ergibt: 8 7 24 20 P (R, R, C, C 0 ) = 40 39 38 37 Wiederum sind alle Variationen gleich. Es existieren 12 mögliche Anordnungen, die durch Variation mit Wiederholung von 4 Elementen entstehen, wobei zwei Elemente wiederholt werden. Dies 25 ergibt 12 mögliche Anordnungen. Sie sind alle gleich wahrscheinlich und die Wahrscheinlichkeit ein Paar von Königen und keiner As ist P (RR ∩ B) = 12 8 7 24 20 40 39 38 37 Nach der Formel für die Totale Wahrscheinlichkeit ergibt sich: P (RR) = P (RR ∩ B) + P (RR ∩ B) = 12 8 7 8 24 8 7 24 20 + 12 = 00 255 40 39 38 37 40 39 38 37 Nun wollen wir P (M ) berechnen. Das Trio kann aus Königen oder Assen bestehen. Also kann die erste Karte ein König oder eine As sein. Die zweite Karte muss ein König sein wenn die erste Karte einer war, und muss eine As sein wenn die erste Karte eine As war. Mit der dritten Karte ist es dasselbe. Die vierte Karte darf nicht dieselbe sein wie die drei Karten zuvor denn sonst hätten wir ein Doppel und kein Trio. Die Wahrscheinlichkeit ein Trio von Assen oder Königen zu erhalten ist also: 8 7 6 32 8 7 6 32 16 7 6 32 + = 40 39 38 37 40 39 38 37 40 39 38 37 und alle sind gleich wahrscheinlich. Nehmen wir an der erste Summand sein die Wahrscheinlichkeit ein Trio von Königen zu erhaltenund, die zweite die Wahrscheinlichkeit ein Trio von Assen zu erhalten. Dies sind inkonstistente Ereignisse und daher brauchen nur die Wahrscheinlichkeiten addiert zu werden um auf das Ergebnis zu kommen. Um die Anzahl der möglichen Anordungen zu berechnen ziehen wir die Formel für die Variation mit Wiederholung zu Hilfe. In diesem Fall haben wir vier Elemente in welchen drei gleich sind und 4! 4 eines unterschiedlich. Also haben wir V3,1 = 3! = 4 mögliche Anordnungen derselben Karten. Da sie gleich wahrscheinlich sind müssen wir nur die Wahrscheinlichkeiten einer Anordnung mit der Anzahl der möglichen Anordnungen multiplizieren. Es ergibt sich: P (M ) = 4 16 7 6 32 = 00 039 40 39 38 37 Schießlich möchten wir noch die Wahrscheinlichkeit berechnen ein Doppel im ”Mus” Spiel zu erhalten. Dazu werden wir das Ereignis des Erhaltens irgendeines Doppels aufspalten in die verschiedenen Doppel die wir erhalten können, abhängig davon ob wir Könige, Asse oder beide haben. Wir können folgende Doppel erhalten: 8 7 8 7 1. Könige-Asse (R, R, A, A). P (R, R, A, A) = 40 39 38 37 Hier liegt eine Variation von vier Ele4! 4 menten vor die in Paaren dieselben sind, also gibt es V2,2 = 2!2! = 6 mögliche Anordnungen. Die Wahrscheinlichkeit des Erhaltenes eines Doppels von Königen und Assen ist daher 6 8 7 8 7 40 39 38 37 26 2. Ein Doppel von Königen und einer anderen Karte, die keine As oder ein König ist, ist 8 7 24 3 (R, R, C, C). P (R, R, C, C) = 40 39 38 37 4 Auch in diesem Fall haben wir V2,2 = Erhaltens eines Doppels dieser Art 4! 2!2! 6 = 6 Variationen, also ist die Wahrscheinlichkeit des 8 7 24 3 40 39 38 37 3. Ein Doppel von Assen und einer anderen Karte ausser König und As ist (A, A, C, C). P (A, A, C, C) = 8 7 24 3 4! 4 40 39 38 37 Wieder haben wir V2,2 = 2!2! = 6 Variationen, Also ist die Wahrscheinlichkeit des Erhaltens dieses Doppels 8 7 24 3 6 40 39 38 37 8 7 6 5 4. Könige-Könige (R,R,R,R). Es gilt dass P (R, R, R, R) = 40 39 38 37 und da alle Karten gleich sind haben wir nur eine einzige Anordnung und folglich ist die Wahrscheinlichkeit des Erhaltens diese Doppels 8 7 6 5 40 39 38 37 8 7 6 5 5. Asse-Asse (A,A,A,A). Es gilt dass P (A, A, A, A) = 40 39 38 37 und es ist wiederum jede Karte gleich also gibt es nur eine Anordnung. Die Wahrscheinlichkeit des Erhaltens des Doppels Asse-Asse ist 8 7 6 5 40 39 38 37 6. Das Ereignis ”Erhalten eines Doppels ausgenommen von Königen und Asse und die Karten des Doppels unterscheiden sich” kann wie folgt bezeichnet werden (C,C,C’,C’), y P (C, C, C 0 , C 0 ) = 4! 24 3 20 3 4 40 39 38 37 . Für die möglichen Anordnungen haben wir wieder V2,2 = 2!2! = 6. Die Wahrscheinlichkeit des Erhaltens dieses Doppels ist daher 6 24 3 20 3 40 39 38 37 7. Das letzte möglich Doppel ist jenes in welchem alle vier Karten gleich sind, wobei die Karten keine Könige und Asse sind. Das ergibt folgende Kombination (C, C, C, C). 3 2 1 Die Wahrscheinlichkeit des Eintretens ist 24 40 3 38 37 und da jede Karte dieselbe ist haben wir auch nur eine mögliche Anordnung. Die Wahrscheinlichkeit des Erhaltens dieses Doppels ist daher 24 3 2 1 40 3 38 37 Diese Doppel die wir soeben nummeriert haben sind alle disjunkt (inkonsistent) und ihre Vereinigung ergibt das Ereignis D = ”Erhalten irgendeines Doppels”. Die Wahrscheinlichkeit P (D) ist gleich der Summe der Wahrscheinlichkeiten von den vorigen Doppeln. Nach der exakten Berechnung ergibt sich P (D) = 00 035 27 Kurz gilt P (RR) = 00 255 P (M ) = 00 039 P (D) = 00 035 Das Ereignis des Paars von Königen ist unter den dreien am wahrscheinlichsten. Während die Ereignisse ”Ziehen eines Trios von Königen oder Assen” und ”Ziehen von irgendeinen Doppel” sehr ähnliche Wahrscheinlichkeiten liefern. Mit diesen Berechnungen sind wir nun in der Lage Auskunft über die Frage, die sich die Freunde gestellt haben, zu geben. Obwohl es wahrscheinlicher ist ein Paar von Königen als ein Doppel zu erhalten muss dies nicht in Realität so sein. Wenn wir also sagen, dass ein Ereignis wahrscheinlicher ist als ein anderes heisst das nicht, dass dieses Ereignis immer und immer häufiger als ein anderes Ereignis eintritt. Theoretisch hat es eine höhere Wahrscheinlichkeit einzutreten als die anderen. Bei der Wahrscheinlichkeitsrechnung sehen Sie den Unterschied zwischen Theorie und Praxis sehr gut. 28 Kapitel 3 Eindimensionale Wahrscheinlichkeitsverteilungen 3.1 Zielsetzungen • Verständnis des Konzept der Wahrscheinlichkeitsveteilung und Begründungen. • Berechnen der Dichte- Wahrscheinlichkeitsfunktion (DP F ) und der Cumulative Wahrscheinlichkeitsfunktion (CP F ) einer Wahrscheinlichkeitsverteilung. • Verständnis des Konzepts des Modalwertes, des Medians oder Erwartungswertes, der Varianz einer diskreten Wahrscheinlichkeitsverteilung und deren Berechnung von der DP F oder von der CP F . 3.2 Beispiel Ein Börsenanleger hat 1000000 Euro zum Investieren an der Börse zur Verfügung. Er überlegt sich zwei Möglichkeiten: • Anlegen des Geldes bei der Bank und Vergewisserung eines 16%igen Gewinns. • Investitionsvorhaben. Eine Marktuntersuchung, durchgeführt von einem Börsen Analytiker besagt dass das Investitionsvorhaben von vorhin folgende Gewinne mit den eigenen Wahrscheinlichkeiten erzielt: 29 Gewinn (%) 30 25 20 15 10 5 0 Wahrscheinlichkeit 0’15 0’2 0’25 0’15 0’1 0’1 0’05 Der Anleger muss nun eine Entscheidung treffen wie er sein Geld am besten anlegt. Zwei Fragen können gestellt werden: Der Anleger vertraut dem Konzept des erwarteten Gewinns (das Geld das er durchschnittlich gewinnen würde wenn er mehrmals anlegt). Wie werden wir uns entscheiden? Ziehen wir den erwarteten Gewinn des Investmentvorhabens, um mehr zu gewinnen, vor? Eine andere Möglichkeit wäre: Der Anleger will nicht viel riskieren und will zumindest 16% Gewinn mit 70%iger Wahrscheinlichkeit. Was machen wir in diesem Fall? Wir werden diese Problem lösen, indem wir die Wahrscheinlichkeitsverteilung zu Hilfe ziehen, ein Konzept das noch genauer erklärt wird. 3.3 Einleitung. Diskrete Zufallsvariablen und Wahrscheinlichkeitsverteilungen Zuvor haben wir gelernt wie man die Wahrscheinlichkeiten von verschiedenen zufälligen Ereignissen bestimmt. Jede auf eine andere Weise. Dieses Kapitel beschäftigt sich nun mit allgemeinen Techniken, die explizit erklärt werden. Im vorigen Beispiel ist eine Tabelle mit den Wahrscheinlichkeiten des Erhaltens von verschiedenen Gewinnen nach dem Investitionsplan. Mit Hilfe dieser Tabelle werden wir entscheiden wie wir das Geld anlegen werden. Bevor wir nun fortfahren sei nochmals erwähnt, dass die Schlüsse die wir ziehen werden theoretischer Natur sind. Es ist also möglich dass wir uns für eine Variante entscheiden und wegen der Zufälligkeit der Ereignisse diese Variante falsch ist und unsere Berechnungen verwift. Weiters gibt uns die Wahrscheinlichkeit nur eine grobe Idee von der Höhe des Profits. Lassen Sie uns nun mit der Analyse des Problems beginnen. Wir wollen nun das Konzept der zufälligen Variablen genauer betrachten. Bei unserem Problem haben wir ein zufälliges Experiment vorausgesetzt, nämlich den Gewinn den wir nach dem Investmentplan machen. Nach dem zufälligen Experiment können wir in den verschiedenen Fällen unterschiedliche Gewinne erzielen. Und diese möglichen Gewinne sind nun die Resultate unseres zufälligen Experiments. Wir benennen X = ”Gewinn nach Befolgung des Investitionsplans ” 30 und sagen X ist eine diskrete zufällige Variable und die möglichen Werte die diese Variable annehmen kann sind die Ergebnisse. In diesem Fall kann die zufällige Variable X sieben Ergebnisse oder Werte liefern (alle verschiedenen Gewinne) die wir mit x und einen Index für jeden einzelen Fall bezeichnen. Die diskrete zufällige Variable X kann die Werte x1 , x2 , x3 , x4 , x5 , x6 , x7 annehmen, wobei 1. x1 = 0 =⇒ P (X = x1 ) = 00 05 2. x2 = 5 =⇒ P (X = x2 ) = 00 1 3. x3 = 10 =⇒ P (X = x3 ) = 00 1 4. x4 = 15 =⇒ P (X = x2 ) = 00 15 5. x5 = 20 =⇒ P (X = x5 ) = 00 25 6. x6 = 25 =⇒ P (X = x6 ) = 00 2 7. x7 = 30 =⇒ P (X = x7 ) = 00 15 Die Reihe von Werten die eine diskrete Zufallsvariable annehmen kann und die ihre Wahrscheinlichkeit wird als diskrete Wahrscheinlichkeitsverteilung bezeichnet. P (X = x1 ) = 00 05, P (X = x2 ) = 00 1, P (X = x5 ) = 00 2, P (X = x3 ) = 00 1, P (X = x6 ) = 00 25, P (X = x4 ) = 00 15, P (X = x7 ) = 00 15, Logischerweise ist die Summe aller dieser Wahrscheilichkeiten gleich 1. Dies kommt von der Tatsache, dass wenn eine diskrete Zufallsvariable ihre Werte in der Reihe {x1 , ..., xn } annimmt, d.h. P (X ∈ {x1 , ..., xn }) = 1 weil in jedem Fall die Zufallsvariable einen dieser Werte annehmen wird und dies ist was wir mit dem sicheren Ereignis bezeichnen. Da sie auch disjunkte (inkonsistente) Ereignisse sind kann die Zufallsvariable X auch nicht zwei verschiedene Werte zur selben Zeit annehmen. Es gilt: P (X = x1 ) + ... + P (X = xn ) = P (X = x1 ∪ ... ∪ X = xn ) = P (X ∈ {x1 , ..., xn }) = 1 Wir definieren eine diskrete Zufallsvariable und ihre Wahrscheinlichkeitsverteilung wie folgt: Definition 3.3.1 Eine zufällige Variable ist ein numerisches Ergebnis eines zufälligen Experiments. Wir sagen X ist eine diskrete Zufllsvariable wenn sie ihre Werte innerhalb eines Reihe annimmt x1 , x2 , ..., xn , ... und wenn wir sie abzählen können (endlich oder unendlich) mit eigner Wahrscheinlichkeit P [X = x1 ], P [X = x2 ], ..., P [X = xn ], ... und es gilt 0 ≤ P [X = xn ] ≤ 1, ∀n P∞ und i=1 P [X = xi ] = 1. Die vorigen Wahrscheinlichkeiten bilden eine Wahrscheinlichkeitsverteilung für die Variable X, d.h., die Wahrscheinlichkeitsverteilung einer Zufallsvariablen X ist die Funktion die jedem möglichen Werte die Wahrscheinlichkeit des Wertes zuordnet. 31 In unserer Studie über diskrete Zufallsvariablen werden wir speziell jene Variablen betrachten die einen Wert innerhalb einer endlichen Reihe annehmen. Als Beispiel dafür dient die Situation die anfangs beschrieben wurde. Hier sind nur sieben Möglichkeiten vorhanden. Als Wiederholung dieses Abschnitts wollen wir uns an die Zufallsvariable und die Wahrscheinlichkeitsverteilung erinnern. Die Zufallsvariable ist X = ”Gewinn nach Befolgung des Investitionsplans” und deren Wahrscheinlichkeitsverteilung ist P (X = x1 ) = 00 05, P (X = x2 ) = 00 1, P (X = x5 ) = 00 2, P (X = x3 ) = 00 1, P (X = x6 ) = 00 25, P (X = x4 ) = 00 15, P (X = x7 ) = 00 15, wobei x1 = 0, x2 = 5, x3 = 10, x4 = 15, x5 = 20, x6 = 25 und x7 = 30. 3.4 Häufigkeits Cumulative Wahrscheinlichkeitsfunktionen Wie Sie bereits bemerkt haben, haben wir zuvor die Ereignisse x1 , ..., x7 mit den unterschiedlichen Gewinnen in aufsteigender Reihenfolge benannt. Wir haben x1 mit dem niedrigsten Gewinn, der 0, x2 mit dem Gewinn 5,... und x7 mit dem größten Gewinn, der 30, gleichgesetzt. Dies haben wir keinesfalls zufällig und ohne Grund so zugeordnet. Es dient zur Definition einer neuen Funktion, die die Zufallsvariable X benötigt. Die Funktion charakterisiert X eindeutig, die Cumulative Wahrscheinlichkeitsfunktion, die wir später genauer behandeln werden. Zuvor werden wir die zweite Frage des Problems beantworten. Der Anleger möchte mit einer Wahrscheinlichkeit, höher als 0’7, mindestens 16% Gewinns beim Investitionsplan erzielen. Wenn dies nicht zu seinem Willen geschieht dann werde er sein Geld bei einer Bank anlegen, die ihm die 16% Gewinn gewährt. Basierend auf den Zufallsvariablen möchte er, dass P (X > 16) ≥ 00 7. Wie berechnet man dies? Es ist ziemlich einfach. Man nimmt die möglichen Werte die die diskrete Zufallsvariable X annehmen kann und addiert ihre Wahrscheinlichkeiten. Man erhält in diesem konkreten Beispiel: P (X > 16) = P (X = 20) + P (X = 25) + P (X = 30) = = P (X = x5 ) + P (X = x6 ) + P (X = x7 ) = 00 25 + 00 2 + 00 15 = 00 6 So ergibt sich, dass die Wahrscheinlichkeit einen Gewinn von mehr als 16% zu machen bei nur 0’6 liegt und nicht bei 0’7, sowie es der Anleger versichert haben wollte. Der Anlegeer steigt also in diesem Fall mit einem Anlegern bei einer Bank, die ihm den 16%igen Gewinn gewährt, besser aus. Nun wollen wir aber die Funktion definieren welche wir vorhin erwähnten und welche die Zufallsvariable eindeutig charakterisiert. Mit Hilfe diese Funktion, der Cumulative Wahrscheinlichkeitsfunktion (CPF), wird es uns auch möglich sein die vorhin gestellte Frage zu beantworten. Wir definieren: 32 Definition 3.4.1 Hat man die möglichen Werte, die eine diskrete Zufallsvariable X annehmen kann in aufsteigender Reihenfolge x1 , ..., xn , dann definieren wir die Funktion F : R −→ [0, 1] wie folgt F (x) = P (X ≤ x) ∀x ∈ R Für die möglichen Werte von X, xi , ergibt sich P (X ≤ xi ) = P (X = x1 ) + P (X = x2 ) +...+ P (X = xi ), für alle x von R. Wir erhalten dass P (X ≤ x) die Summe der Wahrscheinlichkeiten aller xi weniger als x oder gleich wie x ist. Es folgt X P (X ≤ x) = P (X = xi ) xi ≤x Betrachten wir nun wieder das vorige Beispiel über den Investitiosplan dann ist F : • Wenn x < 0, F (x) = 0 weil es kein xi < 0 gibt. • Wenn x ∈ [0, 5) F (x) = P (X = x1 ) = 00 05. • Wenn x ∈ [5, 10) F (x) = P (X = x1 ) + P (X = x2 ) = 00 05 + 00 1 = 00 15. • Wenn x ∈ [10, 15) F (x) = P (X = x1 ) + P (X = x2 ) + P (X = x3 ) = 00 05+00 1+00 1 = 00 25. • Wenn x ∈ [15, 20) F (x) = P (X = x1 ) + P (X = x2 ) + P (X = x3 ) + P (X = x4 ) = 00 05 + 00 1 + 00 1 + 00 15 = 00 4. • Wenn x ∈ [20, 25) F (x) = P (X = x1 ) + P (X = x2 ) + P (X = x3 ) + P (X = x4 ) + P (X = x5 ) = 00 05 + 00 1 + 00 1 + 00 15 + 00 2 = 00 6. • Wenn x ∈ [25, 30) F (x) = P (X = x1 ) + P (X = x2 ) + P (X = x3 ) + P (X = x4 ) + P (X = x5 ) + P (X = x6 ) = 00 05 + 00 1 + 00 1 + 00 15 + 00 2 + 00 25 = 00 85. • Wenn x ≥ 30 F (x) = P (X = x1 ) + P (X = x2 ) + P (X = x3 ) + P (X = x4 ) + P (X = x5 ) + P (X = x6 ) + P (X = x7 ) = 00 05 + 00 1 + 00 1 + 00 15 + 00 2 + 00 25 + 00 15 = 1. Kurz können wir die Funktion F wie folgt angeben: 0 wenn x < 0 00 05 wenn 0 ≤ x < 5 wenn 5 ≤ x < 10 00 15 0 0 25 wenn 10 ≤ x < 15 F (x) = wenn 15 ≤ x < 20 00 4 wenn 20 ≤ x < 25 00 65 wenn 25 ≤ x < 30 00 85 1 wenn x ≥ 30 Die Cumulative Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariable kann in Teilen definiert werden. Diejenigen Stellen an denen die Funktion nicht kontinuierlich verläuft geben an wo die Wahrscheinlichkeit streng positiv ist. 33 Die Funktion F hilft uns bei der Berechnung der Wahrscheinlichkeit der Zufallsvariablen, indem wir Werte kleiner oder gleich dem gegebenen Wert angeben. So können wir die gefragte Wahrscheinlichkeit mit Hilfe dieser Funktion berechnen. Ziehen wir nun auch die Eigenschaften der Wahrscheinlichkeit und Gegenwahrscheinlichkeit heran so ergibt sich: P (X > 16) = 1 − P (X ≤ 16) = 1 − F (16) = 1 − 00 4 = 00 6 was exakt der Berechnung von vorhin entspricht. Beachten Sie, dass wir mit dem Komlement des Ereignisses X > 16 was X ≤ 16 ergibt gerechnet haben. Die Cumulative Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen hat einige spezielle Eigenschaften die wir im folgenden Abschnitt behandeln werden: 1. lim F (x) = 0 x→0 2. lim F (x) = 0 x→+∞ 3. F ist eine monoton steigende Funktion für jede Stelle R. 4. F ist über R kontinuierlich, d.h. lim F (x) − F (x0 ) = 0 x→x0 ∀x0 ∈ R Die Stellen an denen die Funktion nicht links kontinuierlich ist, sind jene Stellen wo die diskrete Zufallsvariable verbunden mit dieser Funktion deren Werte annimmt. Betrachtet man nun die Cumulative Wahrscheinlichkeitsfunktion die wir gefunden haben dann ergibt sich für die Stellen 0, 5, 10, 15, 20, 25 y 30, dass hier die diskrete Zufallsvariable X genau die Werte annimmt. Logisch betrachtet ist es eine theoretische Bestätigung, weil ja der Investitionsplan andere Werte haben kann als die Werte von oben. Die Werte geben uns daher nur eine ungefähre Ahnung wie hoch der Gewinn sein könnte. Wenn wir auf der anderen Seite eine Funktion haben, die die obigen Bedingungen erfüllt, dann haben wir eine Cumulative Wahrscheinlichkeitsfunktion verbunden mit einer diskreten Zufallsvariablen vorliegen. Und erfüllt sie keine der vier oben spezifizierten Bedingungen dann handelt es sich nicht um eine Cumulative Wahrscheinlichkeitsfunktion. 3.5 Der Modus Der Modus einer Zufallsvariablen ist jener Wert, der am häufigsten eingenommen wird. Ein realitätsnahes Beispiel wäre: Angenommen ein bestimmtes Kleidungsstück liegt gerade voll im Trend, dann gibt es auch bestimmt viele Leute die dieses Kleidungsstück tragen. Entscheiden wir uns nun zufällig für einen modebewußten Menschen dann trägt er dieses bestimmte Keidungsstück mit einer höheren Wahrscheinlichkeit als ein anderes. Gleichermaßen wenn eine Zufallsvariable ihre Werte innerhalb einer Reihe {x1 , x2 , ..., xn } annimmt, dann ist der Modus jenes xi das das Maximum der Cumulative Wahrscheinlichkeitsfunktion angibt. In dem Beispiel mit dem Anleger ist der Gewinn mit der höheren Wahrscheinlichkeit 20% des Gewinns. Dieser Wert der Zufallsvariablen ist dann der Modus der Verteilung. 34 3.6 Der Erwartungswert Nun wollen wir uns mit der ersten Frage unseres Problems beschäftigen. Der Anleger möchte den zu erwartenden Gewinn des Investitionsplans wissen, um sein Geld bestmöglich anzulegen. Die Bank gewährt ihm mit Sicherheit einen Gewinn von 16%. Im Investitionsplan hingegen hat er nicht diese Sicherheit. Hier wird nur von Erwartungen, Erwartungswert, erwarteter Gewinn, Mittelwert,... gesprochen. Der Erwartungswert oder Mittelwert ist ein Maß, das uns eine Annäherung des zu Erwartenden innerhalb eines zufälligen Experiments nach öfteren Wiederholungen, angibt. In einem Spiel sind die Erwartungen derart, dass man ”hofft” zu gewinnen (oder zu verlieren) nach einer Wette. Dies ist ein theoretisches Mittel zur Messung des durchschnittlichen Wertes, den wir erhalten wenn wir ein Experiment öfters durchführen. In der Häufigkeitsfunktion definieren wir den arithmetischen Mittelwert als x= n X xi fi i=1 wobei die xi diejenigen Werte sind die die Zufallsvariable einnehmen kann und die fi sind die eigenen relativen Häufigkeiten. In einer Wahrscheinlichkeitsverteilung ersetzt man die relativen Häufigkeiten jedes Wertes mit dessen Wahrscheinlichkeit. Definition 3.6.1 Der Mittelwert oder Erwartungswert einer Zufallsvariablen X die ihre Werte innerhalb einer Reihe {x1 , ..., xn } annimmt, mit den eigenen Wahrscheinlichkeiten {p1 , ..., pn }, (das ist P [X = xi ] = pi , ∀i ∈ {1, 2, ..., n}), und wir nennen es µ oder EX, wird berechnet durch den Ausdruck n X EX = µ = xi pi i=n So ergibt sich für unser konkretes Beispiel ein Gewinn mit dem Investitionsplan von µ= 7 X xi P (X = xi ) = i=1 = 0 · 00 05 + 5 · 00 1 + 10 · 00 1 + 15 · 00 15 + 20 · 00 25 + 25 · 00 2 + 30 · 00 15 = 180 25 Der zu erwartende Profit des Investitionsplans ist 18’25%, also höher als die 16% die die Bank bietet. Auf der einen Seite riskiert der Anleger sein Geld wenn er dem Erwartungswert des Investitionsplans vertraut, auf der anderen Seite kann er aber einen noch höheren Gewinn erzielen, was bei der Bank unmöglich wäre. 3.7 Die Varianz Der Anleger möchte nun ein geeignetes Intervall wissen in welchem der Gewinn des Investierungsplans am höchsten ist. Wie kann man nun solche Intervalle berechnen? In diesem Kapitel werden 35 Mittel vorgestellt um ein solches Intervall zu konstruieren. Wie aber bereits erwähnt, ist dieses Intervall sehr einfach und daher auch nicht besonders vertrauenswürdig. Um ein vertrauenswürdigeres Intervall zu konstruieren ist es nötig statistische Schlüsse zu ziehen was ein anderes Kapitel darstellt. Oft sind die möglichen Werte einer diskreten Zufallsvariablen sehr unterschiedlich und weit entfernt vom Mittelwert. Wenn die Werte der Zufallsvariablen mehr oder weniger nahe beim Mittelwert liegen dann ist der Großteil der Werte in einer reduzierten Reihe der erwarteten Werte. Dank dieses neuen Messwertes, der Varianz, ist es möglich ein Intervall zu finden indem der Gewinn des Investitionsplans mit Sicherheit eintritt. Um die Konzentrationsrate der Werte einer Zufallsvariablen um den Mittelwert zu messen ist die Varianz nötig. Die Varianz zeigt, wie weit die Werte vom Mittelwert entfernt sind. Es werden Ausdrücke (xi − µ)2 benützt, da diese die Distanz zwischen den möglichen Werten xi und dem Mittelwert der Verteilung µ anzeigen. Summiert man alle Abweichungen auf, dann erhält man ein Maß für die totale Abweichung der Werte der Variablen. Wir müssen bedenken dass die Varianz eines Wertes zu jeder Distanz proportional ist zu der Wahrscheinlichkeit der Variablen die diesen Wert annimmt. Um Klarheit zu schaffen lassen Sie uns die Definition der Varianz betrachten: Definition 3.7.1 Eine diskrete Zufallsvariable nimmt ihre Werte innerhalb einer Reihe x1 , ..., xn an, mit den Wahrscheinlichkeiten p1 , ..., pn . Die Varianz einer diskreten Zufallsvariablen ist definiert durch X, und wird bezeichnet als σ 2 , und σ2 = n X (xi − µ)2 pi i=1 Multiplizieren wir nun jedes der Quadrate der Wahrscheinlichkeiten pi dann ergibt sich eine bessere Annäherung. Dies ist eine andere Art die Varianz einer Wahrscheinlichkeitsfunktion zu berechnen. Wir wollen nun die Formel von der Definition anwenden: σ2 = n X (xi − µ)2 pi i=1 basierend auf der vorigen Definition dann ergibt sich nach dem Entwickeln des Quadrats innerhalb der Summation, dass: n X (x2i + µ2 − 2xi µ)pi = n X 1=1 x2i pi + i=1 n X µ2 pi − i=1 n X 2xi µpi i=1 Teilen wir die Summation in drei unterschiedliche Teile dann erhalten wir: n X i=1 x2i pi + n X µpi − i=1 n X 2xi µpi i=1 Rechnen wir in der zweiten Summierung und in der dritten dann können wir das µ herausnehmen da es konstant ist. Es ergibt sich: n X i=1 x2i pi + µ2 n X pi − 2µ i=1 36 n X i=1 xi pi Pn X ist die Zufallsvariable und die pi sind die Wahrscheinlichkeiten. Man erhält i=1 pi = 1 und aus Pn der Definition der Erwartung wissen wir dass i=1 xi pi = µ. Setzt man dies nun in den vorigen Ausdruck ein, dann ist n n X X x2i pi + µ2 − 2µµ = x2i pi − µ2 i=1 i=1 welches die einfachste Formel für die händische Berechnung darstellt. Es gilt: n X σ2 = x2i pi − µ2 i=1 Neben den anderen wichtigen Eigenschaften der Varianz sei erwähnt, dass diese eine positive Maßzahl darstellt. Folglich gilt σ 2 ≥ 0. Eine Übung zur Berechnung der Varianz einer Wahrscheinlichkeitsverteilung wird später erfolgen, wenn wir das Geld des Anlegers in den Investitionsplan investieren. Unsere Wahrscheinlichkeitsverteilung war: P (X = x1 ) = 00 05, P (X = x2 ) = 00 1, P (X = x5 ) = 00 2, P (X = x3 ) = 00 1, P (X = x6 ) = 00 25, P (X = x4 ) = 00 15, P (X = x7 ) = 00 15, wobei x1 = 0, x2 = 5, x3 = 10, x4 = 15, x5 = 20, x6 = 25 und x7 = 30. Aus der Formel der Varianz ergibt sich, dass σ2 = 7 X x2i pi −µ2 = 0·00 05+25·00 1+100·00 1+225·00 15+400·00 25+625·00 2+900·00 15−3330 625 = 730 1775 i=1 Dieser Wert ist uns aber nicht von Nutzen wenn wir das Intervall, welches wir vorhin besprochen haben, berechnen wollen. Es ist nur eine Maßzahl die die Einheiten des Mittelwertes oder die Erwartungen der Quadrate ausdrückt. Um diesen Prblem zu lösen muss eine neue Maßzahl eingeführt werden, die sich als die positive Wurzel der Varianz ergibt und Standard Abweichung genannt wird. √ σ = + σ2 In unserem Beispiel ist σ = 80 55. Man kann also sagen dass mit einer sicheren Wahrscheinlichkeit, mehr oder weniger von der Situation abhängend, die Werte die eine Zufallsvariable X einnehmen kann in einem Intervall (µ − σ, µ + σ) liegen. In unserem Beispiel ist das Intervall (90 7, 260 8). Es liegt hier ein ziemlich großes Intervall vor und ist deshalb nicht sehr nützlich. Dieses Intervall ist nur eine Annäherung zu den Konfidenzintervallen, welche viel komplexer aber dafür auch vertrauenswürdiger und exakter sind. Wichtig ist noch zu erwähnen, dass wie bei den statistischen Variablen, die Varianz von zwei Zufallsvariablen nicht verglichen werden kann, da die Werte die beide Variablen annehmen nicht in denselben Einheiten ausgedrückt werden müssen. Ein einfacher Weg beide Variablen√zu vergleichen stellt die Koeffizientenvariation dar, die definiert ist als CV = σµ , wobei σ = + σ 2 (die Standardabweichung) und µ ist er Mittelwert der Zufallsvariablen. Diese kann mit zwei verschiedenen Zufallsvariablen verglichen werden da sie nicht-dimensional ist. 37 3.8 Resümee der anfänglichen Frage Wir wollen nun die Ergebnisse betrachten. Nach diesem Kapitel erhalten wir: • Im Fall des Investmentplans wäre es besser das Geld in den Investmentplan zu investieren als auf die Bank zu legen. • Wollen wir einen höheren Gewinn als 16% mit einer Sicherheit von 70% in einem Investitionsplan, dann ist es in diesem Fall besser das Geld auf die Banz zu legen. • Das Intervall in welchem sich der Gewinn mit Sicherheit bewegt wurde nur sehr wage und einfach eingeführt. Es stellt jedoch eine Hilfestellung für eine weitere Einführung von vertrauenswürdigeren Intervallen dar. 38 Kapitel 4 Ein Beispiel einer diskreten Zufallsvariablen: die Binomialverteilung 4.1 Ziele • Kenntnis des zufälligen Experiments mit nur zwei möglichen Ergebnissen: Bernoulli Experiment • Berechnung der Dichte- Wahrscheinlichkeitsfunktion, der Verteilungsfunktion, des Mittelwertes und der Varianz der Bernoulli Zufallsvariablen. • Umgehen mit der Binomial Zufallsvariablen und Berechnung ihrer Dichte- Wahrscheinlichkeitsfunktion, Verteilungsfunktion, Mittelwertes und Varianz. • Unterscheiden zwischen zufälligen Phenomänen gekennzeichnet von einer Binomial Zufallsvariablen und theoretische Umformungen. 4.2 Beispiel Bei den meisten Menschen ist die rechte Hand besser entwickelt als die linke um Aktivitäten auszuführen die diese spezielle Kenntnis benötigen: essen, schreiben,... . Diese Leute werden auch als Rechtshänder bezeichnet. Es gibt jedoch viele Leute die für die vorhin erwähnten Tätigkeiten die linke Hand benutzen, die sogenannten Linkshänder. Wie bei den Händen benutzen die Linkshänder auch bevorzugt das linke Bein um bestimmte Aktivitäten durchzuführen wie z.B. Fussballspielen. Trotz der Tatsache, dass es Millionen von Menschen auf der Erde gibt die Linkshänder sind, haben diese immer noch Schwierigkeiten bestimmte Geräte, die für Rechtshänder entwickelt wurden 39 zu bedienen, wie z.B. Dosenöffner, Schere oder einige Schreibgeräte. Ein zusätzliches Problem für linkshändige Schüler stellen die Schultische und Sessel dar, die in vielen High- Schools präsent sind. Also hat sich der Direktor für die linshändigen Schüler eingesetzt und möchte spezielle Tische und Sessel für diese bestellen. Es stellt sich nun die Frage wieviele solcher Schulmöbel er bestellen sollte. Man muss sich folgende Fragen überlegen: 1. Wieviele Sessel sind mindestens nötig in einer Klasse von 50 Schülern, sodass die erwartende Anzahl an linkshändigen und rechtshändigen Schülern einen passenden Sessel haben? 2. Wieviele Sessel sind mindestens nötig um mit einer Wahrscheinlichkeit von 0’9 sicherzustellen, dass kein linkhändiger Schüler ohne passenden Sessel existiert. D.h. in 90% der Fälle gibt es keinen linkshändigen Schüler ohne passenden Sessel. 3. Wie hoch ist der Prozentsatz an Klassenzimmern von 50 Schülern wo mindestens 10 Linkshänder vertreten sind? Dies Fragen werden wir am Ende dieses Kapitels beantworten können. 4.3 Einleitung Wir nehmen an 10% der Bevölkerung seien Linkshänder. Um die Fragen von vorhin zu beantworten werden wir Schritt für Schritt vorgehen. Zunächst interessiert uns die Frage: Wie hoch ist die Wahrscheinlichkeit bei einem Schüler, der zufällig gewählt wurde, dass dieser Linkshänder ist? Die Antwort liegt auf der Hand, da wir eben angenommen haben dass 10% der Bevölkerung Linkshänder sind, beträgt diese Wahrscheinlichkeit 0’1. Nehmen wir das folgende zufällige Ereignis”zufälliges Wählen eines High- School Schülers und Betrachen ob dieser Linkhänder ist oder nicht”, dann können wir das Experiment genauer untersuchen, da Experimente gleicher Art bereits genauer studiert wurden. Nach Durchführung dieses Experiment gibt es nur zwei Möglichkeiten, entweder ist der Schüler Linkshänder oder nicht. Allgemein nennt man diese möglichen Resultate Erfolg (E) und Mißerfolg (F ). In unserem Beispiel ist der Erfolg wenn der Schüler Linkshänder ist und der Mißerfolg wenn der Schüler Rechtshänder ist. D.h.: • E = ”Der Schüler ist Linkshänder” • F = ”Der Schüler ist nicht Linkshänder” Nach der allgemeinen Regel schreiben wir p = P (E) und q = P (F ). Offenbar gilt p + q = 1, sodass q auch als 1 − p geschrieben werden kann. Diese Versuchsart mit nur zwei möglichen Resultaten, Erfolg und Mißerfolg, wird als Bernoulli Experiment bezeichnet und ist mit der Wahrscheinlichkeit des Erfolgs p bestimmt. Ein Bernoulli Zufallsexperiment P (E) = p wird als Be(p) bezeichnet. Das Experiment einen Schüler zufällig auszuwählen und zu sehen ob dieser Linkshänder ist oder nicht ist ein Versuch Be(00 1). Diese Versuchsart hilft uns nicht weiter in der Antwortsuche auf die Frage unseres Beispiels hingegen die Wiederholung des Versuchs sehrwohl. Haben wir nun ein Klassenzimmer mit 50 Schülern und wollen wissen wieviele Schüler Linkshänder sind dann brauchen wir 40 nur das Bernoulli Experiment 50mal wiederholen. Wir betrachten also jeden einzelnen Schüler der Reihe nach und sehen so wieviele unter ihnen Linkshänder sind. Am Ende der Versuchsreihe haben wir genau die Anzah der Linkshänder. Die Zufallsvariable die die Anzahl der Linkshänder widerspiegelt wird binominal genannt. Wir wollen nun das Problem genauer erläutern um schlussendlich die anfänglichen Fragen zu beantworten. Was versteht man im Allgemeinen unter einer Binomialverteilung? Es liegt folgende Situation vor: 1. n Wiederholungen desselben Experiments werden unter gleichen Bedingungen durchgeführt und in jeder Wiederholung gibt es nur zwei mögliche Resultate Erfolg (bezeichnet mit E) und Mißerfolg (bezeichnet mit F ). Diese beiden Ereignisse sind zueinander komplementär, d.h. P (E ∪ F ) = 1 und P (E ∩ F ) = 0 (eines dieser tritt immer ein und beide können nie gemeinsam eintreten) 2. Die Wahrscheinlichkeit des Erfolgs P (E) ist in allen Tests gleich; wir wollen dies mit q bezeichnen. In jeder Wiederholung des Experiments gilt: P (E) = p , P (F ) = 1 − P (E) = 1 − p = q 3. Wenn wir X = ”Anzahl der Erfolge in n Versuchen” gleichsetzen dann kann X die Werte 1, ..., n annehmen und X ist bestimmt durch eine Binomialverteilung. Die Wahrscheinlichkeitsverteilung die diesen Bedingungen entspricht wird Binomialverteilung der Parameter p(= P (E)) mit n Wiederholungen genannt und geschrieben als B(n, p). Wenn also gefragt ist wieviele linkshändige Schüler sich in einer 50 Schüler großen Klasse befinden dann sieht die Zufallsvariable wie folgt aus: X = ”Anzahl der Linkshänder in einer Klasse mit 50 Schülern” ist binomialverteilt mit den Parametern p = 00 1 und n = 50, d.h. X ∼ B(50, 00 1) Wahrscheinlichkeit von k Erfolgen Intuitiv kann die Frage aufkommen : Wie hoch ist die Wahrscheinlichkeit, dass es zwei Linkshänder in einer Klasse von 50 Schülern gibt. Es ist also nötig zwei Linkshänder und 48 Rechtshänder in einer Klasse zu haben. Anders ausgedrückt könnte man sagen, dass der erste und der zweite Schüler Linkshänder sind und der dritte, vierte,.... fünfzigste Rechtshänder. Wir bezeichen Z als linkshändige Schüler und D als Rechtshänder und können folgend schreiben: Z Z D D ...D D | {z } 48times Die Wahrscheinlichkeit, dass ein Schüler Linkshänder ist liegt bei 0’1 und dass er Rechtshänder ist bei 0’9 (dies bleibt bei jedem Versuch gleich). Setzt man nun die Wahrscheinlichkeiten ein dann erhält man: 00 1 00 1 00 9 00 9 ...00 9 00 9 = (00 1)2 (00 9)48 | {z } 48times 41 Die Anordnung der Schüler kann sich jedoch unterscheiden, d.h. der linkshändige Schüler kann auch an 30., 43. 12., 17.,...Stelle stehen. Deshalb muss man die Wahrscheinlichkeit, die wir vorhin berechnet haben, mit der totalen Anzahl von möglichen Anordnungen multiplizieren. Wieviele An 50! ordnungen gibt es? Im Gesamten existieren 50 = 2 2!(50−2)! = 1225 Anordnungen. Diese Zahl wird Binomialzahl genannt. Allgemein, möchten wir eine Reihe n Elementen in welchen k von derselben Art sind und n − k von einer andren Art dann können wir dies in nk verschiedenen Arten machen. Die Wahrscheinlichkeit zwei Linkshänder in einer Klasse von 50 Schülern zu haben ist gleichzusetzen mit der Aussage, dass zwei Erfolge innerhalb des Experiments B(50, 00 1) vorliegen: 50 P [X = 2] = · (00 1)2 (00 9)48 = 00 08 2 Wie man sieht ist die Wahrscheinlichkeit sehr gering. Überlegt man logisch dann wird es offensichtlicher, dass eher selten genau zwei Linkshänder in einer Klasse mit 50 Schülern sitzen. Wir wollen nun allgemein die Wahrscheinlichkeit des Erhaltens von k Erfolgen nach n Wiederholungen des Bernoulli Experiments mit dem Parameter p in B(n, p). Wenn X einer Binomialverteilung gehorcht B(n, p), dann ergibt sich die Wahrscheinlichkeit k Erfolge nach n Versuchen zu erzielen: n k n−k P [X = k] = p q , ∀ k = 0, 1, 2, ..., n k wobei n n! , = k!(n − k)! k p = P (E) , q = P (F ), p+q =1 Diesen Ausdruck erhält man auf dieselbe Art wie bei dem vorigen Ereignis wo man zwei Erfolge für die Binomialvariable X erzielt. Betrachten wir nun die Spezialfälle welche 0 und n Erfolge ergeben. Wie hoch ist die Wahrscheinlichkeit 0 Erfolge zu erzielen, also n Mißerfolge? n 0 n−0 n! n P [X = 0] = p q = q = qn 0 0!n! (Erinnern Sie sich 0! = 1), während die Wahrscheinlichkeit des Erhaltens von n Erfolgen gleich n n n−n n! n 0 P [X = n] = p q = p q = pn n n!0! ist. Dichte Wahrscheinlichkeitsfunktion Die Dichte Wahrscheinlichkeitsfunktion ist wie folgt gegeben: n k n−k f (k) = p q , ∀ k = 0, 1, 2, ..., n und 0 für den Rest k 42 was auch ausgedrückt werden kann als: n k n−k k p q f (k) = 0 wenn k ∈ {0, 1, 2, ..., n} sonst In unserem Beispiel ergibt sich, dass 50 0 k 0 50−k k (0 1) (0 9) f (k) = 0 wenn k ∈ {0, 1, 2, ..., 50} sonst Verteilungsfunktion In der zweiten Frage war nach der Berechnung der nötigen Anzahl an Linkshänderstühlen gefragt, um sicherzustellen dass es keinen Linkshänder ohne passenden Sessel gibt. Wir suchen also nach dem ersten k ∈ Z, sodass P [X ≤ k] ≥ 00 9. Wie können wir dieses k bestimmen? Mit Hilfe der Verteilungsfunktion dieser Zufallsvariablen, welche wir anschließend berechnen werden, da P [X ≤ k] = F (k) wobei F die CPF der Zufallsvariablen X ist. Für eine diskrete Zufallsvariable X, ergibt sich durch die Definition von CPF und F (x) = P [X ≤ x], sodass wir im Fall X ∼ B(n, p) F (x) = x X n k=0 k pk q n−k = n 0 n n n x n−x p q + pq n−1 + ... + p q , 0 1 x ∀x = 0, 1, 2, ...n erhalten. Als eine Spezialfall wird F (0) = 0 X n k=0 k pk q n−k = f (0) = q n angesehen und nach Anwendung der Newton’schen Formel läßt sich fortfahren n X n k n−k n n n n n F (n) = p q = q + pq n−1 + ... + p = (p + q)n = 1n = 1 k 0 1 n k=0 Dies ist logisch, denn in n Wiederholungen gibt es eine Anzahl von Erfolgen weniger oder gleich n. In unserem Beispiel erhalten wir für die Verteilungsfunktion x X 50 (00 1)k (00 9)50−k , ∀x ∈ {0, 1, ..., 50} F (x) = k k=0 Um nun die zweite Frage zu beantworten suchen wir nach dem ersten k, sodass F (k) ≥ 00 9. Dies wird durch Probieren von k durchgeführt; die Berechnung ist eher langschweifig. Wir halten fest: x X 50 F (k) = (00 1)i (00 9)50−i i i=0 43 Wir versuchen zunächst mit k = 10: F (10) = 10 X 50 i=0 i (00 1)i (00 9)50−i = 00 99 Diese Wahrscheinlichkeit ist größer als 0’9, deshalb wollen wir mit einem niedrigeren Wert, z.B. k = 7 fortfahren: 7 X 50 (00 1)i (00 9)50−i = 00 88 F (7) = i i=0 Wir nähern uns allmählich und wählen nun k = 8: F (8) = 8 X 50 i=0 i (00 1)i (00 9)50−i = 00 94 Da F (7) < 00 9, F (8) > 00 9 und F monoton steigend ist, erhalten wir für das gesuchte k, k = 8, das erste k, sodass F (k) ≥ 00 9. Um mit einer Vergewissheit von 90% sicherzugehen, dass keine Linkshänder ohne Sessel im Klassenzimmer sind, müssen 8 Sessel für die Linkshänder reserviert werden. Wieviele Sessel für Rechtshänder sind nötig um mit einer 90%igen Vergewissheit auszusagen, dass es keinen Rechtshänder ohne passenden Sessel gibt? In diesem Fall suchen wir nach dem ersten k in aufsteigender Reihenfolge, sodass P [50 − X ≤ k] ≥ 00 9, weil die Anzahl der Rechtshänder durch die Zufallsvariable 50 − X beschrieben wird. Wie berechnet man nun dieses k: P [50 − X ≤ k] ≥ 00 9 ⇔ P [X ≥ 50 − k] ≥ 00 9 ⇔ 1 − P [X < 50 − k] ≥ 00 9 ⇔ ⇔ P [X < 50 − k] ≤ 00 1 ⇔ P [X ≤ 49 − k] ≤ 00 1 ⇔ F (49 − k) = 00 1 Wir wollen versuchen: • k = 48 F (49 − k) = F (1) = 00 03 00 1 • k = 47 F (49 − k) = F (2) = 00 11 ≤ 00 1 Das gesuchte k ist also 47. Mit einer Wahrscheinlichkeit von 0’9 oder höher ist kein Rechtshänder ohne passenden Sessel. Es ist nötig mindestens 47 Sessel für Rechtshänder bereitzustellen. 4.3.1 Der Erwartungswert In diesem Teilabschnitt wollen wir dieselbe Frage beantworten basierend auf dem Erwartungswert. Wir werden bestimmen wieviele unterschiedliche Sessel nötig sind, um die zu erwartende Anzahl an Rechts- und Linkshänder mit einem passenden Stuhl auszustatten. Zur Wiederholung: Der Erwartungswert oder Mittelwert einer Zufallsvariablen war der durchschnittliche Wert den diese Variable angenommen hatte nach mehrmaligen Wiederholungen. 44 Wie wir vorhin gesehen haben, ist der Erwartungswert einer Zufallsvariablen X die ihre Werte innerhalb einer Reihe {x1 , ..., xn } annimmt mit den Wahrscheinlichkeiten {p1 , ..., pn }, (d.h. P [X = xi ] = pi , ∀i ∈ {1, 2, ..., n}), und wird µ genannt. Es wird berechnet durch den Ausdruck µ= n X xi pi i=n Wenn also X ∼ B(n, p), dann erhalten wir für den Erwartungswert n n X X n i n−i µ= ip[X = i] = i pq i i=1 i=0 und nach mathematischer Berechnung halten wir fest µ = np Der Mittelwert unserer Zufallsvariablen X = ”Anzahl der linkshändigen Schüler im Klassenzimmer” ist E[X] = µ = np = 50 · 00 1 = 5 Entsprechend den erwarteten Werten der Zufallsvariablen X haben wir 5 Linkshänder und 45 Rechtshänder. Es wäre sehr riskant genau 5 Linkshänder Stühle und 45 Rechtshänder Stühle bereitzustellen, da es eher unwahrscheinlich ist, dass dieses Ereignis exakt eintritt. Die Wahrscheinlichkeit für das Eintreten des Ereignisses ist 50 P [X = 5] = (00 1)5 (00 9)45 = 00 18 5 Obwohl dies ein Ereignis mit hoher Wahrscheinlichkeit ist, verglichen mit dem Rest der Werte die die Zufallsvariable X einnehmen kann, gibt es uns dennoch keine Garantie. Der Erwartungswert gibt uns zwar eine Annäherung an, es ist aber immer besser ein Intervall anzugeben in dem der Wert von X mit Sicherheit eintritt. Damit beschäftigt sich das nächste Kapitel. 4.3.2 Die Varianz Die Angabe eines Intervalls in welchem die Anzahl der Linkshänder durch eine bestimmte sichere Wahrscheinlichkeit gegeben ist ist Ziel dieses Abschnitts. Das Intervall wird mit Hilfe des Mittelwertes und der Varianz bestimmt. Dazu sehen wir uns die Varianz einer Binomialverteilung genauer an: Die Formel für die Varianz einer Zufallsvariablen ist: σ2 = n X x2i pi − µ2 i=1 Sodass wenn X ∼ B(n, p) gilt dass n X 2 n σ = i pi q n−i − µ2 i i=0 2 45 und nach Lösung der Summe erhält man σ 2 = npq In unserem Beispiel ergibt sich σ 2 = 50 · 00 1 · 00 9 = 40 5 Deshalb σ= √ + σ 2 = 20 12 Dann können wir mit großer Wahrscheinlichkeit sagen, dass sich die Anzahl der linkshändigen Schüler innerhalb eines Intervalls (µ − σ, µ + σ) = (20 9, 70 1) befindet und da X die diskrete Zufallsvariable ist können wir mit Sicherheit sagen, dass X ∈ {3, 4, 5, 6, 7}, da dies die möglichen Werte sind die sich innerhalb des Intervalls befinden. Exakt ergibt sich: 7 X P [X = i] = ... = 00 77 i=3 d.h. in 77% der Fälle werden 3, 4, 5, 6 oder 7 linkshändige Schüler im Klassenzimmer sein. Als Abschluss dieses Teilkapitels möchten wir die vierte Frage noch beantworten. Wie hoch ist der Prozentsatz von Klassenzimmern mit 50 Schülern in welchen 10 oder mehr Linkshänder sitzen? Wir müssen 5 X P [X ≥ 10] = 0P [X = i] = ... = 00 025 i=10 berechnen. Dies bedeutet, dass wir in 2’5% der Klassenzimmer mit 50 Schülern 10 oder mehr haben die Linkshänder sind. Natürlich können noch viel mehr Fragen innerhalb dieses Modells aufkommen. Diese können mit Hilfe des Computers und geeigneter Software behandelt werden, da Berechnungen wie P [X ≤ k] und P [X ≥ k] sehr schwierig händisch gelöst werden können. Auch wenn die Anzahl der Wiederholungen n in einem Bernoulli Experiment sehr hoch sind, ist es ratsam technische Rechenmittel zu Rate zu ziehen. Das folgende Kapitel stellt eine Technik vor die diese Berechnungen erleichtert. Um dies aber zu verstehen ist es von Nutzen die Normal Verteilung zu behandeln. 46 Kapitel 5 Kontinuierliche Verteilungen: Normalverteilung 5.1 Ziele • Verständnis des Konzepts der kontinuierlichen Zufallsvariablen und ihren Unterschied zu den diskreten Zufallsvariablen. • Erkennen einer kontinuierlichen Dichte Wahrscheinlichkeitsfunktion und Kenntnis über die Berechnung der entspechenden kontinuierlichen Verteilungsfunktion. • Kenntnis über die Berechnung der Wahrscheinlichkeit einer kontinuierlichen Verteilung in einem Intervall unter Verwendung der Dichte Wahrscheinlichkeitsfunktion, graphisch oder mit anderen Berechnungsmitteln. • Berechnung der Wahrscheinlichkeit unter Verwendung der Verteilungsfunktion. • Verständnis der Bedeutung der Normalverteilung, Kenntnis ihre Dichte Wahrscheinlichkeitsfunktion und Fähigkeit zur Interpretation der Parameter (µ und σ). • Fähigkeit Daten einer Normalverteilung zu unterziehen und zu überprüfen ob die Normalverteilung hier geeignet ist oder nicht. • Standardisieren der Normalverteilung mit einem Mittelwert µ und einer Standardabweichung σ. • Arbeiten mit der Tabelle für die Normalverteilung. • Annähern einer Binomialverteilung durch eine Normalverteilung. 47 5.2 Beispiel Es ist bekannt, dass sich die durchschnittliche Grösse der Bevölkerung ständig ändert. So sind in manchen High- Schools die Sessel und Tische für die größten Schüler zu klein, da diese für kleinere Schüler gebaut wurden. Für Schüler die kleiner als 160 cm sind wären Tische und Sessel des Typs A geeignet. Für Schüler zwischen 160 und 180 cm Sessel und Tische des Typs B und für Schüler die größer als 180 cm sind wären Schulmöbel vom Typ C passend. Der Direktor einer High- School möchte nun wissen wieviele Sessel und Tische für jedes Klassenzimmer gebraucht werden, um jedem Schüler geeignete Möbel zur Verfügung zu stellen. Dies ist ein bereits viel studiertes Phenomän von dem bekannt ist, dass die Höhe der Bevölkerung bestimmt wird durch eine kontinuierliche Zufallsvariable, der Normalverteilung, deren Mittelwert mit der durchschnittlichen Anzahl der Bevölkerung zusammenfällt und deren Standardabweichung gleich der Standardabweichung der Stichprobe ist. Bei der Normalverteilung, ist die standardisierte Normalverteilung besser studiert. Ihr Mittelwert liegt genau bei 0 und ihre Standardabeichung beträgt 1. Es existieren Tabellen die Wahrscheinlichkeit dieser speziellen Verteilung anzeigen. Wir werden nun alle vorhin erwähnten Konzepte einführen und die folgenden Fragen beantworten: • Berechnen Sie den Mittelwert und die Varianz der Größe Ihrer Klasse. • Wieviele Tische und Sessel werden durchschnittlich in jeder Klasse gebraucht? • Finden Sie diese Schätzung gut? Warum? • Betreffend dem Fall mit den Linkshändern, den wir mit Hilfe der Binomialverteilung behandelt haben, versuchen Sie die gestellten Fragen zu beantworten, indem Sie die Binomialverteilung an die Normalverteilung annähern. 5.3 Einleitung Wir werden nun die Anzahl der Studenten (unterschiedlicher Grösse) in unserer Klaase messen. Haben wir eine Messlatte eingeteilt in dm dann ergeben sich folgende Daten: 1’7, 1’7, 1’6, 1’5, 1’7, 1’4, 1’5, 1’8,... Haben wir eine in cm eingeteilte Messlatte dann ergibt sich: 1’71, 1’75, 1’66, 1’54, 1’69, 1’48, 1’55,... Hat man schlußendlich eine mm genaue Messlatte, dann sind die unterschiedlichen Größen so ausgedrückt: 1’712, 1’748, 1’663, 1’541, 1’689, 1’484, 1’552,... Eine Genauigkeit von 5 Dezimalstellen wäre in unserem Fall übertrieben, da es unsinnig wäre die Größe eines Schülers 1’56053 m so geanu anzugeben. Wichtig hingegen ist es, ob jemand grösser als 155’5 cm oder kleiner als 156’5 ist. Nach dem Runden erhält man schließlich, dass der Schüler 156 cm or 1’56 m groß ist. Abhängig von der Genauigkeit der Messlatte macht es vielleicht keinen Sinn diese Daten in eine diskrete Wahrscheinlichkeitsverteilung zu packen. Die Reihe der möglichen Werte wäre zwar endlich doch sehr groß, zu groß um einfache Berechnungen anzustellen. 48 Wie vorher mehrmals erwähnt, ist die Wahrscheinlichkeitsverteilung ein mathematisches Modell, das uns hilft ein reales Phenomän zu erklären und eine Vorhersage dessen anzustellen. Im Teilkapitel über diskrete Verteilungen wurde klar, dass diese immer mit einer Zufallsvariablen, die Werte innerhalb einer Reihe annimmt, verbunden, bestimmt werden. Nimmt die Variable hingegen irgendwelche Werte innerhalb eines Intervalls von R an, dann handelt es sich um eine kontinuierliche Variable. In dem Beispiel über die Größe der Bevölkerung handelte es sich um eine kontinuierliche Zufallsvariable. In diesem Beispiel ist es auch einfacher die kontinuierliche Zufallsvariable zu benutzen anstatt der diskreten Variablen. Das folgende Beispiel soll das Konzept der kontinuierlichen Zufallsvariablen verdeutlichen: Angenommen wir hätten die Daten über die Größe der Schüler in der High- School und teilen diese nun in Gruppen von 10 cm, dann erhalten wir diese Tabelle von relativen Häufigkeiten: Intervall der Größen [140,150) [150,160) [160,170) [170,180) [180,190) [190,200) Das Histogramm dazu sieht folgend aus: 49 Relative Häufigkeit 0.05 0.2 0.4 0.2 0.13 0.02 Wir wollen nun die Größe der Gruppen in 5 cm angeben, d.h. wir glätten die Division. Man erhält dann diese Tabelle: Intervall der Größen [140,145) [145,150) [150,155) [155,160) [160,165) [165,170) [170,175) [175,180) [180,185) [185,190) [190,195) [195,200) Daraus ergibt sich folgendes Histogramm: 50 Relative Häufigkeit 0.01 0.04 0.06 0.14 0.25 0.15 0.11 0.09 0.08 0.05 0.01 0.01 Der Unterschied zum vorigen Histogramm (mit 10 cm) ist eindeutig. Nun wollen wir es genauer darstellen und ziehen die Größe der Schüler in cm heran: 51 Größe 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 Relative Häufigkeit 0.003 0.004 0.003 0.005 0.008 0.008 0.009 0.01 0.01 0.011 0.012 0.013 0.014 0.015 0.02 0.03 0.035 0.04 0.045 0.055 0.06 0.05 0.04 0.035 0.033 0.031 0.026 Größe 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 192 194 195 196 198 Relative Häufigkeit 0.025 0.025 0.024 0.022 0.02 0.019 0.019 0.019 0.018 0.017 0.017 0.02 0.015 0.01 0.02 0.015 0.015 0.011 0.009 0.01 0.005 0.005 0.003 0.002 0.003 0.005 0.002 Mit folgendem Histogramm: Man kann auch Histogramme mit noch kleineren Klasseneinteilungen betrachten bis man schließlich in der Idealisierung der Kontinuität landet. Der Graph einer kontinuierlichen Funktion wird mit f bezeichnet. Um die Kontinuität einer Dichte Wahrscheinlichkeitsfunktion zu erreichen sind Stichproben in großem Ausmaß nötig, viel größere als die Anzahl der Schüler in der High- School. 52 53 Nach sehr vielen Beobachtungen erhalten wir den Graphen der Funktion f folgendermaßen: Führen wir nun alle nötigen Annäherungen durch um die Funktion zu erhalten, dann können wir die Wahrscheinlichkeit der Größe eines zufällig gewählten Schülers, z.B. zwischen 159 cm und 165 cm, nur innerhalb eines Bereiches der eingeschlossenen Fläche zwischen der Funktion f und der Achse OX zwischen den Werten von x 159 und 165 bestimmen. Die Zufallsvariable X ist kontinuierlich wenn gilt: • Sie hat eine Wahrscheinlichkeitsverteilung die kontinuierlich ist und definiert ist durch eine Funktion f (x). Mit Hilfe dieser Funktion können die Wahrscheinlichkeiten P [x1 ≤ X ≤ x2 ], mit xi , x2 ∈ R, x1 ≤ x2 berechnet werden. • Diese Wahrscheinlichkeit wird berechnet indem man den eingeschlossenen Bereich zwischen dem Graphen der Funktion f (x) und der Abszisse zwischen den Punkten x1 und x2 betrachtet. • In einer kontinuierlichen Wahrscheinlichkeitsverteilung macht es nur Sinn über Wahrscheinlichkeiten von Intervallen zu sprechen, (über Wahrscheinlichkeiten in einzelen Punkten zu sprechen ergäbe keinen Sinn) weil wenn X eine kontinuierliche Zufallsvariable ist dann ist P [X = x] = 0, ∀x ∈ R (im vorigen Beispiel macht es keinen Sinn wenn jemand 63’94738274658482736 kg wiegt). Beispiel 5.3.1 Lassen Sie uns die Wahrscheinlichkeitsverteilung gegeben durch die Funktion f (x) der vorigen Abbildung genauer betrachten: 54 1. Verdeutlichen Sie graphisch die Wahrscheinlichkeiten P [60 ≤ X ≤ 72] P [70 ≥ X] P [X ≤ 60] P [X = 81] 2. Geben Sie eine nummerische Annäherung der Wahrscheinlichkeiten an, indem Sie die vorige Tabelle zu Rate ziehen. Übung 5.3.1 Machen Sie dasselbe für P [50 ≤ X ≤ 60] P [61 ≥ X] P [X ≤ 83] P [X = 76] Dichte- Wahrscheinlichkeitsfunktion Die Funktion die es uns erlaubt die Wahrscheinlichkeit in einem Intervall zu berechnen wir als f geschrieben und mit Dichte- Wahrscheinlichkeitsfunktion einer Zufallsvariablen X bezeichnet. Mit der Dichte- Wahrscheinlichkeitsfunktion kann man alle anderen Parameter der Verteilung berechnen. Diese Funktion ist equivalent mit der Dichte- Wahrscheinlichkeitsfunktion der diskreten Zufallsvariablen. Die Dichte- Wahrscheinlichkeitsfunktion f einer Zufallsvariablen X ist: 1. f (x) ≥ 0, ∀x ∈ R 2. Der gesamte Bereich zwischen dem Graphen der Funktion f und der Achse OX, dies ist gleich 1, d.h. P [−∞ ≤ X ≤ +∞] = 1 In Integralschreibweise entspricht dies: Z +∞ f (x)dx = 1 −∞ Wenn X nur Werte innerhalb eines Abschnitts a und b annimmt, dann gilt Z b P [a ≤ X ≤ b] = S[a, b] = f (x)dx = 1 a wobei S[a, b] den Bereich der Fläche bezeichnet den der Graph der Kurve f (x) und der Abzissenachse zwischen den Punkten a und b einschließt. 3. Die Wahrscheinlichkeit einer kontinuierlichen Zufallsvariablen X die ihre Werte in einem Intervall begrenzt von x1 und x2 annimmt, d.h. P [x1 ≤ X ≤ x2 ], ist der Bereich zwischen der Funktion f (x) und der OX Achse im Intervall (x1 , x2 ), d.h., S[x1 , x2 ], für beliebige x1 ≤ x2 , x1 , x2 ∈ R. In anderen Worten, Z x2 P [x1 ≤ X ≤ x2 ] = S[x1 , x2 ] = f (x)dx x1 für die Konsequenz P [X = x] = 0 ∀x ∈ X, gilt dass P [x1 ≤ X ≤ x2 ] = P [x1 ≤ X < x2 ] = P [x1 < X ≤ x2 ] = P [x1 < X < x2 ], ∀x1 ≤ x2 , x1 , x2 ∈ R 55 Man erhält auch die inverse Wahrscheinlichkeit. Hat man eine Funktion f für die gilt f (x) ≥ 0, sowie R +∞ der gesamte Bereich zwischen ihres Graphen und der OX Achse ist 1, −∞ f (x)dx = 1, dann kann die kontinuierliche Zufallsvariable assoziiert mit f , nur als eine Dichte- Wahrscheinlichkeitsfunktion in jedem Intervall des Bereichs der Fläche die zwischen f (x) und der Abzisse in diesem Intervall liegt, interpretiert werden. Beispiel 5.3.2 Lassen Sie uns entscheiden, ob es sich bei der folgenden Funktion um eine DichteWahrscheinlichkeitsfunktion handelt: 1 wenn 0 < x < 3 3 f (x) = 0 sonst Für f muss gelten: • f (x) ≥ 0 ∀ x, dies ist trivial. R +∞ • −∞ f (x)dx = 1 ? Dies wollen wir überprüfen. R +∞ R +∞ R0 R3 R +∞ R0 R3 f (x)dx = −∞ f (x)dx + 0 f (x)dx + 3 f (x)dx = −∞ 0dx + 0 13 dx + 3 0dx = −∞ 3 0 0 + [ x3 ]x=3 x=0 + 0 = 3 − 3 = 1 Dies wollen wir uns graphisch überlegen. Der Bereich der färbigen Fläche entspricht dem Wert des Integrals von vorhin. Die Fläche ist gleich der Basis eines Rechtecks mal der Höhe dieses Rechtecks; es ist 3× 1 =1 3 Es gelten beide Bedingungen, daher kann man eine kontinuierliche Zufallsvariable annehmen. Wir wollen diese X nennen und die Dichte- Wahrscheinlichkeitsfunktion f . Ab nun werden wir die Dichte Wahrscheinlichkeitsfunktion, ab jetzt als dpf bezeichnet, benutzen um einige Wahrscheinlichkeiten R +∞ R 3zu berechnen. P [X ≥ 1] = 1 f (x)dx = 1 31 dx = [ x3 ]31 = 33 − 13 = 23 Es ist möglich über den gefärbten Bereich zu berechnen. Dieser Bereich ist gleich Länge mal Höhe eines Rechtecks, d.h. 2× 1 2 = 3 3 56 Übung 5.3.2 Berechnen Sie folgende Wahrscheinlichkeiten, indem Sie als Variable X die Zufallsvariable verknüpft mit der dpf des vorigen Beispiels annehmen: P [X ≥ 2], P [00 5 ≤ X < 2], P [2 < X < 4] Verteilungsfunktion Die Definition einer Verteilungsfunktion für eine kontinuierliche Zufallsvariable ist gleich jener der diskreten Zufallsvariablen, d.h. F (x) = P [X ≤ x], ∀x ∈ R Die Funktion mißt die Wahrscheinlichkeit der Zufallsvariablen mit Werten kleiner oder gleich x. Im diskreten Fall berechnet man diese durch endliche Summierung, im kontinuierlichen Fall durch den Bereich der eingeschlossenen Fläche oder dem Integral. Wir erhalten dass Z x f (x)dx F (x) = S[a, x] = a wobei f (x) die dpf von der Variablen X ist. Die Verteilungsfunktion (ab nun genannt CP F ) benötigt die Berechnung der Wahrscheinlichkeiten von Intervallen und so gilt dass P [x1 ≤ X ≤ x2 ] = F (x2 ) − F (x1 ) Eine Funktion F kann als CP F bezeichnet werden wenn gilt: 1. 0 ≤ F (x) ≤ 1, ∀x ∈ R 2. Wenn x ≤ a, F (x) = 0. Wenn x ≥ b, F (x) = 1 3. F (x) ist monoton steigend, d.h. wenn x1 ≤ x2 dann gilt F (x1 ) ≤ F (x2 ). Weiters gilt wenn F eine CP F einer Rkontinuierlichen Zufallsvariablen X ist und f ist die dpf , dann x ergibt sich F 0 (x) = f (x), und daher a f (t)dt = F (x). 57 Beispiel 5.3.3 Lassen Sie uns mit der dpf beginnen, die wir im vorigen Kapitel als Beispiel heranzogen 1 wenn 0 < x < 3 3 f (x) = 0 sonst Rx Wir wissen dass a f (t)dt = F (x). Daher folgt: Rx 1. wenn x ≤ 0 ⇒ F (x) = −∞ 0dt = 0 2. wenn x ∈ [0, 3] ⇒ F (x) = 3. wenn x ≥ 3 ⇒ F (x) = R0 R0 −∞ −∞ 0dt + 0dt + Rx 1 dt 0 3 R3 1 dt 0 3 + = Rx 3 x 3 0dt = 1 Es ergibt sich: F (x) = 0 wennx ≤ 0 wenn 0 < x < 3 wennx ≥ 3 x 3 1 Diese Funktion erfüllt alle Voraussetzungen um eine Verteilungsfunktion zu sein: 1. 0 ≤ F (x) ≤ 1, trivial. 2. Wenn x ≤ 0 ⇒ F (x) = 0 Wenn x ≥ 3 ⇒ F (x) = 1 3. F (x) ist monoton steigend. Wir haben zu überprüfen dass wenn x1 ≤ x2 ⇒ F (x1 ) ≤ F (x2 ). Lassen Sie uns die unterschiedlichen Fälle betrachten: (a) x1 < 0 und x2 < 0. F (x1 ) = 0 = F (x2 ). Gilt. (b) x1 < 0 und x2 ∈ [0, 3]. F (x1 ) = 0 ≤ x2 3 = F (x2 ). Gilt. (c) x1 < 0 und x2 ≥ 3. F (x1 ) = 0 ≤ 1 = F (x2 ). Gilt. (d) x1 ∈ [0, 3] wahr x2 ∈ [0, 3]. F (x1 ) = (e) x1 ∈ [0, 3] y x2 ≥ 3. F (x1 ) = x1 3 x1 3 ≤ x2 3 = F (x2 ). Ist wahr. ≤ 1 = F (x2 ). Gilt. (f ) x1 ≥ 3 y x2 ≥ 3. F (x1 ) = 1 ≤ 1 = F (x2 ). Ist wahr. Übung 5.3.3 Betrachten Sie folgende Funktion 0 x2 F (x) = 2 1 F definiert als: wennx ≤ 0 wenn 0 < x < 1 wennx ≥ 1 Ist diese Funktion zulässig als CP F ? Wenn ja dann berechnen Sie dpf verknüpft mit F und die folgenden Wahrscheinlichkeiten: P [X ≤ 00 5] P [X ≥ 00 8] P [00 2 ≤ X ≤ 00 5] P [00 3 ≤ X ≤ 10 5] wobei X die kontinuierliche Zufallsvariable verknüpft mit F darstellt. 58 Übung 5.3.4 Überprüfen Sie ob es sich bei folgender Funktion um eine CP F handelt oder nicht: wennx ≤ −1 0 x2 F (x) = wenn − 1 < x < 2 4 1 wennx ≥ 2 Übung 5.3.5 Überlegen Sie sich folgende Funktion: x wenn 2 < x < 3 f (x) = 0 sonst Kann f eine dpf sein? Warum? Beispiel: Normalverteilung Wegen der vielseitigen theoretischen und praktischen Anwendungen ist die Normalverteilung ohne Zweifel die wichtigste unter den kontinuierliche Wahrscheinlichkeitsverteilungen. Die theoretischen Anwendungen beruhen auf der Tatsache, dass in den meisten Situationen die Fälle nicht normal sind und beinahe jede Datenreihe sich um einen zentralen Wert gruppiert. Zum Beispiel ist die normale Situation, dass ein erwachsener Mann zwischen 170 und 180 cm groß ist und es ist sehr selten Männer zu finden, die größer als 200 cm oder kleiner als 150 cm sind. Aus diesem Grund und da dieses Beispiel genauestens studiert wurde, werden wir sehen, dass die Größe der Bevölkerung normalverteilt ist. Die Größe allgemein ist eines von vielen Beispielen die durch eine Normalverteilung bestimmt werden. Andere sind das Gewicht, der Intellingenzquotien, Meßfehler,... All diese Beispiele haben gemeinsam, dass sich die Daten um den Mittelwert gruppieren. In dem Beispiel über die Größe der Schüler einer High- School nehmen wir an, dass alle Daten durch eine Normalverteilung, mit dem Mittelwert gleich dem Mittelwert der Daten und einer Standardabweichung gleich der die sich aus der relativen Häufigkeitstabelle der Größen berechnen läßt, bestimmt sind. Noramle Dichte Wahrscheinlichkeitsfunktion: Eigenschaften Die dpf f (x) einer normalen Zufallsvariablen mit Mittelwert µ und Varianz σ, lässt sich auf Gauss zurückführen. Es handelt sich um eine Exponentialfunktion und sie ist bestimmt durch den Ausdruck: 2 1 (x−µ) 1 f (x) = √ e− 2 σ2 σ 2π Ihr Graph sieht folgend aus: Ist f eine dpf ? Um zu erkennen, dass f eine dpf ist muss f (x) ≥ 0 für jedes x. Auch muss der eingeschlossene Bereich R +∞ zwischen dem Graphen f und der OX Achse 1 sein, in anderen Worten es muss gelten, dass −∞ f (x)dx = 1, Ein Integral das uns nicht bekannt sein muss und nach Laplace wirklich 1 ist. 59 Wir wollen uns nun mit der ersten Frage des Beispiels beschäftigen. Zuvor ist es jedoch nötig etwas neues kennenzulernen. Wir wissen bereits wie man den Mittelwert und die Standardabweichung eines Datensatzes berechnet. In unserem Fall erhalten wir, dass X µ= xi fi = 1660 59 und σ2 = X x2i fi − µ2 = 1180 29 Wir nehmen an die Daten der Größen der Schüler in einer High- School sind bestimmt durch eine Normalverteilung. Die Dichte Wahrscheinlichkeitsfunktion dieser Verteilung hat spezielle Eigenschaften und der Graph von dpf stellt eine Glockenkurve dar, d.h.: • Der Graph ist an der Stelle des Maximums der dpf und des Moduses der Zufallsvariablen vertikal gespiegelt. • Die Kurve hat nur ein Maximum. Für die Werte von x kleiner dem Maximum der Kurve ist f (x) nicht monoton steigend und für Werte größer als das Maximum ist die Kurve monoton steigend. • Theoretisch kann es jeden Wert auf der OX Achse annehmen. Zusätzlich hat die Kurve die OX Achse als horizontale Asymptote an beiden Seiten und die Kurve nähert sich dieser Asympotote sehr rasch an. • Wenn die Varianz der Verteilung größer wird dann wird die Kurve die die dpf beschreibt ”flacher”, und wenn die Varianz kleiner wird dann wird auch die Kurve ”steiler”. Zusammengefaßt: wenn X eine Zufallsvariable bestimmt durch eine Normalverteilung mit Mittelwert gleich µ und Standardabweichung gleich σ, und wir dies mit X ∼ N (µ, σ 2 ) bezeichnen, wobei σ 2 die Varianz von X, dann gilt: 1. P [µ − σ < X < µ + σ] = 00 683 2. P [µ − 2σ < X < µ + 2σ] = 00 954 3. P [µ − 3σ < X < µ + 3σ] = 00 977 60 Diese letzten Gleichungen geben uns eine Ahnung wie verbesserunsfähig es ist Werte einer Normalverteilung weit weg vom Mittelwert zu erhalten. Basierend auf diesen Gleichungen, wenn X eine Zufallsvariable bestimmt durch eine Normalverteilung mit Mittelwert gleich 2 und Varianz 1, dann folgt X ∼ N (2, 1), und es ergibt sich dass 99’7% der Beobachtungen von X innerhalb eines Intervalls (-1,5)liegen. Es sind jedoch auch Werte größer 1.000.000 möglich! Wir werden die Daten einer Normalverteilung anpassen mit Mittelwert µ und Standardabweichung σ, die wir vorhin erhalten haben. Die Größe der Schüler einer High- School wird bestimmt durch N (1660 59, 100 88). Jedoch führt dies nicht zu einer einfacheren Berechnung und ein Computer muss eingesetzt werden. Um dieses Probem zu übergehen benutzt man eine spezielle Art der Normalverteilung, die Standardnormalverteilung oder N (0, 1), die sehr gut bekannt ist und man immer darauf zurückgreifen kann. Die N (0, 1) Verteilung Die Normalverteilung mit Mittelwert µ = 0 und Standardabweichung σ = 1 wird Standardnormalverteilung N (0, 1), genannt. Die Werte der Wahrscheinlichkeiten sind wohl bekannt und wie wir später sehen werden können wir auf diese zurückgreifen um Wahrscheinlichkeiten in anderen Normalverteilungen zu bestimmen. Wenn wir Z ∼ N (0, 1) haben, dann werden die Wahrscheinlichkeiten P [Z ≤ z], das ist F (z) wo F eine CP F von Z, in folgender Tabelle beschreiben, für alle z ∈ [0, 3], dies reicht aus um alle zu berechnen. Die Wahrscheinlichkeit einer Variablen die Werte größer als 3 annimmt ist sehr klein und es wird genügen die Werte F (z) für z ≥ 0, wegen der Symmetrie der dpf , zu betrachten. Wir nehmen an, dass Z ∼ N (0, 1) und wollen sehen wie man P [Z ≤ z] von den Daten der vorigen Tabelle berechnet, abhängig von den Werten die z annehmen kann. Dazu werden wir die Symmetrie der Verteilung in 0 heranziehen. . • Wenn Z ≥ 0 ⇒ P [Z ≤ z], ist die Wahrscheinlichkeit in der Tabelle beschrieben. • Wenn Z < 0 ⇒ P [Z ≤ z] = P [Z ≥ −z] = 1 − P [Z ≤ −z], kann von der Tabelle abgelesen werden da −z ≥ 0. • Wenn z1 ≤ z2 , dann erhalten wir P [z1 ≤ Z ≤ z2 ] = P [z ≤ z2 ] − P [z ≤ z1 ], was eine allgemeine Eigenschaft aller Wahrscheinlichkeitsfunktionen ist. Übung 5.3.6 Von diesen Eigenschaften folgern Sie dass: 1. P [−z ≤ Z ≤ z] = 2P [Z ≤ z] − 1 2. P [−Z ≤ z ≤ 0] = P [0 ≤ Z ≤ z] Wobei Z ∼ N (0, 1) und z eine reelle Zahl größer oder gleich 0 ist. Beispiel 5.3.4 Berechnen Sie von der Tabelle, wobei Z ∼ N (0, 1), folgende Wahrscheinlichkeiten: 1. P [Z ≤ 00 82] = 00 7939 2. P [Z ≤ −10 2] = 1 − P [Z ≤ 10 2] = 1 − 00 8849 61 62 Übung 5.3.7 Berechnen Sie von der Tabelle, wobei Z ∼ N (0, 1), folgende Wahrscheinlichkeiten: 1. P [Z ≤ 00 96] 2. P [Z ≤ −20 18] 3. P [−20 76 ≤ Z ≤ −20 18] 4. P [00 45 ≤ Z ≤ 20 31] Standardisierung Wie vorhin erwähnt gibt es viele zufällige Phenomäne die durch eine Normalverteilung beschrieben werden können. Das einzige Problem ist, dass bei diesen der Mittelwert nicht 0 und die Standardabweichung nicht 1 sein muss. Es mag den Anschein haben, dass die behandelten Beispiele der Standard Normalverteilung keinen praktischen Nutzen haben, dies ist jedoch falsch. Jede Normalverteilung X, X ∼ N (µ, σ 2 ), kann an Z ∼ N (0, 1) angenähert werden durch Veränderung der Variablen: X −µ Z= σ Diese Umformung wird als Standardisierung einer Zufallsvariablen X bezeichnet, und wir können die vorhin benutzte Tabelle mit CP F einer N (0, 1) benutzen. Das Resultat wird hergeleitet: P [X ≤ k] = P [ k−µ k−µ X −µ ≤ ] = P [Z ≤ ] σ σ σ So kann der Wert P [X ≤ k] mitX einer Normalverteilung berechnet werden mit Hilfe der Tabelle für die Standard Normalverteilung durch die Formel: P [Z ≤ k−µ σ ]. Um diese Konzepte klar zu machen werden wir die Zahl jeder unterschiedlicher Arten von Tischen die eine High- School mit 1.000 Schülern kaufen muss berechnen. Die Daten über die Größen, die wir vorhin erstellt haben und die Voraussetzung, dass diese bestimmt sind durch N (1660 59, 100 88) dienen uns für die Berechnung. Zur Berechnung der Anzahl der Tische und Sessel des Typs A ist es nötig den Prozentsatz von Schülern die kleiner als 160 cm sind heranzuziehen. Wir benennen X = ”Größe eines Schülers” und berechnen P [X ≤ 160] Wir nehmen an dass, X ∼ N (1660 59, 100 88) und erhalten P [X ≤ 160] = P [Z ≤ 160 − 1660 59 ] = P [Z ≤ −00 61] 100 88 wobei Z ∼ N (0, 1). Nach der Tabelle der Standard Normalverteilung ergibt sich P [Z ≤ −00 61] = 1 − P [Z ≤ 00 61] = 1 − 00 7291 = 00 2709. Es müssen also 27’09% der Sessel vom Typ A sein. 63 Zur Berechnung der Anzahl der Tische des Typs B müssen wir P [160 < X < 180] berechnen, da für die Schüler die zwischen 160 und 180 cm groß sind diese Sessel am geeignetsten erscheinen. Nach Standardisieung der Zufallsvariablen X erhalten wir: P [160 < X < 180] = P [ 160 − 1660 59 180 − 1660 59 <Z< ] = P [−00 61 < Z < 10 23] = 0 10 88 100 88 und wir teilen diese Wahrscheinlichkeit in zwei unterschiedliche Wahrscheinlichkeiten. Es ergibt sich: = P [Z < 10 23] − P [Z ≤ −00 61] = 00 8907 − 00 2709 = 0.6198 d.h. die Schule wird 61’98% der Tische vom Typ B kaufen. Und um die Anzahl der Tische und Sessel des Typs C zu berechnen geht man folgend vor: P [X > 180] = P [Z > 10 23] = 1 − P [Z < 10 23] = 00 1093 d.h., 10’93% der Tische und Sessel wird vom Typ C sein. Als schlußendliche Antwort ergibt sich für eine High- School mit insgesamt 1.000 Schülern, dass man 1000 · P [X ≤ 160] = 271 Sessel und Tische des Typs A, 1000 · P [160 < X ≤ 180] = 620 des Typs B und 1000 · P [X ≥ 160] = 109 des Typs C kaufen muss um die Schüler mit bestmöglichen Schulmöbeln auszustatten. Wie man sieht läßt sich die Wahrscheinlichkeit in einer Normalverteilung sehr einfach berechnen. Man muss nur mit der Tabelle der Standard Normalverteilung umgehen können und die Variable geeignet standardisieren. Wie führt man andere Verteilungen in eine normale um? Im wirklichen Leben ist nicht jede Zufallsvariable durch eine Normalverteilung bestimmt. Bevor man also die Daten analysiert ist es nötig zu überprüfen ob die Daten einer Normalverteilung entsprechen. Diese Überprüfung wird mit Normalitätstest beschrieben. Es existieren viele solcher Tests die auch kompliziert sind, daher werden wir uns nur mit einem einfachen Test beschäftigen. Dieser Normalitätstest funktioniert folgendermaßen: 1. Wir betrachten eine Stichprobe von n Elementen von der Bevölkerung und meßen die Werte von X, diese sind x1 , x2 , ..., xn . 2. Der Mittelwert und die Standardabweichung werden von diesen Daten berechnet, x bzw. s. 3. Wir zählen wieviele dieser Werte in den Intervallen (x − s, x + s), (x − 2s, x + 2s) und in (x − 3s, x + 3s) sind. 4. Wenn gilt, dass ungefähr 68’3% der Daten im Intervall (x − s, x + s) 95’4% der Daten im Intervall (x − 2s, x + 3s) und 99’7% der Daten im Intervall (x − 3s, x + 3s) liegen, dann können wir annehmen, dass die Bevölkerung von der wir die Daten erhoben hatten durch eine Normalverteilung mit Mittelwert µ = x und Varianz σ 2 = s2 dargestellt werden kann. 64 Man sagt die Anpassung ist gut wenn der erhaltene Prozentsatz nicht mehr als 1% mehr oder weniger dem Prozentsatz von vorhin entspricht. Nun wollen wir prüfen ob die Größe der Schüler wirklich durch eine Normalverteilung bestimmt wird wie wir es im vorigen Kapitel angenommen haben. Wir berechneten den Mittelwert der Daten, er war x = 1660 59 und die Standardavweichung betrug s = 100 88. Nun zu den Intervallen die für den Nomalitätstest nötig sind: • (x − s, x + s) = (1550 71, 177.47) • (x − 2s, x + 2s) = (1440 83, 1880 35) • (x − 3s, x + 3s) = (1330 95, 1990 23) Aus den relativen Häufigkeitstabelle ergibt sich: • P [X ∈ (x − s, x + s)] = P [X ∈ (1550 71, 177.47)] = 00 691 • P [X ∈ (x − 2s, x + 2s)] = P [X ∈ (1440 83, 1880 35)] = 00 965 • P [X ∈ (x − 3s, x + 3s)] = P [X ∈ (1330 95, 1990 23)] = 1 Daher erhält man, dass 69’1% der Beobachtungen ins Intervall (x−s, x+s) fallen, wenn es theoretisch 68’3% sein müsste. 96’5% der Daten liegen im Intervall (x − 2s, x + 2s), was 95’4% sein müsste und 100% liegen in (x − 3s, x + 3s) was theoretisch nur 99’7% sein dürften. Obwohl die Tatsache, dass die Prozentsätze nicht weit von 1% der theoretischen Prozentsätze liegen nicht stimmt, kann man sagen, dass es sich um eine gute Annäherung handelt, da die Summe der Fehler in den drei Intervallen nur bei 5% liegt. Die Annäherung ist also gerechtfertigt. Die Zufallsvariable die die Größe der Bevölkerung repräsentiert ist ein wohl studiertes Phenomän und es ist bekannt als Normalverteilung. Wenn man eine genauere Berechnung durchführen will dann ist es nötig zusätzliche Berechnungen kennenzulernen. Aber da wir nur einen Einblick in die Anwendung dieser Rechenmittel geben wollen, ist es uns wichtiger dass alle behandelten mathematischen Sachverhalte verstanden wurden. Die Normalverteilung als eine Annäherung der Binomialverteilung Als wir die Binomialverteilung studiert haben hatten wir ein Problem: die Berechnung war zu langwierig. Händisches Berechnen von Wahrscheinlichkeiten wie P [X ≤ k] wenn X ∼ B(n, p) war extrem schwierig und praktisch nur lösbar mit Hilfe des Computers. Um das Problem zu übergehen werden wir nun eine Annäherung der Binomialverteilung an die Normalverteilung vorstellen. Wenn X ∼ B(n, p) dann gilt, dass der Mittelwert µ = np und die Varianz σ 2 = npq ist. Wenn nun entweder p oder q nahe bei 0 sind, dann kann die Binomialverteilung durch die Normalverteilung angenähert werden N (np, npq). Dies ermöglicht ein einfacheres Berechnen wie wir gleich sehen werden. Nehmen wir nun diese Annäherung und standardisieren diese dann erhält man k − np P [X ≤ k] = P [Z ≤ √ ] npq 65 wobei Z ∼ N (0, 1), und wir können dies leicht berechnen. Die Approximation ist gut wenn np und nq beide größer als 5 sind und wird besser wenn n größer und p nähert zu 12 wird. Wir müssen zuvor ein anderes Problem lösen um die Approximierung zu ermöglichen. Solange X eine diskrete Zufallsvariable ist die Integer Werte X = 0, 1, 2, ..., n annimmt, ist die Normalverteilung kontinuierlich. the normal distribution is continuous. Um dies zu verhindern führt man die Kontinuitäts Korrektur durch und Wahrscheinlichkeiten wie P [X ≤ k] zu berechnen. Man berechnet P [X ≤ k + 00 5], für die Variable X die den Wert k annimmt. Um P [X < k] zu finden berechnet man P [X ≤ k − 00 5], sodass der Punkt k nicht ins Intervall fällt. Diese Korrektur ist unentbehrlich um Wahrscheinlichkeiten wie P [X = k] zu berechnen und man muss auch P [k − 00 5 ≤ X ≤ k + 00 5] berechnen. Mit Hilfe dieser Methode können wir nun Antwort geben zu der Frage, die im Kapitel über Binomialverteilungen aufgekommen ist. Die erste Frage benötigt keine Approximation um leicht beantwortet zu werden, aber die zwei letzten schon. Wir nehmen daher an, dass unsere Zufallsvariable X = ”Anzahl der Linkshänder in einer Klasse von 50 Schüler”bestimmt wird durch N (np, npq) = N (5, 40 5). Für die Beantwortung der ersten Frage berechnen wir das erste k, sodass P [X ≤ k + 00 5] ≥ 00 9 (für die Kontinuitäts Korrektur). In Wahrheit suchen wir die erste Integer Zahl k, sodass P [Z ≤ 0 k+0 √ 5−5 ] ≥ 00 9 wobei Z ∼ N (0, 1). 40 5 0 0 5 √ 5−5 ] = P [Z ≤ k−4 P [Z ≤ k+0 20 12 ] 40 5 Das erste x ∈ R für das gilt, dass P [Z ≤ x] ≥ 00 9 ist x = 10 29. Daher müssen wir die erste 0 5 0 Integer Zahl finden dass k/ k−4 20 12 ≥ 1 29. Wir erhalten k − 40 5 ≥ 10 29 ⇔ k ≥ 70 24 20 12 Das gesuchte k war also k = 8. Dies ist dasselbe Ergebnis das wir bereits im Kapitel über Binomialverteilungen erhalten haben. An dieser Stelle habe wir jedoch keinen Computer zur Berechnung herangezogen sondern nur die Tabelle der Standard Normalverteilung und höchstens einen Taschenrechner. Zur Berechnung des Prozentsatzes der Gruppen von 50 Schülern in welchen mindestens 10 Linkshänder sitzen benötigen wir P [X ≥ 90 5] und nicht P [X ≥ 9], wegen der Kontinuitäts Korrektur. Das heißt wir müssen P [Z ≥ 90 5 − 5 ] = P [Z ≥ 20 12] = 1 − P [Z ≤ 20 12] = 00 0174 20 12 berechnen. Entsprechend dieser Approximierung der Binomialverteilung haben 1’75% der Klassenzimmer mit 50 Schülern 10 oder mehr Linkshänder. Diese Zahl liegt sehr nahe an dem Ergebnis (2’25%) was wir mit Hilfe des Binomial Modells berechnet hatten. 66 Wie Sie sehen sind die Antworten sehr ähnlich. Die Approximierung war also korrekt, da auch np = 50 · 00 1 = 5 und nq = 50 · 00 9 = 45, beide Zahlen größer oder gleich 5, so wie es eine geeignete Annäherung vorsieht. 67