Fachbereich: Vorlesung: Fach: Dozent: Wochenstunden: Dauer: Abschluß: Photoingenieurwesen, FH Köln B 5.3 Statistik I und II (ehemals Statistik und Operations Research I und II) B5 Marketing Prof. Dr. rer. nat. Bruno Klingen 2 2 Semester Leistungsnachweis (LN) © Jörg Hannig, Michael Knappmann 15.1.94; 2. korrigierte Fassung 02.06.96 Inhalt Über dieses Skript ................................................................................................................................... 2 Einleitung .................................................................................................................................................... 3 Teil I: Beschreibende Statistik .................................................................................................................. 3 1. Tabellen und graphische Darstellungen .............................................................................................. 3 2. Relative Häufigkeit............................................................................................................................... 4 3. Maßzahlen einer Stichprobe................................................................................................................ 5 Teil II: Elemente der Wahrscheinlichkeitstheorie.................................................................................... 7 1. Grundbegriffe und Operationen........................................................................................................... 7 1.1. Experiment und Ereignis ............................................................................................................. 7 1.2. Wahrscheinlichkeitsdefinition ...................................................................................................... 9 1.3. Wahrscheinlichkeitsoperationen ................................................................................................. 11 2. Diskrete Wahrscheinlichkeitsfunktionen.............................................................................................. 14 2.1. Der Begriff der Zufallsvariablen................................................................................................... 14 2.2. Wahrscheinlichkeitsfunktion........................................................................................................ 15 2.3. Maßzahlen................................................................................................................................... 17 3. Diskrete Standardverteilungen ............................................................................................................ 19 3.1. Permutationen ............................................................................................................................. 19 3.2. Binomialverteilung ....................................................................................................................... 20 3.3. Poisson - Verteilung ................................................................................................................. 24 1. Erweiterung ............................................................................................................................... 24 2. Erweiterung ............................................................................................................................... 25 4. Stetige Verteilung ................................................................................................................................ 29 4.1. Exponentialverteilung als einführendes Beispiel ......................................................................... 29 4.1.1. stetig gleichverteilte Zufallsvariable..................................................................................... 33 a) Einstieg: diskrete gleichverteilte Zufallsvariable....................................................................... 33 b) "linerare Transformation" von XG ( XG stetig, gleichverteilt in [0;1) ) ....................................... 34 c) Wichtige Unterschiede zwischen stetigen und diskreten Zufallsvariablen............................... 35 d) α -Potenzverteilung .................................................................................................................. 35 e) Simulation der Exponentialverteilung....................................................................................... 36 4.2. Elementare Eigenschaften der Funktionen zur Normalverteilung............................................... 37 a) Dichte- und Verteilungsfunktion ............................................................................................... 37 b) Eigenschaften von f(x) ............................................................................................................. 38 c) Standardform der Normalverteilung......................................................................................... 38 d) Formeln für XN in Standardform .............................................................................................. 39 e) Wichtige praktische Größen der Standardform ....................................................................... 39 f) Übergang von der Standardform zu X allgemein..................................................................... 39 g) Wichtige praktische Größen für (µ;s)-Verteilung...................................................................... 39 h) Näherungsberechnung zu P( x1 ≤ X ≤ x1+∆x ) durch die Dichtefunktion............................... 40 4.3. Lineare Transformation von Zufallsvariablen .............................................................................. 41 a) allgemein: Y = g(X) (beliebige Funktion).......................................................................... 41 b) Dichtefunktion g(y) sowie G(y) zu Y = aX + b bei stetig verteiltem X................................. 41 c) Transformation der Parameter µx , sx zu X............................................................................. 42 Einleitung * Über dieses Skript d) Bedeutung für die Normalverteilung......................................................................................... 42 5. Eigenschaften der Normalverteilung.................................................................................................... 43 5.1. Normalverteilung der Stichproben ............................................................................................... 43 5.2. Normalverteilung als Näherung zu Binomial- und Poissonverteilung .......................................... 46 5.3. Summen von Zufallsvariablen und Normalverteilungen .............................................................. 48 a) unabhängige Zufallsvariable .................................................................................................... 49 b) Summen beliebiger Zufallsvariablen ........................................................................................ 50 c) Summen normalverteilter Zufallsvariablen............................................................................... 51 d) Der zentrale Grenzwertsatz...................................................................................................... 52 e) Das Gesetz der großen Zahlen ................................................................................................ 54 5.4. Fehlerrechnung............................................................................................................................ 54 5.5. Exkurs: Summenverteilung.......................................................................................................... 58 a) einführendes Beispiel ............................................................................................................... 58 b) Verallgemeinerung zu Wahrscheinlichkeitsfunktionen für die Summen diskreter Zufallsvariablen. ............................................................................................................................ 59 c) Dichtefunktion für die Summe stetiger Zufallszahlen. .............................................................. 60 d) Faltung und Korrelation ............................................................................................................ 65 Teil III: Beurteilende Statistik..................................................................................................................... 67 Einführung .......................................................................................................................................... 67 1. Testverteilungen .................................................................................................................................. 67 a) Normalverteilung ...................................................................................................................... 67 b) Chi - Quadrat - Verteilung ........................................................................................................ 68 c) t - Verteilung ............................................................................................................................. 69 d) Fischer-Verteilung .................................................................................................................... 70 2. Vertrauensintervall ............................................................................................................................... 70 a) Einführendes Beispiel............................................................................................................... 70 b) Erweiterung für unbekanntes s ................................................................................................ 72 c) Weitere Möglichkeiten für den Einsatz von Vertrauensintervallen ........................................... 74 3. Hypothesentest .................................................................................................................................... 74 3.1. Parametertest .............................................................................................................................. 74 3.2. Verteilungstest ............................................................................................................................. 76 4. Korrelation und Regression ................................................................................................................. 77 4.1. Korrelation ................................................................................................................................... 77 4.1.1. Transformation von Zufallszahlpaaren ................................................................................ 82 Zweidimensionale Dichtefunktion (joint distribution) ..................................................................... 83 4.2. Regression................................................................................................................................... 85 Anhang......................................................................................................................................................... 89 Aufgaben ................................................................................................................................................. 89 Lösungen ................................................................................................................................................. 93 Formelsammlung I................................................................................................................................... 100 Formelsammlung II.................................................................................................................................. 102 Summenformeln ...................................................................................................................................... 104 Tabelle: Chi-Quadrat-Verteilung .............................................................................................................. 105 Tabelle: Verteilungsfunktion zur Normalverteilung .................................................................................. 106 Stichwortverzeichnis ................................................................................................................................ 108 Literatur.................................................................................................................................................... 109 Tabelle: t-Verteilung................................................................................................................................. 95a Über dieses Skript Obwohl die vorliegende Mitschrift der Statistik-Vorlesung von Prof. Dr. Klingen sich eng an die Vorlesung hält, ist sie NICHT dazu gedacht, den Besuch der Vorlesung oder das Mitschreiben während der Vorlesung zu ersetzen!! Einerseits kann eine wirklich gute Vorlesung nicht durch ein Skript überflüssig gemacht werden, andererseits prägt sich in jedem Fall besser ein, was man selbst gehört und mitgeschrieben hat, als nur gelesenes. Vielmehr soll das Nacharbeiten des gehörten Stoffes erleichtert werden. Es wäre im Gegenteil zu hoffen, daß sich der ein oder andere aufgrund der Tatsache, daß ein Skript existiert, dazu entscheidet, diese wirklich lohnende Vorlesung zu hören, selbst wenn der zugehörige Leistungsnachweis nicht mehr benötigt wird. Korrekturen, Hinweise und Verbesserungsvorschläge bitte ich entweder direkt an mich (e-mail: [email protected]) oder an die Fachschaft FB Photoingenieurwesen, FH-Köln zu richten. Köln im Sommer 1995 Michael Knappmann 2 Statistik Einleitung * 1. Tabellen und graphische Darstellungen Einleitung Die Grundüberlegung der Statistik ist, scheinbar zufällige oder nicht berechenbare Vorgänge zu erfassen, und sie auf Gesetzmäßigkeiten zu untersuchen, um Wahrscheinlichkeitsvoraussagen machen zu können. Dabei zieht man z.B. eine Stichprobe ( zu prüfende Teilmenge ) von einer Grundgesamtheit und schließt von ihr wieder auf die Grundgesamtheit. Hier zeigt sich bereits ein Problem der Statistik: Wie muß eine Stichprobe beschaffen sein, damit sie repräsentativ ist? Vor dieser Frage stehen beispielsweise die Wahlstatistiker vor Wahlhochrechnungen. Es ist auch einsichtig, daß die Statistik keine Beweise liefern kann, auch wenn sie fälschlicherweise oft dazu benutzt wird. Es ist also von elementarer Bedeutung, die Aussage der Statistik genau zu kennen, um keinen falschen Interpretationen zu verfallen. Es soll noch auf zwei Bücher hingewiesen werden: a) ERWIN KREYSZIG "Statistische Methoden und ihre Anwendungen" b) OLAF HEIM "Statistische Verfahren der Ingenieurpraxis" Teil I: Beschreibende Statistik 1. Tabellen und graphische Darstellungen Die Aufgabe dieses Abschnittes ist es, Aussagen über Stichproben, die elementaren Begriffe, Tabellenformen und graphische Darstellungen und charakteristische Maßzahlen und Funktionen zu machen. Stichprobe 1 sei die in Tabelle 1.1 aufgeführte Erhebung über die Körpergröße Grazer Mittelschülerinnen. Größe x [cm] absolute Häufigkeit relative Häufigkeit h(x) 153 154 155 156 157 1 1 2 3 3 0,01 0,01 0,02 0,03 0,03 158 159 160 161 162 5 6 4 5 7 0,05 0,06 0,04 0,05 0,07 163 164 165 166 167 5 5 6 7 5 0,05 0,05 0,06 0,07 0,05 168 169 170 171 172 4 5 5 6 4 0,04 0,05 0,05 0,06 0,04 173 174 175 176 177 3 2 3 1 1 0,03 0,02 0,03 0,01 0,01 178 1 0,01 Summe 100 1 Statistik Seite 3 Teil I: Beschreibende Statistik * 2. Relative Häufigkeit Dann bezeichnet man als Stichprobenumfang n die Anzahl der Werte. => n = 100 Das Stichprobenmerkmal x ist hier die Körpergröße in cm. Hierbei handelt es sich um ein quantitatives Merkmal; im Gegensatz dazu gibt es auch qualitative Merkmale (z.B. die Augenfarbe), die jedoch nicht Gegenstand dieser Vorlesung sein werden. Die einzelnen Werte des Stichprobenmerkmals heißen Merkmalswerte oder Merkmalsausprägungen. Im Beispiel der Stichprobe 1 sind das (ohne Einheiten): x1 = 161, x2 = 162, x3 = 166, ... , x100 = 175 xi ∈ IN Allgemein gilt: xi ∈ IR Der Index i bezeichnet hier den Merkmalsträger. Urliste nennt man die erste Tabelle, bzw. das Protokoll, das einfach die verschiedenen Meß- oder Erhebungswerte in der Reihenfolge ihres Vorkommens aufzählt (=> Tabelle 1.1). Übersichtlicher ist die Strichliste (=> Tabelle 1.2), in der alle mehrfach auftretenden Merkmalswerte zusammengefaßt werden. Eine ähnliche Form ist das Punktdiagramm, das bereits Ähnlichkeiten mit mathematischen Funktionen zeigt, denn hier wird das statistische Merkmal x zu der bestimmenden Größe, d.h. zum Argument. Die Häufigkeiten zu x werden hier die abhängigen Größen, entsprechend dem Funktionswert in der Mathematik. In allen diesen Tabellenumformungen werden noch die absoluten Häufigkeiten k(x) angegeben. Man unterscheidet in der Statistik zweckmäßigerweise zwei Arten der Numerierung: - Erste Art der Merkmalszuordnung: - Zweite Art der Merkmalszuordnung: Hier werden die Merkmalswerte in der Reihenfolge der Erfassung (s.o.) von 1 bis n durchnumeriert, wie in Tabelle 1.1. Die Numerierung erfolgt in der Reihenfolge der Merkmalswerthöhe. Entsprechend werden auch die Häufigkeiten zugeordnet. Im Beispiel von Stichprobe 1 hieße das: x1= 153 mit k1= 1, x2 = 154 mit k2 = 1,... , x26 = 178 mit k26 = 1 Allgemein: x1, x2, x3, ... , xm mit k1, k2, k3, ... , km Dabei ist m die Anzahl der verschiedenen Merkmalsausprägungen. Auch die folgende Schreibweise wird benutzt: ki = k(xi) Aus dem genannten folgt: n≥m m m ∑ ki = n i=1 (=> ∑ ki = 100 ) i=1 Verwirrend ist hier, daß für beide Arten der Merkmalszuordnung der Buchstabe x verwendet wird. Daher muß auf Verwechslungen aufgepaßt werden. Ein wichtiges Unterscheidungskriterium ist die höchste Numerierung, n oder m. 2. Relative Häufigkeit Die relative Häufigkeit h(x) ist folgendermaßen definiert: ki h(xi) = n i = 1; 2; 3; ... ; m In Stichprobe 1 hieße das: h(x10 ) = h(162) = 7/100 = 0,07 = 7% Relative Häufigkeiten werden naturgemäß auch gerne in Prozent angegeben. Beispiele für relative Häufigkeiten finden sich in Tabelle 1.3 und den daraus erstellten Diagrammen. 4 Statistik Teil I: Beschreibende Statistik * 3. Maßzahlen einer Stichprobe Die Häufigkeitsfunktion f(x) 1 ist wie folgt definiert: f(x) = î h(x) für x = xi 0 für x ≠ xi i = 1; 2; 3; ... ; m Diese Funktion führt bei Stichprobe 1 zwangsläufig zu einem Strichdiagramm, ähnlich dem Stabdiagramm. Desweiteren folgt: f(x) ≥ 0 für x ∈ IR m ∑f(xi) m = i=1 ∑ h(xi) = 1 i=1 Zudem definiert man die Verteilungsfunktion F(x) 2, die angibt, wieviele Merkmalswerte bis zu einem bestimmten Wert xc bereits erfaßt sind. Das führt in der Regel zu sogenannten Treppenfunktionen . ∑ k(xi) ∑ f(xi) Definition: F(x) = 1/n Daraus folgt: => F(x) ist monoton (steigend) => lim F(x) = 1 xi≤x = xi≤x x→∞ => lim F(x) = 0 x→0 Bedeutung hat die Verteilungsfunktion vor allem in der Wahrscheinlichkeitsrechnung. 3. Maßzahlen einer Stichprobe Ziel ist es, eine "globale" Beschreibung einer Stichprobe zu machen. Dazu definiert man den Mittelwert x̄, der den Durchschnittswert der Merkmalsausprägungen darstellt: m m ∑ m ∑ ∑ 1 xi k(xi) = xi h(xi) = xi f(xi) x̄ = n i=1 i=1 i=1 Merkmalszuordnung 2. Art n ∑ 1 x̄ = n xi i=1 Damit entspricht die Dimension von x̄ der von x. bzw.: Merkmalszuordnung 1. Art ✎ Beispiel: Würfelexperiment mit n = 5 i xi 1 k(xi) xi·ki 0 0 2 | 1 2 3 ||| 3 9 4 | 1 4 5 0 0 6 0 0 Σ = 15 => x̄ = 3 1 ~ in der Literatur (zB KREYSZIG) auch: f (x) 2 ~ in der Literatur (zB KREYSZIG) auch: relative Summenhäufigkeit F(x) Statistik Seite 5 Teil I: Beschreibende Statistik * 3. Maßzahlen einer Stichprobe Desweiteren benötigt man zur Beurteilung ein Maß für die Streuung, ein Streumaß, da der Mittelwert für die Charakterisierung einer Probe nicht ausreichend ist, wie folgendes Beispiel zeigen soll: a) x1 = 10; x2 = 20; x3 = 30; ... ; x9 = 90 => x̄ = 50 b) y1 = 46; y2 = 47; y3 = 48; ... ; y9 = 54 => ȳ = 50 Obwohl beide Mittelwerte hier gleich groß sind, "streut" xi wesentlich stärker, als yi ! Es liegt auf der Hand, den mittleren Abstand xi von x̄ als Maß zu nehmen, doch läßt sich zeigen, daß der Mittelwert der Differenzen xi - x̄ immer zu Null führt: n n ∑ ∑ n ∑ 1 1 1 n i=1 (xi - x̄) = n i=1xi - n i=1 x̄ = x̄ - x̄ = 0 Es bietet sich also an, die Beträge der Differenzen aufzusummieren: m ∑ 1 n i=1 | xi - x̄ |bzw. m ∑ 1 n i=1 | xi - x̄ |·k(xi) Durch den Betragsausdruck wird diese Formel in der Regel jedoch zu umständlich, d.h. sie ist aufgrund ihres mathematischen Aufwands für Computeranwendungen schlichtweg ungeeignet! Um nun endlich zu einem geeigneten Streumaß zu kommen, definieren wir die Varianz s²: m m ∑ ∑ n 1 (xi - x̄)·k(xi) = n-1 (xi - x̄)·h(xi) s² = n-1 i=1 i=1 Durch die Quadrierung wird nun den Werten mit größerer Abweichung auch größeres Gewicht gegeben. Aus dieser Definition, die zwar willkürlich3, aber sinnvoll ist, lassen sich einige Folgerungen ziehen: Die Varianz kann nie negativ werden, d.h. s² ≥ 0. Ist sie Null, dann haben alle Merkmalswerte xi den gleichen Wert. Man schreibt (vor allem in der Physik) auch n ∑ 1 (xi - x̄)² . s² = n-1 i=1 Man spricht hier dann von der Summe der Abweichungsquadrate. Die Standardabweichung s ist definiert als s = s² Die Dimensionen von x̄, xi und s sind gleich. z.B.: xi = 40; 50; 60 => x̄ = 50 ; n = 3 => s² = ½·(100 + 0 + 100) = 100 => s = 10 yi = 49; 50; 51 => ȳ = 50 ; n = 3 => s² = ½·(1 + 0 + 1) = 1 => s = 1 Zur Varianz gibt es eine Berechnungsvereinfachung durch folgende Formel: 1 s² = n-1 xi²·k(xi) - nx̄² î î i=1 n ∑ Übungen: 3 Beweis der Vereinfachungsformel Im Beispiel "Augensumme mit 2 Würfeln" Mittelwert, s² und s berechnen Varianz und Standardabweichung werden in der Literatur nicht einheitlich, sondern für verschiedene Formeln benutzt: 1 m => "Varianz der Stichprobe" n-1 i=1 (xi - x̄ )² k(xi) ∑ => => 6 1 m n i=1 (xi - x̄ )² k(xi) n-1 ∑ "Varianz der Grundgesamtheit" "Anzahl der Freiheitsgrade" Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen Teil II: Elemente der Wahrscheinlichkeitstheorie 1. Grundbegriffe und Operationen 1.1. Experiment und Ereignis In der Statistik arbeitet man häufig mit den sogenannten Grundmodellen der Wahrscheinlichkeitstheorie. Die wichtigsten sind die Münze, der Würfel und die Urne als Zufallsexperimente E . Diese Experimente sind beliebig oft wiederholbare Vorgänge, deren Ergebnisse vom Zufall abhängen und nicht im Voraus bestimmt werden können. a) Münze EM Die Erfahrung zeigt, daß die Wahrscheinlichkeit P, beim Werfen Kopf K zu werfen, 50% ist: P(K) = 50% Die Wahrscheinlichkeit, Zahl zu werfen beträgt ebenso 50%: P(Z) = 50% Die Summe der Wahrscheinlichkeiten ist also 100%, in der Statistik auch einfach 1. Die Wahrscheinlichkeiten sind dementsprechend P(K) = P(Z) = ½. Man sagt daher auch, K und Z sind gleichwahrscheinlich. b) Würfel EW Beim Würfel kommen die Augenzahlen 1 bis 6 mit den Wahrscheinlichkeiten P(1) = P(2) = ... = P(6) = 1/6 vor. Auch hier sind alle Einzelereignisse gleichwahrscheinlich. c) Urne EU Bei der Urne geht man im Allgemeinen von der Lotto-Urne mit 49 von 1 bis 49 durchnumerierten Kugeln aus. Die Wahrscheinlichkeit, hier eine bestimmte Kugel i zu ziehen, beträgt P( i ) = 1/49 ( mit i ∈ {1.. 49} ). Alle möglichen vorkommende Ergebnisse, bei der Münze also K und Z, heißen Elementarereignisse. Sie sind bei den Grundmodellen alle gleich wahrscheinlich. Aus diesem Grund spricht man bei ihnen von LAPLACE - Experimenten 4. Auf diesen Grundmodellen bauen dann erweiterte Experimente auf, z.B. würfeln mit zwei Würfeln (EWW ) mit der Summe ihrer Augenzahlen als Ergebnis. Die dann vorkommenden Ereignisse 2 ; 3 ; 4 ; ... ; 12 sind nicht mehr gleichwahrscheinlich, wie bereits der Versuch 2 aus dem ersten Teil zeigt ! Auch das allsamstagliche Ziehen der Lottozahlen ( 6 aus 49 ) ist eine Erweiterung aus dem Urnenmodell. Ziel der Wahrscheinlichkeitstheorie bzw. -Rechnung ist es, Methoden zu entwickeln, mit denen komplizierte Experimente in den Wahrscheinlichkeiten auf Elementarereignisse zurückgeführt werden können. Dabei bedient sie sich der Mengenlehre als wichtiges mathematisches Hilfsmittel. Wir haben es also mit und Mengen Elementen Mächtigkeiten einer Menge a, | |, , , b, | |, , c, | |, zu tun. Dabei sind mit Mächtigkeiten einer Menge die Anzahl der verschiedenen (= nicht derselben) Elemente von , , , usw. gemeint. Das Ereignis a) 1: r wird daher als Menge definiert. Das bedeutet z.B. für das Würfelexperiment EW : Menge aller Ergebnisse mit gerader Augenzahl => 1= { a2 ; a4 ; a6 } => b) 2: Menge aller Ergebnisse mit 8 ≥ Augenzahl ≥ 5 2 = { a5 ; a6 ; a7 ; a8 } wobei die in b) vorkommenden Fälle a5 und a6 in EW realisierbar, die Fälle a7 und a8 jedoch nicht realisierbar sind. Trotzdem gehören sie zur Menge 2 Auf den Sinn solcher nur scheinbar überflüssigen Überlegungen und Vereinbarungen werden wir an passender Stelle noch zurückkommen. 4 PIERRE SIMON DE LAPLACE : Théorie analytique des probabilités, 1812 Statistik Seite 7 Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen Das Elementarereignis ist durch die Menge oder # Z = { Z }. Die Eigenschaft ci kann in & $ ! i i definiert, d.h. bei der Münze wäre das die Menge % realisiert werden: i " K ={K} = { ci }. Ein Elementarereignis enthält also immer nur ein Element: | i | = 1. ' -Vereinbarungen: - E ist die Vereinigungsmenge aller Elementarereignisse zum Experiment E . ( Beispiel Würfel: * Beispiel Münze: , Beispiel Urne: W = { a1 ; a2 ; ... ; a6 } => M = {K;Z} ) | W| = 6 | M| = 2 + => - = { b1 ;.., b49 } => | U | = 49 Für LAPLACE Experimente ( d.h. gleichwahrscheinliche Einzelereignisse) folgt daraus für die Wahrscheinlichkeit eines Elementarereignisses Ei : 1 für i = 1; 2; ... ;n mit n = | SE | P(Ei ) = Ein sicheres Ereignis 2 | / Daraus ergibt sich, daß 3 0 . U E| ist eine Menge, in der alle möglichen vorkommenden Elemente enthalten sind. E eine Untermenge von 1 ist. Auch hierzu wieder ein Würfelbeispiel: = { a0 ; a1 ; a2 ; ... ; a99 } ist ein sicheres Ereignis, in dem { a1 ; a2 ; ... ; a6 } enthalten ist. Unter einem unmöglichen Ereignis versteht man die Menge 6 leere Menge ergibt: 9 ∩ 7 E ={} , die mit der Menge 8 z.B.: für Würfel ( ! ) EW : 5 E geschnitten die = { K, Z } Einige weitere Bezeichnungen sollen in der folgenden Tabelle zusammengefaßt werden: = => ∪? Summenereignis : zu ; und < [@ = A + B ] I =J ∩K Produktereignis F zu G und H Q Einander ausschließende ∩R ={} Ereignisse O und P V¯ =W \X Komplementärereignis U ¯ zu V Bezeichnung Definition E C Beispiel aus EW : gerade Zahl : Zahl ≤ 3 ST und XY L D M s.o. E = { a1 ; a2 ; a3 ; a4 ; a6 } N => : Zahl ≤ 3 = {a2} : Zahl > 4 : gerade Augenzahl ¯ : ungerade Augenzahl Aus der Definition des Komplementärereignisses folgt: 8 4 Z Statistik [ \ ∪ ¯ = E und ] A∩ ¯ ={} Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen 1.2. Wahrscheinlichkeitsdefinition Voraussetzung für die nun folgende Wahrscheinlichkeitsdefinition sind LAPLACE-Experimente, oder anders gesagt: Die folgende Wahrscheinlichkeitsdefinition gilt nur für Experimente mit gleichwahrscheinlichen Ereignissen. Definition: Zu einer gegebenen Menge A ist die Wahrscheinlichkeit P: P( ^ | ) = _ ` a ∩ E| | E| ✎ So ist zum Beispiel die Wahrscheinlichkeit eines Elementarereignisses | i| 1 | i∩ E| P( i) = = für = n | | | | c b i d e g E f h n=| E | E und i = 1;..; n Allgemein folgt aus der Definition: a) P( )=1 j b) P( c) 0 ≤ P( Die Aussagen zu m )=0 und n k )≤1 l für beliebiges . sind aber nicht umkehrbar, aus P = 1 läßt sich z.B. nicht auf ein sicheres Ereignis schließen. q d) Falls sich zwei Mengen ∩ r o = {} => | und { e) | und s P( } ∪ w p t ∪ gegenseitig ausschließen, gilt: x |=| u ) = P( ~ Daraus wiederum folgt: P( ∪ ¯ ) = P( ) + P( ¯ ) = 1 v |+| | y z ) + P( ) <=> P( ) = 1 - P( ¯ ) Letztere Form findet häufig Anwendung, nämlich immer dann, wenn P( ¯ ) wesentlich einfacher zu bestimmen ist als P( ). 5 ✎ z.B.: EU : : Ziffer der Kugel nicht durch 7 teilbar ¯ : Ziffer durch 7 teilbar ¯ = { b ; b ; .. ; b } => 7 14 49 => | ¯ |=7 7 1 => P( ¯ ) = 49 = 7 6 => P( ¯ ) = 7 Folgerungen: , Gegeben seien k Ereignisse (d.h. 5 i∩ 1 2 , ... , k, j = {} für alle i≠j ), dann folgt: P( 1 ∪ 2 ∪ 3 ∪ ... ∪ die sich paarweise ausschließen k) = P( ∑ i ) = ∑ P( i ) siehe KOLMOGOROFF 1929: "Axiomatische Wahrscheinlichkeitstheorie" mit a) bis d) als Axiome Statistik Seite 9 Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen ✎ z.B.: Elementarereignisse zu E i mit i = 1; 2; 3; ... ; n ∩ j = {} n P( i ) = P( E ) = 1 => => i ∑ und n = | E | für i ≠ j i=1 ∑ P( n ∑ 1n = n = i=1 i=1 i 1 ) = n·n = 1 Erweitern wir als nächstes die Grundmodelle: Es soll mit einem Würfel zweimal (i,j) gewürfelt werden, so daß sich die gleichwahrscheinlichen Elementarereignisse ij = {aij} ergeben. Der Beweis der Gleichwahrscheinlichkeit sei hier einmal unterschlagen. i stellt den ersten, j den zweiten Wurf dar, wobei es egal ist, ob mit einem Würfel zweimal hintereinander oder mit zwei Würfeln gleichzeitig gewürfelt wird. Es folgt für EWW: | E | = 36 | ij | = 1 P( ij) = 1/36 => ✎ Es sollen nun zwei Beispiele durchgespielt werden: a) Augensumme: A : 4 ¡ = ¢ 13 ∪ £ 22 ¤ ∪ 31 da diese einander ausschließend sind (!), folgt => P( ¥ 3 1 ) = 36 = 12 b) ungleiche Augenzahl: B : i ≠ j ¦ Entsprechend gilt für ¯ : Augenzahl gleich ( i = j ) => P( ¯ ) = 6/36 = 1/6 => P( ) = 1 - P( ¯ ) = 5/6 § ¨ © - Produktereignisse im erweiterten Modell Für zwei unabhängige Ereignisse ± ² ³ ´ dann folgt: => i∗ ∩ ¼ gilt: P( ∗j = µ => ij P( ¶ ij ¬®­ ) = P( ¯ ° )·P( ) mit 1. Wurf = i 2. Wurf = beliebig mit 1. Wurf = beliebig 2. Wurf = j ) = 1/36 = P( · i )·P( ¸ j ) mit ¹ i und º j aus EW die Menge aller Ereignisse mit ungeradem Produkt der Augenzahlen: = { aij | i · j ungerade } = { aij | i ungerade ^ j ungerade } Es sei Es sei ¾ ½ u∗ : 1. Wurf ungerade 2. Wurf beliebig ∗u : 1. Wurf beliebig 2. Wurf ungerade ¿ => dann folgt: => 10 « i∗ und » und = { Ai1 , Ai2 , Ai3 , ... , Ai6 } ∗j = { A1j , A2j , A3j , ... , A6j } a) Es sei b) Es sei ª = À u∗ ∩ Á ∗u  | | = 9 Statistik => à P( ) = 9/36 = 1/4 Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen Es gilt allgemein: Falls Ä ,Å unabhängige Ereignisse sind, folgt P( Æ ,Ç ) = P( È É )·P( ) c) Zweimaliges Ziehen mit Zurücklegen aus der Urne: EUUm Ê | UUm | = 49² = 2401 => Es sei Î P( Ë ij ) Ì = 1/49² = P( i) P( Í ) j die Menge der Ereignisse mit dem Produkt aus i und j ungerade, d.h. i und j ungerade (s.o.), wobei das erste Ergebnis vom zweiten unabhängig ist. Ï i: i-ter Zug ungerade für i = 1; 2 Ð Ñ Ò Õ ¯ : Produkt gerade, d.h. mindestens eine Kugel gerade Ó Ô = P( i) · P( j) = (25/49)² ≈ 26% j) P( ) = P( i => Ö × P( ¯ ) = 1 - P( ) ≈ 74% => d) Münzwurf: EMM K Z EKK EZK EKZ EZZ 1.Münze 2. Münze K Z Ø | MM | = 4 Für die Ereignisse und deren Wahrscheinlichkeiten gilt dann: A0 = EZZ => P( A1 = EKZ ∪ EZK => P( A2 = EKK => P( Ù Ú Û = ¼ 1) = ½ 2) = ¼ ß Man sagt auch: Zu einer Menge Experiment: 0) i P( Ü 0∪ Ý 1∪ Þ 2) = ¼ + ½ + ¼ = 1 gibt es ni "günstige Ergebnisse".6 KK 8 von 40 ZK, KZ 19 von 40 theoretisch: 10/40 20/ 40 ZZ 13 von 40 10/ 40 Für eine genügend hohe Anzahl an Experimentdurchgängen n läßt sich zeigen: ni P(Ai) = nlim →∞ n oder sogenannter χ ² - Test "Gesetz der großen Zahlen" 1.3. Wahrscheinlichkeitsoperationen Additionssatz für P( â ∪ ã ) ( bzw. à und á beliebig: P(A+B) ) = P( Die "Schnittmenge" von î und ï ä å ) + P( ) - P( æ®ç ) da | è ∪ é | = | ê ë ì |+| |-| ∩ í | muß abgezogen werden, da deren Elemente zunächst doppelt gezählt werden! 6 ð ñ ò vergleiche auch: Ansatz von D´ALAMBERT (1717-1783) : 0 , 1 , 2 sind gleichwahrscheinliche Ereignisse => Statistik ó ô õ P( 0) = P( 1) = P( 2) = 1/3 Seite 11 Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen ✎ Beispiel: ö EWW: : mindestens einmal die Augenzahl 6 => ÷ => P( þ ù i: i-ter Würfel hat Augenzahl 6 ) = P(A1+A2) = P( ú P( û 1) + P( 2) - P( = 1/6 + 1/6 - 1/36 = 11/36 ≈ 30,6 % ø ü ý 1 = 1/6 i) 2) Zur Bestätigung: = {a16 , a26 , a36 , a46 , a56 , a66 , a65 , a64 , a63 , a62 , a61 } => | ÿ | = 11 ( Zum Vergleich: Eine Rechner-Simulation mit n = 50.000 lieferte P( ) = 30,74 % .) (=> Aufg. 1.3. bis 1.5.) Hinweise: a) Falls sich und gegenseitig ausschließen, ist P( ) = 0 b) Die Berechnung von P( ba) ∩ => P(A+B) = P( ) ist für und = { } , woraus folgt: unabhängig: P( ) = P( ) + P( ) ) P( ) (-> s.o.) bb) abhängige Ereignisse: - am Beispiel des Urnenmodells mit mehrfachem Ziehen ohne Zurücklegen EUUo erklärt: α) 1. Kugel = i 2. Kugel = j P( i) = 1/49 mit j ≠ i => P( j) = 1/48 für die Wahrscheinlichkeit, eine bestimmte Kugelkombination zu ziehen: P( ij) = 1/49 · 1/48 = 1/2352 => => β) Gerade / ungerade Kugeln: Ist Ai = i-ter Zug[ i = 1; 2 ] A1 A2 : gerade P(A1g)=24/49 P(Ag2)=23/48 P(A1gAg2)=24/49 · 23/48=23,5% P(Au2)=25/48 P(A1gAu2)=24/49 · 25/48=25,5% ungerade P(A1u)=25/49 P(Ag2)=24/48 25 P(A1uAg2)= /49 · 24/48=25,5% P(Au2)=24/48 P(A1uAu2)=25/49 · 24/48=25,5% gerade ungerade 2 abhängig von 2 ist ein bedingtes Ereignis (vom Ergebnis des Ereignisses 1 wie in unserem obigen Beispiel, dann sagt man: Die mathematische Schreibweise hierfür ist: [ 2 unter der Bedingung von 2| 1 1 1] ! Man spricht auch von der bedingten Wahrscheinlichkeit: P( 2 | 1), z.B.: P( 2u | 1u) = ½ Der allgemeine Multiplikationssatz lautet somit: P( 12 "# ) = P( $ ) · P( Statistik % |& ) abhängig). Teil II: Elemente der Wahrscheinlichkeitstheorie * 1. Grundbegriffe und Operationen ✎ z.B.: ' ( Das Produkt zweier Zahlen (des Urnenmodells von oben) sei ungerade, d.h. 1 ungerade und 2 ungerade. => Für unabhängige Ereignisse P( Verallgemeinerung: 12 5 k a) Falls die Ereignisse / ) = P( und ) = P( 3 0 * + 2u) 1u = P( 2u I . 1u) = 25/49 · 24/48 = 25,5% paarweise unabhängig sind, gilt für die Produkwahrscheinlichkeit: · P( b) Falls sie voneinander abhängig sind, gilt: => P( 1, 2, 3, ... , m) = P( 1) · P( D 2| E k 3, ? @ A - : k = 1; 2; 3; ... ; m 6 2 · P( 4 2) 1 1u) ) · P( ) < P( , gilt auch hier: · P( => 7 ,8 ,9 ) P( : ... , m) ; = P( B 1) C = 3) 1) · P( · ... · P( F 3| > m) G H 1 2) · ... · P( I m| J K L 1 2 3... M m-1) ✎ Beispiele: α) Ziehen von drei Kugeln aus einer Urne mit 10 weißen und 39 schwarzen Kugeln: EUUUo Dann ist die Wahrscheinlichkeit, drei weiße Kugeln zu ziehen: : Ziehen von 3 weißen Kugeln N O P( P i: Ziehen einer weißen Kugel beim i-ten Zug ( i = 1; 2; 3) Q R S ) = P(A1, A2, A3) = P( 1) · P( 2 | 1) · P( = 10/49 · 9/48 · 8/47 = 0,65% Vergleich: EUUUm = (10/49)3 = 0,85% T |U V 3 1 2) ( => Aufg. 1.6. bis 1.8. ) ✎ β) Qualitätskontrolle: Ein Glühbirnenhersteller liefert 100 Glühbirnen und garantiert, daß höchstens 10% der Glühbirnen defekt sind. Man einigt sich mit dem Abnehmer auf folgendes Testverfahren: Drei Glühbirnen der Lieferung werden (zerstörend) getestet. Wenn alle drei in Ordnung sind, wird die Lieferung angenommen (accept), andernfalls wird sie zurückgewiesen (reject). Wie groß sind die Wahrscheinlichkeiten, daß das Testverfahren eine Zurückweisung ergibt, obwohl höchstens 10 % der Birnen defekt sind und daß das Testverfahren eine Annahme ergibt, obwohl mehr Birnen defekt sind? β1) Hypothese: Es sind genau 10% der Birnen defekt (zulässiger Grenzfall): Dann gilt für die Wahrscheinlichkeit der Annahme mit i <=> i-ter Zug o.k.: Y , Z , [ ) = / · / · / = 72,7% Die Wahrscheinlichkeit, daß die Lieferung zurückgewiesen wird, obwohl sie o.k. ist, ist somit P(\ ¯ ) = 27,3% P( X W ) = P( 1 2 3 90 100 89 99 88 98 Diesen Fall nennt man Herstellerrisiko (Produzentenrisiko). β2) Es sind höchstens 10% der Birnen defekt: => P( ) ≥ 72,7% => P( ¯ ) ≤ 27,3% ] ^ Statistik Seite 13 Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen β3) Entsprechend zum Herstellerrisiko gibt es auch das Abnehmerrisiko (Konsumentenrisiko), also die Wahrscheinlichkeit, daß alle drei Testglühbirnen o.k. sind, obwohl mehr als 10% der Lieferung kaputt sind. Es seien genau 11 Glühbirnen defekt, dann gilt: => P( ) = P( 1, 2, 3) = 89/100 · 88/99 · 87/98 = 70,2% _ ` a b β4) Für eine Lieferung mit mindestens 11 defekten Glühbirnen gilt somit: => P( ) ≤ 70,2% c Man spricht in diesem Zusammenhang auch von der Operations Charakteristik zur Qualitätskontrolle. Allgemein läßt sich abschließend zum Thema Wahrscheinlichkeitsoperationen sagen, daß die Frage, ob die Ereignisse abhängig oder unabhängig voneinander sind, in der Praxis durch die Natur des Experiments beantwortet wird, während die mathematisch-statistische Definition auf den Wahrscheinlichkeiten beruht: P( ) = P( )·P( ) => , unabhängig. de f g h i Im folgenden wird bedingte Wahrscheinlichkeit nicht mehr behandelt. ( => Aufg. 1.9. bis 1.11 ) 2. Diskrete Wahrscheinlichkeitsfunktionen 2.1. Der Begriff der Zufallsvariablen Der Begriff der Zufallsvariablen läßt sich nur sehr schwer definieren. Im folgenden verstehen wir darunter Ereignisse, die so formuliert werden, daß bei der Durchführung der jeweiligen Experimente die möglichen Ereignisse durch Werte c ∈ INo realisiert werden. Am Besten läßt sich dieser Sachverhalt an folgenden Beispielen erläutern: a) EW : Zufallsvariable X X : 1; 2; ... ; 6 (X = 0 wäre ein unmögliches Ereignis) b) EWW : Augensumme Y Y: 2; 3; ... ; 12 c) Skatspiel: Ziehen je einer Karte aus zwei Skatspielen: Anzahl ♣ As X : 0; 1; 2 (X < 0; X > 2 unmöglich) d) Münzwurf: X sei die Anzahl der Münzwürfe mit einer Münze, bis zum 1. Mal Kopf erscheint. => X ∈ IN Dann ist E das (Zufalls-) Experiment, X die durch E erzeugte Zahl, bzw. die Zufallsvariable mit den möglichen Realisierungen c ( c ∈ INo). (Auch: X sei Funktion des Zufalls) Man versucht also, ein Experiment in geeignete Zufallsvariablen zu übertragen: ✎ z.B.: EM : Das Ergebnis K entspricht einem X = Anzahl Kopf = 1, => Z = K̄ entspricht X = 0 X = c ∈ INo : Ereignis => "Realisierung der Zufallsvariable" P(X = c) Wahrscheinlichkeit des Ereignisses (bzw. der Realisierung) X = c. 14 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen Beispiele Ereignisse / Zufallsvariable: A: B: C: D: X = 1 X < 10 X ≥ c c1 ≤ X ≤ c2 Entsprechend gilt für Wahrscheinlichkeiten P: a) EWW : Augensumme c : P( X = c) <2 2 3 ... 12 > 12 0 1/ 36 2/ 36 ... 1/ 36 0 : P ( X < 4) = 1/12 P ( X ≥ 11) = 1/12 P (6 ≤ X ≤ 8) = 4/9 ( 1/36 + 2/36 ) ( 16/36 ) b) EM : Münzwurf: Y sei die Anzahl Würfe, bis zum erstenmal Kopf fällt Y=0 => P( Y = 0 ) = 0 Y=1 => P( Y = 1 ) = 1/2 Y=2 => P( Y = 2 ) = 1/4 Y=3 => P( Y = 3 ) = 1/8 : : : Y=k => P( Y = k ) = 1/2k k ∈ IN Da die Realisierungswerte (1, 2, 3, ... ) alle einen bestimmten Abstand (hier 1) voneinander haben, spricht man auch vom diskreten Abstand der Realisierungswerte oder von diskreter Zufallsvariable. Für die Zufallszahlen gelten folgende Formeln: ¯ : X > c => : X≤c => a) P( X ≤ c ) = 1 - P( X > c ) => P ( X > c ) = 1 - P( X ≤ c ) => => P( X < 0 ) = 0 P( X < ∞ ) = 1 j b) k X < 0: X < ∞: ✎ z.B.: c) l unmögliches Ereignis sicheres Ereignis P( X < 7 ) = P( X < ∞ ) = 1 EW : 1: => => X < c1, m (vorläufig) n o c1 ≤ X ≤ c2 mit c1 < c2 => 1∩ 2 = {} P( 1 ∪ 2 ) = P( 1) + P( 2) P( X < c2 ) = P[ ( X < c1 ) ∨ ( c1 ≤ X < c2 ) ] = P( X < c1 ) + P( c1 ≤ X < c2 ) ( = P( X < c1 ) + P( X < c2 ) - P( X < c1 ) ) 2: p q r s ( => Aufg. 2.1 / 2.2 ) 2.2. Wahrscheinlichkeitsfunktion Als Vereinbarung wollen wir im folgenden für die Wahrscheinlichkeit P von realisierbaren Werten Pi sprechen: P ( X = xi ) = pi > 0 Statistik Seite 15 Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen Für das Beispiel " EM bis einmal Kopf fällt " hieße das: für i ∈ IN P( X = i ) = 1/2i Die Wahrscheinlichkeitsfunktion f(x) in der Statistik ist wie folgt definiert: für x ∈ IR f(x) := P( X = xi ) f(x) = pi für x = xi i = 0; 1; 2; ... î 0 für x ≠ xi Als Beispiel soll die Wahrscheinlichkeitsfunktion des Würfels (EW) dienen: f(x) = 1/ 6 î für i = 1; 2; ... ; 6 0 sonst Die Wahrscheinlichkeitsdefinition hat starke Ähnlichkeit mit der auf Seite 5 besprochenen Häufigkeitsfunktion, hat mit dieser jedoch nichts zu tun. Aus der Definition der Wahrscheinlichkeitsfunktion folgt: Die Summe aller möglichen Realisierungswerte ist 1: 1 = P(x < ∞) = P( x = x1 ∨ x = x2 ∨ ... ∨ x = xk ) = P( x = x1 ) + P( x = x2 ) + ... = ∑f(xi) => ✎ z.B.: i = 1 i 6 6 i=1 i=1 ∑f(xi) = ∑1/6 EW : ∑ f(xi) mit f(xi) = pi = 1/6 = 1 Um die Rechnungen mit der Wahrscheinlichkeits- und ähnlichen Funktionen verstehen zu können, werden noch einmal die wichtigsten Summenformeln zusammengestellt: n a) ∑i = i=1 n-1 b) ∑ qi i=0 n-1 c) n (n+1) 2 1 - q" = 1-q ∑ i qi i=1 q = (1-q)² · [(n-1) qn - nqn-1 + 1] n-1 => ∑ i·qi i=1 ∞ d) => ∑ qi i=0 ∞ e) ∑ i2 qi i=1 Beispiel: q≠1 q = (1-q)² 1 = 1-q für |q| < 1 1+q = q ·(1-q)³ für |q| < 1 Wenden wir beispielsweise Formel d) auf den bereits bekannten Fall " EM bis einmal Kopf fällt " an: P( X = i ) = 1/2i ∞ ∞ 1 1/ i = => P( x < ∞ ) = f(xi) = (½)i - 1 = 1-½ - 1 = 2 - 1 = 1 2 ∑ i 16 für |q| < 1 ∑ i=1 Statistik ∑ i=0 Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen oder: 9 P( X ≥ 10 ) = 1-P( X < 10 ) = 1 - ∑(½)i 9 = 1- [ i=1 ∑(½)i - 1 ] i=0 1-(½)10 = 2 - 1-½ = 2-2(1-1/1024) = 1/512 = 0,2% Zum zweiten definieren wir noch die Verteilungsfunktion einer diskreten Zufallsvariablen, die Ähnlichkeit mit der auf Seite 5 vorgestellten Verteilungsfunktion (Treppenfunktion) hat: F(x) = P( X ≤ x ) = ∑ f(xi) xi≤x Aus dieser Definition ergeben sich einige Folgerungen: für x ∈ IR- a) f(x) = F(x) = 0 b) x→∞F(x) c) P( x > b ) = 1 - P( x ≤ b ) = 1 - F(b) lim = P( x < ∞ ) = 1 , da F(b) = P( x ≤ b ) => => P( x ≤ b ) = P([x ≤ a] + [a < x ≤ b]) = P(x ≤ a) + P( a < x ≤ b ) P( a < x ≤ b ) = P( x ≤ b ) - P( x ≤ a ) P( a < x ≤ b ) = F(b) - F(a) für a < b => => => P( a < x ≤ b ) = P( x ≤ b ) - P( x < a ) ≥ 0 P( x ≤ b ) ≥ P( x < a ) F(b) ≥ F(a) für a < b F(x) ist monoton wachsend d) e) ( => Aufg. 2.3. ) 2.3. Maßzahlen Der Mittelwert µ einer diskreten Zufallsvariablen ist folgendermaßen definiert: µ = ∑ xi f(xi) i ( zum Vergleich: Stichprobe: x̄ = ∑ xi h(xi) ) i ✎ Als Beispiel muß mal wieder der altgediente Würfel herhalten (EW): 6 µ = i 1/6 = 3,5 ∑ i=1 Aus der Mittelwertsdefinition, die einige Ähnlichkeiten mit der Mittelwertsdefinition x̄ zur Stichprobe auf den Seite 5 aufweist, ergeben sich einige Folgerungen: a) ∑ (xi - µ) f(xi) = 0 (Beweis später) i b) Min(xi) ≤ µ ≤ Max(xi) c) Für f(x) symmetrisch zu c, d.h. f(c+x) = f(c-x) ✎ z.B.: EW: c = 3,5 = µ Statistik => µ = c Seite 17 Teil II: Elemente der Wahrscheinlichkeitstheorie * 2. Diskrete Wahrscheinlichkeitsfunktionen ( => Aufg. 2.4. - 2.6. ) Entsprechend zu den Überlegungen auf Seite 6 definiert man auch für die Zufallsvariablen als Maß für die Streuung die Varianz σ²: σ² = ∑ (xi - µ)² f(xi) i Zu dieser Formel gibt es ebenfalls eine Berechnungsvereinfachung, die später noch bewiesen wird: σ² = ∑ xi² f(xi) - µ² i Die (positive) Wurzel aus der Varianz ist wieder die Standardabweichung: σ = σ² ( Der "Variationskoeffizient" oder "statistische Fehler" ist durch s/x̄ definiert. ) ✎ z.B.: EW 6 σ² = ∑ ( i - 3,5 )² ·1/6 i=1 6 = 1/6 · ∑ ( i - 3,5 )² i=1 = 35/12 = 2,92 σ = 1,71 => P(µ-σ ≤ X ≤ µ+σ) EW => = P( 3,5-1,71 ≤ X ≤ 3,5+1,71 ) = P( 1,8 ≤ X ≤ 5,2 ) = P( 2 ≤ X ≤ 5 ) = P( X=2 ∨ X=3 ∨ X=4 ∨ X=5 ) = 4/6 = 66,7 % für viele Zufallsvariable gilt: P(µ-σ ≤ X ≤ µ+σ) ≈ 2/3 Eine weitere häufig gebräuchliche Maßzahl ist der Erwartungswert g(x) einer Funktion. Als Einführungsbeispiel soll das Roulettebeispiel (Zahlen 0 ... 36) dienen. Die Auszahlungsfunktion für das Auszahlen des 36fachen Einsatzes beim Setzten auf eine Zahl ( xk ) ist: g(xi) = î 36 für xi = xk 0 sonst Y = g(X) "durchschnittliche Auszahlung" X: Roulette P( X = xi ) = 1/37 = f(xi) => x = 0, x = 1, x = 2, ... , x = 36 => => 0·f(0) + 0·f(1) + 0·f(2) + ... + 36·f(xk) + 0·f(xk+1) + ... + 0·f(36) => 36/ 37 = 97,3% = Y (durchschnittliche Auszahlung) Die durchschnittliche Auszahlung ("Gewinnerwartung"), d.h. der Erwartungswert beträgt also 97,3%. Falls die Gewinnerwartung eins ist, spricht man von "fairem Spiel". Definiert ist der Erwartungswert wie folgt: E[ g(x) ] = ∑ g(xi) f(xi) i 18 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen Aus dieser Definition ergeben sich wieder einige Folgerungen: a) g(x) = a ∈ IR (const.) => ∑ f(xi) ∑ a f(xi) E(a) = = a· => E(a) = a = a i i ∑ f(xi) da = 1 i b) g(x) = x => E(x) = ∑ xi i c) g(x) = xk E(xk) = => f(xi) = µ => ∑ xik f(xi) i d) = mk " k-ter Moment von x " ∑ g(xi) f(xi) + b·∑ h(xi) f(xi) E[a·g(x) + b·h(x)] = a· g(x) = x - µ = a·E[g(x)] + b·E[h(x)] i i e) E(x) = µ =>E[x-µ] = ∑ (xi - µ) f(xi) = 0 da E[x-µ] = E[x] - E[µ] = µ - µ = 0 i f) g(x) = ( x - µ )² => E[(x-µ)² ] = ∑ (xi - µ)² f(xi) = σ² = V(x) i σ² = E[x² - 2xµ + µ²] = E[x²] - 2µ E[x] + E[µ²] = ∑ xi² f(xi) - 2µµ + µ² = i ∑ xi² f(xi) - µ² i (=> Aufg. 2.7. bis 2.12) 3. Diskrete Standardverteilungen 3.1. Permutationen Unter Permutation (P) von n Elementen versteht man die Anzahl der möglichen Anordnungen dieser Elemente: Pn = n! ✎ Beispiel: Die Elemente a, b, c und d: 1.abcd 7.bacd 13.cabd 19.dabc 2.abdc 8.badc 14.cadb 20.dacb => ✎ Für das Beispiel EU gilt entsprechend: 3.acdb 4.adbc 9.bcad 10.bdac 15.cbad 16.cdab 21.dbac 22.dcab P4 = 4! = 24 5.acbd 11.bcda 17.cbda 23.dbca 6.adcb 12.bdca 18.cdba 24.dcba P49 = 49! = 6,0828·1062 ✎ Sind mehrere Elemente gleich, ergibt sich beispielsweise folgende Situation: 1. aaa45 5. aaa54 9. aa5a4 13. a5aa4 17. 5aaa4 2. aa4a5 6. aa45a 10. aa54a 14. a5a4a 18. 5aa4a => 5! 120 3! = 6 = 20 Statistik 3. a4aa5 7. a4a5a 11. a45aa 15. a54aa 19. 5a4aa 4. 4aaa5 8. 4aa5a 12. 4a5aa 16. 45aaa 20. 54aaa Seite 19 Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen Sind unter n Elementen n1 Elemente gleich; d.h. bilden sie eine Klasse, dann gilt für die Anzahl der Anordnungen: n! Pn(n1) = n ! 1 Entsprechend gilt für zwei Klassen jeweils gleicher Elemente n1, n2: n! Pn(n1, n2) = n !·n ! 1 2 Und für k Klassen n1, n2 , n3, ... , nk gilt: n! Pn(n1, n2 , n3, ... , nk) = n !·n !·n !·..·n ! 1 2 3 k Auch hier lassen sich einige Sonderfälle konstruieren: a) n1 = n2 = n3 = ... = nn = 1 => n! Pn(n1, n2 , n3 , ... , nn ) = 1!·1!·..·1! = n! b) n1, n2 mit n1 + n2 = n n! n! Pn(n1, n2) = n !·n ! = n !· (n-n )! = 1 1 1 2 => nn î 1 7 Die hier vorgestellten einfachen Permutationen stellen einen Ausschnitt aus dem Bereich der Kombinatorik dar. 3.2. Binomialverteilung Das Grundmodell für die Binomialverteilung von Zufallszahlen stellt das BERNOULLI - Experiment dar 8: EU: Urne mit nw p = n +n w s ns q = n +n w s t nw weißen Kugeln und ns schwarzen Kugeln, so daß den Anteil der weißen und den Anteil der schwarzen Kugeln angibt. Bei n Zügen mit Zurücklegen gibt die Zufallsvariable X dann die Anzahl der weißen Kugeln unter den gezogenen n Kugeln an (X = 0,1,2, ... ,n). Man sagt: X ist binomialverteilt. Hinweise: a) Die Gesamtzahl nw + ns der Kugeln ist ohne Bedeutung, da mit Zurücklegen gearbeitet wird, wichtig sind nur die relativen Anteile p und q. b) Falls nw + ns → ∞ , sind Ziehen mit und Ziehen ohne Zurücklegen identisch, weil der Einfluß der einzelnen gezogenen Kugel klein wird gegenüber der Gesamtheit. c) Das Ziehen eines Elements aus dem Anteil p (hier: weiße Kugel) wird in der Statistik allgemein als Erfolg bezeichnet. 7 8 20 vgl. Mathematik Grundlagen, Binomialkoeffizient nach JAKOB BERNOULLI, der sich zuerst mit solchen Experimenten befaßt hat: ars conjectandi, 1713 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen ✎ z.B.: n = 1 (Ein Zug): P(X=0) = q : kein Erfolg P(X=1) = p : Erfolg p heißt daher auch Einzelerfolgswahrscheinlichkeit. d) Ziel ist es, eine allgemeine Formel für die Wahrscheinlichkeitsfunktion f(x) = P(X=x) zu beliebigem p und n zu erstellen. Wir wollen uns einer Formel für das BERNOULLI - Experiment schrittweise über Beispiele nähern: a) Es sei eine Urne mit 20% weißen Kugeln (p = 0,2) und 80% schwarzen Kugeln (q = 0,8) gegeben. Die Anzahl der Züge sei n = 5. Gesucht ist die Wahrscheinlichkeit, daß genau 2 weiße (d.h. 3 schwarze) Kugeln gezogen werden ( P(X=2) = ? ). Dann gilt für die möglichen Züge: u v w 1: x y z { | } ~ WWSSS : 2 WSWSS 3: WSSWS 4: WSSSW 5: SWWSS 6: SWSWS 7: SWSSW 8: SSWWS 9: SSWSW 10: SSSWW => => => => => => => => => => P(WWSSS) P(WSWSS) P(WSSWS) P(WSSSW) P(SWWSS) P(SWSWS) P(SWSSW) P(SSWWS) P(SSWSW) P(SSSWW) Es gibt, wie schon bei den Permutationen gezeigt, = = = = = = = = = = P(W) · P(W) · P(S) · P(S) · P(S) P(W) · P(S) · P(W) · P(S) · P(S) P(W) · P(S) · P(S) · P(W) · P(S) P(W) · P(S) · P(S) · P(S) · P(W) P(S) · P(W) · P(W) · P(S) · P(S) P(S) · P(W) · P(S) · P(W) · P(S) P(S) · P(W) · P(S) · P(S) · P(W) P(S) · P(S) · P(W) · P(W) · P(S) P(S) · P(S) · P(W) · P(S) · P(W) P(S) · P(S) · P(S) · P(W) · P(W) = = = = = = = = = = (1/5)² (1/5)² (1/5)² (1/5)² (1/5)² (1/5)² (1/5)² (1/5)² (1/5)² (1/5)² · · · · · · · · · · (4/5)³ (4/5)³ (4/5)³ (4/5)³ (4/5)³ (4/5)³ (4/5)³ (4/5)³ (4/5)³ (4/5)³ 5 ( 3) = 10 Möglichkeiten. Da die Wahrscheinlichkeiten voneinander unabhängig sind (mit Zurücklegen!), gilt die oben verwendete Produktwahrscheinlichkeit. Da die einzelnen Ereignisse i ( i = 1, 2, ... , 10) sich gegenseitig ausschließen, gilt für die Wahrscheinlichkeit P(2) ∑ 10 P(x=2) = P( i=1 i) ∑ P( 9 10 = i=1 i) = 10·(1/5)²·(4/5)³ = 0,2048 ≈ 20,5% b) Als nächstes verallgemeinern wir den Anteil der weißen und schwarzen Kugeln auf p und q und lassen die Zufallsvariable X allgemein. n sei weiterhin 5. Dann gilt analog zu den Überlegungen zu a): Anzahl der Anordnungen: P5(x ;5-x) = f(x) = P(X=x) = c) 5 x 5-x ( x) p q Verallgemeinern wir noch die Anzahl der Züge auf n, dann folgt: Die Wahrscheinlichkeit, daß unter n Zügen x Erfolge sind, ist: f(x) = präzise: 9 5 ( x) n x n-x ( x) p q f(x) = P(X=x) = î 0 n x n-x ( x) p q für x = 0, 1, 2, ... , n sonst zu Summenereignis vgl. Seite 8 Statistik Seite 21 Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen ✎ Als Beispiel soll die Qualitätsprüfung eines Produktionsprozesses dienen, von dem bekannt ist, daß 0,1% Ausschuß unter der Ware ist. Es soll sich um eine Diodenproduktion handeln, bei der 10 Dioden geprüft werden und die Wahrscheinlichkeitsfunktion f(x) gesucht ist. Da die Menge der produzierten Dioden sehr groß ist, tritt Fall b) der o.a. Hinweise ein. x n = 10; p = 1/1000 => f(x) = 10-x 10 1 999 ( x ) ·î 1000 ·î 1000 Die Wahrscheinlichkeit, daß mindestens eine davon defekt ist, ist: P( X ≥ 1) = 1 - P( X = 0) ≈ 1 - 0,99 = 0,01 = 1% Zur Kontrolle soll noch die Summe der Wahrscheinlichkeiten aller Realisierungen von X betrachtet werden; diese muß ja bekanntlich 1 sein: n P( X < ∞) = ∑ f(x) x=0 n = ∑ ( nx) px qn-x = (p+q)n = 1n = 1 q.e.d. x=0 Binomischer Satz! ✎ Als zweites Beispiel soll ein Produktionsprozeß betrachtet werden, der auf 4 gleichartigen Maschinen läuft, von denen die statistischen Ausfälle bekannt sind: Ai : Ausfall der i-ten Maschine (relative Ausfallzeit) P(Ai) = p : Ausfallrate oder -Risiko, p betrage 5% (Statistisch: Erfolg!) P(Ai) = q : Zuverlässigkeit X = x : Gleichzeitiger Ausfall von x der vier Maschinen => P( X = x ) = 4 ( x ) px q4-x Es seien mindestens drei Maschinen in Ordnung, d.h. es ist höchstens eine defekt, dann gilt für diese Wahrscheinlichkeit: P(X ≤ 1) = f(0) + f(1) ≈ 98,6% Entsprechend gilt für die Wahrscheinlichkeit, daß gleichzeitig mehr als eine Maschine defekt ist: P (X ≥ 2) = 1 - P(X ≤ 1) ≈ 1,4% 6,7 Min. bei einer 8 Std.-Schicht => ( => Aufg. 3.4. bis 3.7.) Diese Beispiele zeigen die Bedeutung der Statistik in betriebswirtschaftlichen Überlegungen. Die Binomialverteilungen zeigen bestimmte Eigenschaften auf: a) Symmetrie: Zu einem daß gilt: f1(x) = f1(x) mit n, p1, q1 läßt sich ein f2(x) mit n, p2 = q1= 1- p1, q2 = p1 konstruieren, so f2(n-x) Beweis: f2(n-x) = n n n n n-x n-x x n-(n-x) = ( x) q1 ·p1 , da ( n-x) = ( x) q.e.d. ( n-x) p2 q2 n n für p = ½ : Behauptung: f( 2 - x) = f( 2 + x) => f(y) = f(n-y) = mit: n n 2 - x = y => x = 2 -y n n y n-y n ( n-y) ·(½) ·(½) = ( y) ·(½) = f(y) b) Rekursionsformel: Zur einfachen Berechnung von f(x) gilt folgende Rekursionsformel: f(0) f(x+1) 22 = qn n-x p = x+1 · q · f(x) Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen Beweis: f(x+1) = î n px+1 qn-(x+1) x+1 n! = (x+1)! (n-[x+1])! ·p·px · qn-x-1 p n! = x!·(x+1)·(n-x-1)! · q· px · qn-x n! n-x p = x+1 q x!·(n-x)! n-x p = x+1 · q · f(x) q.e.d. c) Maximaler Funktionswert: f(xmax): Allgemein folgt aus der Rekursionsformel ( siehe n-x p n-x p n-x scheinlichkeitsfunktion f(x) für x+1 · q > 1 steigt und für x+1 · q < 1 sinkt. Für x+1 Maximum auf: <=> <=> => n-x p x+1 · q = 1 (n - x) p = (x+1) q np - q = qx + px xmax = np - q b) ), daß die Wahrp · q = 1 zeigt sie ein , da q + p = 1 Da np - q nicht unbedingt ∈ INo sein muß, gilt für die Zufallsvariable xmax mit dem maximalen Funktionswert: Die kleinste Zahl x ∈ INo mit x ≥ np - q führt zu einem Maximum von f(x). Falls np - q ∈ INo => f(np - q) = f(np - q + 1) => Maximum von f(x) zu zwei Variablen. ✎ z.B.: n = 8: α) p = 0,1 np-q = 0,8 - 0,9 = -0,1 => xmax = 0 β) p = 0,25 np-q = 2 - 0,75 = 1,25 => xmax = 2 γ) np-q ∈ INo => f(np-q) = f(np-q+1) : Maxima für n = 8 => p = 2/9 => np-q = 16/9 - 7/9 = 1 f(1) = f(2) : Maxima => d) Verteilungsfunktion: P(X≤x) = F(x) = ∑ f(k) x ∑ ( nk) = k≤x pk qn-k k=0 Hierzu gibt es keine einfache Summenformel => Tabellen benutzen ✎ z.B.: Ziehen je einer Karte aus sechs Skatspielen. X : Anzahl gezogener Asse => p = 4/32 = 1/8 : mindestens 2 Asse P( ) = P(X≥2) = 1-P(X≤1) mit n = 6 6 10 76 6 11 75 î 0·î 8 ·î 8 + î 1·î 8 ·î 8 = 1-î = 1 - 0,833 = 16,7% e) Kennzeichnung: Die Funktionen zur Binomialverteilung werden im Folgenden mit einem B als Index gekennzeichnet: P(XB = x) = fB(x, n, p) Statistik Seite 23 Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen f) Für den Mittelwert und die Varianz der Binomialverteilung gelten folgende Formeln: ∞ n n x n-x = µ = E(XB) = x î x p q x·fB(x) = np ∑ ∑ x=0 σ² = V(x) = E[(x-µ)²] = x=0 n n x=0 x=0 ∑ (x-µ)²·fB(x) = ∑ x² f(x) - µ² = npq (=> Aufg. 3.1. bis 3.15.) Die Binomialverteilung baut auf dem BERNOULLI - Experiment mit Zurücklegen auf. Für ein entsprechendes Experiment ohne Zurücklegen gilt die sogenannte hypergeometrische Verteilung : Befinden sich in einer Modell-Urne N Kugeln, darunter M weiße (und N-M schwarze) dann gilt auch hier für die Einzelerfolgswahrscheinlichkeit: M p = N Bezeichnet die Zufallsvariable X die Anzahl der Erfolge beim Ziehen von n Kugeln (n ≤ N) , dann gilt für die Wahrscheinlichkeitsfunktion fH(x): î M·N-M x î n-x fH(x) = P(XH=x) = î N x ≤ M, x ≤ n n Die praktische Bedeutung der recht aufwendigen hypergeometrischen Verteilung ist gering, da sie sich für eine große Grundgesamtheit N der Binomialverteilung gut nähert und im Grenzfall sogar gilt: lim fH(x) = fB(x) N→∞ 3.3. POISSON - Verteilung 10 Als Einführungsbeispiel soll der radioaktive Zerfall dienen. Dabei sei zunächst von einer Masse - Halbwertszeit - Kombination ausgegangen, aus der sich eine durchschnittliche Zerfallsrate von einem Zerfall pro Sekunde ergibt. Der Zerfallsprozess läßt sich dann als BERNOULLI-Experiment deuten, wenn man beispielsweise eine Sekunde in 10 Teilintervalle von 1/10 sec. unterteilt, in denen durchschnittlich in 1 Teilintervall ein Erfolg im statistischen Sinne (=Zerfall) und in 9 Teilintervallen kein Erfolg stattfindet. Die Einzelerfolgswahrscheinlichkeit beträgt also p = 1/10 Da die Zerfallsprozesse unabhängige Ereignisse darstellen, ist auch diese Forderung des BERNOULLI - Experimentes erfüllt. Bezeichnen wir nun die Anzahl der Teilintervalle mit Erfolg mit X, dann gilt mit n = 10 und p = 1/10 : P(X=x) = fB( x, n=10, p=1/10 ) 1. Erweiterung Die Anzahl der Teilintervalle pro Sekunde wird allgemein auf n erweitert, so daß folgt: => P = 1/n bei n Zügen 1 => P(X=x) = fB(x, n, p= /n ) 10 24 S.D.POISSON, 1837 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen Für große n (d.h. kleine Teilintervalle) ist die Wahrscheinlichkeit maximal mit x = np - q x = n·1/n - n-1/n = 1-1+1/n = 1/n => => xmax = 1 ( n>1! ) ( Das x maximaler Wahrscheinlichkeit ist ja das kleinste x∈INo mit x≥np-q und q=1-p . ) - für die Grenzfälle x = 0: P(X=0) = î n·p0·qn-0 = qn = (1 - 1/n)n 0 lim ( 1 - 1/n )n = e-1 => 11 n→∞ und x = n (0 ≤ x ≤ n): P(X=n) = î n·pn·qn = pn = (1/n)n n lim (1/n )n = lim e-n ln(n) = 0 => n→∞ n→∞ 2. Erweiterung Es sollen allgemein µ Zerfallsprozesse pro Sekunde (im Durchschnitt) stattfinden, dann gilt auch hier für n Teilintervalle mit ∆t = 1/nsec. für n » µ: Einzelerfolgswahrscheinlichkeit: p = µ/n P(XB=x) = fB (x, n, µ/n) => µ µ µ n·n - î 1 - n = µ - 1 + n xmax = µ (analog zur 1. Erweiterung) P(x=0) = n 1 - µ = qn î n n n lim 1 - µ = lim 1 + 1 = e-µ n -n n→∞ n→∞î µ î => 12 n P(x=n) = µ = pn î n n lim µ = lim en (lnµ - lnn) = 0 n→∞î n n→∞ => Ergebnis: Die POISSON-Verteilung ist der Grenzwert der Binomialverteilung mit lim fB(x) und µ = n·p = const. n→∞ Mit Hilfe der Grenzwertrechnung definiert man als Wahrscheinlichkeitsfunktion der POISSONVerteilung: µx fP(x, µ) = lim fB(x, n, µ/n ) = x! · e-µ n→∞ mit fp(x) > 0 für x ∈ INo 13 Anwendungen: "Warteschlangenmodelle" 11 12 13 vgl. Mathematik "Methoden der Grenzwertberechnung", 2c vgl. Mathematik "Methoden der Grenzwertberechnung", 2c n! lim µx Mit "STERLING'scher Formel" lim => x! = 0 => P(X=n) = 0 n n→∞ x→∞ n 2πn·î e Statistik Seite 25 Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen Daraus ergeben sich einige Eigenschaften der POISSON-Verteilung bzw. deren Funktion: a) fP(0) = e-µ b) f (x, x→∞ P c) P(X<∞) = lim µ) = 0 lim ∞ F(x) = x→∞ ∑ x=0 fP(x, µ) = 1 lim mit: ∞ F(x)= x→∞ ∑ µx! · e-µ x x=0 ∞ = e-µ· x F(x) = P(XP≤x) = d) e) ∑ ∑ µx -µ µ x! = e ·e = 1 x=0 ∞ xn [Taylor-Reihe: Σ n=0 n! = ex ] x f(t) = e-µ · t=0 ∑ µt t! => t=0 Tabelle (Verteilungsfunktion) E(XP) = µ V(XP) = σP² = µ Anmerkung: Als Mittelwert stellt sich tatsächlich der Wert der durchschnittlichen Ereignisse pro (Zeit -) Einheit heraus; die Einführung des Buchstabens µ für diesen Wert findet hier Ihre Begründung. f) fP(x+1) = µ/x+1 · fP(x) Rekursionsformel: und fP(0) = e-µ x ∈ INo xmax ≈ µ => Die POISSON-Verteilung stellt einen Grenzfall der Binomialverteilung dar. Für große n kann die Binomialdurch die POISSON-Verteilung gut angenähert werden. Daß dadurch der rechentechnische Aufwand erheblich geringer ist, soll das erste Beispiel verdeutlichen: ✎ Beispiel 1:14 Es sei bekannt, daß 0,005% einer Bevölkerungsgruppe jährlich durch einen gewissen Unfall getötet werden. In einer Versicherung sind 10.000 Personen dieser Risikogruppe gegen diesen Unfall versichert. Gesucht ist die Wahrscheinlichkeit, daß in einem gegebenen Jahr mehr als drei dieser Versicherten durch den genannten Unfall umkommen. p = 0,00005 = 5·10-5 µ = n·p = 0,5 => => n = 10.000 x>3 Mit Hilfe der Binomialverteilung errechnet sich diese Wahrscheinlichkeit wie folgt: P(XB>3) = 1 - P(XB≤3) = 1 - [fB(0) + fB(1) + fB(2) + fB(3)] = 1 - ( (1-p)10.000+( 10.000 9.999+ 10.000 p²(1-p)9.998+ 10.000 p³(1-p)9.997 ( 2 ) ( 3 ) ) 1 ) p(1-p) ≈ 0,18% 14 26 vgl. KREYSZIG 43.6 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen Mit der Poissonverteilung als guter Näherung (n » µ) ist der Rechenaufwand wesentlich geringer: 0,5² 0,5³ -0,5 P(XP>3) = 1 - P(XP≤3) = 1 - ≈ 1 - 0,9982 = 0,18% î 1 + 0,5 + 2! + 3! ·e Da wir es hier ausnahmslos mit großen n und kleinen p zu tun haben (µB = n·p), spricht man auch von seltenen Ereignissen. Anmerkung: Bei einer Verdoppelung der versicherten Personen auf 20.000 steigt die Wahrscheinlichkeit, daß mehr als drei Personen davon verunglücken, auf ca. 1,9% und verdoppelt sich nicht etwa, wie ja vielleicht zu erwarten wäre (-> siehe auch Einstieg in die Exponentialverteilung). Oft soll mittels einer Stichprobe auf die Verteilungsform einer Grundgesamtheit geschlossen werden. Die POISSON-Verteilung ist durch µ eindeutig bestimmt. Als Schätzwert für µ dient der Mittelwert x̄ der Stichprobe. ( x̄ ist "erwartungsgetreu" bezüglich µ .) Dazu ein Beispiel: ✎ Beispiel 2: Von 10 preußischen Regimentern wurden seinerzeit über 20 Jahre hinweg die Anzahl der durch Hufschlag getöteten Soldaten statistisch erfaßt (Leipzig 1898) 15. X : Anzahl der getöteten Soldaten pro Regiment und Jahr m ∑ 1 x̄ = n· ki·xi ≈ 0,61 i=1 (µ, x̄: Durchschnittl. Anzahl getöteter Soldaten pro Regiment und Jahr) 1 s² = n-1· kixi²-n·x̄² = 196-200·0,61²:199 = 0,611 ≈ x̄ î i=1 m ∑ (Dies ist ein erstes gutes Indiz für eine POISSON-Verteilung.) Die Tabelle zeigt die fast perfekte Übereinstimmung zwischen der Stichprobe und der POISSONVerteilung, wenn man als "Grundeinheit" das Produkt aus Regimentern und Erfassungsjahren (=200) zugrunde legt: x kStpr(x) hStpr(x) fP(x) 0 109 0,545 0,5434 1 65 0,325 0,3314 2 22 0,110 0,1011 3 3 0,015 0,0206 4 1 0,005 0,0031 ≥5 0 0 0,0004 ✎ Beispielaufgabe: P(x>10) = 1- P(x≤10) = 1 - F(10;µ=5) = 1 - 0,9863 = 0,0137 = 1,4% ( F(x,µ) aus Tabelle zur POISSONverteilung ) 15 vgl. KREYSZIG Tab. 43.1. Statistik Seite 27 Teil II: Elemente der Wahrscheinlichkeitstheorie * 3. Diskrete Standardverteilungen ✎ Beispielaufgabe: p = 0,002 n = 100 E(XB) = n·p = 0,2 POISSON: f(0) = î Binomial: e-0,2 100·0,0020·0,998100 = 0,819 = 81,9 % î 0 ( => Aufg. 3.16. bis 3.21 ) Zur Approximation der Binomialverteilung durch die POISSON-Verteilung : Binomialverteilung x n = 4 p = 1/4 n = 8 p = 1/8 n = 100 p = 1/100 0 1 2 3 4 5 0.3164 0.4219 0.2109 0.04688 0.003906 - 0.3436 0.3927 0.1963 0.0561 0.01002 0.001145 0.366 0.3697 0.1849 0.061 0.01494 0.002898 POISSONVerteilung µ = 1 0.3679 0.3679 0.1839 0.06131 0.01533 0.003066 Wahrscheinlichkeitsfunktion der POISSON-Verteilung für die Mittelwerte µ = 0,5 ; µ = 1; bzw. µ = 3: Zusammenfassung: a) POISSON-Verteilung als "Grenzfall" der Binomialverteilung für n→∞ ∧ µ = n·p = const b) Anwendungen: α) POISSON-Modelle (z.B. Atomzerfall oder Photo-Multiplier) β) Näherungsberechnung zu Binomialverteilung, wenn n groß und p klein ist (seltene Ereignisse). (Bei der Computersimulation von Binomialverteilungen ist das große n oft ein Problem). 28 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung 4. Stetige Verteilung 4.1. Exponentialverteilung als einführendes Beispiel Zur Einführung in die stetigen Verteilungen wollen wir uns die (unstetige) POISSON-Verteilung mit dem Beispiel des radioaktiven Zerfalls noch einmal ansehen: µx P(XP,1=x) = x! e-µ Dabei bedeutete µ die durchschnittliche und X die zufällig realisierte Anzahl der Zerfälle pro Zeiteinheit. Als nächstes Verdoppeln wir die Zeiteinheit, so daß jetzt 2µ Zerfallsprozesse pro (neuer) Zeiteinheit stattfinden: P(XP,2=x) = (2µ)x -2µ x! · e Entsprechend gilt für die Erweiterung auf eine t-fache Zeiteinheit (d.h. t Zerfallsprozesse pro Zeiteinheit): P(XP,t=x) = (tµ)x -tµ x! · e Die Wahrscheinlichkeit, daß in der Zeit t kein Zerfall stattfindet, beträgt dann: P(XP,t=0) = e-tµ Die Zeit t ist also kleiner als die Zeit T, die zwischen zwei Prozessen vergeht, da ja kein Prozeß stattfindet: t < T Wir führen daher eine neue Zufallsvariable T ein, wobei T die Zeit zwischen zwei Prozessen darstellt. Damit läßt sich jetzt die Wahrscheinlichkeit für keinen Zerfall auch wie folgt schreiben: => P(T>t) = P(XP,t=0) = e-tµ P(T≤t) = 1 - P(T>t) = 1 - e-tµ Wir haben jetzt mit T eine stetige Zufallsvariable "gewonnen", denn die Zeit T kann ja alle Werte von 0 bis ∞ realisieren. Aus der so erhaltenen Exponentialfunktion ergeben sich einige Schlüsse: T ist immer positiv ( T ∈ IR+ ), denn negative Werte für T würden voraussetzen, daß Prozeß 2 vor Prozeß 1 stattfindet, was definitionsgemäß ausgeschlossen ist. Für die Verteilungsfunktion F(t) gilt: => F(t) = P(T≤t) = 1 - e-tµ > 0 1 - e-tµ für t ≥ 0 F(t) = 0 sonst î Die Verteilungsfunktion ist jetzt eine stetige Funktion und keine "Treppenfunktion" mehr wie bei den diskreten Wahrscheinlichkeitsverteilungen. Sie ist gleich der Wahrscheinlichkeit, daß t größer oder gleich dem zeitlichen Abstand T zweier aufeinanderfolgender Prozesse ist. Im Zusammenhang mit der stetigen Zufallsvariable T sagt man auch: "T ist exponentialverteilt". Statistik Seite 29 Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung Für F(t) ergeben sich einige Eigenschaften, die wir näher untersuchen wollen: a) T ≤ 0 ist ein unmögliches Ereignis ( da T ∈ IR+ ) => P(T≤0) = F(0) = 0 oder allgemein: Für T ∈ IR- folgt F(t) = P(T≤t) = 0 b) T < ∞ ist dagegen ein sicheres Ereignis und daher 1: P(T<∞) = lim P(T≤t) = lim F(t) = lim (1 - e-tµ) = 1 t→∞ t→∞ t→∞ es sei t1 < t2 ∈ IRo : c) => P(T≤t2) = P(T≤t1 v t1<T≤t2) = P(T≤t1) + P(t1<T≤t2) P(t1<T≤t2) = P(T≤t2) - P(T≤t1) = F(t2) - F(t1) da gegenseitig ausschliessend ! Da F(t) stetig ist, ist die Funktion auch differenzierbar, weshalb wir schreiben: t2 t2 F(t2) - F(t1) = F'(t) dt = ⌠ f(t) dt ⌠ ⌡ ⌡ t1 t1 µ·e-µt mit F'(t) = f(t) = î 0 für t ≥ 0 sonst Aus P(t1≤T<t2) = F(t2) - F(t1) = t2 f(t) dt ⌠ ⌡ t1 folgt: lim P(t ≤T<t ) = P(T<t ) = 1 2 2 t1→−∞ t2 f(t) dt ⌠ ⌡ −∞ Dabei stellt f(t) keine Wahrscheinlichkeitsfunktion, wie wir sie von den diskreten Verteilungen kennen, dar(!!) : f(t), das immer größer Null ist ( für t, µ ∈ IR+ ) gibt vielmehr eine Funktion an, deren Flächenausschnitte Wahrscheinlichkeiten proportional sind: Wir werden etwas später noch auf die Interpretation von f(t) zurückkommen. d) Aus der Integralvorstellung folgt, daß wir im Gegensatz zu den diskreten Wahrscheinlichkeiten mit den kleiner/gleich-, größer/gleich- und kleiner-, größer-Zeichen lockerer umgehen können, da, wie leicht einzusehen ist, gilt: bzw.: 30 P(T≤t) = P(T<t) P(T≥t) = P(T>t) Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung ✎ Im folgenden Beispiel gehen wir von durchschnittlich einem Zerfall pro Jahr ( µ = 1 ) aus. Dabei suchen wir die Wahrscheinlichkeit P(to<T≤to+∆t) wobei ∆t = 1/4 Jahr sein soll. Im ersten Fall sei to = 0, dann wird die Wahrscheinlichkeit gesucht, daß die Zeit für zwei aufeinanderfolgende Prozesse kleiner oder gleich 1/4 Jahr ist: P(T≤1/4) = F(1/4) = 1 - e-1/4 ≈ 22,1% Im zweiten Fall soll to = 1 sein, so daß die Wahrscheinlichkeit, daß die Zeit für zwei aufeinanderfolgende Prozesse zwischen 1 und 11/4 Jahr beträgt, gesucht wird: P(1≤T≤5/4) = F(5/4) - F(1) = 1-e-5/4 - (1 - e-1) = e-1·(1 - e-1/4) ≈ 8,1% => Die Wahrscheinlichkeit, daß zwei Prozesse relativ schnell (in einer Zeit ∆t) aufeinander folgen, ist größer als die Wahrscheinlichkeit, daß diese Zeit zwischen einer bestimmten Zeit to und to+∆t liegt (oder "anders" gesagt: "Ein Unglück kommt selten allein."). Zu f(t) müssen wir noch einige Aussagen machen: Für T = to folgt im Gegensatz zu diskreten Verteilungen: t0 P(T=to) = ⌠ f(t) dt = 0 ⌡ t0 T = to ist jedoch kein unmögliches Ereignis! Eine (von Null verschiedene) Wahrscheinlichkeit läßt sich bei stetigen Verteilungen also nur in Intervallen angeben. Diese Intervalle können wir mit Hilfe des Mittelwertsatzes der Integralrechnung auch anders ausdrücken: Es existiert (mindestens) ein t*, für das gilt: t2 mit t1 ≤ t* ≤ t2 F(t2) - F(t1) = ⌠f(t) dt = f(t*)·(t2 - t1) ⌡ t1 => P(to<T≤to+∆t) = t0+∆t ⌠ f(t) dt = f(t*)·∆t ⌡ t0 Näherungsweise läßt sich bei kleinem ∆t für t* auch einfach das arithmetische Mittel verwenden: t* ≈ ¯t = to + ½·∆t ✎ Wie wir an unserem obigen Beispiel feststellen können, reicht diese Näherung in den meisten Fällen gut aus: (Fall 1; µ = 1; t0 = 0) F(1/4) ≈ f(1/8)·1/4 = 1/4·e-1/8 ≈ 22,1% f(t) heißt auch Wahrscheinlichkeitsdichte oder Dichtefunktion zu T. (=> Aufg. 4.1. bis 4.4) Da die Verteilungsfunktion F(t) monoton wachsend ist, gilt für f(t) : f(t) ≥ 0 Statistik Seite 31 Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung e) Maßzahlen einer stetigen Zufallsvariablen X ∞ sicheres Ereignis: P(X<∞) = f(x) dx = 1 ⌠ ⌡ -∞ ∞ x·f(x) dx ⌠ ⌡ Mittelwert: µ = Varianz: -∞ ∞ σ² = ⌠ (x-µ)²·f(x) dx falls die Integrale existieren ⌡ -∞ ∞ - Erwartungswert zu g(x): E[g(x)] = g(x)·f(x) dx ⌠ ⌡ -∞ Für g(x) = x folgt entsprechend: E[g(x)] = E(X) = µ und für g(x) = (x-µ)² gilt: 16 V(x) = E[(x-µ)²] = σ² Linearität: E[a·f(x) + b·g(x)] = a·E[f(x)] + b·E[g(x)] Für welches t50% ist bei gegebener F(t) = 1 - e-µt die Wahrscheinlichkeit P(T≤t50%) = ½ ? => => => z.B.: F(t) = 1 - e-µt = ½ e-µt = ½ -µt = ln(½) 0,7 1 t50% = µ·ln2 ≈ µ für µ = 1 ist t50% = 0,7 1 ( zum Vergleich: eine Rechner-Simulation ergab mit gesamt 3457 im Abstand < µ 2127 = 61,5% ) (=> Aufg. 4.5) ∞ 16 E[(x-µ)²] = E[x²] - E[2xµ] + E[µ²] = E[x²] - 2µ·µ + µ² = E[x²] - µ² = x² f(x) dx - µ² ⌠ ⌡ -∞ 32 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung 4.1.1. stetig gleichverteilte Zufallsvariable a) Einstieg: diskrete gleichverteilte Zufallsvariable EW , EU49 (49 Kugeln), EUN (N Kugeln) EUN: Kugeln numeriert von i = 0 bis N-1, dann ist XG,N : i N diskret gleichverteilt i 1 => P(XG,N = N) = N i => lim P(XG,N = N) = 0 N→∞ ✎ z.B.: N = 1000: Es sei X ∈ [0;1[ : 0,001; 0,002; .. ; 0,010; .. N = 10k: sämtliche Dezimalzahlen mit max. k Nachkommastellen ∑ ∑ 1 1 1 = N· 1 = N·X·N = X N i≤X·N N≤X lim FG,N(x) = lim P(XG,N≤x) = x FG,N(x) := P(XG,N≤x) = N→∞ i/ N→∞ für x ∈ IR : 0 lim FG,N(x) = x N→∞ î 1 für x < 0 für 0 ≤ x < 1 für x ≥ 1 DEFINITION: XG gleichverteilt um Intervall [0;1): Mit x ∈ IR und (zunächst) 0 ≤ x < 1 heißt XG stetig gleichverteilt im Intervall [0;1), falls für x < 0 0 P(XG<x) = x für 0 ≤ x < 1 î 1 für x ≥ 1 => P(XG=x) = 0 => P(XG≤x) = P(XG<x) FG(x) := P(XG≤x) Dichtefunktion zu XG: => f(x) := FG'(x) 1 für 0 ≤ x < 1 f(x) = 0 sonst î Die "Random"-Funktion in PASCAL kann man (näherungsweise) als stetig gleichverteilt ansehen (XG:=random). Statistik Seite 33 Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung b) "linerare Transformation" von XG ( XG stetig, gleichverteilt in [0;1) ) YG = a·XG + b mit a ∈ IR\{0} ∧ b ∈ IR ( a = 0 => YG = b !) ( Dies kann z.B. in PASCAL durch YG:= a*random+b realisiert werden. ) => YG,min = b => YG,max ≈ a + b ( YG ∈ [b;a+b) ) Im folgenden schreiben wir für YG zur Vereinfachung Y. α) P( y1 ≤ Y ≤ y1+∆ ) = P( y2 ≤ Y ≤ y2+∆ ) = [y1; y1+∆) ⊆ [b;a+b) ; β) P( y1 ≤ Y ≤ y1+2∆ ) = P( y1 ≤ Y ≤ y1+∆ ∨ y1+∆ ≤ Y ≤ y1+2∆ ) = P( y1 ≤ Y ≤ y1+∆) + P( y1+∆ ≤ Y ≤ y1+2∆ ) = 2·P( y1 ≤ Y ≤ y1+∆ ) P( y1 ≤ Y ≤ y1+½∆ ) = ½·P( y1 ≤ Y ≤ y1+∆ ) allgemein: P( y1 ≤ Y ≤ y1+α∆ ) = α·P( y1 ≤ Y ≤ y1+∆) für α ∈ IR+ γ) mit P( b ≤ Y ≤ b+a ) = 1 β lineare Funktion von β => P( b ≤ Y ≤ b+β ) = a [y2; y2+∆) ⊆ [b;a+b) δ) P(Y<y) = FG(y) FG(y) = î 0 y-b a 1 für y < b für b ≤ y < b+a für y ≥ b+a => Dichtefunktion zu y: => fG(y) = FG'(y) = î 1/ a 0 für b < y ≤ b+a sonst y-(b+½·a) 1 = a·rect î a Die Fläche bleibt 1! ✎ Anwendungsbeispiel: 34 P( α ≤ Y ≤ β ) = β−α a = (β−α)·fG(y) Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung ε) Folgerung: Würfelsimulation in PASCAL P( i ≤ Y < i+1 ) = Y = 6·XG + 1 => PASCAL: bzw. β−α 1 a = 6 Y:= trunc(6*random+1) Y:= trunc(6*random)+1 (=> Aufg. 4.6.) c) Wichtige Unterschiede zwischen stetigen und diskreten Zufallsvariablen diskret: Wahrscheinlichkeitsfunktion zu X = xi f(x) stetig: Dichtefunktion zu X î stetig: Wahrscheinlichkeit bzgl. X nur in Intervallen angebbar ✎ z.B.: P( x1 ≤ X ≤ x2 ) mit x1 < x2 , da P(X=x1) = 0 P( x1 ≤ X ≤ x2 ): Fläche unter f(x) in I = [x1;x2] Beh.: diskret: siehe oben und Seite 16 Λ f(x)≥0 x∈IR î d) α -Potenzverteilung a·xα f(x) = î 0 stetig: => => => => => für a<b P(X<b) = P( X<a ∨ a<X<b ) = P(X<a) + P(a<X<b) P(X<b) ≥ P(X<a) F(b) ≥ F(a) F(x) ist monoton wachsend f(x) = F'(x) ≥ 0 wenn F(x) stetig für 0 ≤ x < 1 mit a ∈ IR+ sonst hier: α = 2 α) 1 1 a a = 3 1 = P(X<∞) = a⌠x²dx = 3·x³ x=0 ⌡ | 0 β) => a = 3 => f(x) = 3x² F(x) = ⌠f(x) dx = 3⌠x²dx = x³ ⌡ ⌡ 0 für x < 0 y-b => P(X≤x) = F(x) = a für 0 ≤ x < 1 î 1 für x ≥ 1 γ) δ) 1 3 |1 3 = 4 µ = E(x) = 3⌠x³dx = 4·x4 x=0 ⌡ 0 1 | 1 3 3 9 3 σ² = V(x) = 3⌠x4dx - µ² = 5·x5 - µ² = 5 - 16 = 80 x=0 ⌡ => σ = ¼· 3 5 0 µ+σ ε) ξ) ⌠ ⌡ f(x)dx = x³ P(µ-σ ≤ X < µ+σ) = µ+σ |x=µ= 0,668 σ µ-σ Es sei Y := 1 - random als gleichverteilt angenommen. => 0 < Y ≤ 1 Behauptung: X = 3 Y ist α-potenzverteilt mit α = 2. 3 <=> X = Y Es sei 0 ≤ a < b ≤ 1, dann folgt P(a ≤ Y < b) = b-a Statistik Y = X3 eindeutig, da Y = X3 streng monoton Seite 35 Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung Beweis: P(a ≤ Y < b) 3 3 = P(a ≤ X³ < b) = P( a ≤ X < b) = P(α ≤ X < β) = F(β) - F(α) = β³ - α³ = b-a q.e.d. e) Simulation der Exponentialverteilung Die folgenden Überlegungen führen zu einer Simulation exponentialverteilter Zufallsvariablen unter der Voraussetzung, daß (andere,) gleichverteilte Zufallsvariablen erzeugt werden können. Dieser Fall tritt z.B. (näherungsweise) bei der "random - Funktion" auf. Diese erzeugt die im Intervall [ 0; 1[ gleichverteilte (und als stetig anzusehende) Zufallsvariable X. Wahrscheinlichkeits- und Verteilungsfunktion sehen dann wie folgt aus: 1 für 0 ≤ x < 1 => f(x) = î 0 sonst 0 für x < 0 F(x) = x für 0 ≤ x < 1 î 1 für x ≥ 1 => Für eine zweite Zufallsvariable X' soll gelten: X' = 1 - X , dann gilt wegen X ∈ [0;1[ : => X' ∈ ]0;1] Dabei ist auch X' ebenso gleichverteilt im Intervall ]0;1]. Für eine weitere Zufallsvariable X" soll gelten: X" = aX' mit a > 0 , dann gilt: X" ∈ ]0;a]. Auch X" ist selbstverständlich gleichverteilt im Intervall ]0;a]. => 1/a für 0 < X" ≤ a f(X") = î 0 sonst wobei für die Wahrscheinlichkeit gilt: Die Fläche bleibt 1! P( x1 ≤ X" ≤ x2 ) = 1/a (x2 - x1) Ist nun eine Zufallsvariable Y gleichverteilt in ] 0; 1] , dann gilt: X = - 1/µ ln(Y) ist exponentialverteilt ( mit dem Erwartungswert E(x) = µ ). e-µx F(x) = î 0 36 für x ≥ 0 sonst Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung b-a = = = = = = = = = Y = e-µx ist eindeutig, da streng monoton P(a ≤ Y < b) P(a ≤ e-µx < b) P(lna ≤ -µx < lnb) P(-1/µ lna ≥ x > -1/µ·lnb) P(-1/µ lnb < x ≤ -1/µ·lna) P(α < x ≤ β) e-µα − e-µβ (1-e-µβ) − (1-e-µα) F(β) - F(α) Y wird dann wie oben für X" beschrieben berechnet { y := (1 - Random) }. 4.2. Elementare Eigenschaften der Funktionen zur Normalverteilung a) Dichte- und Verteilungsfunktion Zur Normalverteilung ist fN(x) die Dichtefunktion und FN(x) die Verteilungsfunktion: fN(x) = σ 1 2π x-µ 2 -½· · e î σ mit x, µ ∈ IR und σ ∈ IR+ Für eine normalverteilte Zufallsvariable XN gilt: x 2 1 P(XN≤x) = FN(x) = σ 2π ⌠ -½·t-µ î σ dt ⌡e -∞ wobei dieses Integral bekanntlich nicht elementar zu berechnen ist! b) Eigenschaften von f(x) Grenzwert lim f(x) = 0 x→±∞ Maximum für f(xmax) f(xmax) = f(µ) = Wendepunkte: xw = µ ± σ ∞ Mittelwert: µ = 1 σ· 2π ⌠ ⌡ x·f(x) dx = E(x) -∞ ∞ Varianz: V(x) = ⌠ ⌡ (x-µ)²·f(x) dx = σ² -∞ c) Standardform der Normalverteilung Ist µ = 0 und σ = 1, Statistik Seite 37 Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung dann spricht man von der sogenannten Standardform der Normalverteilung. Diese vereinfacht sich zu: x 1 1 -½ x² ⌠ e-½ t² dt f(x) = e und F(x) = Φ(x) = 2π 2π ⌡ −∞ Die Verteilungsfunktion zur Standardform erhält also eine eigene Bezeichnung Φ. Da auch sie nicht einfach berechnet werden kann, muß man mit Tabellen oder Näherungspolynomen arbeiten. 17 d) Formeln für XN in Standardform ∞ ¡ P (x<∞) = 1 = lim Φ(x) e-½ t² dt = ⌠ ⌡ da x→∞ -∞ Achsensymmetrie: => Φ(0) = ½ => Φ(x) + Φ(-x) = 1 => • D(x) = Φ(x) - Φ(-x) => D(x) = P( -x ≤ XN,S ≤ x ) e) Wichtige praktische Größen der Standardform P( -1 ≤ X ≤ 1) = D(1) = 68,27% = P( -σ ≤ x ≤ σ ) D(2) = 95,45% D(3) = 99,73% P( -c ≤ X ≤ c ) = 95% => c = 1,960 P( -c ≤ X ≤ c ) = 99% => c = 2,576 f) Übergang von der Standardform zu X allgemein Für den Übergang von der Standardform zu X allgemein gilt: Sind µ, σ normalverteilt mit V(x) = σ² und E(x) = µ, dann gilt: x-µ F(x,µ,σ) = Φ( σ ) g) Wichtige praktische Größen für (µ;σ)-Verteilung P( µ-σ ≤ X ≤ µ+σ ) = 68,23% P( µ-2σ ≤ X ≤ µ+2σ ) = 95,45% P( µ-2,576σ ≤ X ≤ µ+2,576σ ) = 99% ( => Aufg. 4.7 .. 4.10) 17 18 38 Ein ähnliches Beispiel ist die "Error - Function": 1 x -½ t² dt erf(x) = · e 2π ⌠ ⌡ o Dann berechnet sich Φ(x) bei bekannter Errorfunktion nach: 1 Φ(x) = ½ 1 - erf î 2·x î vgl. Mathematikvorlesung Statistik 2π 18 Φ(x) = 1 - Φ(-x) XN,S = Standardfkt. Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung fN(x;0,1) = 1 e-½ x² 2π P( x1≤ X ≤ x1+∆x ) = F(x1+∆x) - F(x1) Nach dem Mittelwertsatz der Integralrechnung existiert ein x* mit x ≤ x* ≤ x +∆x 19 1 1 x1+∆x = ⌠ ⌡f(x) dx = ∆x·f(x*) x1 x1 + x1 + ∆x ∆x = x1 + 2 2 h) Näherungsberechnung zu P( x1 ≤ X ≤ x1+∆x ) durch die Dichtefunktion ≈ ∆x·f(x̄) mit x̄ = x1+∆x P( x1 < X ≤ x1+∆x ) = ⌠ ⌡ f(x) dx = f(x*)·∆x ∆x mit x* ≈ x1 + 2 x1 = bzw. ✎ Zahlenbeispiele: α) = ∆x 2π ·e -½ (x1+½∆x)² ∆x σ 2π x1+½∆x-µ² -½· σ î ·e für (0;1)-normalverteilt für (µ;σ)−normalverteilt (0;1)-normalverteilt Φ(1,1) - Φ(1,0) = 0,0230 P( 1,0 ≤ X ≤ 1,1 ) = 1 e-½ 1,05² · 0,1 = 0,0230 î 2π D(0,2) = 0,1585 P( -0,2 ≤ X ≤ 0,2 ) = 1 e0 · 0,4 = 0,1596 î 2π D(0,5) = 0,3829 1 P( -0,5 ≤ X ≤ 0,5 ) = e0 · 1 = 0,3989 î 2π Φ(4) - Φ(3) = 0,0013 P( 3 ≤ X ≤ 4 ) = 1 e-½ 3,5² · 1 = 0,0009 î 2π β) (µ;σ) = (1;5) 1,1-1,0 1,0-1,0 Φ - Φ î î 5 5 = 0,008 P( 1 ≤ X ≤ 1,1 ) = 1 1,05-1/5)² î · 0,1 = 0,008 e-½ ( 5· 2π 4-1 3-1 Φ - Φ î 5 = 0,0703 î 5 P( 3 ≤ X ≤ 4 ) = 1 3,5-1/5)² î ≈ · 1 = 0,0704 e-½ ( 5· 2π ✎ Abschließend wollen wir noch ein weiteres Beispiel betrachten:20 19 20 ¢ £ vgl. Kap. 4.1.1.d) vgl. KREYSZIG Beispiel 49.5 , Aufg. 4.14 Statistik Seite 39 Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung Eine Metallhobelmaschine stellt Platten her. Kein Produktionsvorgang ist so vollkommen, daß alle Stücke ganz gleich ausfallen. Material und Maschine bedingen eine gewisse Variabilität, die wir als zufällig ansehen müssen, weil sie durch winzige Störursachen bedingt ist, die wir gar nicht alle kennen, geschweige denn in ihrer Wirkung vorhersehen können. So läßt sich die Plattendicke X [mm] als Zufallsvariable auffassen, die von Platte zu Platte etwas andere Werte annimmt. X sei normalverteilt und habe bei einer bestimmten Maschineneinstellung den Mittelwert µ = 10mm und die Standardabweichung σ = 0,02mm. Wieviel Prozent Ausschuß sind dann zu erwarten, wenn die Platten a) mindestens 9,97mm stark sein sollen, b) höchstens 10,05mm stark sein dürfen und c) um maximal ± 0,03mm vom Sollwert 10mm abweichen dürfen. d) Wie muß man die Toleranzgrenzen 10-c und 10+c wählen, damit man nicht mehr als 5% Ausschuß erhält? e) Wie ändert sich der Ausschußprozentsatz für die in Frage (d) bestimmten Toleranzgrenzen, wenn sich µ (z.B. infolge Abnutzung des Hobelstahls) nach 10,01mm verschiebt? 9,97-10,00 a) P(X≤9,97) = Φ lt. Tabelle 3a î 0,02 = Φ(-1,5) = 0,0668 = 6,7% 10,05-10,00 b) P(X≥10,05) = 1-P(X≤10,05) = 1-Φ î 0,02 = 1 - Φ(2,5) = 1 - 0,9938 = 0,6% 10,03-10,00 9,97-10,00 = Φ(1,5) - Φ(-1,5) c) P(9,97 ≤ X ≤ 10,03) = Φ î 0,02 - Φî 0,02 = D(1,5) = 0,8664 Die Antwort lautet also 1-0,8664 = 13% d) 95% der Platten sollen Stärken zwischen 10-c und 10+c aufweisen. Demnach folgt: c = 1,96σ = 0,039 (vgl. Seite 38). Die Grenzen sind also 9,961mm und 10,039mm. 10,039-10,010 9,961-10,010 e) P(9,961≤ X ≤ 10,039) = Φ î 0,02 - Φî 0,02 = Φ(1,45) - Φ(-2,45) = 0,9265-0,0071 = 92% => Der zu erwartende Ausschuß erhöht sich auf 8%, also beträchtlich. (=> Aufg. 4.11 - 4.15) 4.3. Lineare Transformation von Zufallsvariablen gegeben: X (beliebig) a) allgemein: Y = g(X) (beliebige Funktion) ✎ z.B.: α1) W : XW Y wird definiert durch: g(x) = 2x + 8 mit Y = 2 XW + 8 => XW = 1, 2, 3, 4, 5, 6 => Y = 10, 12, 14, 16, 18, 20 ¤ α2) => XR ∈ [0;1[ (Random - Funktion in PASCAL) mit Y = 2 XR + 8 XR ∈ [0; 1[ => Y ∈ [8; 10[ β) y = γ) y = lnx x Allgemein spricht man bei Y = a·X + b mit a, b ∈ IR von einer linearen Transformation von X. Im folgenden werden wir uns auf diese Transformationen beschränken. 40 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 4. Stetige Verteilung b) Dichtefunktion g(y) sowie G(y) zu Y = aX + b bei stetig verteiltem X Die Dichtefunktion g(y) sowie G(y) zu Y = aX + b bei stetig verteiltem X soll ermittelt werden: Bekannt ist zu X: f(x); F(x) Gesucht wird Y → g(y); G(y) G(y) = P( Y ≤ y ) = P( aX+b ≤ y ) = P(aX ≤ y-b ) => α) für a > 0 gilt: => G(y) = P( X ≤ y-b/a ) = F( y-b/a ) d d g(y) = dyG(y) = dyF( y-b/a ) = 1/a·f( y-b/a ) β) für a < 0 gilt: => G(y) = P( X ≥ y-b/a ) = 1-P( X < y-b/a ) = 1 - F( y-b/a ) g(y) = -1/a·f( y-b/a ) γ) für a = 0 gilt: => y = b "Entartungsfall", da y = b ein sicheres Ereignis darstellt. δ) Zusammenfassung: Y = aX + b ε) Umkehrung: => F( y-b/a ) für a ∈ IR+ G(y) = 1 - F( y-b/ ) für a ∈ IRa î => f( y-b/a )·1/a für a ∈ IR+ dG(y) 1 y-b/ ) g(y) = dy = a - = /IaI · f( î -f( y-b/a )·1/a für a ∈ IR G(aX + b) für a ∈ IR+ F(X) = 1 - G(aX + b) für a ∈ IRî c) Transformation der Parameter µx , σx zu X Auf Seite 18 haben wir bereits den Erwartungswert kennengelernt. Er ist definiert ∞ für stetige Zufallsvariablen: E[g(x)] = ⌠ g(x)·f(x) dx ¥ ¦ ⌡ −∞ für diskrete Zufallsvariablen: E[g(x)] = ∑ g(x)·f(x) x Ebenso hatten wir bereits festgestellt, daß µx = E(x) und σ² = V(x) = E[(x-µx)²] ist. Somit folgt: µy = E[y] = E[ax+b] = a·E[x] + b = aµx + b σY² = E[(y-µy)²] = E[{(ax+b) - (aµx+b)}²] = E[a²(x-µx)²] = a²·E[(x-µx)²] = a² σx² => σy = IaI σx => V(y) = a² V(x) Statistik Seite 41 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung d) Bedeutung für die Normalverteilung Für die Normalverteilung bedeutet das: X(µ;σ): normal verteilt dann folgt: => und => Y = aX + b => => hier: hier: Y = x-µ = 1/σ·X - µ/σ σx mit µx 1 µy = E[Y] = ·µx = 0 σx σx σx² 1 σy² = V[Y] = ·V[X] = = 1 σx² σx² a = 1 σ und => E[Y] = 0 => V[Y] = 1 b = -µ σ y-b G(Y) = F î a F(X) = G(aX+b) und (ohne Beweis): y ist normalverteilt bzw. Y(0;1) ist normalverteilt G(Y) = Φ(Y) => µx 1 F(X) = Φ ·x - î σx σx x-µx F(X) = Φ î σx => Zusammenfassend können wir sagen: Ist X(µ;σ) normalverteilt, dann ist Y = x-µ/σ normalverteilt in Standardform und es gilt: FN(x, µ, σ) = Φ(x-µ/σ) Anwendung: X : gleichverteilt in [0;1) und a ∈ IR+ Y = aX + b => µ = ½ x µy = ½·a + b 1 σx² = 12 => 1 σx = 2 3 => a² σy² = 12 => a σy = 2 3 (=> Aufg. 4.16. bis 4.20.) 5. Eigenschaften der Normalverteilung Die Normalverteilung ist die wichtigste Verteilungsform in der Statistik. Ihre Bedeutung erhält sie zum einen aus der praktischen Anwendung bei Stichproben und der Fehlerfortpflanzung, worauf wir bei der Fehlerrechnung (5.4.) noch genauer eingehen werden, und zum anderen aus der Theorie als "Grenzverteilung" zur Binomial- und POISSONverteilung, als Grenzverteilung bei Summen von beliebig verteilten Zufallsvariablen und als Testverteilung (-> Kap. III, 1.). 5.1. Normalverteilung der Stichproben Bei Stichproben werden die Werte für den Mittelwert x̄ und die Standardabweichung s als "Schätzwerte" für die Parameter µ und σ der Normalverteilung eingesetzt. (Den Zusammenhang haben wir ja bereits im letzten Abschnitt kennengelernt.) 42 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung a) Nehmen wir als erstes Beispiel die Tabelle "Gewichte von 100 Luftpostumschlägen" 21 : Masse in g absolute Häufigkeit relative Summenhäufigkeit 1,80 1 0,01 1,81 0 0,01 1,82 1 0,02 1,83 1 0,03 1,84 1 0,04 1,85 1 0,05 1,86 1 0,06 1,87 2 0,08 1,88 3 0,11 1,89 5 0,16 1,90 7 0,23 1,91 6 0,29 1,92 8 0,37 1,93 8 0,45 1,94 9 0,54 1,95 4 0,58 1,96 11 0,69 1,97 3 0,72 1,98 4 0,76 1,99 3 0,79 2,00 7 0,86 2,01 2 0,88 2,02 4 0,92 2,03 5 0,97 2,04 1 0,98 2,05 2 1,00 Hierbei ergibt sich: x̄ = 1,944 g und s = 0,053125 g Aus Gründen der Übersichtlichkeit und zur besseren Annäherung an theoretische Verteilungen durch Kompensation von "Ausreißern" werden solche Stichproben üblicherweise zu Gruppierungen zusammengefaßt, indem mehrere Stichprobenelemente (hier drei) zu einem zusammengefügt werden: 22 Klassenintervall [ Masse in g ] 1,795..1,825 1,825..1,855 1,855..1,885 1,885..1,915 1,915..1,945 1,945..1,975 1,975..2,005 2,005..2,035 2,035..2,065 Klassenmittelpunkt [ Masse in g ] 1,81 1,84 1,87 1,90 1,93 1,96 1,99 2,02 2,05 Absolute Häufigkeit 2 3 6 18 25 18 14 11 3 Relative Summenhäufigkeit 0,02 0,05 0,11 0,29 0,54 0,72 0,86 0,97 1,00 Der Charakter der Verteilung bleibt dabei gleich, wobei wir uns den Beweis hier ersparen wollen. Durch die Gruppierung erhalten wir nun: x̄ = 1,9432 g und s = 0,0524526 g 21 22 § ¨ © ª vgl. KREYSZIG Tabelle 66.1 vgl. KREYSZIG Tabelle 66.2 Statistik Seite 43 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Die Abweichungen sind also praktisch vernachlässigbar. Der Vollständigkeit halber sei an dieser Stelle auf die Sheppard - Korrektur für die Standardabweichung hingewiesen. Diese Korrektur minimalisiert die Abweichungen bei Gruppierungen; für unsere Zwecke ist sie jedoch ohne Belang. Uns interessiert nun der Vergleich der Stichprobe mit der theoretischen Verteilung. Vergleichen müssen wir die (relative) Häufigkeit h mit der theoretischen Wahrscheinlichkeit, also: hi zu [xi , xi+1] n·hi = ki zu [xi , xi+1] bzw. vgl. mit vgl. mit P(xi≤X≤xi+1) n·P(xi≤X≤xi+1) In Tabellenform gebracht erhalten wir für unser Beispiel (n = 100, Werte gerundet): i xi xi - x̄ s -2,85 -2,27 -1,69 -1,12 -0,54 0,04 0,62 1,19 1,77 2,35 yi = 0 1 2 3 4 5 6 7 8 9 1,795 1,825 1,855 1,885 1,915 1,945 1,975 2,005 2,035 2,065 Φ(yi) 0,0022 0,0116 0,0455 0,1314 0,2946 0,4840 0,7324 0,8830 0,9616 0,9906 ∆Φ(yi) 0,0094 0,0339 0,0859 0,1632 0,1894 0,2484 0,1506 0,0786 0,0290 ∆x·fN,theor n·∆Φ(yi) ki 0,0087 0,0322 0,0854 0,1626 0,2218 0,2170 0,1521 0,0765 0,0276 0,94 3,39 8,59 16,32 18,94 24,84 15,06 7,86 2,90 2 3 6 18 25 18 14 11 3 Aus ∆Φ(yi) = Φ(yi+1) - Φ(yi) = FN(xi+1, µ, σ) - FN(xi , µ, σ) ≈ fN(x̄ i, µ, σ)·∆x mit x̄ i = Klassenmitte erhalten wir die in der fünften Spalte angegebenen Vergleichswerte (siehe Seite 39). Die in der sechsten Spalte angegebenen Werte berechnen sich aus der bekannten Formel der Normalverteilung (siehe Seite 37). 44 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Der folgende graphische Vergleich verdeutlicht auch nochmals die Notwendigkeit der Gruppierung: b) Als zweites Beispiel wollen wir einen Vergleich der Augensumme zu drei Würfeln (X3W) mit der Normalverteilung ziehen, d.h. P(X3W=i) soll mit P(i-½≤XN≤i+½) verglichen werden. Wir können dabei wie beim ersten Beispiel vergleichen, oder über die Verteilungsfunktion, also P(X3W≤i) mit P(XN≤i+½) gehen. (Beim letzten Weg muß bekanntlich µ3W = 21/2 und σ3W = ½ 35 eingesetzt werden (siehe Aufgabe). ) c) Schließlich gibt es noch die Möglichkeit, mit Wahrscheinlichkeitspapier zu vergleichen. Dieses Papier ist auf der Ordinate so eingeteilt, daß eine normalverteilte Funktion eine Gerade ergibt. Beim Auftragen der (Meß-) Punkte auf das Papier muß man darauf achten, daß diese auf die rechte Intervallgrenze aufgetragen werden, da alle Merkmalsausprägungen bis dorthin mitgezählt werden! Nach dem Einzeichnen der Ausgleichsgeraden können auf dem Papier x̄ und ±σ abgelesen werden. Für unser Beispiel bedeutet das (nach dem entsprechenden Beiblatt): x̄ grafisch = 1,94 x̄ theoretisch = 1,943 σgrafisch = 0,05 σtheoretisch = 0,052 Heute hat das Wahrscheinlichkeitspapier keine große Bedeutung mehr, da diese Aufgaben im Üblichen von Computern übernommen werden. (=> Aufg. 5.1. bis 5.3.) 5.2. Normalverteilung als Näherung zu Binomial- und POISSONverteilung Bereits auf Seite 25 haben wir die POISSONverteilung als Grenzwert (d.h. für die Praxis: Näherung) zur Binomialverteilung kennengelernt. Ähnlich können wir die Normalverteilung als Näherung zur Binomial- und damit auch zur POISSON-Verteilung auffassen. Es sei in Erinnerung gerufen, daß für eine binomialverteilte Zufallsvariable XB gilt: ¬ « E(XB) = µB = np V(XB) = σB² = nqp mit q = 1 - p Statistik Seite 45 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Vergleichen wir diese Eigenschaften mit einer normalverteilten Zufallsvariablen XN , dann gilt für die Wahrscheinlichkeiten (b ∈ INo): b+½-np P(XB≤b) ≈ P(XN≤b+½) = Φ î npq Mit dem Summand +½ wird bei der Normalverteilung dafür gesorgt, daß bis zum "rechten Klassenrand" alle Werte eingeschlossen sind, während b selbst die Klassenmitte von [ b-½ ; b+½ ] darstellt (-> Vgl. auch Wahrscheinlichkeitspapier). Von DE MOIVRE und LAPLACE wurde dazu folgender Grenzwertsatz aufgestellt, der auch globaler Grenzwertsatz genannt wird: b+½-np lim P(XB≤b) = Φ npq î n→∞ Entsprechend gibt es für die Wahrscheinlichkeit, daß eine Zufallsvariable im Intervall [a,b] mit a,b ∈ INo und a<b liegt, einen lokalen Grenzwertsatz: P(a<XB≤b) = P(XB≤b) - P(XB≤a) b ∑ b+½-np a+½-np n n-x x p q ≈ Φ - Φ ( ) x î npq npq î x = a+1 b+½-np b-½-np - Φ P(XB = b) ≈ Φ lokaler Grenzwertsatz î npq î npq P(a<XB≤b) = Mit Hilfe des Mittelwertsatzes können wir hierfür auch schreiben: bnp 2 -½· î nqp ·e 1 2πnqp Die erneute Näherung, die wir durch den Mittelwertsatz machen, können wir getrost vernachlässigen. Als Zahlenbeispiel wollen wir uns eine Binomialverteilung mit n = 8 und x = 3 = b anschauen: P(XB=b) ≈ ∆x·fN(b,np, npq) = a) p = ½ Im ersten Fall sei p = ½ => µ = np = 4 => σ² = 2 => σ = 2 dann folgt für P(XB=3) = 21,88% und ein entsprechender Wert für die Näherungen von 3,5-4 2,5-4 Φ - Φ = Φ(-0,35) - Φ(-1,06) = 0,3632 - 0,1446 = 21,97% î 2 î 2 und fN(3,µ=4,σ= 2) = 21,97% . b) p = 0,2 Im zweiten Fall sei p = 0,2 => µ = np = 1,6 => σ² = 1,6·0,8 = 1,28 => σ = 1,28 dann folgt für P(XB=3) = 14,68% und ein entsprechender Wert für die Näherungen von 3,5-1,6 2,5-1,6 P(XB=3) ≈ Φ - Φ = Φ(1,68) - Φ(0,80) = 0,9835 - 0,7881 = 16,54% î 1,28 î 1,28 und fN(3,µ=1,6,σ²=1,28) = 16,40%. 46 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Die Qualität der Näherung hängt also nicht nur von der Größe von n, sondern auch vom Mittelwert µ ab. Als Faustregel kann gelten, daß µ > 9 sein muß, um eine ausreichende Näherung zu gewährleisten. Wie bereits erwähnt, gelten beide Grenzwertsätze natürlich auch für die POISSONverteilung; d.h. auch sie kann für große n durch die Normalverteilung ersetzt werden. ✎ Beispiel: 23 Bei einer Untersuchung über Verwandtenehen wurde für die Verteilung von Mädchen- zu Knabengeburten ein vom Durchschnitt aller Ehen (p=0,48) abweichendes PStpr = 386/709 = 0,544 gemessen. Es stellt sich die Frage, ob diese Abweichung zufällig ist. Wie groß ist also die Wahrscheinlichkeit, daß bei einem p von 0,48 genausoviel oder mehr Mädchengeburten entstehen ? Hypothese: p = 0,48 gilt für diese Stichprobe gesucht: P(XB≥386 | n=709 , p=0,48 ) 709 ∑ 709 709-x ( x ) ·0,48 x = 386 · 0,52x Diese Berechnung ist nicht praktisch durchführbar. µ = n·p = 709·0,48 = 340 σ² = npq = 709·0,48·0,52 = 177 => σ = 13 P(XB≥386) = 1 - P(XB<386) ≈ P(XN≤385,5 | µ = 340 ; σ² = 177 ) = 1 - Φ(3,40) = 0,035% Ergebnis: Hypothese verwerfen: Es ist sehr unwahrscheinlich, daß die Abweichung der Stichprobe von der Grundgesamtheit nur auf einem Zufall beruht. Hinweis: Wird irrtümlicherweise die Frage lediglich nach "genausoviel" statt "genausoviel oder mehr" gestellt, ergibt dies natürlich einen viel zu geringen Wert: 709 ·0,48709-386 · 0,52386 P(XB≥386) = ( 386) ≈ P(385,5≤XN≤386,5 | µ = 340 ; σ² = 177 ) = 0,00823% ­ Vergleich über ±σ-Bereich: µ = 340 ; σ = 13 => P(µ-σ;µ+σ) = P(327;353) = 68% Der Anteil Mädchengeburten unter 709 Geburten liegt mit einer Wahrscheinlichkeit von 68% im Intervall (327;353) µ = 340 ; 2σ = 26 => P(µ-2σ;µ+2σ) = P(314;366) = 95% Entsprechend liegt der Anteil Mädchengeburten unter 709 Geburten mit einer Wahrscheinlichkeit von 95% im Intervall (314;366). Die Wahrscheinlichkeit für eine zufällige Abweichung liegt also unter 5%. (=> Aufg. 5.4. bis 5.6.) 5.3. Summen von Zufallsvariablen und Normalverteilungen Bei vielen Anwendungen müssen Zufallsvariablen addiert werden. So stellt sich zum Beispiel bei der Serienschaltung von elektrischen Widerständen mit angegebenen Fehlerspannen die Frage des Summenfehlers. Ein weiteres Beispiel sei ein Computerbild mit verrauschten Grauwerten yi (z.B. einer Zeile => i = 1,..,512) , die sich durch Addition eines "wahren" Grauwertes ci und einer Zufallsvariablen Xi ergeben: yi = ci + xi => Yi = ci + Xi Als Gegenmaßnahme verwende man einen "Filter" 24 mit Zi = ¼(Yi-1 + 2Yi + Yi+1). Wie ändert sich nun E(Yi) und V(Yi) in E(Zi) und V(Zi) ? 23 ® ¯ ° ± vgl. KREYSZIG Aufg. 50.4. zu Filtern (hier insbes. "Binomialfilter") siehe auch: Skript zu Fourier-Transformation; Kapitel II.3.4. und III.3. 24 Statistik Seite 47 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung ² Ein Beispiel für die Summen von Zufallsvariablen haben wir schon im Abschnitt 2, diskrete Wahrscheinlichkeitsfunktionen, kennengelernt: Die Summe von zwei Würfeln WW : XW1 + XW2 , wobei wir für Erwartungswert und Varianz erhielten: E(XW ) = 3,5 E(XW1 + XW2) = 7 = 2 · 3,5 V(XW ) = 35/12 E(XW1 + XW2) = 35/6 = 2 · 35/12 Dabei handelt es sich hier natürlich um den einfachen Fall der Summe zweier diskreter, gleichverteilter (sogar gleicher) Zufallsvariablen. Uns wird im folgenden vor allem die Frage beschäftigen, wie die Summe beliebig verteilter Zufallsvariablen aussieht; wie sich z.B. Erwartungswert und Varianz der Summe von Stichprobenmittelwerten verhalten: n E ∑ Xi; î i=1 n V ∑ Xi î i=1 für Xi beliebig E( X̄ ); V( X̄ ) 1 Xi ) ( mit X̄ = n· i=1 n oder ∑ a) unabhängige Zufallsvariable Zunächst wollen wir uns den Begriff der unabhängigen Zufallsvariablen anschauen. Er ist angelehnt an die Unabhängigkeit von Ereignissen, wie wir sie bereits früher bei den Wahrscheinlichkeitsoperationen kennengelernt haben. Damals lernten wir den Multiplikationssatz (-> siehe Seite 12) kennen: und P( P( ³µ´ ¶ ) = P(· ) · P(¸ I ¹ ) ºµ» ¼ ) = P(½ ) · P(¾ ) allgemein für unabhängige Ereignisse, d.h. für ¿ À Á P( ) = P( I ) Erweiternd definieren wir nun: Zwei beliebige Zufallsvariablen X und Y sind unabhängig, wenn gilt: P(X≤x ^ Y≤y) = P(X≤x) · P(Y≤y) Entsprechendes gilt natürlich auch für mehr als zwei Zufallsvariablen. Ob ein Experiment abhängig oder unabhängig ist, ergibt sich aus seiner Natur. So ist das Gewicht von Menschen z. B. in gewissem Maße von der Körpergröße abhängig, während die Augenfarbe von der Körpergröße unabhängig ist. Die Unabhängigkeit von Zufallsvariablen (bzw. Stichprobenelementen) ist die Voraussetzung für statistische Beurteilungsverfahren. 48 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung b) Summen beliebiger Zufallsvariablen Für die Summen beliebiger Zufallsvariablen gelten folgende Regeln:  Additions-Satz für den Mittelwert (Satz 5.1.): Es seien Xi (mit i = 1, 2, ... , n ) beliebige Zufallsvariable (abhängig oder unabhängig) mit E(Xi) = µ, à ✎ Beispiel: Ä W: Æ ... ; Würfel => und: Ç E dann gilt: Å î n ∑ i=1 Xi = n ∑ E(Xi ) n = i=1 ∑ µi ( hier ohne Beweis ) 25 i=1 E(X1) = 3,5 ; E(X2) = 2 · 3,5 = 7 E(X3) = 3 · 3,5 = 10,5 ; WW : WWW : n n·W : E(Xn) = ∑ µi = n · 3,5 i=1 Additions-Satz für die Varianz (Satz 5.2.): Es seien Xi (mit i = 1; 2; ... ; n ) beliebige, paarweise unabhängige Zufallsvariablen, dann gilt: V î n ∑ i=1 Xi = n ∑ V(Xi ) i=1 n = ∑ σi² i=1 ✎ Beispiel: Würfel (EW ):V(X1) = ; V(X2) = 2 · ; V(X3) = ; ... ; V(X1) = n 25 Der Satz für den Mittelwert gilt natürlich nur, wenn der Mittelwert µ zu Xi überhaupt existiert. Diese auf den ersten Blick selbstverständlich erscheinende Bedingung gewinnt dann an Bedeutung, wenn wir uns die COUCHY - Verteilung anschauen; diese hat nämlich keinen Mittelwert! Die COUCHY - Verteilung verläuft ähnlich wie die Normalverteilung mit einem Maximum bei 0 und ist gekennzeichnet durch die Funktion: f(x) = 1/π · 1/1+x² Für das sichere Ereignis gilt: ∞ ∞ P(X<∞) = 1/π ⌠ ( 1/1+x² ) dx = 1/π·arctan(x) = 1 −∞ ⌡ | q.e.d. −∞ Der Erwartungswert ist: ∞ ∞ ∞ E(X) = 1/π ⌠ ( x/1+x² ) dx = 1/2π ⌠ ( 2x/1+x² ) dx = 1/2π·ln(1+x²) −∞ ⌡ ⌡ | −∞ −∞ => Existiert nicht! Simuliert werden kann die COUCHY - Verteilung mit dem Rechner über Y := Tan(Pi*(Random - 0.5)), wobei Y dann die COUCHY-verteilte Zufallsvariable ist. Zwar lassen sich bei diesen Rechnersimulationen natürlich Mittelwerte bilden; diese nehmen jedoch völlig beliebige Werte an! (vgl auch Seite 67) Statistik Seite 49 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung È É Würfel => und: W: Ê WW : WWW : Ë V(X1) = 35/12 ; E(X2) = 35/12 = 35/6 E(X3) = 3 · 35/12 = 35/4 ; ... ; n n·W : E(Xn) = ∑ σi² i=1 = n · 35/12 Beide Sätze sind verteilungsunabhängig, d.h. eine Kenntnis der Verteilungsart der Summanden ist nicht erforderlich. Aussagen über die Verteilungsart werden daher auch nicht gemacht. c) Summen normalverteilter Zufallsvariablen Schauen wir uns daher zunächst die Summe normalverteilter Zufallsvariablen an: Satz 5.3.: Es seien X1, X2, ... , Xn (paarweise) unabhängige, normalverteilte Zufallsvariablen, n dann ist auch Z = ∑ Xi normalverteilt mit E(Z) und V(Z) nach den obigen Sätzen. i=1 ( hier ohne Beweis ) Entsprechendes gilt auch für die Binomialverteilung. ✎ Beispiel: X1, X2 seien normalverteilte, unabhängige Zufallsvariablen mit µ = 10 und σ = 2, dann ist für α) Z = X1 + X2 => E(Z) = 20 V(Z) = 4+4 = 8 => σZ = 2 2 (Summensatz) β) Y = 2·X1 => E(Y) = 20 V(Y) = 2² · V(X1) = 16 => σY = 4 (lineare Transformation) Dieses Ergebnis können wir uns so klar machen, daß sich bei unabhängigen Zufallsvariablen statistische Schwankungen stärker ausgleichen als bei voneinander abhängigen. Werden unabhängige Zufallsvariablen addiert, steigt die Standardabweichung nicht im selben Maß wie der Erwartungswert. ✎ Beispielaufgabe: 26 Bei der Absicherung elektrischer Anlagen ist es erwünscht, daß bei einem Defekt nur die für diesen Teilbereich zuständige Sicherung (R1) anspricht und möglichst nicht die Hauptsicherung (R2), die die gesamte Anlage lahmlegen würde. Die Reaktionszeiten der Sicherung R1 seien normalverteilt (X1) mit einem µ 1 = 1sec und einem σ1² = σ2² = 0,1sec². Wie muß nun die Hauptsicherung R2 dimensioniert sein, daß sie höchsten in einem von 1000 Fällen schneller anspricht als die Detailsicherung R1, aber trotzdem möglichst schnell reagiert? Die mittlere Reaktionszeit der Hauptsicherung ist größer als die der Detailsicherung: E(X2) > E(X1) ; Die Wahrscheinlichkeit, daß die tatsächliche Reaktionszeit der Hauptsicherung jedoch kleiner ist, betrage 0,001: P(X2<X1) ≤ 1/1000 Im ersten Ansatz wird man jedoch nicht mit einer Ungleichung rechnen: P(X2<X1) = P((X2-X1)<0) = P(X2+(-X1)<0) = 0,001 Wir definieren eine neue Zufallsvariable Z: Z = X2 - X1 mit µ Z = E(Z) = µ 2 - µ 1 und V(Z) = σ1² + σ2² = 0,2 sec² (lineare Transformation: E(-X1) = -E(X1), die Varianz bleibt bei dieser Transformation unverändert.) 26 50 Ì Í vgl. KREYSZIG Aufg. 71.5. Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Laut Maßgabe soll gelten: 0 - µ Z = 0,001 P( Z < 0 ) = Φ î σZ => µ 1 - µ 2 = 0,001 î σ1² + σ2² Φ Aus der Tabelle entnehmen wir den Argumentwert für Φ = 0,001: µ1 - µ2 = -3,09 σ1² + σ2² 1sec - µ 2 => = -3,09 0,2sec² => µ 2 = 1sec + 3,09· 0,2sec² = 2,38 sec Dies ist der Erwartungswert, der zu einer Wahrscheinlichkeit von 0,001 führt. Dann folgt: P(X2<X1) ≤ 1/1000 => µ 2 ≥ 2,38 sec. Wie wir gesehen haben, läßt sich der Summensatz natürlich auch auf Differenzen anwenden: 41) und => X2 - X1 = X2 + (-X1) E(X2) + E(-X1) = E(X2) - E(X1) = µ2 - µ1 , da E(aX+b) = a·E(X) + b (siehe Seite. => V(X2) + V(-X1) = σ2² + σ1² , da V(aX+b) = a² · V(X) Aus diesen Überlegungen folgt, daß für "gleichartig" normalverteilte Zufallsvariablen X1, X2, ... , Xn ; d.h. für E(Xi) = µ und V(Xi) = σ² (für alle i = 1; 2; ... ; n ), gilt: n σX Xi ) ist dann auch wieder normalverteilt mit (µ, ) Der Mittelwert X̄ ( = 1/n n i=1 ∑ Î Der Beweis ist einfach: Ï E(∑Xi) = n·µ V(∑Xi) = n·σ² => => E(X̄) = 1/n·n·µ = µ V(X̄) = 1/n²·n·σ² = σ²/n d) Der zentrale Grenzwertsatz X1, X2, X3 ... sei eine unbeschränkte Folge von beliebigen, paarweise unabhängigen Zufallsvariablen und es sei YN = ∑Xi , dann nähern sich mit wachsendem N die Zufallsvariablen Y zunehmend der Normalverteilung. Dieser zentrale Grenzwertsatz ist in der Tat der wichtigste Satz der Statistik überhaupt. Die Zufallsvariablen Xi brauchen dabei nicht dieselbe Verteilungsart haben; auch µ und σ können jeweils unabhängig voneinander sein. Falls Xi binomial- oder POISSON-verteilt ist, gilt der Grenzwertsatz von DE MOIVRE und LAPLACE. Wie wir bereits beim Würfelmodell gesehen haben, gibt es für die Augensumme von drei Würfeln schon eine ganz gute Übereinstimmung. Allgemein gilt, daß die Annäherung ab N ≥ 30 ganz gut ist; sie hängt natürlich von der Art der einzelnen Zufallsvariablen ab. Viele Meßgrößen sind deshalb normalverteilt, weil sich die Fehler vieler verschiedener Fehlerquellen addieren. Außerdem kann bei größerem Stichprobenumfang der Mittelwert X̄ als normalverteilt angesehen werden. Statistik Seite 51 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Mathematische Formulierung des zentralen Grenzwertsatzes: Es sei mit N E(YN) = ∑ µi = µYN i=1 und N V(YN) = mit und dann gilt: ∑ σi² i=1 = σ²YN für Zn = Yn - µYn σ Yn E(ZN) = 0 V(ZN) = 1, lim FN(x) = Φ(x) FN(x) = P(ZN≤x) N→∞ ✎ Beispiel aus der Bildverarbeitung Bei einer elektronischen Kamera sei das Bildrauschen mit max. 5% bekannt. Wenn sie 0..255 Graustufen mit Werten von -128 .. +127 besitzt, entspricht dies einer Abweichung von ± 6,3. Der gemessene Lichtintensitätswert setzt sich also aus der wahren, aber unbekannten Lichtintensität und dem statistisch verteilten Rauschen zusammen : Igemessen = Iwahr + X Im Normalfall ist die Verteilung der Zufallsvariable X unbekannt. Annahme: X ist normalverteilt und 95% liegen innerhalb der angegeben 5% Rauschen. Dann entsprechen die 5% dem Wert 2σx : => |X| ≤ 2σx = 6,3 σx = 3,15 Es ist bei unbewegter Bildvorlage möglich, von ein und demselbem Bildpunkt mehrere Messungen zu machen, um die Auswirkung von X nach σX σX̄ = n vermindern zu können: N N 1 1 I = (Iw + Xi) g N N => ∑ i=1 ∑ i=1 N 1 Y = X̄ = N Xi i=1 i=1 1 1 => Ig = Iw + Y mit (σY)² = N ·(σX)² => σY = σ N X Wir haben also eine neue Zufallsvariable Y als Fehlergröße erhalten, die eine geringere, von n abhängige Standardabweichung besitzt. Wieviele Meßwerte (eines Bildpunktes) müssen nun addiert werden, damit bei einem wahren Wert Iw = 100 in 95% aller Fälle gilt Ig = 99,5..100,5 ? => 1 Ig = Iw + N N ∑ Xi mit ∑ 95% = P(-0,5≤Y≤0,5) = P(-2σY≤Y≤2σY) σY = 0,25 3,15 => 0,25 = N 3,152 => N = î 0,25 ≈ 170 Man muß also 170 Meßwerte mitteln, um den Einfluß des statistischen Rauschens so klein zu machen, daß in 95% aller Fälle ein Fehler von weniger als 1% vorliegt. => 52 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung e) Das Gesetz der großen Zahlen TSCHEBYSCHEFF: X1, X2, X3 ,... , XN seien beliebige, paarweise unabhängige Zufallsvariablen mit gleichem Erwartungswert E(Xi) = µ und gleicher Varianz V(Xi) = σ² , dann gilt mit N 1 X̄ = N Xi ∑ für beliebig kleines ε ∈ i=1 IR+: P(µ−ε≤X̄≤µ+ε) > 1 - σ² N·ε² Dieses Gesetz sagt aus, daß sich für beliebig kleine Zahlen ε immer ein N derart finden läßt, so daß sich X̄ mit der angegebenen Wahrscheinlichkeit im Intervall [µ-ε;µ+ε] befindet. Für praktische Anwendungen ist diese Formulierung allerdings zu "unscharf", d.h. es läßt sich mit ihr schlecht rechnen. (=> Aufg. 5.7. bis 5.12.) 5.4. Fehlerrechnung Die Grundlagen der Fehlerrechnung, die wir schon im Physikpraktikum kennengelernt haben, wurden von GAUSS erarbeitet. Ziel ist es, aus einer oder mehreren Messungen die "Zielgröße" mit Fehler bzw. Toleranz formelmäßig zu berechnen. Voraussetzung ist, daß wir es in der Tat nur mit zufälligen (stochastischen) Schwankungen zu tun haben; systematische Abweichungen können wir nicht berücksichtigen. a) Betrachten wir zunächst den Fall einer einzigen Fehlergröße. Mit einem Theodolit soll eine Höhe h bestimmt werden, wobei der Abstand a als fehlerfrei bekannt angenommen wird. Vom Theodolit ist die Toleranz ∆α bekannt. α h h = a·tanα a Uns interessiert nun der Fehler ∆h in Abhängigkeit von ∆α. Wir gehen dabei allgemein davon aus, daß gilt: I ∆α I « α und I ∆α I « 1. Der Meßwert α ergibt sich aus dem "wahren", aber unbekannten Wert αo so: α = αo + ∆α, woraus folgt: [a·tanα]' = [h]' = => => lim ∆h ∆α f(x+h)-f(x) ( wegen f'(x) = lim ) h h→0 ∆α→0 ∆h a ≈ cos²αo. ∆α a ∆h ≈ · ∆α cos²αo ( aus ∆y/∆x ≈ dy/dx = f'(x) für ∆x « 1) Statistik Seite 53 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung In der Fehlerrechnung wird das Näherungszeichen üblicherweise durch Gleichheitszeichen ersetzt, so daß wir im folgenden ebenfalls ein Gleichheitszeichen verwenden werden. Bei der Berechnung von ∆h kann für die (unbekannte) Größe αo einfach der gemessene Wert α eingesetzt werden, falls I∆αI « α , da für die Fehlergröße ∆h die Berechnung der Größenordnung ausreicht. Wir erhalten somit für ∆h: a ∆h = · ∆α cos²α Allgemein formuliert gilt also bei einer Fehlergröße zu einem gegebenen Meßwert x mit x = xo + ∆x bei "wahrem", unbekanntem Wert xo und gesuchtem Wert y = f(x) mit yo = f(xo) mit der Toleranz ∆y: ∆y d ≈ f'(x) x=x = dx f(x) x=x ∆x o o => ∆y = f'(xo) · ∆x => ∆y = f'(x) · ∆x falls |∆x| « x ∧ |∆x|«1 | | Dabei ist xo der gesuchte, und x der gemessene Wert. Wir können neben diesen Überlegungen auch den Weg über die TAYLOR-Reihe gehen. Diese bildet sich ja bekanntlich nach (n) f'(xo) f''(xo) f'''(xo) f (xo) n f(xo+h) = f(xo) + 1! ·h + 2! ·h² + 3! ·h³ + ... + n! ·h + ... Verwenden wir nur die ersten beiden Summanden als Näherung, erhalten wir nach Umformung: f(xo+h) - f(xo) = f'(xo)·h = ∆y b) Bei mehreren fehlerbehafteten Meßwerten sieht die Situation ähnlich aus. Wir wollen hier stellvertretend den Fall für zwei fehlerbehaftete Größen durchrechnen. Auch hier setzen wir wieder an mit x = xo + ∆x und y = yo + ∆y , wobei xo und yo wieder die unbekannten, "wahren" Werte sind und ∆x sowie ∆y die bekannten Toleranzen. Gesucht ist das sich sowohl aus x als auch y ergebende zo mit zo = f(xo;yo). Dann können wir auch hier für I∆xI « 1 und I∆yI « 1 sowie I∆xI « x und I∆yI « y wieder durch TAYLOR-Reihennäherung27 schreiben: zo + ∆z = f(xo+∆x , yo+∆y) ≈ f(xo,yo) + 27 54 ∂f(x,y) ∂f(x,y) ·∆x + ·∆y ∂y ∂x Zur Benutzung der TAYLOR-Reihe: Betrachten wir z = F(x,y) als irgendeine (zweidimensionale) Fläche im (3-dimensionalen) x,y,z-Raum, so mag es zunächst verwundern, daß für einen beliebigen Punkt P(x,y) dieser Fläche die Steigung in x-Richtung und die Steigung in y-Richtung ausreicht, und nicht die ¯ ¯ ermittelt werden muß. Steigung durch die vom Ursprung zum jeweiligen Punkt gehende Strecke OP Ableitbare (!) Funktionen enthalten aber immer eine gewisse Bindung der Ableitung direkt zu einem beliebigen Wertepaar gegenüber den Ableitungen in x-Richtung und der in y-Richtung. Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Wir müssen also jetzt nach jedem fehlerhaften Meßwert (bzw. dessen Funktion zur Bildung des zu berechnenden Wertes) partiell28 ableiten! Als Abkürzung für die partielle Ableitung nach x schreiben wir x als Index: zo + ∆z = f(xo+∆x , yo+∆y) ≈ f(xo,yo) + fx(xo,yo)·∆ x + fy(xo,yo)·∆ y Für den gesuchten Fehler ∆z erhalten wir dann: f(xo+∆x , yo+∆y) - f(xo , yo) = ∆z = fx(xo , yo)·∆x + fy(xo,yo)·∆y Probleme treten auf, wenn gerade fx(xo,yo)·∆x = -fy(xo,yo)·∆y ist, da dann der resultierende Fehler Null wäre, was aber sicher nicht der Wahrheit entsprechen würde. Es gibt zwei Möglichkeiten, diesen Fehler zu vermeiden: α) ∆z = fx(xo,yo)·∆x + fy(xo,yo)·∆y "absoluter Maximalfehler" β) ¯∆z¯ = "mittlerer Fehler" (fx(xo,yo)·∆x)² + (fy(xo,yo)·∆y)² Den zweiten Fall, den des mittleren Fehlers - oder auch "wahrscheinlicher Fehler von z" genannt -, haben wir bereits im Physik-Praktikum kennengelernt. Er wird häufiger gebraucht; den absoluten Maximalfehler benötigt man eigentlich nur bei Berechnungen, in denen man möglichst sicher gehen will (=> z.B. Kernkraftwerke, u.ä.). ✎ Beispiel: h = a·tanα ∂h a => = ∂α cos²α ∂h => = tanα ∂a a ¯¯ = => ∆h ( ∆a·tanα )² + ( ∆α )² cos²α z.B.: a = 10m ± 1% => ∆a = ± 0,1m α = π/6 ± 2% => ∆α = 0,02·π/6 tanα = 1/3 3 ¯¯ = ∆h => cosα = ½ 3 h = 5,77m 10m (0,1m·1/3 3)² + (0,02·π/6 0,75m)² = 0,151m h = ( 5,8 ± 0,2 )m = 5,8m ± 3% ∆hmax = 0,197m zum Vergleich: Im allgemeinen wird oft der relative Fehler angegeben: ¯ ¯ ∆hmax ∆h h bzw. h ( => Aufg. 5.13 bis 5.17. ) 28 Bei der partiellen Ableitung wird nicht nach allen Variablen einer Funktion abgeleitet, sondern nur nach einer, wobei die anderen wie Konstanten behandelt werden: z.B.: f(x,y) = x·siny ∂f(x,y) => = siny (mit y = const.) ∂x ∂f(x,y) und = x·cosy (mit x = const.). ∂y Statistik Seite 55 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung c) Neben dem Fehler interessiert uns die Varianz einer Funktion von Zufallsvariablen; hier einmal am Beispiel von zwei Argumenten (d.h. zwei Zufallsvariablen X, Y) hergeleitet: Es seien also zwei Zufallsvariablen X und Y unabhängig voneinander und Z = f(X;Y) als Funktion der beiden Zufallsvariablen ebenfalls unabhängig. Ebenso sei E(X) = µX , E(Y) = µY , sowie V(X) = σ²X , V(Y) = σ²Y , dann wird gesucht: V(Z) = σ²Z , wenn σ²X ; σ²Y « 1 ist. Es sei ferner E(Z) = µZ , dann gilt das GAUSS'sche Fehlerfortpflanzungsgesetz: α) µz = f(µX , µY) β) σ²Z = [ fx(µX , µY)·σX ]² + [ fy(µX , µY)·σY ]² => σZ = ( fx(µX , µY)·σX )² + ( fy(µX , µY)·σY )² ( mit fx bzw. fy partielle Ableitung nach x bzw. y ) Substituieren wir R = X - µX und S = Y - µY , so daß folgt: E(R) = 0 = E(S) und V(R) = σ²X und V(S) = σ²Y , dann können wir das GAUSS'sche Fehlerfortpflanzungsgesetz beweisen. Es gilt dann nämlich: Z = f(X,Y) = f(µX + R , µY + S) = f(µX , µY) + fx(µX , µY)·R + fy(µX , µY)·S Die zweite Umformung entspricht den ersten beiden Gliedern der TAYLOR-Reihe und ist als Näherung zulässig, wenn wir von kleinen Werten für R und S ausgehen. => => E[Z] = E[ f(µX , µY) + fx·R + fy·S ] µZ = f(µX , µY) ; da E[R] = E[S] = 0 Für die Varianzen gilt entsprechend der obigen Umformung mit der Regel, daß Varianzen von Konstanten Null sind (siehe lineare Transformation, Seite 40): => => => V(Z) = V[ f(µX,µY) + fx(µX,µY)·R + fy(µX,µY)·S ] V(Z) = σ²Z = 0 + V[fx(µX,µY)·R] + V[fx(µX,µY)·R ] Summensatz Varianzen = f²x(µX,µY)·V[R] + f²y(µX,µY)·V[S] = ( fx(µX,µY)·σx )² + ( fy(µX,µY)·σy )² σZ = ( fx(µX,µY)·σx )² + ( fy(µX,µY)·σy )² Dies liefert den Grundstein für die Berechnung des mittleren Fehlers ¯∆z¯ mit ¯∆z¯ = praktische Anwendung: sz = (fx(xo,yo)·∆x)² + (fy(xo,yo)·∆y)² X → x̄, sx ; Y → ȳ, sy . ; Z = f(X,Y) [fx(x̄;ȳ)·sx]²+[fy(x̄;ȳ)·sy]² Beim Übergang in den in der Praxis oft benötigten 2σ-Bereich (≅ 95%) werden einfach beide Seiten der Gleichung mit Zwei multipliziert: 2σZ = (fx·2σX)² + (fy·2σY)² In der Fehlerrechnung sprechen wir im Zusammenhang mit σi² anstelle von Varianzen auch von mittleren quadratischen Abweichungen. 56 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Folgerung für 1 Meßgröße: falls f(x,y) unabhängig von y, folgt d fy(x,y) = 0 => ∆z = | dxf(x)·∆x | ✎ Beispiel: α) R1 und R2 seien Widerstände mit 5% Toleranz. Gesucht ist die Toleranz bei einer Reihenschaltung: ∆R1 = 0,05·R1 ; ∆R2 = 0,05·R2 Reihenschaltung: Rges = R1 + R2 => => => z.B.: ✎ β) ∂Rges ∂Rges ∂R1 = 1 = ∂R2 ∆Rges = (0,05·R1)² + (0,05·R2)² = 0,05· R1² + R2² R1 ² + R2 ² ∆Rges = 0,05· relativer Fehler von Rges R1 + R2 < 0,05 Rges R1 = 100Ω ; R2 = 50Ω ∆Rges 12500Ω Rges = 0,05· 150Ω = 0,037 = 3,7% Toleranz in Bezug auf den Strom Es seien bekannt "ohne Meßfehler": R + ∆R , U U I = R dI U => dR = - R²·∆R ∆I ∆R R U => I = U·( - R²·∆R ) = - R ∆I ∆R => | I | = R 5.5. Exkurs: Summenverteilung Wenn wir zwei unabhängige Zufallsvariablen X, Y haben, die miteinander addiert die Zufallsvariable Z ergeben, d.h. wenn Z = X + Y gegeben ist, dann können wir µZ und σZ wie gezeigt über die Additionssätze ermitteln. Uns interessiert nun aber auch die Verteilungsfunktion von Z. a) einführendes Beispiel Als Beispiel wollen wir uns das schon bekannte Ereignis der Augensumme zweier Würfel anschauen: XWW. Für die Zufallsvariable XW gilt: 1/6 P(Xj = i) = h(i) = 0 î für i = 1, 2, ... , 6 mit i ∈IN sonst Wir suchen nun für Z = X1 + X2 die Funktion g(z) = P(Z=z) Statistik Seite 57 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung als Formel aus h(i): Zunächst sei g(4) gesucht, dann gilt: g(4) = P(Z=4) = P( [X1=1 ∧ X2=3] ∨ [X1=2 ∧ X2=2] ∨ [X1=3 ∧ X2=1] ) Da diese 3 Ereignisse jeweils einander ausschließen, folgt: = P( [X1=1 ∧ X2=3] ) + P( [X1=2 ∧ X2=2] ) + P( [X1=3 ∧ X2=1] ) X1 und X2 sind voneinander unabhängig: = P(X1=1)·P(X2=3) + P(X1=2)·P(X2=2) + P(X1=3)·P(X2=1) = h(1)·h(3) + h(2)·h(2) + h(3)·h(1) 3 = ∑ h(i)·h(4-i) ∑ h(i)·h(4-i) i=1 6 = i=1 Allgemein folgt daher für beliebiges z: ∞ 6 g(z) = ∑ h(i)·h(z-i) i=1 = ∑ h(i)·h(z-i) i = -∞ Dabei dürfen wir die Grenzen der Summe deshalb von -∞ bis ∞ laufen lassen, weil für alle Fälle von i ∉ [1;6] die Summanden "Null" werden, d.h. es tritt mindestens ein unmögliches Ereignis im Produkt auf! Für drei Würfel gilt entsprechend: Y = X1 + X2 + X3 = Z + X3 => P(Y=y) = ∑g(i)·h(y-i) wobei g(i) die oben ermittelte Funktion für die Summe zweier Würfelaugen ist. Durch dieses Verfahren können beliebig große Summen gebildet werden. b) Verallgemeinerung zu Wahrscheinlichkeitsfunktionen für die Summen diskreter Zufallsvariablen. Gegeben seien wieder zwei unabhängige Zufallsvariablen X, Y mit f(x) = P(X=x) und g(y) = P(Y=y) ( mit f(x) = 0; g(y) = 0 gesucht sei zu der Summenvariablen Z = X+Y die Funktion h(z) = P(Z=z) = P(Z=X+Y), dann gilt analog zu den unter a) gemachten Überlegungen: ∞ h(z) = P(Z=z) = P(X+Y = z) = P(X=x)·P(Y=z-x) x = -∞ ∞ => h(z) = f(x)·g(z-x) 29 x = -∞ ∑ ∑ Dabei ist der letzte Term ∑f(x)·g(z-x) die sogenannte Faltungssumme, die in der Kurzschreibweise auch als h = f∗g 29 ∞ oder h(z) = ∑ f(x)·g(z-x) x=0 58 Statistik für x;y ∉ INo); Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung dargestellt wird mit "∗" als Faltungsoperator: ∞ 30 h(z) = f ∗ g =: f(x)·g(z-x) ∑ x=0 Sie ist eine Funktion, die durch (Summen-) Faltung31 der Funktionen f und g entsteht. Es heißt "f gefaltet mit g". ✎ Beispiel: hj(x) soll die Wahrscheinlichkeitsfunktion zu XjW : Augensumme von j Würfeln sein: ∞ h2(x) = h1(i)·h1(x-i) = h1∗h1 i = -∞ ∞ ∞ h3(x) = h1(i)·h2(x-i) = h2(i)·h1(x-i) = h1∗h2 i = -∞ i = -∞ Die Faltung ist kommutativ, da wir x von -∞ bis ∞ laufen lassen. ∞ = h1(i) {h1∗h1} = h1∗{h1∗h1} i = -∞ ∑ ∑ ∑ ∑ Für die Faltung gelten folgende Gesetze: α) Kommutativgesetz: f∗g = g∗f β) Assoziativgesetz: f ∗ (g ∗ h) = (g ∗ f) ∗ h γ) Distributivgesetz: (f+g)∗h = f∗h + g∗h c) Dichtefunktion für die Summe stetiger Zufallszahlen. Diesmal seien zwei stetige, unabhängige Zufallsvariablen X, Y gegeben mit f(x): Dichtefunktion zu X und f(y): Dichtefunktion zu Y, dann ist wieder h(z) als Dichtefunktion zu Z = X + Y gesucht. Die Lösung hierzu liefert das sogenannte Faltungsintegral, das wir uns anschaulich aus der Faltungssumme entstanden denken können: ∞ h(z) = f(x)·g(z-x) dx = f ∗ g ⌠ ⌡ -∞ Um den Übergang von g(x) nach g(z-x) am Graphen anschaulich zu machen, teilen wir ihn in zwei Schritte auf: 1) Wenn wir das Vorzeichen des Arguments einer Funktion umkehren, entspricht dies einer Spiegelung an der y-Achse. g1(x) = g(-x) 2) Subtrahieren wir im Argument eine positive Zahl, so ergibt dies eine Verschiebung in positive x-Richtung, also nach rechts. g2(x) = g1(x-z) => g(-[x-z]) = g(z-x) Beim Faltungsintegral verdrehen wir also anschaulich eine der beiden Funktionen, verschieben sie von links (- ∞) kommend mit wachsendem z über die gesamte x-Achse (bis nach + ∞) und erhalten für jedes z einen Wert, der sich aus der Fläche unter dem Produktgraphen ergibt. Für jedes z müssen alle x-Werte 32 beider Funktionen jeweils multipliziert werden, um den Produktgraphen zu erhalten. in der Literatur auch oft: h(z) = f(z) ∗ g(z) mit demselben Argument z in allen drei Funktionen. Dies ist aber sehr irreführend und daher gefährlich. 31 Das Wort Faltung wird aus folgendem Grund benutzt: Faltet man eine Strecke der Länge z in der Mitte, so haben die gegenüberliegenden Punkte die Abstände t und z-t vom Anfangspunkt. 32 vgl auch: Skript zu Fourier-Transformation, Kap. 2.3.1. 30 Ð Ñ Statistik Seite 59 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung ✎ Beispiel: e-x für x>0 f(x) = î 0 für x<0 1-x für 1>x>0 g(x) = î 0 sonst h(z) = f ∗ g => Daß, wie bereits erwähnt33, die Formulierung h(z) = f(z) ∗ g(z) sehr gefährlich ist, können wir an folgendem Beispiel sehen, denn fälschlicherweise möchte man aus dieser Gleichung folgern: x x x f î b ∗ gî b = hî b. Tatsächlich gilt aber: x x x f î b ∗ gî b = |b|·hî b ! α) Faltungssatz Die Integralberechnung des Faltungsintegrals ist im allgemeinen sehr aufwendig, wie folgendes Beispiel zeigt: ∞ h(n) = f(k)·g(n-k) x = -∞ ergibt bei z.B. 512 Meßpunkten ∑ 516 h(n) = ∑ f(k)·g(n-k) x=1 512 Multitplikationenfür jedes n, also insgesamt 250.000 Rechnungen. Man kann sich jedoch gelegentlich des sogenannten Faltungssatzes der FOURIER-Transformation zur Vereinfachung der Rechnerei bedienen 34. Sind nämlich H(t), G(t) und F(t) die Fouriertransformierten zu h(x), g(x) und f(x), dann gilt: ℑ{f(x)} = F(t) ; ℑ{g(x)} = G(t) ; H(t) = F(t)·G(t) 33 34 60 => H(t) = ℑ {h(x)} Ò Fußnote Seite 59 Ó Ô vgl auch: Skript zu Fourier-Transformation Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung | α1) => H(t) = F(t)·G(t) = ℑ{f(x)}·ℑ {g(x)} ℑ -1 ℑ -1{H(t)} = ℑ -1{F(t)·G(t)} Anwendung bei numerischen Berechnungen mit FFT h = f∗g ✎ Beispiel: (Fast Fourier Transformation) H = F·G <=> Es seien X1, X2 unabhängig und normalverteilt mit (µ=0; σ=1), so daß die Dichtefunktion zu X1, X2 durch fN(x) = a·e-bx² allgemein beschrieben werden kann, dann gilt nach dem oben beschriebenen Faltungssatz: => => ℑ(a·e-bx² ) = A·e-Bt² Fouriertransformierte zu fN(x) -Bt² 2 ℑ(h(x)) = ℑ(fN(x))·ℑ(fN(x)) = (A·e ) = A·e-2Bt² = H(t) h(x) = c·e-dx² normalverteilt mit (c;d) ≠ (a;b) β) Summe zweier gleichverteilter Zufallsvariablen: Schauen wir uns noch ein zweites Beispiel an: X1, X2 seien unabhängige, gleichverteilte Zufallsvariablen, die im rechtsoffenen Intervall [-½ , ½[ stetig sind; d.h. ihre Dichtefunktion f(x) bzw. g(x) läßt sich beschreiben durch: 1 f(x) = g(x) = rect(x) = î 0 für -½ ≤ x < ½ sonst Gesucht sei wieder h(z) zu Z = X1 + X2 Da die Fouriertransformierte der Rechteckfunktion die Sincfunktion ist ( ℑ{rect(x)} = sinc(t) ), läßt sich rect ∗ rect = tri über den Faltungssatz der Fouriertransformation wie folgt nachweisen: H(t) = F(t)·G(t) = ℑ{rect(x)}·ℑ{rect(x)} = sinc²(t) => ℑ-1{ℑ{rect(x)}·ℑ{rect(x)}} = ℑ-1{sinc²(t)} = tri(z) Dabei ist tri(z) die "Dreiecksfunktion"; es folgt also: 1 - IzI für IzI ≤ 1 h(z) = tri(z) = 0 sonst î Wenn X und Y rechteckverteilt Z = X + Y dreieckverteilt! ✎ Beispiel: (d.h. gleichverteilt in [-½;½]) sind, ist die Summe Faltung einer rect-Funktion mit sich selbst: rect ∗ rect = tri Dies läßt sich auch anschaulich gut erkennen: Die Funktion rect(k-x) ist gegenüber rect(x) verdreht und anschließend um k nach rechts verschoben. Beim Faltungsintegral h(k) = rect ∗ rect wird also eine rect-Funktion kontinuierlich über den gesamten Wertebereich von h(k) verschoben und die Summe der Produkte der Funktionswerte über den gesamten Funktionsbereich gebildet, was hier der Fläche, die unter beiden Kurven gemeinsam ist, entspricht: (Der Pfeil zeigt jeweils den Abstand der Funktionen an, der schraffierte Bereich zeigt die gemeinsame Fläche, die in diesem Fall gleich der Fläche unter der Produktkurve ist.) Statistik Seite 61 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung f(x) k<-1 k=-¾ k=-½ f(k-x) x h(k) = 0 k=-¼ f(x) x x h(k) = ¼ h(k) = ½ k=0 k=¼ f(k-x) x h(k) = ¼ x x h(k) = 1 h(k) = ¾ k=½ f(x) k=¾ k >1 f(k-x) x h(k) = ½ h( k ) x x h(k) = ¼ h(k) = 0 1 ¾ ½ ¼ 0 -1 -¾ -½ -¼ 0 ¼ ½ ¾ 1 k γ) Simulation mit PASCAL, Näherung Mit dem Computer können wir jetzt relativ einfach (annähernd) normalverteilte Zufallsvariablen herstellen. Wie wir bereits vom Würfelmodell wissen, ist bereits die Summe dreier gleichverteilter Zufallsvariablen annähernd normalverteilt. Die random - Funktion in PASCAL liefert uns => Y := random Y ∈ [0;1[ mit µY = ½ und V(Y) = σ²Y = 1/12 , voneinander unabhängig Erzeugen wir also die Summe Y3 dreier Zufallsvariablen (random + random + random), dann erhalten wir nach den bekannten Gesetzen eine der Normalverteilung angenäherte Zufallsvariable mit: Y3 ∈ [0;3[ E(Y3) = 3·1/2 = 3/2 V(Y3) = 3·1/12 = ¼ => ( Additionssatz ) σY3 = ½ Soll der Erwartungswert null sein, muß 3/2 abgezogen werden: A = Y3 - 3/2 => A ∈ [- 3/2 ;3/2 ] Wenn die Varianz eins sein soll, muß durch ½ geteilt werden (V(ax+b) = a²·V(x)): X1+X2+X3-3/2 A Z3 = = = 2·(X1+X2+X3) - 3 ½ σA Daraus folgt, daß wir eine normalverteilte Zufallsvariable Z in Standardform über die Formel 62 Statistik Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Z := 2*(random+random+random) - 3 näherungsweise simulieren können. h(x) = rect∗rect∗rect 0 1/ (3-|x|)² h(x) = 16 î 1/ (3-x²) 8 mit für |x| > 3 für 1 < |x| ≤ 3 für |x| ≤ 1 h(0) = 3/8 = 0,375 ; 1 fN(0) = = 0,3989.. => Dies ergibt an der Stelle null einen Fehler von 6%. 2π δ) Simulation mit PASCAL, exakte Methode Zwei exakt normalverteilte Zufallsvariablen R und S aus zwei im Intervall ]0; 1] gleichverteilten Zufallsvariablen X und Y erhalten wir über folgende Formeln: R = S = -2·ln(X) ·cos(2πY) -2·ln(X) sin(2πY) Dabei sind R und S unabhängige, normalverteilte Zufallsvariablen in Standardform. Anmerkung: Bei der Simulation mit der Random-Funktion muß darauf geachtet werden, daß die Zufallsvariablen X und Y durch "1 - random" gebildet werden, damit die Zufallsvariablen vom rechtsoffenen in ein linksoffenes Intervall transformiert werden, denn ln(0) ist natürlich nicht zulässig! 1 -½ x² fN(x) = e = y 2π -½ x² => e = 2π·y => -½x² = ln( 2π·y) => x = ± -2·ln( 2π·y) mit y ∈ ]0;1] Der Faktor 2π wird dabei praktisch ausgeglichen durch x,y, während das sin/cos für den Vorzeichenwechsel sorgt. Wird der Vorzeichenwechsel nämlich einzeln unabhängig (gleichverteilt) erzeugt, ergibt dies keine Normalverteilung ! ε ) Beweis des Satzes 5.3. Sind X und Y normalverteilt und voneinander unabhängig, so ist Z = X + Y ebenfalls normalverteilt. Zur Vereinfachung verwenden wir hier die Standardform: 1 -½ x² -B·x² fN(x) = e = A·e 2π Es ist nun beweisbar, daß gilt: -B·x² -β·t² ℑ{A·e } = α·e Statistik Seite 63 Teil II: Elemente der Wahrscheinlichkeitstheorie * 5. Eigenschaften der Normalverteilung Dann folgt: h(z) = fN∗fN -2β·t² H(t) = FN·FN = α²·e mit FN = ℑ{f} und H = ℑ{h} -2β·t² -b·x² => ℑ-1{α²·e } = a·e vom Typ Normalverteilung Um die Werte von a und b feststellen zu können, berechnen wir µ und σ aus X und Y nach den bekannten Regeln: E(X) = E(Y) = 0 ∧ V(X) = V(Y) = 1 => E(Z) = 0 = µ ∧ V(Z) = 2 = σ² Also ist 1 1 x -¼ x² e-½ ( / 2)² = e h(z) = 2· π 2· 2π => d) Faltung und Korrelation Der Vollständigkeit halber wollen wir noch die Korrelation ansprechen, die der Faltung ähnlich ist: Faltung: f(x) ∗ g(x) = ∞ f(t)·g(x-t) dt ⌠ ⌡ -∞ Korrelation: f(x) ⊗ g(x) = ∞ f(t)·g(t-x) dt ⌠ ⌡ -∞ Bei der Korrelation sind im Argument der zweiten Funktion also nur x und t vertauscht: f(x) ⊗ g(x) = f(x) ∗ g(-x) Trotzdem ergeben sich hieraus einige wichtige Unterschiede zur Faltung: α) Die Korrelation ist nicht kommutativ, d.h. im allgemeinen gilt: f(x) ⊗ g(x) ≠ g(x) ⊗ f(x) β) Ist g(x) eine gerade Funktion, gilt: f(x) ⊗ g(x) = f(x) ∗ g(x) = g(x) ∗ f(x) ≠ g(x) ⊗ f(x) γ) Sind g(x) und f(x) gerade Funktionen, gilt: f(x) ⊗ g(x) = f(x) ∗ g(x) = g(x) ∗ f(x) = g(x) ⊗ f(x) δ) Die sogenannte Autokorrelation von f(x) ist: γf(x) = f(x) ⊗ f(x) (=> Aufg. 5.18. bis 5.19.) 64 Statistik Teil III: Beurteilende Statistik * 1. Testverteilungen Teil III: Beurteilende Statistik Die beurteilende Statistik, die auch schließende oder analytische Statistik genannt wird, beschäftigt sich mit Methoden, bei denen von einer Größe (z.B. x̄) einer Stichprobe auf die entsprechende Grundgesamtheit geschlossen wird. Auch auf die Verteilungsart wird dabei geschlossen. Die typische Formulierung der beurteilenden Statistik lautet dann auch: "Aufgrund einer Stichprobe läßt sich mit einer Wahrscheinlichkeit von γ (meistens in Prozent) eine Aussage (Hypothese) belegen oder widerlegen." Wir befassen uns im folgenden nur mit grundsätzlichen Denkansätzen und nicht mit den vielfältigen Methoden. Einführung - Beispiel: " Verwandtenehen in Bayern " (siehe Seite 47) typische, grundlegende Formulierung der beurteilenden Statistik α) Hypothese: Die Mädchen/Jungen-Verteilung dieser Stichprobe stammt aus einer Grundgesamtheit mit pMädchen = 0,48. β) Test/Prüfung dieser Hypothese wird zu einer vorgegebenen Wahrscheinlichkeit γ (z.B. γ = 95%) durchgeführt (Zurückschließen auf die Grundgesamtheit kann ja niemals ganz sicher durchgeführt werden!). Gesucht ist nämlich (zu dem Beispiel) derjenige Wert c mit P( XB ≤ c; pM = 0,48 ∧ n = 709 ) = γ = 95%. (Hier: c aus n.v.) γ) 95% aller Stichproben mit n = 709, die aus einer Grundgesamtheit mit pM = 0,48 gezogen werden, haben 362 oder weniger Mädchen unter den Neugeborenen. Hier ist also c = 362. Unsere Stichprobe enthält aber 386 ( >362 ). Mit der üblichen Formulierung bedeutet dies: Die Hypothese ist zu verwerfen. ( Berechnung von c: Normalverteilung -> ∧ µ = n·p = 0,48·709 = 340,32 σ² = n·p·q = 709·0,48·052 = 177 => σ = 13,3. c-340,32 Damit ist P( XB ≤ c; pM = 0,48 ∧ n = 709 ) ≈ Φ( 13,3 ) = γ = 95%. Laut Tabelle ist dann c = 362,2 ) 1. Testverteilungen Testverteilungen, auch Prüfverteilungen genannt, dienen zur Beurteilung von Stichproben. Wir wollen hier die wichtigsten vorstellen: a) Normalverteilung Statistik Seite 65 Teil III: Beurteilende Statistik * 1. Testverteilungen b) Chi - Quadrat - Verteilung Diese Verteilung, deren Name sich vom griechischen Buchstaben χ ableitet, wurde 1876 von F.R. HELMERT in die Statistik eingeführt. Grundlage hierfür bilden die Zufallsvariablen X1 , X2 , X3 , ... , Xn , die in Standardform normalverteilt und voneinander unabhängig sind. Dann ist die χ² - Verteilung wie folgt definiert: n Cn = ∑ i=1 "χ² - Verteilung mit n Freiheitsgraden" Xi² Diese Funktion ist unsymmetrisch, den Verlauf ihres Funktionsgraphen für die Freiheitsgrade 1 bis 5 ist in folgender Abbildung aufgetragen: Die Dichtefunktion zur χ² - Verteilung ist: K ·X½n-1·e-½x für x ∈ IRo+ fc(x) = n für x ∈ IR-o î 0 mit und 35 35 E(Cn) = n V(Cn) = 2n Kn muß so gewählt sein, daß funktion ist Γ(a) = F(∞) = 1 ist. Daraus ergibt sich 1 Kn = ½·n . Die Gamma2 ·Γ(½·n) ∞ e-t·ta-1dt . Schreiben wir a+1 statt a und integrieren partiell, ergibt sich folgende ⌠ ⌡ o Rekursionsformel, die an die Fakultät erinnert: Γ(a+1) = a·Γ(a). Einige Grundwerte müssen allerdings durch Integration ermittelt werden: Γ(1) = 1 und Γ(½) = π . (Die Gamma-Funktion finden wir übrigens auch bei der Definition der BESSEL-Funktion wieder: ∞ (-1)ν x m+2ν Jm(x) = · , vgl. z.B. Skript zu Holographie, Seite 23. ) ν!·Γ(m+ν+1) î 2 ∑ ν=0 66 ÕÖ Statistik Teil III: Beurteilende Statistik * 1. Testverteilungen Die Verteilungsfunktion Fc(x) = P(Cn ≤ x) wird üblicherweise über Tabellenbenutzung (-> siehe Anhang) ermittelt, da die Integralbildung über die Dichtefunktion recht mühsam ist. Dabei wird üblicherweise zu einer bekannten Wahrscheinlichkeit P und einem Freiheitsgrad n der Wert x gesucht. Sollten die Verhältnisse einmal umgekehrt sein, d.h. sollte einmal die Wahrscheinlichkeit gesucht sein, dann können wir mit der folgenden Näherung über die Normalverteilung arbeiten: Fc(x) ≈ Φ( 2π - 2n-1) = γ x = ½ (Φ-1(γ) + 2n-1)² <=> für n > 30 (Tabelle) Die Umformung erklärt auch die Näherung in der Tabelle. ( => Aufgabe 1.1) c) t - Verteilung Diese Testverteilung hat W.S. GOSSET 1908 entwickelt. Da er unter dem Pseudonym "STUDENT" veröffentlicht hat, wird die t-Verteilung auch "STUDENT-Verteilung" genannt. Die Grundlage ist wieder eine in Standardform normalverteilte Zufallsvariable sowie die χ² - Verteilung Cn mit n Freiheitsgraden: X Tn = 1 n Cn Der quantitative Verlauf der Dichtefunktion f(x,n) im Vergleich zu (0,1)-Normalverteilung fN(X) ist folgender Abbildung zu entnehmen: Zur Dichtefunktion ist zu sagen, daß sie symmetrisch zu x = 0 ist, mit dem Erwartungswert E(Tn) = 0 und der Varianz V(Tn) = n/n-2 , wobei für die Anzahl n der Freiheitsgrade n ≥ 3 gelten muß, denn für n = 1;2 hat die t-Verteilung keine Varianz! 36 In der Graphik ist bereits bei n = 300 kein Unterschied zur Normalverteilung zu erkennen. Tatsächlich gilt: lim ft(x) = fN(x, µ=0 , σ=1 ) . n→∞ Für die Verteilungsfunktion gilt aufgrund der Symmetrie FT(x) = 1 - FT(x) , eine Beziehung, die wir in ähnlicher Form bereits bei der Standardform der Normalverteilung kennengelernt haben (-> siehe Seite 38, 4.2.d)). Im allgemeinen benutzen wir auch hier die Tabelle, wobei wir zu einem gegebenem γ (=Wahrscheinlichkeit) und zu gegebener Anzahl n der Freiheitsgrade den entsprechenden x-Wert suchen, so daß gilt: γ = P(Tn ≤ x) = FT(x). 36 ft(x) = Γ(½·(n+1)) x² ½·(n+1) n·π·Γ(½·n)·(1+ n ) => Ft(x) = Γ(½·(n+1)) x du ⌠ u² n·π·Γ(½·n) (1+ )½·(n+1) n ⌡ · -∞ Für n = 1 ergibt sich die COUCHY-Verteilung, die keinen Mittelwert und keine Varianz hat (vgl. Seite 49). Statistik Seite 67 Teil III: Beurteilende Statistik * 2. Vertrauensintervall Wegen der Symmetrie ist Ft nur für γ > 50% bzw. x ≥ 0 tabelliert. Sucht man beispielsweise x zu P(t30 ≤ x) = 5%, so ergibt sich xzu5% = -1,70 aus der Tabelle aus xzu95% = 1,70. d) FISCHER-Verteilung Die FISCHER-Verteilung oder F-Verteilung, die 1924 von R.A. FISCHER eingeführt wurde, dient (u.a.) zum Vergleich der Varianzen zweier normalverteilter Zufallsvariablen. Sie entsteht aus Cm m F(x) = P( C ≤ X) mit Cn bzw. Cm chi-quadratverteilt mit n bzw. m Freiheitsgraden. n n Zu ihrer Berechnung ist ebenfalls die Γ-Funktion notwendig. Es soll hier nicht weiter auf die F-Verteilung eingegangen werden. 2. Vertrauensintervall Vetrauensintervalle, auch Vertrauensbereiche, Konfidenzintervalle oder Konfidenzbereiche genannt, geben an, in welchem Intervall sich ein Wert x mit einer gegebenen Wahrscheinlichkeit befindet. Wir wollen die Entwicklung der Methode zur Bestimmung von Vertrauensintervallen, die 1935 von J. NEYMANN entwickelt wurde, an einem Beispiel einführen: a) Einführendes Beispiel Gegeben sei eine Stichprobe mit n Elementen aus einer normalverteilten Grundgesamtheit, deren Mittelwert x̄ bekannt sei; σ sei ebenfalls bekannt und entspreche dem der Grundgesamtheit. Ziel ist es, zu einer gegebenen Wahrscheinlichkeit γ , sagen wir ca. 95%, die Intervallgrenzen d1, d2 so zu finden, daß für das unbekannte µ gilt: P(d1 ≤ µ ≤ d2) = γ . Wenn wir mehrere, voneinander unabhängige (µx;σx)-normalverteilte Zufallsvariable haben, so ist auch n σx² 1 Xi eine Zufallsvaribale mit σx̄ ² = n und E(x̄) = µx . deren Mittelwert X̄ = n· i=1 Für den normalverteilten, bekannten Mittelwert X̄ gilt dann: ∑ 95% ≈ P(µx̄ -2σx̄ ≤ X̄ ≤ µx̄ +2σx̄ ) = P( IX̄-µx̄ I ≤ 2σx̄ ) = P( Iµx̄ -X̄I ≤ 2σx̄ ) Dabei liegen X̄ und µx aber im gleichen Betragsausdruck, d.h. sie können miteinander vertauscht werden! Das ist eine wichtige Eigenschaft, da wir nun schreiben können: 95% ≈ P(X̄-2σx̄ ≤ µx̄ ≤ X̄+2σx̄ ) Da die Stichprobenelemente xi eine Realisierung von Xi sind, folgt: 95% ≈ P(x̄-2σx̄ ≤ µx̄ ≤ x̄+2σx̄ ) Da die Standardabweichung σx̄ allgemein ja mit der Wurzel aus der Anzahl der Stichprobenelemente kleiner wird (d.h. die Stichprobe wird genauer), können wir allgemein schreiben: σx̄ = => 68 σx n 95% ≈ P(x̄- c·σx ≤ µx ≤ x̄+ ) n n c·σx Statistik Teil III: Beurteilende Statistik * 2. Vertrauensintervall Also ist µ mit 95%iger Wahrscheinlichkeit im Intervall [ x̄ - c·σx n ; x̄ + c·σx n ] enthalten. Dabei berechnet sich c(γ), das den Multiplikator zu σ für die gegebene Wahrscheinlichkeit γ darstellt, über c(γ) = D-1(γ) 37. Die Tabelle zu D-1(γ) haben wir bereits bei der Normalverteilung kennengelernt (das Argument in der Tabelle heißt z, d.h. D-1(z) = z(D)). γ c 90% 1,645 95% 1,960 99% 2,576 Wir können also nun im zweiten Schritt unsere Überlegungen auf beliebige γ erweitern. Sehen wir uns ein weiteres Zahlenbeispiel an: Gegeben sei eine Stichprobe mit n = 100 , x̄ = 5. Es sei σ² aus der Grundgesamtheit bekannt mit σ² = 25. Für ein γ = 95% ist dann c·σx 1,96·5·2 = 2·10 = 0,98 . n Also folgt aus P(5-0,98≤ µ ≤ 5+0,98) = 95% => µ ist mit 95%iger Wahrscheinlichkeit im Intervall [4,02;5,98] enthalten. Zum leichteren Umgang mit dem Vertrauensintervall wollen wir noch einige Begriffe klären, bzw. definieren: × Ø Ù a = Ú Û ✎ c·σx => [x̄-a ; x̄+a] n µ = x±a Lv = 2·a γ α = 1 - γ => [bzw. 100% − γ] Vertrauensintervall für unbekanntes µ 38 Gerätetoleranz Länge des Vertrauensintervalls Vertrauenswahrscheinlichkeit (-zahl) Irrtumswahrscheinlichkeit Nehmen wir als Beispiel die Überprüfung der Lebensdauer von Glühbirnen. 300 (=n) Glühbirnen wurden auf ihre Lebensdauer, die im Mittel 1503 Stunden (=x̄) lang war, getestet. Die Standardabweichung bei der Überprüfung betrug 204,12 h (=s); wir nehmen hier an, daß sich eine theoretische Standardabweichung des normalverteilten Mittelwertes von 200 h (=σ) in langjährigen Versuchen herauskristallisiert hat. Gesucht wird das (zeitliche) Intervall, in dem der Erwartungswert µ der Lebensdauer einer Glühbirne mit einer Irrtumswahrscheinlichkeit von 5% (=α) liegt. Aus den bekannten Formel und Tabellen folgt: γ = 95% c(γ) = 1,960 (≈ 2) 1,96·200h => a = = 22,6h ≈ 23h 300 => µ = (1503 ± 23)h Mit 95%iger Wahrscheinlichkeit liegt also der Erwartungswert der Grundgesamtheit bei 1480 bis 1526 Stunden Lebensdauer. => Ergänzend können wir uns natürlich auch fragen, wieviele Stichprobenelemente wir ziehen müssen, damit µ auf ±1% von x̄ eingegrenzt ist, und zwar bei gleicher Wahrscheinlichkeit von 95%. Wir suchen also die Größe des notwendigen Stichprobenumfangs, bei der µ mit 95%iger Wahrscheinlichkeit im engen Intervall [x̄ - 15,03 h ; x̄ + 15,03 h] liegt: 37 38 Wir gehen also davon aus, daß x̄ normalverteilt ist. Schreibweise lt. KREYSZIG: KONFj { x̄-a ; x̄+a } Statistik Seite 69 Teil III: Beurteilende Statistik * 2. Vertrauensintervall 15,03 = a = 1,96·200h n => n = 683 Erst bei dem Test von 683 Glühbirnen haben wir also das Intervall auf 1% des Mittelwertes eingegrenzt. c·σx LV = 2· n Folgerungen: 1 n 2) LV wird bei wachsendem γ größer. 1) LV ~ ( => Aufg. 2.1. - 2.3. ) b) Erweiterung für unbekanntes σ . Als nächstes wollen wir uns das Vertrauensintervall bei unbekanntem µ und unbekanntem σ einer normalverteilten Grundgesamtheit anschauen: µ ∈ [x̄ - a; x̄ + a] c·s erhalten. Jetzt errechnet sich c jen doch nicht mehr aus der Standarddichtefunktion zur Normalverteilung D(x), sondern aus der t-Verteilung zur Zufallsvariablen Tn-1 , der t-Verteilung mit n-1 Freiheitsgraden. Wir können c also jetzt aus der Tabelle zur t-Verteilung entnehmen, da wir γ ja kennen: Dabei ergibt sich x̄ und s aus der Stichprobe, wodurch wir a = γ = P( - c ≤ Tn-1 ≤ c ) = FT(c) - FT(-c) = FT(c) - ( 1 - FT(-c)) = 2·FT(c) - 1 <=> FT(c) = ½ (γ + 1) wegen Symmetrie! Nehmen wir das Einführungsbeispiel vom Beginn der Vorlesung: "Körpergröße Grazer Mittelschülerinne" (siehe Seite 3). Dort hatten wir eine Stichprobe mit n = 100 Elementen mit dem Mittelwert x̄ = 165,05cm und dem Quadrat der Standardabweichung s² = 34,31 cm². Uns interessiert nun zum Beispiel das Vertrauensintervall, in dem mit 99%iger Wahrscheinlichkeit der Mittelwert der Grundgesamtheit µ liegt. Dann erhalten wir aus der Tabelle für die t-Verteilung nach obiger Umrechnungsformel c = 2,63, denn ½·(1+0,99) = 0,995 = F99(c) ≈ F100(2,63). Für a ergibt sich also: 34,41cm² = 1,54 cm a = 2,63· 100 Das Vertrauensintervall ist also µ ∈ [163,51 cm; 166,59 cm] ✎ Sehen wir uns noch zwei Zahlenbeispiele an: I. α = 5% ; n = 5 ½·(γ + 1) = ½·(0,95 + 1) = 0,975 Aus der Tabelle zu n-1 = 4 Freiheitsgrade entnehmen wir: c = 2,78 . ( Zum Vergleich: bei Normalverteilung würden wir erhalten: c = 1,96 ) II. α = 1% ; n = 100 ½·(γ + 1) = ½·(0,99 + 1) = 0,995 Für n-1 = 99 Freiheitsgrade erhalten wir: c = 2,63. ( Zum Vergleich bei Normalverteilung: c = 2,576 ) 70 Statistik Teil III: Beurteilende Statistik * 2. Vertrauensintervall Zusammenfassung: Fassen wir also noch einmal die beiden Verfahren zur Ermittlung von Vertrauensintervallen zusammen: Ü Ý c·σ n c·s a = n σ bekannt: a = σ unbekannt: mit c aus der Normalverteilung mit c aus der t-Verteilung zu Tn-1 Da die Verteilungsfunktion der t-Verteilung für n→∞ gegen die der Normalverteilung in Standardform strebt, unterscheidet sich bei hinreichend großen Stichproben s so wenig von σ, daß im allgemeinen der Unterschied des Ergebnisses zwischen diesen beiden Verfahren gar nicht so groß ist, wenn man bei unbekanntem σ für dieses (bei hoher Anzahl an Freiheitsgraden) s einsetzt. Bei kleinen Stichproben ist diese Näherung allerdings nicht zulässig! Herleitung: α ) Zur Erinnerung: Definition der t-Verteilung ( siehe Seite 67 ) Ist X eine in Standardform normalverteilte Zufallsvariable sowie Cn die χ²-Verteilung mit n Freiheitsgraden und sind Cn und X voneinander unabhängig, so ist : n X Tn = mit Cn = ∑ Xi² und Xi n.v.(0;1) für i = 1,..,n 1 i=1 C n n β) Gegeben seien n Zufallsvarible Xi mit E(Xi) = µ und V(Xi) = σ² für i = 1,..,n. Erweitern wir dies auf n ∑ 1 ihren Mittelwert: X̄ = n· Xi² i=1 mit σ² E(X̄) = µ , V(X̄) = n und σx̄ = σx .Dann ist n Y = X̄ - µ σ Xi - X̄ Xi - X̄ normalverteilt in Standardform (0;1) , ebenso . Nun können wir aus eine χ²-verteilte Zufallsσ σ varibale gewinnen: n X - X̄ n 1 i ( )² = · (X -X̄)². Cn-1 = σ² i = 1 i σ i=1 Die n-1 Freiheitsgrade kann man sich in etwa dadurch entstanden denken, daß durch den allen Werten Xi ∑ ∑ abgezogenen Mittelwert X̄ ein Freiheitsgrad wieder aufgehoben wird. Diese Zufallsvariable Cn ist nun unabhängig von X̄ und von Y, was hier aber nicht bewiesen werden soll. Wir erhalten jetzt durch Einsetzen in die Definitionsgleichung von Tn eine t-verteilte Zufallsvariable: Y Tn-1 = n 1 1 · · n-1 σ² i = 1(Xi-X̄)² ∑ X̄ - µ σ = n ∑ 1 · σ 1 n-1·i = 1(Xi-X̄)² X̄ - µ = n · = ∑ 1 n-1·i = 1(Xi-X̄)² X̄ - µ s² X̄ - µ s In dem so erhaltenen Ausdruck ist kein σ mehr vorhanden !!! Daraus folgt: X̄ - µ P(-ct-Vert ≤ s ≤ ct-Vert) = γ = Statistik Seite 71 Teil III: Beurteilende Statistik * 3. Hypothesentest c) Weitere Möglichkeiten für den Einsatz von Vertrauensintervallen α) Für (unbekanntes) σ der normalverteilten Grundgesamtheit β) Für p der Einzelerfolgswahrscheinlichket in der Binomialverteilung (bei kleinen Stichproben, sonst Übergang zur Normalverteilung). Dies ist sehr aufwendig und wird praktisch nicht verwendet. γ) Für µ bzw. σ bei unbekannter Verteilung (sogenannte "verteilungsfreie Tests") => Aufg. 2.4 bis 2.9 3. Hypothesentest 3.1. Parametertest Der Parametertest soll als ein Beispiel von einer ganzen Reihe von Testverfahren behandelt werden. Voraussetzung für ihn sind zwei normalverteilte Grundgesamtheiten mit je einer Stichprobe mit xi : ( i = 1, 2, 3, ..., nx ) bzw. yi : ( i = 1, 2, 3, ..., ny ). Es ist zu testen, ob x̄ und ȳ gleich sind, bzw. sich signifikant voneinander unterscheiden. Wenden wir als Beispiel die durchschnittliche Lebenserwartung von Frauen und Männern an, dann hieße die Hypothese: "Die durchschnittliche Lebenserwartung von Männern und Frauen ist gleich." bzw.: µx = µy . Diese ist mit einer vorgegebenen Irrtumswahrscheinlichkeit α gegen die Gegenhypothese zu testen, d.h. falls die Hypothese verworfen wird, wird die Gegenhypothese z.B. µx > µy angenommen. Die Art der Gegenhyptohese richtet sich nach der Art der Fragestellung, also µx > µy oder µx ≠ µy . ✎ Beispiel:39 Die Messung der Massen von Neugeborenen ergab für n1 = 288 Jungen die Durchschnittsmasse von x̄ = 3300g und s1 = 470g sowie für n2 = 269 Mädchen die Durchschnittsmasse von ȳ = 3050g und s2 = 460g . Wir sehen x und y als Realisierung einer Zufallsvariable mit µx und σx zu xi sowie µy und σy zu yi an. Dann ergibt sich als Hypothese: µx = µy <=> E( x̄ - ȳ ) = 0. Weiter setzen wir voraus, daß xi und yi normalverteilt und voneinander unabhängig sind. Dies wird oft ohne Prüfung "stillschweigend" angenommen. Um eine in Standardform normalverteilte Zufallsvariable zu erhalten, gehen wir zu Z über: σx² σy² x̄ - ȳ Z = mit σx̄ ² = n und σȳ ² = n x y σx² σy² + n n x y Für V(Z) ergibt sich: 39 72 Þ ß vgl. KREYSZIG 81.1. Statistik Teil III: Beurteilende Statistik * 3. Hypothesentest V(Z) = = V î σx̄ ² + V σx² σy² nx + ny î x̄ σx² σy² nx + ny = + ȳ σx² σy² nx + ny σȳ ² σx² σy² nx + ny σx² σy² nx + ny σx² σy² nx + ny = 1 Allgemeine Beispiele: Es soll x̄ mit µsoll verglichen werden und die Hypothese sei bzw. x̄ - µsoll = 0 (sogenannte Nullhypothese). Dann gibt es folgende Gegenhypothesen: α) β) γ) x̄ > µsoll x̄ < µsoll x̄ ≠ µsoll einseitiger Test - dto. zweiseitiger Test aus Φ-Funktion bei Normalverteilung - dto. aus D-Funktion bei Normalverteilung Die Ablehnung der Nullhypothese ist durch signifikante bzw. systematische Abweichungen begründet und unterscheidet sich damit von der zufälligen Abweichung. Der Parametertest wird in drei Schritten durchgeführt: Gegeben seien zwei Stichproben zu zwei normalverteilten Grundgesamtheiten; σx und σy seien unbekannt. 1) Bestimmung von c zu γ = 1-α = P(T≤c) zur t-Verteilung zu nx+ny-2 Freiheitsgraden. ✎ Beispiel: Für α = 1% ergibt sich c555 = c∞ = 2,33 (Tabelle ). 2) Berechnung von to nach: to = ✎ nx·ny·(nx + ny -2) · nx + ny x̄ - ȳ (nx - 1)·sx² + (ny - 1)·sy² oder aus Tabelle. Beispiel: to = 6,34. ✎ Falls to ≤ c : Annahme der (Null-) Hypothese µx = µy , andernfalls verwerfen. Beispiel: Die Annahme, daß die Grundgesamtheiten beider Stichproben gleiche Mittelwerte haben, ist mit 99%iger Sicherheit zu verwerfen. => Aufgabe 3.1. bis 3.5. 3) Für x̄ > ȳ : 3.2. Verteilungstest Der von K. PEARSON entwickelte Verteilungstest testet mit Hilfe einer Stichprobe die Hypothese, ob die Grundgesamtheit von einer bestimmten Verteilungsart ist. Die Verfahrensschritte hierzu befinden sich im Anhang in der Formelsammlung. Die Verteilungsart ist hierbei beliebig, z.B. diskret oder stetig. Statistik Seite 73 Teil III: Beurteilende Statistik * 3. Hypothesentest ✎ Beispiel 40: Aus einem Versuch zur Genetik erhält man 478 Erbsen, davon 355 gelbe und 123 grüne. Getestet werden soll die Behauptung, daß die Verteilung gelbe zu grüne Erbsen in der Grundgesamtheit 3:1 ist. Grundgedanke: Getestet wird, ob die Abweichungen zwischen Stabdiagramm (Histogramm) und thoretischer Kurve zufällig sind. Die Gegenhypothese hierzu lautet: Die Abweichungen sind "signifikant". zur Methode: Es werden die Differenzen zwischen den Stichproben- und den theoretischen Häufigkeiten quadriert und aufsummiert. Es entsteht eine χ²-Verteilung, wenn die einzelnen Summanden normalverteilt sind. In der Praxis wird allerdings selten geprüft, ob die Abweichungen statistisch normalverteilt oder etwa systematisch sind. ✎ z.B..: Wir bezeichnen den aus dem Stichprobenumfang multipliziert mit der vermuteten Wahrscheinlichkeit erhaltenen Wert mit e, den in der Stichprobe realisierten mit b: => e1 = 478·75% = 358,5 e2 = 478·25% = 119,5 k = 2 b1 = 355 b2 = 123 (478·0,75-355)² (478·0,25-123)² + = 0,137 478·0,75 478·0,25 Wegen k = 2 schlagen wir nun in der Tabelle zu einem (= k-1 !) Freiheitsgrad nach und erhalten z.B. für α = 5% bzw. γ = 95% : P(C1 ≤ c) = 0,95 => c = 3,84 Aus c = 3,84 > 0,137 folgt die Annahme der Hypothese, d.h. die Behauptung, daß sich gelbe Erbsen zu grünen in der Grundgesamtheit im Verhältnis 3:1 vorfinden, kann nach dem Versuch mit 95%iger Sicherheit bestätigt werden. χ² = => Übertragung des Beispiels mit zwei Merkmalsausprägungen auf k Merkmalsausprägungen: Voraussetzung: Für die Ereignisse Aj ist P(Aj) bekannt ( z.B.: P(Aj) = Pj ) => ej = n·P(Aj) ; bj aus der Stichprobe ( ohne Verwendung der Verteilungsfunktion ) ✎ Beispiel: Verwandtenehen (vgl. Seite 47 und 65)41 386 = b1 Hypothese: p1 = 0,48 => e1 = 709·0,48 323 = b2 p2 = 0,52 => e2 = 709·0,52 (709·0,48-386)² (709·0,52-323)² => χo² = + = 11,7913 709·0,48 709·0,52 Mit z.B. α = 5% folgt aus der Tabelle c = 3,84. Aus c = 3,84 < χo² = 11,7913 ergibt sich eine Ablehnung der Hypothese. ✎ Beispiel: Luftpostumschläge (vgl. Seite 43): 2 geschätzte Parameter ! j 40 41 74 à á â ã vj-1 vj bj vj-x̄ Φ( s ) ej Quotient =∆Φ·n 0 -∞..1,855 1,855 5 0,0465 4,65 0,0263 1 1,855..1,885 1,885 6 0,1335 8,70 0,8379 2 1,885..1,915 1,915 18 0,2946 16,11 0,2217 3 1,915..1,945 1,945 25 0,5120 21,74 0,4889 4 1,945..1,975 1,975 18 0,7291 21,71 0,6340 5 1,975..2,005 2,005 14 0,8810 15,19 0,0932 6 2,005..∞ ∞ 14 1,000 11,90 0,3706 vgl. KREYSZIG 85.1. vgl. KREYSZIG Aufg. 50.4. Statistik Teil III: Beurteilende Statistik * 4. Korrelation und Regression => χo² = 2,6727 k = 7 => k-1 wird wegen der zwei geschätzten Parametern um weitere zwei vermindert, so daß sich k-1-2 = 4 Freiheitsgrade ergeben. Aus der Tabelle ergibt sich c95% zu 4 Freiheitsgraden mit c = 9,49 . c ist also größer als χo², so daß die Hypothese aufgrund der Stichprobe angenommen werden kann ( => Aufg. 3.6. .. 3.11 ) Männer 67,4 70,4 71,8 ~73 1972 1983 1990 1992 Frauen 73,8 77,0 78,4 ~79 4. Korrelation und Regression 4.1. Korrelation In diesem Abschnitt wollen wir den linearen Zusammenhang zwischen Zufallszahlen untersuchen. Es sei (X;Y) ein Zufallszahlenpaar, bzw. (xi ; yi ) zwei Merkmalsausprägungen zum i-ten Merkmalsträger (das können beispielsweise Körpergröße und Gewicht von Menschen sein, wobei wir hier wohl eher einen linearen Zusammenhang vermuten dürfen, als bei Schuhgröße und Augenfarbe), dann läßt sich eine Maßzahl berechnen bzw. ρ r für (X/Y), für (xi ; yi ), die ein Maß für den Zusammenhang (=Korrelation) zwischen X und Y, bzw. xi und yi angibt. Man nennt daher ρ und r auch Korrelationszahl, -maß oder -koeffizient. Wir wollen nun untersuchen, ob eine lineare Abhängigkeit zwischen X und Y (bzw. xi und yi ) besteht: Y = β·X + γ yi = b·xi + c Dabei handelt es sich nicht um die aus der Mathematik bekannte funktionelle, d.h. deterministische Abhängigkeit, sondern vielmehr um statistische lineare Abhängigkeit. Die Regression ist ein "Unterpunkt" der Korrelation. Sie berechnet die Werte für β und γ (bzw. b und c) der Ausgleichsgerade durch die Stichprobenpunkte. Ein Beispiel ist das sogenannte "Idealgewicht" erwachsener, männlicher Personen, das sich nach Masse [kg] = 0,9 kg/cm · Größe [cm] berechnet (d.h. b = 0,9 ; c = 0). Die Kovarianz sxy einer Stichprobe ist wie folgt definiert: 1 1 sxy = n-1 (xi - x̄)·(yi - ȳ) = n-1 xi yi - n·x̄·ȳ î i=1 i=1 n ∑ n ∑ 1 xi yi k(xi,yi)- n·x̄·ȳ sxy = n-1 î i=1 i = 1..n: Merkmalsträger m <=> ∑ m: Anzahl der Merkmalsausprägungen Statistik Seite 75 Teil III: Beurteilende Statistik * 4. Korrelation und Regression Die Kovarianz ist der Varianz sehr ähnlich, die sich ja aus n ∑ 1 sx² = n-1 (xi - x̄)² i=1 sx² ∈ IR+ berechnet. Die Kovarianz kann allerdings auch negative Werte annehmen (sxy ∈ IR) . Der Korrelationskoeffizient r ist definiert durch sxy r = s ·s . x y a) Allgemein gilt: => sxy² ≤ sx²·sy² - sx·sy ≤ sxy ≤ sx·sy 42 => -1 ≤ r ≤ 1 b) Für r = 0 besteht kein linearer statistischer Zusammenhang zwischen X und Y, es können aber andere Zusammenhänge bestehen, die durch dieses Verfahren ja nicht erfaßt werden. c) Besteht eine vollständig lineare und damit deterministische (!) Abhängigkeit zwischen X und Y, so folgt r = ±1 . d) r ist dimensionslos. ✎ 1. Beispiel: Ein Quadrat mit folgenden Eckpunkten (n = 4) soll auf lineare statistische Abhängigkeit seiner yvon seinen x-Koordinaten untersucht werden: (4/19), (6/19), (4/21), (6/21). Es folgt: x̄ = 5; ȳ = 20; sx² = sy² = 4/3 ; sxy = 1/3 (1-1-1+1) = 0 => r = 0 Es besteht also keine lineare Abhängigkeit (bzw. statistische lineare Unabhängigkeit). ✎ 2. Beispiel: Ein Dreieck (n = 3) mit den Koordinaten (1/5); (4/1); (5/4). Hier gilt x̄ = ȳ = 10/3; sx² = sy² = 13/3 ; sxy = - 13/6 => r = - 13·3/6·13 = -½ Die lineare Abhängigkeit ist hier schon größer, wie auch die folgende Skizze verdeutlicht. 42 76 hier ohne Beweis Statistik Teil III: Beurteilende Statistik * 4. Korrelation und Regression Zum Korrelationskoeffizienten gibt es auch ein Testverfahren. Dazu wollen wir zunächst die Herleitung für den Korrelationskoeffizienten von Zufallszahlpaaren nachholen, da sich der oben betrachtete Koeffizient r ja nur auf eine konkrete Stichprobe bezieht. Für Zufallszahlpaare gilt analog σxy = E[(xi - x̄)·(yi - ȳ)] => σxy = (x - µx)·(y - µy)·f(x;y) dx dy ⌠ ⌡⌠ ⌡ da E(x) = x̄ = µx ; E(y) = ȳ = µy mit f(x;y) = Dichtefunktion abhängig von x und y 43 => ρ = σxy σx·σy . Die Verfahrensschritte sind dann zum Test der Nullhypothese ρ = 0 gegen ρ ≠ 0 bei einer Stichprobe: 1. Bestimmung von c aus P(Tn-2 ≤ c) = ½·(1+γ), wenn es sich um einen zweiseitigen Test handelt: Gegenhypothese: ρ ≠ 0 → zweiseitiger Test Gegenhypothese: z.B. ρ > 0 → einseitiger Test => Bestimmung von c aus P(Tn-2 ≤ c) = γ => czweiseitig > ceinseitig 2. Berechnung von to nach 43 Ist der Funktionsgraph rotationssymetrisch um die f(x,y)-Achse, ergeben also die waagerechten Schnitte Kreise, so sind x und y unabhängig. Sind x und y voneinander abhängig, sind die waagerechten Schnitte Ellipsen. Statistik Seite 77 Teil III: Beurteilende Statistik * 4. Korrelation und Regression to = r · n-2 1-r² 44 3. Falls It0I ≤ c , wird die Nullhypothese ρ = 0 angenommen, andernfalls wird sie abgelehnt. Auch hier gilt wieder, daß sich der Test nur auf einen linearen Zusammenhang bezieht. In der Praxis wird bei großen Stichproben xi und yi häufig ungeprüft als normalverteilt angenommen bzw. vorausgesetzt. ✎ Auf Beispiel 2 von oben angewendet ergibt der Test: t0 ≈ -0,58 ; c95%;2seitig = 12,7 ; c95%;1seitig = 6,31 , d.h. Annahme der Hypothese, daß die drei Koordinaten linear unabhängig sind. ✎ Beispiel: b1 b2 b3 ngesamt nZZ nZK + nKZ nKK 40 10 16 14 Annahme A: Die Stichprobe stammt aus einer Grundgesamtheit mit folgenden Eigenschaften: p1 = ¼ ; p2 = ½ ; p3 = ¼ ei = n·pi => e1 = 10; e2 = 20; e3 = 10 k => χo² = (ei -bi)² = 2,4 ei i=1 ∑ Aus der Tabelle entnehmen wir: c2Freiheitsgrade,95% = 5,99 bzw. c2Freiheitsgrade,99% = 9,21 Aus χo² < c folgt die Annahme, daß die Stichprobe aus einer oben beschriebenen Grundgesamtheit stammt. Annahme B: Die Stichprobe stammt aus einer Grundgesamtheit mit folgenden Eigenschaften: 1 1 1 p1 = 3 ; p2 = 3 ; p3 = 3 40 40 40 ei = n·pi => e1 = 3 ; e2 = 3 ; e3 = 3 k (e -b )² 7 i i => χo² = = 5 e i i=1 ∑ Die Stichprobe läßt ebenfalls den Schluß zu, daß sie aus dieser Grundgesamtheit stammt. Zur besseren Entscheidung müßte eine weitere Stichprobe gemacht werden. Sind X und Y voneinander unabhängig, so kann unabhängig von der Verteilungsart gefolgert werden, daß σxy = 0 bzw. ρ = 0 . Umgekehrt kann aus der Voraussetzung σxy = 0 = ρ nicht die Unabhängigkeit der Zufallsvariblen gefolgert werden. Man sagt daher dann: X und Y sind "unkorreliert". Lediglich bei normalverteilten Zufallsvariablen ist der Schluß auf Unabhängigkeit in dieser Richtung zulässig. 44 In Formelsammlungen findet man auch folgende Formel, die sich nur durch das Vorzeichen von r unterscheidet: n-2 n-2 n-2 1 to = r · to = 1-r² = 1/r · 1-r² <= 1 r² - 1 78 Statistik Teil III: Beurteilende Statistik * 4. Korrelation und Regression ✎ Beispiel: Die Stichprobe Körpergewicht/-größe ergibt ein r = 0,7575 für n = 765: t0 32,06 > c763;95% => Ablehnung der Hypothese ρ = 0. ✎ Beispiel: 1. Erzeugen wir y als lineare Transformation aus x mit y = 3x + 20, so ergibt sich z.B.: P1(9/47); P2(10/50); P3(11/53) => x̄ = 10 ; ȳ = 50 , sx² = 1 ; sy² = 9 ; sxy = 3 => r = 1 2. Erzeugen wir y nichtlinear aus x durch y = 3(x-10)² + 50, so folgt: P1(9/53) ; P2(10/50) ; P3(11;53) ; => x̄ = 10 ; ȳ = 52 , sxy = 0 => r = 0 Mit der Berechnung von Vertrauensintervallen für das ρ der Grundgesamtheit mit dem Ergebnis wollen wir uns hier nicht befassen.45 ä ρ ∈ [m;n] Hinweis: ∞ E[g(x)] = g(x)·f(x) dx f(x) Dichtefunktion ⌠ ⌡ -∞ σxy = E[(X-µx)·(Y-µy)] = ∞ ∞ ⌠ ⌠[(X-µx)·(Y-µy)·f(x,y) dxdy mit f(x,y) als Dichtefunktion ⌡⌡ -∞ -∞ E[a·g(x) + b·h(x)] = a·E[g(x)] + b·E[h(x)] "Linearität" 4.1.1. Transformation von Zufallszahlpaaren Voraussetzung: X und Y sind unabhängig und beliebig verteilt mit E(X) = µx ; E(Y) = µy ; V(X) = E[(x-µ)²] = σx² ; V(Y) = E[(y-µ)²] = σy² ; σxy = E[(X-µx)·(Y-µy)] Definieren wir nun zwei neue Zufallsvariablen R und S: R = aX + bY und S = αX + βY Dann gilt für deren Mittelwerte µR = E[aX+bY] = aE(x) - bE(y) = aµx + bµy siehe oben: Linearität des Erwartungswertes und µS = αµx + βµy und für die Varianzen: 45 å æ siehe hierzu KREYSZIG, Abschnitt Nr. 109 Statistik Seite 79 Teil III: Beurteilende Statistik * 4. Korrelation und Regression σR² = = = = = = = ebenso: σS² und für die Kovarianz: σRS = = = = = = ρRS => a) b) c) = E[(R-µR)²] E[{(aX+bY)-(aµx+bµy)}²] E[{a(X-µx) + b(Y-µx)}² a²E[(X-µx)²] + 2abE[(X-µx)(Y-µy)] + b²E[(Y-µy)²] a²σx² + 2ab·σxy + b²σy² a²σx² + b²σy² da σxy = 0 α²σx² + β²σy² E[R(R-µR)(S-µS)] E[({aX+bY} - {a·µx+b·µy})·({αX+βY} - {α·µx+β·µy}) ] E[{a(X-µx)+b(Y-µy)}{α(X-µx)+β(Y-µy)}] aα·E[(X-µx)²] + (aβ+bα)·E[(X-µx)(Y-µy)] + bβ·E[(Y-µy)²] aα·σx² + (aβ+bα)·σxy + bβ·σy² aα·σx² + bβ·σy² aα·σx² + bβ·σy² (a²σx² + b²σy²)(α²σx² + β²σy²) b = 0 = α => ρRS = 0 Hieraus läßt sich schließen, daß R und S unkorreliert sind. R = aX ; S = bY Hier läßt sich die Unabhängigkeit von R und S ablesen. α = Aa·β = Ab mit A ∈ IR\{0} => S = A·R S ist lineare Transformation von R. Aa²·σx² + Ab²·σy² ρRS = (a²σx² + b²σy²)(a²σx² + b²σy²)A² A = |A| = sgn(A) ( = ±1 ) Aus einem Ergebnis ρ = ±1 läßt sich aber nicht umgekehrt schließen, daß es sich um eine Transformation handelt! Wir wollen nun zeigen, daß gilt: -1 ≤ ρRS ≤ 1 <=> 0 ≤ ρRS² ≤ 1 (aα·σx² + bβ·σy²)² ρRS² = (≥0) (a²σx² + b²σy²)(α²σx² + β²σy²) = = a²α²·σx4 + 2aαbβ·σx²·σy² + b²β²·σy4 a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4 a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4 + 2aαbβ·σx²·σy² - (a²β²+α²b²)·σx²·σy² a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4 (a²β²+α²b² - 2aαbβ)·σx²·σy² = 1=1- a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4 (aβ - αb)²·σx²·σy² 4 a²α²·σx + (a²β²+α²b²)·σx²·σy² + b²β²·σy4 weil d) (aβ - αb)²·σx²·σy² a²α²·σx4 + (a²β²+α²b²)·σx²·σy² + b²β²·σy4 a = 1 ; b = 0 ; α, β beliebig; ρRS gegeben => R = X und S = αX + bY mit mit α = ±1 folgt: 80 ≤1; Statistik ρRS = α·σx² σx²(α²σx² + β²σy²) ≥0 Teil III: Beurteilende Statistik * 4. Korrelation und Regression => => ρRS²σx²(σx² + β²σy²) = σx4 σx² σx² + β²σy² = ρRS² σx² - σx²·ρRS² => β² = => S = ±X± σy²·ρRS² σx² - σx²·ρRS² ·Y σy²·ρRS² Auf diese Art und Weise lassen sich Zufallsvariablen jeder beliebigen Korrelation generieren. ç Zweidimensionale Dichtefunktion (joint distribution) X,Y seien (0;1)-normalverteilt und ρ-korreliert, dann ist: 1 -1/2(1-ρ²)·(x²-2ρxy+y²) f(x,y) = ·e 2π x y => P(X≤x;Y≤y) = ⌠ ⌠f(a,b) da db = F(x,y) ⌡⌡ -∞-∞ ρ = 0.9 ρ = 0 ρ = -0.9 è 46 Hinweis zu Berechnungen bei großen Stichproben (z.B. Stichprobe Körpergewicht/-größe Seite 79 mit n = 765): 1 1 Es ist sehr aufwendig, nach der Formel sxy = n-1 (xi - x̄)(yi - ȳ) oder sxy = n-1 xi yi k(xi,yi) - n·x̄·ȳ î i=1 i=1 zu rechnen, da wir über alle 765 Merkmalsträger oder zumindest über alle vorkommenden Merkmalsausprägungen einzeln addieren müßten. ( i = 1,..,765 Merkmalsträger und j·I Merkmalsausprägungen mit j = 1,..,mx ; l = 1,..,my und k(xj,yl) = kj,l ). n ∑ m ∑ n ∑ 1 So wird x̄ hier besser als mit n-1 xi folgendermaßen berechnet: i=1 46 Ist der Funktionsgraph rotationssymetrisch um die f(x,y)-Achse, ergeben also die waagerechten Schnitte Kreise, so sind x und y unabhängig. Sind x und y voneinander abhängig, sind die waagerechten Schnitte Ellipsen. Statistik Seite 81 Teil III: Beurteilende Statistik * 4. Korrelation und Regression 1 1 x̄ = n xi· k(xj,yl) = n · xj·kj· = xj·hj , i=1 î i=1 i=1 i=1 ebenso die Varianz: mx my ∑ mx ∑ mx ∑ ∑ 1 sx² = n-1 xj²·kj··- n·x̄² . î i=1 mx ∑ Für y gilt entsprechendes: 1 1 ȳ = n yi· k(xj,yl) = n · yj·kj· = yj·hj , i=1 î i=1 i=1 i=1 ebenso die Varianz: mx my my ∑ ∑ my ∑ ∑ 1 sy² = n-1 yj²·kj··- n·ȳ² . î i=1 my ∑ Dann errechnet sich die Kovarianz folgendermaßen: 1 xj·yl·k(xj,yl)·- n·x̄·ȳ . sxy = n-1 î i = 1l = 1 mx my ∑∑ 4.2. Regression Die Regression beschäftigt sich wie schon gesagt mit der Berechnung von β und γ (bzw. b und c). Wir wollen hier b und c zu yi = b·xi + c einschließlich Signifikanztest herleiten. Dazu soll zunächst eine Ausgleichsgerade gesucht werden, die den Punkten P(xi/yi) "möglichst gut angepaßt" ist. Man spricht von xi auch als Einfluß- und von yi als Zielgröße. Der Ansatz ist, daß die Summe g(b;c) der orthogonal zur x-Achse liegenden Abstände der Punkte P(xi/yi) von der Gerade ein Minimum sein soll (AbweichungsquadratminimierungsAnsatz von GAUSS): n g(b;c) = ∑ [yi - (b·xi + c)]² i=1 mit g(b;c) → Minimum ⇒ Nullstelle der 1. Ableitung suchen 47 n I. 47 ∂g(b,c) = - 2· [yi - (b·xi + c)] ∂c i=1 ∑ Wenn ein anderer als ein linearer Zusammenhang vermutet wird, kann mit den gleichen n Grundgedanken eine Ausgleichskurve ermittelt werden: ∑ [yi - f(xi)]² → Minimum bzw. bei Abhängigkeit von i=1 n mehreren Parametern eine Ausgleichsfläche etc.: ∑ [yi - f(ai,bi,ci,..)]² → Minimum. Ist f ein Polynom, ist die i=1 Ermittlung der Parameter problemlos. Lediglich bei Exponentialfunktionen ist die Ermittlung unangenehm. 82 Statistik Teil III: Beurteilende Statistik * 4. Korrelation und Regression n ∑ [yi - (b·xi + c)] => = 0 i=1 n n i=1 i=1 ∑ yi - b· ∑ xi - n·c <=> <=> ȳ - b·x̄ = c <=> ȳ = b·x̄ + c = 0 I :n Der Punkt P(x̄/ȳ) der Mittelwerte liegt also in jedem Fall auf der gesuchten Gerade. n ∂g(b,c) = - 2· (yi xi - b·xi² - c·xi) ∂b i=1 ∑ II. n => ∑ yi xi n - b· i=1 ∑ yi xi -b î ∑ xi = 0 i=1 n - b· i=1 <=> n - c· i=1 n <=> ∑ x i² ∑ xi² - (x̄ - b·x̄)·n·x̄ = 0 da c = x̄ - b·x̄ (siehe I. partielle Ableitung) i=1 ∑ xi² - n·ȳ² + ∑ yi xi - n·x̄·ȳ n n i=1 i=1 <=> - b·(n-1)·sx² + (n-1)·sxy = 0 <=> sxy b = s ² x = 0 ( entsprechend: β = σxy σx² ) b heißt auch Regressionskoeffizient. ✎ Beispiel: é 48 Körpergewicht (y) / Körpergröße (x) von 9½-jährigen Schülern: logarithm. Gewicht: b = 0,7099 c = -49,67 logy = 0,7·x - 50???? kg lineares Gewicht: b = 0,4765cm c = -35,16cm gerundet: y ≈ 0,5(x-70) kg Dies ergibt z.B. für x = 160cm: y ≈ 0,5cm·(x-70cm) = 45 kg kg Vergleich zu Erwachsenen ("Arztformel") mit x = 160 : y ≈ 0.9cm·(x-100cm) = 54 kg Hinweise: a) sgn(b) = sgn(r) b) [y] b hat die Dimension [x] (im Gegensatz zu r, das dimensionslos ist.) 49 48 siehe auch Seite 79 Dies eröffnet ein weites Feld zur Manipulation des Zahlenwertes von b: Je nach gewählter Einheit wird der Zahlenwert größer oder kleiner ! 49 Statistik Seite 83 Teil III: Beurteilende Statistik * 4. Korrelation und Regression Die statistische Beurteilung der Regression läßt einen Rückschluß von der Stichprobe auf die Grundgesamtheit zu. Voraussetzung für den Signifikanztest ist, daß Y zu einem festen X normalverteilt ist. Dann wird die Hypothese β = β0 gegen eine Alternative getestet. In der Regel wird die Hypothese β0 = 0 (Nullhypothese) aufgestellt ( identisch mit ρ = 0 ) mit der Gegenhypothese β < 0 bzw. β > 0 als einseitiger Test oder β ≠ 0 als zweiseitiger Test. Die Formel zu to bzgl. des Regressionskoeffizienten ist dieselbe wie die für den Korrelationskoeffizient. Auf den Test βo ≠ 0 werden wir hier nicht eingehen, da dies in der Praxis zu umständlich und zu selten ist 50. ê Zuletzt noch einige Hinweise über Voraussetzungen und Aussagen bei Korrelation und Regression 1. ohne Voraussetzungen über eine bestimmte Verteilung von X und Y: a ) ρ = ±1 Y = βX+γ Y ist funktional (deterministisch) abhängig von X, lineare Transformation b) σxy = E[(X - µx)(Y - µy)] = E[XY - µxY - µyX + µxµy] = E(XY) - µx E(Y) - µy E(X) + µxµy = E(XY) - E(X)·E(Y) = E(X)·E(Y) - E(X)·E(Y) = 0 , da X und Y unabhängig sind! c) Aus σxy = 0 folgt aber nicht allgemein, daß X und Y unabhängig (unkorreliert) sind. 2. unter der Voraussetzung, daß X und Y normalverteilt sind: a) ρ = 0 => X und Y sind unabhängig b) Die Tests zu ρ = 0 bzw. β = 0 sind anwendbar ✎ Beispiel zur Korrelation der Noten zur FP Mathematik und der Noten zur PV Mathematik: m = 0.539 b = 1.4 rpv,fp = 0.504 ¯pv¯ = 3.1 ¯fp¯ = 3.071 Wir wollen nun testen, ob die Stichprobe den Schluß zuläßt, daß pv und fp in der Grundgesamtheit korreliert sind: n-2 14-2 t0 = = = 2,024 . 1 1 1 1 r² 0.504² Da wir vermuten, daß ρ in keinem Fall kleiner null ist, können wir einen einseitigen (und damit genaueren) Test verwenden: c95%;n=12 = 1,772 . Da t0 > c , ist die Hypothese ρ = 0 abzulehnen. 50 84 ë ì näheres siehe KREYSZIG Statistik í Teil III: Beurteilende Statistik * 4. Korrelation und Regression abschließende Bemerkungen a) Scheinkorrelation bzw. Scheinregression Es können selbstverständlich bei eigentlich unabhängigen Zufallsvariablen Stichproben auftreten, die hohe Regressionswerte ergeben und so die Interpretation eines sachlichen oder direkt-kausalen Zusammenhang fördern (Paradebeispiel Anzahl Störche und Anzahl Geburten siehe z.B. KREYSZIG). Auch wenn ein Verdacht auf sachlichen Zusammenhang durch weitere Stichproben mit guter Korrelation wirklich erhärtet werden kann, so sollte man bei der Interpretation von Ursache und Wirkung darauf achten, daß die sachliche Verknüpfung auch dadurch entstanden sein kann, daß beide Zufallsvariablen von einer gemeinsamen Ursache abhängen . b) Erweiterung α) nichtlineare Regression z.B.: Y = αX² + βX + γ oder Y = α·eβX (Hier ist die Bestimmung von α,β schwieriger) β) multiple Regression Es ist auch möglich, daß eine Zufallsvariable mit mehreren korreliert: z.B.: Z = αX + βY + γ In beiden Fällen können die Koeffizienten α,β,γ durch statistische Tests beurteilt werden. Statistik Seite 85 Anhang * Aufgaben Anhang Aufgaben Aufg.1.10 51: Ein Gehäuse bestehe aus einem Oberteil, einem Unterteil und einer Dichtung. Die Wahrscheinlichkeit, daß Ober- und Unterteil Ausschuß sind, betrage je 5%., der Wahrscheinlichkeit einer fehlerhaften Dichtung sei 10%, und es bestehe Unabhängigkeit. Wie groß ist die Wahrscheinlichkeit, daß ein Gehäuse völlig einwandfrei ist ? Aufg. 3.4.:52 Man zeige, daß n f(x) = î x px qn-x für p = 0,5 die folgende einfache Form gewinnt: n 1 f(x) = n · î x . 2 Aufg. 3.5.: Wie groß ist die Wahrscheinlichkeit, daß wenigstens 14 von 15 Meßergebnissen eine geradzahlige letzte Ziffer besitzen (wie unlängst in einer Fachzeitschrift zu sehen war), wenn gerade und ungerade letzte Ziffer gleichwahrscheinlich sind. Aufg. 3.6.: Sechs unter den acht am 1.10.1961 in der Universitätsklinik Graz geborenen Kinder waren Jungen. Wie groß wäre die Wahrscheinlichkeit eines solchen Ereignisses, wenn Jungen und Mädchengeburten gleichwahrscheinlich wären ? Aufg. 3.7.: Bei einem Experiment sei die Wahrscheinlichkeit, einen positiven bzw. einen negativen Meßwert zu erhalten, jeweils gleich ½. Wie groß ist dann die Wahrscheinlichkeit, bei 9 Ausführungen des Experimentes höchstens einen einzigen negativen Wert zu erhalten ? Aufg. 3.8.: Welche Anzahl von "Köpfen" hat bei 2, 4, 10, 100 nacheinander ausgeführten Münzwürfen die größte Wahrscheinlichkeit? Aufg. 3.9.:53 Durch Versuche sei festgestellt worden, daß 5% der Zwiebeln einer großen Menge einer bestimmten Blumenzwiebelsorte nicht keimen. Diese Zwiebelsorte wird in Zehnerpackungen auf den Markt gebracht und es wird eine Keimgarantie von 90% gegeben. Wie groß ist die Wahrscheinlichkeit, daß eine bestimmte Packung dieses Garantieversprechen nicht erfüllt? Aufg. 3.10.: Wie ändert sich die Lage in Aufg. 3.9., wenn eine Keimgarantie von nur 80% gegeben wird ? Aufg. 3.11.: Fünf Arbeiter, die unabhängig arbeiten, benötigen elektrischen Strom, und zwar jeder mit Unterbrechung durchschnittlich etwa 10 Minuten je Stunde. Genügt es, die Stromversorgung so einzurichten, daß drei Arbeiter gleichzeitig Strom entnehmen können, oder entstehen dann erhebliche Wartezeiten, während 4 oder 5 Arbeiter gleichzeitig Strom entnehmen wollen ? Aufg. 3.12.: Wieviele Schüsse sind notwendig, um mit einer Wahrscheinlichkeit von 0,9 wenigstens einen Treffer zu erzielen, wenn die Trefferwahrscheinlichkeit je Schuß gleich 0,1 ist ? Aufg. 3.13.: Bei einem Produktionsprozeß trete auf lange Dauer 5% Ausschuß auf, und es bestehe Unabhängigkeit zwischen der Herstellung der einzelnen Stücke. Man bestimme und zeichne die Wahrscheinlichkeit, unter 10 Stücken 0; 1; 2; .. 10 Ausschußstücke zu erhalten. Aufg. 3.14.: Bei einem Fabrikationsprozeß elektrischer Sicherungen will man erreichen, daß höchstens 1% der Produktion Ausschuß ist. Hierzu kontrolliert man den Prozeß stündlich, indem man aus der Produktion der letzten Stunde 10 Sicherungen zufällig auswählt und prüft. Sind nicht alle diese 10 Sicherungen brauchbar, so stoppt und überprüft man diesen Prozeß. Man berechne die Wahrscheinlichkeit, daß der Prozeß nicht gestoppt wird, auch wenn tatsächlich einmal 2% Ausschuß produziert wird. Aufgrund des Ergebnisses fälle man ein Urteil über die Zweckmäßigkeit des Verfahrens. Aufg. 3.16.: Berechnen Sie zu den folgenden Tabellen x̄ und s² sowie auf zwei Nachkommastellen genau die theoretischen absoluten Häufigkeiten bei beiden Tabellen unter der Annahme, daß die beobachteten Häufigkeiten POISSON-verteilt sind. 51 52 53 86 î ï ð ñ ò ó vgl. KREYSZIG, Aufgabe 20.4. 3.4. bis 3.8.: vgl. KREYSZIG 41.2 bis 41.6 3.9. bis 3.14.: vgl. KREYSZIG 41.9 bis 41.14 Statistik Anhang * Aufgaben Zählung von alpha-Teilchen : Anzahl von Zeitintervallen der Länge 7,5 sec mit x Teilchen pro Zeitintervall x beobachtet 0 57 1 203 2 383 3 525 4 532 5 408 6 273 7 139 8 45 9 27 10 10 11 4 12 2 0 ≥ 13 Verkehrszählung: Anzahl von Zeitintervallen der Länge 30 sec mit x Personenkraftwagen pro Intervall x 0 1 2 3 4 5 6 7 8 ≥9 beobachtet 6 18 21 26 16 8 2 1 2 0 Aufg. 3.17.:54 Eine Ladung Saatgut wird in Pfundpäckchen verkauft. Jedes Päckchen enthält rund 1000 Samenkörner. Von früheren Prüfungen her sei bekannt, daß etwa 1% der Körner nicht der Sorte des Saatgutes angehören. Wie groß ist die Wahrscheinlichkeit, daß in einem bestimmten Päckchen mehr als 10 solche "fremde" Körner sind ? Aufg. 3.18.: Seriengefertigte Rundfunkwiderstände von 50Ω Nennwert werden in Packungen zu je 100 Stück geliefert. Dabei wird die Garantie gegeben, daß alle Widerstände zwischen 45 und 55Ω liegen. Wie groß ist die Wahrscheinlichkeit, daß eine bestimmte Packung diese Zusage erfüllt, wenn die Wahrscheinlichkeit, einen Widerstand zu produzieren, der nicht zwischen 45 und 55Ω liegt, erfahrungsgemäß nur 0,2% beträgt? Aufg. 3.19.: Wie groß ist die Wahrscheinlichkeit, daß in einem Dorf mit 500 Einwohnern wenigstens einer am 24. Dezember Geburtstag hat ? Aufg. 3.20.:55 Eine Fernsprechvermittlung erhalte während der Hauptbetriebszeit durchschnittlich 300 Anrufe stündlich. Sie kann maximal 10 Verbindungen je Minute herstellen. Man benütze die POISSON-Verteilung zur Abschätzung der Wahrscheinlichkeit, daß die Vermittlung während einer beliebigen gegebenen Minute in der Hauptbetriebszeit überlastet ist, d.h. mehr Anrufe erhält, als sie Verbindungen herstellen kann. Aufg. 3.21.: Für welches x hat µx fP(x, µ) = x! ·e-µ bei gegebenem µ den größten Wert ? Aufg. 4.11.:56 Die Zufallsvariable X sei normalverteilt um den Mittelwert 10. Wie groß darf σ höchstens sein, damit die Wahrscheinlichkeit, daß X irgendeinen Wert x≥15 annimmt, nicht größer als 5% ist ? Aufg. 4.12.: Wie ändert sich das Ergebnis in Aufg. 4.11, wenn man x≥15 durch x≥11 ersetzt? 54 55 56 ô õ ö ÷ ø ù 3.17 bis 3.19: vgl KREYSZIG 43.1 bis 43.3 3.20 bis 3.21: vgl KREYSZIG 43.7 bis 43.8 vgl. KREYSZIG Aufg. 49.6 49.7 und 49.9 . Statistik Seite 87 Anhang * Aufgaben Aufg. 4.13.: Eine Firma stellt Luftpostumschläge her, deren Gewicht erfahrungsgemäß normalverteilt ist mit dem Mittelwert µ = 1,95g und der Standardabweichung σ = 0,05g . Wie viele Umschläge, die 2g oder mehr wiegen, muß man dann in einem Päckchen von 100 Umschlägen etwa in Kauf nehmen? zu Aufg. 5.1. und 5.3.:57 Lebensdauer von Glühlampen in Stunden: Lebensdauer Häufigkeit 950 .. 1050 4 1050 .. 1150 9 1150 .. 1250 19 1250 .. 1350 36 1350 .. 1450 51 1450 .. 1550 58 1550 .. 1650 53 1650 .. 1750 37 1750 .. 1850 20 1850 .. 1950 9 1950 .. 2050 3 2050 .. 2150 1 (zur Tabelle "Grazer Mittelschülerinnen" siehe Seite 3 und 70 ) Aufg. 5.4.:58 Eine Firma liefert Glimmlämpchen in Kartons zu je 1000 Stück. Wie groß ist die Wahrscheinlichkeit, daß ein solcher Karton nicht mehr als 1% Ausschuß (=defekte Lämpchen) enthält, wenn man den Produktionsvorgang als BERNOULLI-Experiment mit p = 1% (= Wahrscheinlichkeit, ein defektes Lämpchen zu produzieren) ansehen kann ? Aufg. 5.5.:59 In Graz kamen 1962 bei den ersten 3000 Einzelgeburten 1578 Knaben zur Welt. Wie groß ist die Wahrscheinlichkeit, daß bei 3000 Einzelgeburten 1578 oder noch mehr Knaben geboren werden, wenn man annimmt, daß Knaben- und Mädchengeburten gleichwahrscheinlich sind ? 60 Aufg. 5.6.: Ein Vertreter weiß erfahrungsgemäß, daß er bei 5% seiner Erstbesuche einen Verkauf tätigen kann. Wie groß ist die Wahrscheinlichkeit, daß er bei 200 Erstbesuchen wenigstens 10 Verkäufe tätigt ? Aufg. 5.8.:61 Welche Verteilung haben X1 + X2 und X1 - X2 , wenn X1 und X2 normalverteilt sind mit dem Mittelwert 6 und -2 und der Varianz 1 und 16 ? Aufg. 5.9.: Eine Maschine packt X Gramm pulverförmiges Desinfektionsmittel in Y Gramm schwere Schachteln. X und Y seien normalverteilt mit dem Mittelwert 100g bzw. 5g und der Standardabweichung 1g bzw. 0,5g. Mit wieviel Prozent fertiger Packungen zwischen 104g und 106g ist dann zu rechnen ? Aufg. 5.10.: Welche Masse hat ein Karton von 100 der Packungen der Aufg.5.9., wenn die Leermasse des Kartons normalverteilt ist mit dem Mittelwert 500g und der Standardabweichung 10g ? Aufg. 5.11.:62 Welche Dicke hat ein Transformatorkern aus 50 Blechen und 49 Papierzwischenlagen, wenn die Dicke X bzw. Y des einzelnen Bleches bzw. Papieres normalverteilt ist mit dem Mittelwert 0,5mm bzw. 0,05mm und der Standardabweichung 0,05mm bzw. 0,02mm ? Aufg.2.6.ff: 63 Unter der Annahme, daß die folgenden Stichproben einer normalverteilten Grundgesamtheit entstammen, bestimme man jeweils ein 95%-Konfidenzintervall für den Mittelwert µ: Aufg. 2.6.: Prozentualer Stickstoffgehalt von Stahlproben: 0,74; 0,75; 0,73; 0,75; 0,74; 0,72 Aufg. 2.7.: Dichte [g/cm3] von Koks: 1,40; 1,45; 1,39; 1,44; 1,38. Aufg. 2.8.: Masse [g] von Abziehpapier: 4,3; 4,5; 4,2; 4,3; 4,7; 4,4; 4,2; 4,3; 4,5; 4,3. Aufg. 2.9.: Wieviel Blatt Papier hätte man in Aufg. 2.8. wiegen müssen, um ein Konfidenzintervall der Länge 0,1g zu erhalten? 57 58 59 60 61 62 63 88 ú û ü ý þ ÿ vgl. KREYSZIG Tab. 10.5. vgl. KREYSZIG Aufgabe 50.1. vgl. KREYSZIG Aufgabe 50.3. vgl. KREYSZIG Aufgabe 50.7. 5.8 bis 5.10.: vgl. KREYSZIG Aufg. 71.2. bis 4. vgl. KREYSZIG Aufg. 71.6. vgl. KREYSZIG Aufg. 72.1 bis 8 Statistik Anhang * Aufgaben Aufg. 3.1.: 64 Drei Tage alter Mörtel bzw. Beton mit demselben Wasserzementwert (0,4) hatte die Druckfestigkeit [kg/cm²] : 357; 359; 413; bzw. 346; 302; 358 . Man teste die Hypothese, daß die zugehörigen Grundgesamtheiten denselben Mittelwert besitzen. Aufg. 3.2.: Lohnt es sich vom wirtschaftlichen Standpunkt aus, Fabrikräume zu klimatisieren ? Würde die Arbeitsleistung steigen ? Die Tabelle gibt Beobachtungen aus einem nichtklimatisierten Zinnwalzwerk. Man teste die Hypothese, daß die Arbeitsleistung nicht von der Jahreszeit abhängt. Jahreszeit Relative Arbeitsleistung Sommer 92,2 84,8 97,2 102,8 Winter 107,7 85,7 102,5 102,5 Aufg. 3.3.: Verbrauchen Forellen in schnell fließendem Wasser mehr Sauerstoff [mm³/(h·g)] als in langsam fließendem? Fluß Sauerstoffverbrauch schnell 108 122 144 129 107 115 114 97 96 126 langsam 85 152 83 69 95 87 71 94 83 94 Aufg. 3.6.: 65 Die Grazer telephonische Zeitansage gibt neben den Stunden und Minuten auch die Sekunden in der Form 0; 10; 20; 30; 40; 50; Sekunden an. Ruft man die Zeitansage regellos in größeren Zeitabständen an, so sollte man erwarten, daß diese sechs Zahlen etwa gleich häufig vorkommen. Wird dies durch die folgenden Beobachtungen bestätigt ? Sekundenanzahl 0 10 20 30 40 50 Häufigkeit 16 19 18 17 17 13 Aufg. 3.7.: Man teste die Hypothese, daß bei einem Münzwurf "Kopf" und "Wappen" die gleiche Wahrscheinlichkeit besitzen, unter Benutzung einer Stichprobe von 50 Würfen, darunter 27 "Köpfen". Aufg. 3.8.: Wie oft muß "Kopf" bei 50 Münzenwürfen mindestens auftreten, damit die Hypothese in Aufg. 3.7. bei Wahl von α = 5% verworfen wird ? Aufg. 3.9.:66 GREGOR MENDEL erhielt bei einem anderen Versuch 315 runde gelbe , 108 runde grüne, 101 kantige gelbe und 32 kantige grüne Erbsen. Spricht dies für oder gegen die Theorie, daß sich die vier Zahlen wie 9 : 3 : 3 : 1 verhalten müßten ? Aufg. 3.10.: 67 Stammt die Stichprobe in Beispiel 2 Seite 27 einer nach POISSON verteilten Grundgesamtheit ? 64 65 66 67 vgl. KREYSZIG Aufg. 81.1. bis 81.4. vgl. KREYSZIG Aufg. 85.1. bis 85.3. vgl. KREYSZIG Aufg. 85.7. vgl. KREYSZIG Aufg. 85.9. Statistik Seite 89 Anhang * Lösungen Lösungen Aufg. 3.5.: Aufg. 3.6.: Aufg. 3.7.: Die Wahrscheinlichkeit einer bestimmten Gerade-Ungerade-Kombination von 15 Ziffern beträgt 1 15 15 . Es existiert eine ( = ( ) ) Kombination für 15 gerade Ziffern und 15 ( = ( ) ) 0 1 215 Kombinationen mit genau 14 geraden Ziffern von insgesamt 15 Ziffern. Die Wahrscheinlichkeit 1 1 ist also P = 15·( 15+1 ) = 1048 2 1 n 7 x = 6, n = 8, p = q = ½ => f(x) = f(x) = n·( ) = 6 x 2 2 n = 9, p = q = ½ 1 9 10 20 20 1 9 1 => P(X≤1) = f(0) + f(1) = 9·( ) + 9·( ) = 9·(1+ 9) = 9 = 10 ≈ 1000 = 2% 2 0 2 2 1 2 2 Aufg. 3.8.: n = 2=> f(1) ; n = 4=> f(2) ; n = 10 => f(5) = f(6) ; n = 100 => f(50) = f(51) Aufg. 3.9.: Die Wahrscheinlichkeit, daß eine einzelne Zwiebel nicht keimt, ist p = 0,05. Also ist die Wahrscheinlichkeit, daß 9 Zwiebeln die Garantiebedingung erfüllen: 10 10 P(Ā) = P(X≤1) = f(0) + f(1) = ( ) ·0,050·0,9510 + ( ) ·0,051·0,959 = 91% 0 1 => P(A) = 9% 10 Aufg. 3.10.: P(Ā) = P(X≤2) = P(X=2) + P(X≤1) = ( ) ·0,052·0,958 + 91% = 98,5% > P(A) = 1,5% 2 Aufg. 3.11.: X sei die Anzahl Arbeiter, die keinen Strom benötigen mit p = 5/6 und n = 5 : 5 5 P(X≤1) = f(1) + f(0) = ( ) ·( 5/6 )1·( 1/6 )4 + ( ) ·( 5/6 )0·( 1/6 )5 = 0,3% 1 0 Aufg. 3.12.: A = wenigstens 1 Treffer => Ā = genau kein Treffer X sei die Anzahl der Treffer mit p = 0,1 n 1 - 0,9 = P(Ā) = P( X=0) = f(0) = ( ) ·0,10·0,9n-0 => 0,1 = 0,9n => n ≥ 22 0 Aufg. 3.13.: Aufg. 3.14.: P = 0,9810 = 81,7% 90 Statistik Anhang * Lösungen Aufg. 3.16.: x beobachtet theoretisch ( fp(x)·n ) relative Häufigkeit POISSONverteilung ( fp ) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 57 203 383 525 532 408 273 139 45 27 10 4 2 0 54.3769 210.46 407.283 525.449 508.424 393.561 253.873 140.37 67.911 29.2047 11.3034 3.97715 1.28276 0.381908 0,0218558 0,0778374 0,146856 0,201304 0,203988 0,156442 0,104678 0,0532975 0,0172546 0,0103528 0,00383436 0,00153374 0,000766871 0 0,0208501 0,080698 0,156167 0,201476 0,194948 0,150905 0,0973439 0,0538228 0,0260395 0,0111981 0,00433412 0,00152498 0,000491857 0,000146437 Graphische Darstellung POISSONverteilung (fpi): für die Häufigkeitsfunktion der Stichprobe (hi) und x̄ = 3,87, s² = 3,67 x beobachtet theoretisch ( fp(x)·n ) relative Häufigkeit POISSONverteilung ( fp ) 0 1 2 3 4 5 6 7 8 9 6 18 21 26 16 8 2 1 2 0 6.266 17.36 24.04 22.2 15.37 8.516 3.931 1.556 0.5387 0.1658 0.06 0.18 0.21 0.26 0.16 0.08 0.02 0.01 0.02 0 0.06266 0.1736 0.2404 0.222 0.1537 0.08516 0.03931 0.01556 0.005387 0.001658 Tabelle 43.3. x̄ = 2,77 ; Aufg. 3.17.: p = 0,01; n = 1000 ; µ = p·n = 10 s² = 2,71 10 => ∑ 10x x! = 41,7% x=0 P(X>10) = 1 - P(X≤10) = e-10· Aufg.3.18.: P = 1 - fP(0;0.002·100) = 0,181 Statistik Seite 91 der Anhang * Lösungen 500 68 Aufg. 3.19.: P(X≥1) = 1- P(X=0) = fP(0;365) = 74,58% ( Der exakte Wert über Binomial-Verteilung ist 74,63% ) 300 Aufg. 3.20.: µ = 60 = 5 ; 10 10 P(X>10) = 1- P(X≤10) = 1 - F(10, µ=5) = 1- ∑ fP(x,5) ∑ 5x x! = 1,3695% x=0 = 1- e-5· x=0 (eigentlich binomial-verteilt, aber großes n und kleines p machen POISSON-Anwendung möglich. Aufg. 3.21.: Rekursionsformel: fP(x+1) = µ/x+1·fP(x) => fP(x+1) / fP(x) = µ/x+1 > 1 für steigende Funktion => x < µ-1 => xmax = µ-1 Aufg. 4.4.: Aufg. 4.11.: σ = 3.041481... Aufg. 4.12.: σ = 0,608325... 200-195 Aufg. 4.13.: P(x≥200) = 1 - P(X≤200) = 1-Φ î = 1-Φ(1) = 15,8655% 5 Aufg. 4.15.: α) (µ,σ) = (0,1) a) exakt: Φ(-1,9) - Φ(-2,1) = 0,01085 b) D(0,7) = 0,516073 genähert: f(-2,0,1)·0,2 = 0,010798 f(0,0,1)·1,4 = 0,558519 β) (µ,σ) = (-2,3) -1,9+2 -2,1+2 1 b) Φ(0,9) - Φ(1,4/3) = 0,13631 a) Φ î 3 - Φî 3 = Dî 30 = 0,026591 f(-2,-2,3)·0,2 = 0,026596 f(0,-2,3) = 0,149076 Aufg. 4.16.: µY1 = 2·µx = 8 V(Y1) = 2²·5² = 100 µY2 = -1·µx = -4 V(Y2) = (-1)²·5² = 25 µY3 = 3·µx -12 = 0 V(Y3) = 3²·5² Aufg. 4.17.: 3 1 µx = 4· ⌠x·(1-x²) dx = 0 ⌡ −1 3 1 1 V = 4· ⌠(x-µx)²·(1-x²) dx = 5 ⌡ => µY = -2 => 1 σx = 5· 5 −1 68 92 4 eigentlich: p = 365·3+366 Statistik => 2 σY = 5· 5 Anhang * Lösungen 35 35 Aufg. 4.18.: V(2X) = 2²·V(X) = 3 > 6 = V(Y) In Y sind die Augenzahlen der einzelnen Würfel voneinander unabhängig ("unabhängige Ereignisse"), während man sich 2X = X+X so realisiert vorstellen kann, daß mit dem ersten Würfel gewürfelt wird und der zweite Würfel wird mit der Augenzahl des ersten festgelegt. ("abhängige Ereignisse"); dann wird mit 2X = X+X die Augensumme gebildet. Damit wird anschaulich bei Y die durchschnittliche Streuung der Augensumme um den Mittelwert kleiner ausfallen als bei 2X = X+X (die Abweichungen vom Mittelwert µX gleichen sich bei den beiden unabhängigen Würfeln im Durchschnitt teilweise aus). y-b t-µ σ·y+µ -½·( t-µ)² a -½·( )² 1 1 σ dt σ dt Aufg. 4.19.: a) G(Y) = b) G(Y) = σ 2π ⌠ σ 2π ⌠ ⌡e ⌡ e -∞ -∞ y y 1 -½·w² σ·dw = 1 -½·w² dw c) G(Y) = ⌠ e 2π ⌠ σ 2π ⌡ ⌡e -∞ -∞ (σ·y+µ)-µ dw 1 = y und dv = => dv = σ·dw mit v→−∞ => w→-∞ ; w = σ σ 1 Aufg. 4.20.: fx = rect(x-½) µX = σX² = x dx = ½ ⌠ ⌡ 0 1 1 (x-½)²dx = 12 ⌠ ⌡ 0 1 100 σY² = 20²· 12 = 3 n = 300 x̄ = 1503h s² = 41665h² => s = 204,12h xi zi ki Φ(zi) n·Φ(zi) Σki-1 n·∆Φ fY = rect(10x-2,5) µY = 20·½-5 = 5 Aufg. 5.2.: i 1 2 3 4 5 6 7 8 9 10 11 12 13 950 1050 1150 1250 1350 1450 1550 1650 1750 1850 1950 2050 2150 -2,71 -2,22 -1,73 -1,24 -0,75 -0,26 0,23 0,72 1,21 1,70 2,19 2,68 3,17 0,0034 0,0132 0,0418 0,1075 0,2266 0,3974 0,5910 0,7642 0,8869 0,9554 0,9857 0,9963 0,9992 1,02 3,96 12,54 37,25 67,98 119,22 177,30 229,26 266,07 286,62 295,71 298,89 299,76 0 4 13 32 68 119 177 230 267 287 296 299 300 4 9 19 36 51 58 53 37 20 9 3 1 2,94 8,58 24,71 30,73 51,24 58,08 51,96 36,81 20,55 9,09 3,18 0,87 n·fN·∆x 2,82 8,35 19,48 35,76 51,62 58,63 52,37 36,80 20,34 8,85 3,03 0,81 10 Aufg. 5.4.: P = ∑ ( 1000 ·0,01x·0,991000-x x ) = 0,583 x=0 0-1000·0,01-0,5 10-1000·0,01+0,5 ) - Φ( ) = 0,5630-0.0004 0,99·0,01·1000 0,99·0,01·1000 3000-1500+0,5 1578-1500-0,5 Φ( ) - Φ( ) = 0,23% 0,5·0,5·3000 0,5·0,5·3000 200-200·0,05+0,5 10-10-0,5 Φ( ) - Φ( ) = 56% 200·0,05·0,95 9,50 ≈ P( 0 ≤ xN ≤ 10 ) = Φ( Aufg. 5.5.: Aufg. 5.6.: Statistik Seite 93 Anhang * Lösungen Aufg. 5.7.: Aufg. 5.9.: 1-p für x = 0 a) p für x = 1 î 0 sonst b) E(x) = Σx·h(x) = p V(x) = Σ(x-µ)²·h(x) = pq c) Z = Σ Xi => E(Z) = n·p ; V(Z) = n·pq Die Masse Z = X + Y der Packungen ist normalverteilt mit µ = 105g und σ² = 1,25g². 104-105 1 106-105 ) - Φ( ) = D( ) = 63% => P(104 ≤ Z ≤ 106) = Φ( 1,25 1,25 1,25 (Vor.: X und Y sind unabhängig !!) 100 Aufg. 5.10.: K = ∑ Zi + L i=1 100 ∑ 1,25g²+10²g² = 15g ; î i=1 100 => µk = ∑ 105g + 500g σk = = 11kg ; i=1 => m = 11,00kg ± 0,02kg 50 Aufg. 5.11.: Z = 49 ∑ Xi + ∑ Yi i=1 i=1 50 => µZ = 49 ∑ 0,5mm + ∑ 0,05mm i=1 i=1 50 49 i=1 i=1 => E(Ak) = µ ) ∑ (0,5mm)² + ∑ (0,05mm)² ; σZ = => Gesamtdicke = 27,4mm ± 0,4mm 1 = E n· fi·cos(k·xi) î i=0 n-1 Aufg. 5.12.: E(Ak) ∑ n-1 ∑ 1 E( fi )·cos(k·xi) = n· i=0 n-1 ∑ µ = n· cos(k·xi) = 0 i=0 für k ≠ 0 n-1 ( für k = 0 gilt: ∑ cos(k·xi) = n i=0 1 = V n· fi·cos(k·xi) î i=0 n-1 V(Ak) ∑ n-1 ∑ 1 = n· cos²(k·xi) · V( fi ) i=0 1 = 2n·σ² für k ≠ 0 n-1 ( für k = 0 gilt: ∑ cos²(k·xi) = n i=0 1 Aufg. 5.15.: ∆f = (b+g)²· (b²∆g)² + (g²∆b)² Aufg. 5.16.: rv = (a·rx)² + (b·ry)² + (c·ry)² Aufg. 5.18.: fB(x,n1,p) ∗ fB(x,n2,p) => 1 V(Ak) = n·σ² ) ∆f ∆f = 0,46mm ; f = 0,34% => ∞ = ∑ î npx qn1-x ·î n pz-x qn2+x-z x z-x k=0 ∞ z n +n -z = p q 1 2 ∑ z n +n -z = p q 1 2 ∑ î nî n x z-x k=0 ∞ n1+n2 = f (z,n +n ,p) B 1 2 î z k=0 94 Statistik Anhang * Lösungen Aufg. 5.19.: fP(x,µ1) ∗ fP(x,µ2) Aufg. 1.1.: = ∞ µ1x ∞ µ1x·µ2z-x µ z-x -µ -µ1 2 2 = e-(µ1+µ2) e ·e x! x!(z-x)! (z-x)! k=0 k=0 = x z-x -(µ +µ -(µ +µ e 1 2) ∞ µ1 ·µ2 z! e 1 2) ∞ z x z-x = z! k = 0 x!(z-x)! z! k = 0( x) µ1 µ2 = -(µ +µ e 1 2) z z! (µ1+µ2) = fp(z,µ1+µ2) ∑ ∑ ∑ P(Cn ≤ ½· ( Φ-1(γ) + 2n-1) ) = γ n = 30 γ Φ−1(γ) Tabelle 0.1 -1.282 20.6 0.25 -0.674 24.47 0.5 0 29.34 0.9 1.282 40.26 0.95 1.645 43.68 0.99 2.326 51.05 ∑ n = 30 Näherung 20.47 24.55 29.5 40.17 43.49 50.07 n = 100 Tabelle 82.36 90.13 99.33 118.6 124.4 135.4 n = 100 Näherung 82.24 90.22 99.5 118.4 124.1 135 Aufg. 3.1.: x̄ = 376,3; ȳ = 335,3; sx² = 1009,3; sy² = 869,3; t0 = 1,64 < c95%/n=4 = 2,13 => Hypothese µx = µy wird angenommen. Aufg. 3.2.: x̄ = 94,25; ȳ = 99,6; sx² = 58,43; sy² = 91,88; t0 = 0,8727 < c95%/n=6 = 1,94 => Hypothese µx = µy wird angenommen (Gegenhypothese µx < µy). Aufg. 3.3.: x̄ = 115,8; ȳ = 91,3; sx² = 222,2; sy² = 535,3; t0 = 2,81 > c95%/n=18 = 1,73 => Hypothese µx = µy wird abgelehnt und Gegenhypothese µx > µy angenommen. 100 Aufg. 3.6.: n = 100; k = 6; ej = 6 für j = 1;..;6 ; χ0² = 1,28 < c95%\n=5 = 11,07 => Die Hypothese, daß die Grundgesamtheit gleichverteilt ist, wird angenommen. Aufg. 3.7.: k = 2 ; e1 = e2 = 25 ; χ0² = 0,32 < c95%\n=1 = 3,84 => Die Hypothese, daß Kopf und Wappen gleichwahrscheinlich sind, wird angenommen. (x-25)² + [(50-x)-25]² 25 Aufg. 3.8.: χ0² = ≥x => x > 25 + c · 2 = 31,8 25 Aufg. 3.9.: n = 556; e1 = 312,75; e2 = e3 = 104,25; e4 = 34,75; χ0² = 0,47 < c95%\n=3 = 7,81 => Annahme der Hypothese. Aufg. 3.10.: k = 7 (mit b7 = 1+2+1+0) ; χ0² = 1,38 < c95%\n=5 = 11,07 => Annahme der Hypothese. n x n-x Aufg. 3.15.: f(p) = î xp ·(1-p) df(p) n x-1 n-x x n-x-1] = => î x·[x·p ·(1-p) - p ·(n-1)·(1-p) dp n x-1 n-x-1[x·(1-p)-p·(n-x)] = n·px-1·(1-p)n-x-1[x-µ] = î x·p ·(1-p) î x n x-1 n-x-1 aber immer positiv ist, hängt das Vorzeichen von df(p) nur von x-µ ab; f(p) Da î x·p ·(1-p) dp ist also streng monoton steigend für x > µ und streng monoton fallend für x < µ. Statistik Seite 95 Anhang * Formelsammlung I Formelsammlung I Mittelwert einer Stichprobe: n ∑ 1 x̄ = n xi i=1 Merkmalszuordnung 1. Art m m ∑ ∑ m ∑ 1 x̄ = n xi k(xi) = xi h(xi) = xi f(xi) Merkmalszuordnung 2. Art i=1 i=1 i=1 Mittelwert µ einer diskreten Zufallsvariable bzw.: µ = ∑xi f(xi) i Mittelwert µ einer stetigen Zufallsvariable ∞ µ = ⌠x·f(x) dx ⌡ −∞ Varianz s² einer Stichprobe m m ∑ ∑ n 1 (xi - x̄ )² k(xi) = n-1 (xi - x̄ )² h(xi) s² = n-1 i=1 i=1 1 s² = n-1· xi² k(xi) - nx̄² î î i=1 m ∑ Varianz σ² einer diskreten Zufallsvariable m ∑ 1 (xi - x̄ )² f(xi) σ² = n-1 i=1 1 σ² = n-1· xi² f(xi) - nµ² î î i=1 m ∑ Varianz σ² einer stetigen Zufallsvariable ∞ σ² = ⌠(x-µ)²·f(x) dx ⌡ −∞ ∞ σ² = ⌠x² f(x) dx - µ² ⌡ −∞ Kovarianz 1 1 (xi - x̄ )(yi - ȳ) = n-1 xi yi - n·x̄·ȳ sxy = n-1 î i=1 i=1 n ∑ n ∑ 1 sxy = n-1 xi yi·k(xi,yi) - n·x̄·ȳ î i=1 Rechteckverteilte (gleichverteilte) Zufallsvariable x-½·b 1 • f(x) = b·rect( b ) • µ = ½·b b² • σ² = 12 i = 1..n: Merkmalsträger m <=> 96 ∑ m: Anzahl der Merkmalsausprägungen Statistik Anhang * Formelsammlung I Binomial-Verteilung f(x) = P(X=x) = n px qn-x î x • P(XB=x) = fB(x,n,p) = î 0 sonst für x = 0, 1, 2, ... , n mit q = 1-p ... für Ziehen mit Zurücklegen die Wahrscheinlichkeit, daß in n Zügen x Erfolge sind ∉ IN0 => kleinste Zahl größer als xmax ergibt das Maximum • xmax = np-q î ∈ IN => f(xmax) = f(xmax+1) = Maximum • µ = E(XB) = n·p • σ² = n·p·q Hypergeometrische Verteilung -> Ziehen ohne Zurücklegen; bei großem n Näherung durch Binomial-Verteilung î M·î N-M n-x x x ≤ M; x ≤ n fH(x) = P(XH=x) = N î n POISSON-Verteilung µx µ • fP(x,µ) = lim fB(x,n,n) = x! ·e-µ n→∞ • µ = σ² = E(x) Exponentialverteilung 1 - e-tµ für t ≥ 0 F(t) = P(T≤t) = 0 sonst î POISSON-Verteilung als Näherung für Binomialverteilung für n » µ lim f (x,n,µ) = f (x,µ) P n n→∞ B Normalverteilung: • allgemein: x-µ2 -½ 1 î σ f(x) = σ· 2π e • Standardform: µ = 0 und σ = 1 : 1 1 x -½ t² f(x) = e-½ x² und F(x) = Φ(x) = e dt 2π 2π ⌠ ⌡ −∞ • D(x) = Φ(x) - Φ(-x) => D(x) = P( -x ≤ XN,S ≤ x ) Normalverteilung als Näherung für die Binomialverteilung (für n groß!): b+½-n·p ) P(XB≤b) ≈ P(XN ≤ b+½) = Φ( q·p·n b-½-n·p bzw. P(XB<b) ≈ P(XN < b+½) = Φ( ) q·p·n ( ± ½ für rechten bzw. linken Klassenrand ) Lineare Transformation: 1 y-b Y = aX+b => g(y) = |a|·f( a ) Faltungssatz: f ∗ g = ℑ−1{ℑ{ f(x)} · ℑ{g(x) }} Statistik Seite 97 Anhang * Formelsammlung II Formelsammlung II Additionssatz: P( + ) = P( ) + P( ) - P( ) Multiplikationssatz: P( · ) = P( ) · P( I ) allgemein bzw. P( · ) = P( ) · P( ) für unabhängige Ereignisse Falls und unabhängige Ereignisse sind, gilt für das bedingte Ereignis I : P( I ) = P( ) Verteilungsdefinitionen: a) χ²- Verteilung: Voraussetzung: X1;X2;..Xn sind (0;1)-normalverteilte Zufallsvariablen; " # ! $ % & ' ( n Cn = ∑ Xi² ist χ² [chi-quadrat]-verteilte Zufallsvarible mit n Freiheitsgraden. i=1 Voraussetzung: X ist (0,1)-normalverteilt, cn ist χ²-verteilt mit n Freiheitsgraden, X und Cn sind unabhängig. X Tn = ist t-verteilte Zufallsvarible mit n Freiheitsgraden 1 ·C n n Vertrauensintervall für µ der Grundgesamtheit (n.v.). Voraussetzungen: xi , i = 1, .. ,n = Stichprobenwerte mit x̄ , s²; σ² = Varianz der zugehörigen Grundgesamtheit; γ = Vertrauenswahrscheinlichkeit (-zahl), α = 1 - γ = Irrtumswahrscheinlichkeit b) t-Verteilung: P(x̄-a ≤ µ ≤ x̄+a) = γ mit bzw. c·σ , falls σ² bekannt ist, n c aus Φ(c) - Φ(-c) = D(c) = γ (Normalverteilung) c·s a = ; falls σ² unbekannt ist, n c aus Ft(c) = ½·(γ+1) ( Ft = t-Verteilung mit n-1 Freiheitsgraden ) a = Test der Hypothese µx = µy Voraussetzungen: xi ; i = 1, .. , nx bzw. yi ; i = 1, .. , ny = zwei unabhängige Stichproben aus normalverteilten Grundgesamtheiten mit x̄, sx², bzw. ȳ, sy² und x̄ > ȳ. • t0 = nx·ny·(nx+ny-2) · nx+ny bzw. für nx = ny = n : x̄ - ȳ (nx-1)·sx² + (ny-1)·sy² x̄ - ȳ t0 = n· sx² - sy² • Bestimmung von c aus P(Tn +n -2 ≤ c ) = γ. x y • Falls t0 ≤ c: Annahme von µx = µy ; falls to > c: Annahme der Gegenhypothese µx > µy. 98 Statistik Anhang * Formelsammlung II Verteilungstest einer Stichprobe xi auf die Verteilungsfunktion F(x) • Unterteilung des Intervalls (-∞;∞) in k Teilintervalle (-∞;v1],(v1;v2],..,(vk-1;+∞), so daß (möglichst) xi ≠ vj ist (i = 1,..,n und j = 1,..,k). • Berechnung von • Berechnung von ej = n·[ F(vj) - F(vj-1) ] ( bzw. bei diskreten Verteilungen ej = n· ∑ vj-1<a≤vj f(a) ) bj : Anzahl der Stichprobenelemente in (vj-1;vj] ; v0 = -∞ ; vk = +∞ ; bj ≥ 5 (!) . k (e -b )² j j χ0² = ej j=1 ∑ • Zur Irrtumswahrscheinlichkeit α wird c so aus der Tabelle zur χ²-Verteilung mit k-1 Freiheitsgraden bestimmt, daß P(Ck-1 ≤ c) = 1-α • Falls χ0² ≤ c: Annahme der Hypothese, daß die Xi aus einer nach F(x) verteilten Grundgesamtheit stammen. • Hinweis: Für jeden zu F(x) aus der Stichprobe geschätzten Parameter muß der Freiheitsgrad zu ck-1 zusätzlich um 1 verkleinert werden ! Regressionsgerade, Korrelationskoeffizient Voraussetzung: • n Merkmalspaare (xi;yi), • xi bzw. yi aus normalverteilten Grundgesamtheiten; • Mittelwerte x̄, ȳ, Varianzen sx², sy², sxy . sxy y = bx + c mit b = s ² ; c = ȳ - bx̄ x sxy r=s s x y ) Test des Regressionskoeffizienten der Grundgesamtheit auf die Hypothese β = 0; Alternative: β ≠ 0: |sxy| n-2 • t0 = n-2· = 1 sx²·sy² - sxy² r² - 1 • Bestimmung von c aus P(Tn-2 ≤ c) = ½·(1+γ). 69 • Falls t0 ≤ c : Annahme der Hypothese β = 0. Test des Korrelationskoeffizienten der Grundgesamtheit auf die Hypothese ρ = 0; Alternative: ρ ≠ 0: Formel siehe Regressionskoeffizient: Aus β = 0 => ρ=0 und aus β ≠ 0 => ρ ≠ 0. Fehlerfortpflanzung ( 2 unabhängige Meßgrößen x,y ): Ist z = f(x,y) = berechnete Größe ∂f(x,y) ∂f(x,y) partielle Ableitungen fx(x,y) = , fy(x,y) = , ∂x ∂y dann ist der mittlere Fehler ∆z ¯ ¯ zu einem Meßwertepaar (xM,yM) mit den bekannten Toleranzen ∆x, ∆y: ¯∆z¯ = [fx(xM,yM)∆x]² + [fy(xM,yM)∆y]² Bei Stichproben von Meßwerten mit x̄, ȳ, sx, sy, ist in der Gleichung zu ersetzen: xM → x̄, yM → ȳ, ∆x → sx, ∆y → sy , ∆z ¯ ¯ → sz Bei Zufallsvariablen X, Y und Z = f(X,Y) ist entsprechend µx, µy, σx , σy , σz , zu ersetzen. 69 zweiseitiger Test (, falls kein einseitiger Test möglich ist). Statistik Seite 99 Anhang * Summenformeln Summenformeln n ∑i a) = i=1 n-1 ∑ qi b) i=0 1 - q" = 1-q n-1 c) q = (1-q)² · [(n-1) qn - nqn-1 + 1] ∑ i·qi q = (1-q)² i=1 ∞ d) => ∑ qi i=0 ∞ e) für |q| < 1 1 = 1-q ∑ i2 qi i=1 100 q≠1 ∑ i qi i=1 n-1 => n (n+1) 2 für |q| < 1 1+q = q ·(1-q)³ Statistik für |q| < 1 Anhang * Tabelle: Chi-Quadrat-Verteilung Tabelle: Chi-Quadrat-Verteilung Werte von x zu gegebenen Werten der Verteilungsfunktion ( Beispiel: Bei 4 Freiheitsgraden ist F = 0,995 für x = 14,86 ) F(x) n 0,001 0,005 0,01 0,025 0,05 0,1 0,25 0,5 0,75 0,9 0,95 0,975 0,99 ,995 ,999 1 1,551 3,913 1,571 9,817 3,932 1,579 ,1015 ,4549 1,323 2,706 3,841 5,024 6,635 7,879 10,83 E-6 2 2 E-5 1,003 E-2 ,0718 E-4 2,01 E-1 ,1149 E-4 5,063 E-2 ,2158 E-3 ,1026 E-2 ,2107 4,605 5,991 7,377 9,21 10,6 13,82 ,3519 ,5844 1,213 2,366 4,108 6,251 3 ,09071 ,207 ,2971 ,4844 ,7107 1,064 1,923 3,357 5,385 7,779 4 0,21 ,4114 ,5543 ,8312 1,145 1,61 2,675 4,351 6,626 9,236 5 ,3809 ,6756 0,872 1,237 1,635 2,204 3,455 5,348 7,841 10,64 6 ,5984 ,9892 1,239 1,69 2,167 2,833 4,255 6,346 9,037 12,02 7 ,8594 1,344 1,647 2,18 2,733 3,49 5,071 7,344 10,22 13,36 8 1,154 1,734 2,088 2,7 3,325 4,168 5,899 8,343 11,39 14,68 9 10 1,48 2,156 2,558 3,247 3,94 4,865 6,737 9,342 12,55 15,99 11 1,835 2,603 3,053 3,816 4,575 5,578 7,584 10,34 13,7 17,28 12 2,215 3,074 3,571 4,404 5,226 6,304 8,438 11,34 14,85 18,55 13 2,618 3,565 4,107 5,009 5,892 7,042 9,299 12,34 15,98 19,81 14 3,041 4,075 4,661 5,629 6,571 7,79 10,17 13,34 17,12 21,06 15 3,483 4,602 5,229 6,262 7,261 8,547 11,04 14,34 18,24 22,31 16 3,942 5,142 5,812 6,908 7,962 9,312 11,91 15,34 19,37 23,54 17 4,41 5,697 6,408 7,564 8,672 10,09 12,79 16,34 20,49 24,77 18 4,899 6,265 7,015 8,231 9,391 10,86 13,68 17,34 21,6 25,99 19 5,402 6,845 7,633 8,907 10,12 11,65 14,56 18,34 22,72 27,2 20 5,916 7,435 8,261 9,591 10,85 12,44 15,45 19,34 23,83 28,41 21 6,442 8,035 8,898 10,28 11,59 13,24 16,34 20,34 24,93 29,62 22 6,979 8,644 9,543 10,98 12,34 14,04 17,24 21,34 26,04 30,81 23 7,526 9,262 10,2 11,69 13,09 14,85 18,14 22,34 27,14 32,01 24 8,082 9,889 10,86 12,4 13,85 15,66 19,04 23,34 28,24 33,2 25 8,646 10,52 11,53 13,12 14,61 16,47 19,94 24,34 29,34 34,38 26 9,219 11,16 12,2 13,84 15,38 17,29 20,84 25,34 30,43 35,56 11,81 12,88 14,57 16,15 18,11 21,75 26,34 31,53 36,74 27 9,8 10,39 12,46 13,57 15,31 16,93 18,94 22,66 27,34 32,62 37,92 28 10,98 13,12 14,26 16,05 17,71 19,77 23,57 28,34 33,71 39,09 29 11,59 13,79 14,95 16,79 18,49 20,6 24,48 29,34 34,8 40,26 30 17,92 20,71 22,16 24,43 26,51 29,05 33,66 39,34 45,62 51,81 40 24,66 27,99 29,71 32,36 34,76 37,69 42,94 49,33 56,33 63,17 50 31,73 35,53 37,48 40,48 43,19 46,46 52,29 59,33 66,98 74,4 60 70 39,03 43,27 45,44 48,76 51,74 55,33 61,7 69,33 77,58 85,53 80 46,52 51,17 53,54 57,15 60,39 64,28 71,14 79,33 88,13 96,58 90 54,15 59,2 61,75 65,65 69,13 73,29 80,62 89,33 98,65 107,6 100 61,92 67,33 70,06 74,22 77,93 82,36 90,13 99,33 109,1 118,5 Für Werte über 100 kann folgende Näherung Verwendung finden: F(x) ≈ Φ( 2x - 2n-1 ) => x ≈ ½·( 2n-1 - Φ-1{F(x)} ) 7,815 9,348 11,35 12,84 16,27 9,488 11,14 13,28 14,86 18,47 11,07 12,83 15,09 16,75 20,52 12,59 14,45 16,81 18,55 22,46 14,07 16,01 18,47 20,28 24,32 15,51 17,54 20,09 21,95 26,13 16,92 19,02 21,67 23,59 27,88 18,31 20,48 23,21 25,18 29,59 19,68 21,92 24,73 26,75 31,26 21,03 23,34 26,22 28,3 32,91 22,36 24,74 27,69 29,82 34,53 23,69 26,12 29,14 31,32 36,12 25 27,49 30,58 32,8 37,70 26,3 28,85 32 34,27 39,25 27,59 30,19 33,41 35,72 40,79 28,87 31,53 34,81 37,15 42,31 30,14 32,85 36,19 38,58 43,82 31,41 34,17 37,57 40 45,32 32,67 35,48 38,93 41,4 46,8 33,92 36,78 40,29 42,79 48,3 35,17 38,08 41,64 44,18 49,7 36,42 39,36 42,98 45,56 51,2 37,65 40,65 44,31 46,93 52,6 38,89 41,92 45,64 48,29 54,1 40,11 43,19 46,96 49,64 55,5 41,34 44,46 48,28 50,99 56,9 42,56 45,72 49,59 52,33 58,3 43,77 46,98 50,89 53,67 59,7 55,76 59,34 63,69 66,77 73,4 67,5 71,42 76,15 79,48 86,7 79,08 83,3 88,38 91,94 99,6 90,53 95,02 100,4 104,2 112,3 101,9 106,6 112,3 116,3 124,8 113,1 118,1 124,1 128,3 137,2 124,3 129,6 135,8 140,2 149,4 E-3 ,0244 ,5754 1,386 Statistik 2,773 Seite 101 Anhang * Tabelle: Verteilungsfunktion zur Normalverteilung Tabelle: Verteilungsfunktion zur Normalverteilung D(z) = Φ(z) - Φ(-z) ; z 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1 0.11 0.12 0.13 0.14 0.15 0.16 0.17 0.18 0.19 0.2 0.21 0.22 0.23 0.24 0.25 0.26 0.27 0.28 0.29 0.3 0.31 0.32 0.33 0.34 0.35 0.36 0.37 0.38 0.39 0.4 0.41 0.42 0.43 0.44 0.45 0.46 0.47 0.48 0.49 0.5 0.51 0.52 0.53 0.54 0.55 0.56 0.57 0.58 0.59 0.6 0.61 0.62 0.63 0.64 0.65 0.66 0.67 0.68 0.69 0.7 0.71 102 Φ(-z) = 1 - Φ(z) ; Φ(-z) Φ(z) D(z) 0.5 0.49601 0.49202 0.48803 0.48405 0.48006 0.47608 0.4721 0.46812 0.46414 0.46017 0.4562 0.45224 0.44828 0.44433 0.44038 0.43644 0.43251 0.42858 0.42465 0.42074 0.41683 0.41294 0.40905 0.40517 0.40129 0.39743 0.39358 0.38974 0.38591 0.38209 0.37828 0.37448 0.3707 0.36693 0.36317 0.35942 0.35569 0.35197 0.34827 0.34458 0.3409 0.33724 0.3336 0.32997 0.32636 0.32276 0.31918 0.31561 0.31207 0.30854 0.30503 0.30153 0.29806 0.2946 0.29116 0.28774 0.28434 0.28096 0.2776 0.27425 0.27093 0.26763 0.26435 0.26109 0.25785 0.25463 0.25143 0.24825 0.2451 0.24196 0.23885 0.5 0.50399 0.50798 0.51197 0.51595 0.51994 0.52392 0.5279 0.53188 0.53586 0.53983 0.5438 0.54776 0.55172 0.55567 0.55962 0.56356 0.56749 0.57142 0.57535 0.57926 0.58317 0.58706 0.59095 0.59483 0.59871 0.60257 0.60642 0.61026 0.61409 0.61791 0.62172 0.62552 0.6293 0.63307 0.63683 0.64058 0.64431 0.64803 0.65173 0.65542 0.6591 0.66276 0.6664 0.67003 0.67364 0.67724 0.68082 0.68439 0.68793 0.69146 0.69497 0.69847 0.70194 0.7054 0.70884 0.71226 0.71566 0.71904 0.7224 0.72575 0.72907 0.73237 0.73565 0.73891 0.74215 0.74537 0.74857 0.75175 0.7549 0.75804 0.76115 0 0.0079787 0.015957 0.023933 0.031907 0.039878 0.047844 0.055806 0.063763 0.071713 0.079656 0.087591 0.095517 0.10343 0.11134 0.11924 0.12712 0.13499 0.14285 0.15069 0.15852 0.16633 0.17413 0.18191 0.18967 0.19741 0.20514 0.21284 0.22052 0.22818 0.23582 0.24344 0.25103 0.2586 0.26614 0.27366 0.28115 0.28862 0.29605 0.30346 0.31084 0.31819 0.32551 0.3328 0.34006 0.34729 0.35448 0.36164 0.36877 0.37587 0.38292 0.38995 0.39694 0.40389 0.4108 0.41768 0.42452 0.43132 0.43809 0.44481 0.45149 0.45814 0.46474 0.47131 0.47783 0.48431 0.49075 0.49714 0.5035 0.50981 0.51607 0.5223 Φ(0) = 0,5 0.72 0.73 0.74 0.75 0.76 0.77 0.78 0.79 0.8 0.81 0.82 0.83 0.84 0.85 0.86 0.87 0.88 0.89 0.9 0.91 0.92 0.93 0.94 0.95 0.96 0.97 0.98 0.99 1 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.1 1.11 1.12 1.13 1.14 1.15 1.16 1.17 1.18 1.19 1.2 1.21 1.22 1.23 1.24 1.25 1.26 1.27 1.28 1.29 1.3 1.31 1.32 1.33 1.34 1.35 1.36 1.37 1.38 1.39 1.4 1.41 1.42 1.43 1.44 1.45 Statistik 0.23576 0.2327 0.22965 0.22663 0.22363 0.22065 0.2177 0.21476 0.21186 0.20897 0.20611 0.20327 0.20045 0.19766 0.19489 0.19215 0.18943 0.18673 0.18406 0.18141 0.17879 0.17619 0.17361 0.17106 0.16853 0.16602 0.16354 0.16109 0.15866 0.15625 0.15386 0.15151 0.14917 0.14686 0.14457 0.14231 0.14007 0.13786 0.13567 0.1335 0.13136 0.12924 0.12714 0.12507 0.12302 0.121 0.119 0.11702 0.11507 0.11314 0.11123 0.10935 0.10749 0.10565 0.10383 0.10204 0.10027 0.098525 0.0968 0.095098 0.093418 0.091759 0.090123 0.088508 0.086915 0.085343 0.083793 0.082264 0.080757 0.07927 0.077804 0.076359 0.074934 0.073529 0.76424 0.7673 0.77035 0.77337 0.77637 0.77935 0.7823 0.78524 0.78814 0.79103 0.79389 0.79673 0.79955 0.80234 0.80511 0.80785 0.81057 0.81327 0.81594 0.81859 0.82121 0.82381 0.82639 0.82894 0.83147 0.83398 0.83646 0.83891 0.84134 0.84375 0.84614 0.84849 0.85083 0.85314 0.85543 0.85769 0.85993 0.86214 0.86433 0.8665 0.86864 0.87076 0.87286 0.87493 0.87698 0.879 0.881 0.88298 0.88493 0.88686 0.88877 0.89065 0.89251 0.89435 0.89617 0.89796 0.89973 0.90147 0.9032 0.9049 0.90658 0.90824 0.90988 0.91149 0.91309 0.91466 0.91621 0.91774 0.91924 0.92073 0.9222 0.92364 0.92507 0.92647 0.52848 0.53461 0.5407 0.54675 0.55275 0.5587 0.56461 0.57047 0.57629 0.58206 0.58778 0.59346 0.59909 0.60467 0.61021 0.6157 0.62114 0.62653 0.63188 0.63718 0.64243 0.64763 0.65278 0.65789 0.66294 0.66795 0.67291 0.67783 0.68269 0.6875 0.69227 0.69699 0.70166 0.70628 0.71086 0.71538 0.71986 0.72429 0.72867 0.733 0.73729 0.74152 0.74571 0.74986 0.75395 0.758 0.762 0.76595 0.76986 0.77372 0.77754 0.7813 0.78502 0.7887 0.79233 0.79592 0.79945 0.80295 0.8064 0.8098 0.81316 0.81648 0.81975 0.82298 0.82617 0.82931 0.83241 0.83547 0.83849 0.84146 0.84439 0.84728 0.85013 0.85294 Anhang * Tabelle: Verteilungsfunktion zur Normalverteilung 1.46 1.47 1.48 1.49 1.5 1.51 1.52 1.53 1.54 1.55 1.56 1.57 1.58 1.59 1.6 1.61 1.62 1.63 1.64 1.65 1.66 1.67 1.68 1.69 1.7 1.71 1.72 1.73 1.74 1.75 1.76 1.77 1.78 1.79 1.8 1.81 1.82 1.83 1.84 1.85 1.86 1.87 1.88 1.89 1.9 1.91 1.92 1.93 1.94 1.95 1.96 1.97 1.98 1.99 2 2.01 2.02 2.03 2.04 2.05 2.06 2.07 2.08 2.09 2.1 2.11 2.12 2.13 2.14 2.15 2.16 2.17 2.18 2.19 2.2 2.21 2.22 2.23 2.24 2.25 0.072145 0.070781 0.069437 0.068112 0.066807 0.065522 0.064255 0.063008 0.06178 0.060571 0.05938 0.058208 0.057053 0.055917 0.054799 0.053699 0.052616 0.051551 0.050503 0.049471 0.048457 0.04746 0.046479 0.045514 0.044565 0.043633 0.042716 0.041815 0.04093 0.040059 0.039204 0.038364 0.037538 0.036727 0.03593 0.035148 0.03438 0.033625 0.032884 0.032157 0.031443 0.030742 0.030054 0.029379 0.028717 0.028067 0.027429 0.026803 0.02619 0.025588 0.024998 0.024419 0.023852 0.023295 0.02275 0.022216 0.021692 0.021178 0.020675 0.020182 0.019699 0.019226 0.018763 0.018309 0.017864 0.017429 0.017003 0.016586 0.016177 0.015778 0.015386 0.015003 0.014629 0.014262 0.013903 0.013553 0.013209 0.012874 0.012545 0.012224 0.92785 0.92922 0.93056 0.93189 0.93319 0.93448 0.93574 0.93699 0.93822 0.93943 0.94062 0.94179 0.94295 0.94408 0.9452 0.9463 0.94738 0.94845 0.9495 0.95053 0.95154 0.95254 0.95352 0.95449 0.95543 0.95637 0.95728 0.95818 0.95907 0.95994 0.9608 0.96164 0.96246 0.96327 0.96407 0.96485 0.96562 0.96638 0.96712 0.96784 0.96856 0.96926 0.96995 0.97062 0.97128 0.97193 0.97257 0.9732 0.97381 0.97441 0.975 0.97558 0.97615 0.9767 0.97725 0.97778 0.97831 0.97882 0.97932 0.97982 0.9803 0.98077 0.98124 0.98169 0.98214 0.98257 0.983 0.98341 0.98382 0.98422 0.98461 0.985 0.98537 0.98574 0.9861 0.98645 0.98679 0.98713 0.98745 0.98778 0.85571 0.85844 0.86113 0.86378 0.86639 0.86896 0.87149 0.87398 0.87644 0.87886 0.88124 0.88358 0.88589 0.88817 0.8904 0.8926 0.89477 0.8969 0.89899 0.90106 0.90309 0.90508 0.90704 0.90897 0.91087 0.91273 0.91457 0.91637 0.91814 0.91988 0.92159 0.92327 0.92492 0.92655 0.92814 0.9297 0.93124 0.93275 0.93423 0.93569 0.93711 0.93852 0.93989 0.94124 0.94257 0.94387 0.94514 0.94639 0.94762 0.94882 0.95 0.95116 0.9523 0.95341 0.9545 0.95557 0.95662 0.95764 0.95865 0.95964 0.9606 0.96155 0.96247 0.96338 0.96427 0.96514 0.96599 0.96683 0.96765 0.96844 0.96923 0.96999 0.97074 0.97148 0.97219 0.97289 0.97358 0.97425 0.97491 0.97555 2.26 2.27 2.28 2.29 2.3 2.31 2.32 2.33 2.34 2.35 2.36 2.37 2.38 2.39 2.4 2.41 2.42 2.43 2.44 2.45 2.46 2.47 2.48 2.49 2.5 2.51 2.52 2.53 2.54 2.55 2.56 2.57 2.58 2.59 2.6 2.61 2.62 2.63 2.64 2.65 2.66 2.67 2.68 2.69 2.7 2.71 2.72 2.73 2.74 2.75 2.76 2.77 2.78 2.79 2.8 2.81 2.82 2.83 2.84 2.85 2.86 2.87 2.88 2.89 2.9 2.91 2.92 2.93 2.94 2.95 2.96 2.97 2.98 2.99 3 Statistik 0.011911 0.011604 0.011304 0.011011 0.010724 0.010444 0.01017 0.0099031 0.0096419 0.0093867 0.0091375 0.008894 0.0086563 0.0084242 0.0081975 0.0079763 0.0077603 0.0075494 0.0073436 0.0071428 0.0069469 0.0067557 0.0065691 0.0063872 0.0062097 0.0060366 0.0058677 0.0057031 0.0055426 0.0053861 0.0052336 0.0050849 0.00494 0.0047988 0.0046612 0.0045271 0.0043965 0.0042692 0.0041453 0.0040246 0.003907 0.0037926 0.0036811 0.0035726 0.003467 0.0033642 0.0032641 0.0031667 0.003072 0.0029798 0.0028901 0.0028028 0.0027179 0.0026354 0.0025551 0.0024771 0.0024012 0.0023274 0.0022557 0.002186 0.0021182 0.0020524 0.0019884 0.0019262 0.0018658 0.0018071 0.0017502 0.0016948 0.0016411 0.0015889 0.0015382 0.001489 0.0014412 0.0013949 0.0013499 0.98809 0.9884 0.9887 0.98899 0.98928 0.98956 0.98983 0.9901 0.99036 0.99061 0.99086 0.99111 0.99134 0.99158 0.9918 0.99202 0.99224 0.99245 0.99266 0.99286 0.99305 0.99324 0.99343 0.99361 0.99379 0.99396 0.99413 0.9943 0.99446 0.99461 0.99477 0.99492 0.99506 0.9952 0.99534 0.99547 0.9956 0.99573 0.99585 0.99598 0.99609 0.99621 0.99632 0.99643 0.99653 0.99664 0.99674 0.99683 0.99693 0.99702 0.99711 0.9972 0.99728 0.99736 0.99744 0.99752 0.9976 0.99767 0.99774 0.99781 0.99788 0.99795 0.99801 0.99807 0.99813 0.99819 0.99825 0.99831 0.99836 0.99841 0.99846 0.99851 0.99856 0.99861 0.99865 0.97618 0.97679 0.97739 0.97798 0.97855 0.97911 0.97966 0.98019 0.98072 0.98123 0.98173 0.98221 0.98269 0.98315 0.9836 0.98405 0.98448 0.9849 0.98531 0.98571 0.98611 0.98649 0.98686 0.98723 0.98758 0.98793 0.98826 0.98859 0.98891 0.98923 0.98953 0.98983 0.99012 0.9904 0.99068 0.99095 0.99121 0.99146 0.99171 0.99195 0.99219 0.99241 0.99264 0.99285 0.99307 0.99327 0.99347 0.99367 0.99386 0.99404 0.99422 0.99439 0.99456 0.99473 0.99489 0.99505 0.9952 0.99535 0.99549 0.99563 0.99576 0.9959 0.99602 0.99615 0.99627 0.99639 0.9965 0.99661 0.99672 0.99682 0.99692 0.99702 0.99712 0.99721 0.9973 Seite 103 Anhang * Stichwortverzeichnis Stichwortverzeichnis A Abnehmerrisiko, 14 absolute Häufigkeit, 4 absoluter Maximalfehler, 56 Abweichungsquadrate, 6 Additions-Satz, 11;50 allgemeiner Multiplikationssatz, 12 analytische Statistik, 67 Ausgleichsgerade, 46;78 B bedingte Wahrscheinlichkeit, 12 bedingtes Ereignis, 12 BERNOULLI - Experiment, 20 Beschreibende Statistik, 3 BESSEL-Funktion, 68 Beurteilende Statistik, 67 Binomialverteilung, 20 C χ ² - Test, 11 χ² - Verteilung, 68 Chi - Quadrat - Verteilung, 68 Couchy-Verteilung, 50;69 D D(x), 39;101 de Moivre, 52 Dichtefunktion, 31 Diskrete Standardverteilungen, 19 Diskrete Wahrscheinlichkeitsfunktionen, 14 diskrete Zufallsvariable, 15 Dreiecksfunktion, 62 durchschnittliche Auszahlung, 18 Durchschnittswert, 5 E Einzelerfolgswahrscheinlichkeit, 20 Elementarereignis, 7;8 Er, 7 Ereignis, 7 Erfolg, 20 Erwartungswert, 18 Experiment, 7 Exponentialfunktion, 29 exponentialverteilt, 30 Exponentialverteilung, 29 F Φ (Phi), 38;101 F(x), 5;17 f(x), 5 Faltung, 59;60;65 Faltungsintegral, 61 Faltungssatz, 62 Faltungssumme, 59 Fast FOURIER Transformation, 62 Fehlerrechnung, 54 FFT, 62 FISCHER-Verteilung, 70 FOURIER-Transformation, 62 Freiheitsgrade, 68 104 G Gamma-Funktion, 68 GAUSS, 54;85 GAUSSsches Fehlerfortpflanzungsgesetz, 57 Gesetz der großen Zahlen, 11 Gewinnerwartung, 18 gleichwahrscheinlich, 7 globaler Grenzwertsatz, 46 GOSSET, 69 Grundgesamtheit, 3 Gruppierungen, 44 günstiges Ergebnis, 11 H h(x), 4 Häufigkeitsfunktion, 5 HELMERT, 68 Herstellerrisiko, 13 hypergeometrische Verteilung, 24 Hypothese, 67 J joint distribution, 83 K k(x), 4 k(xi), 4 Klasse, 19 KOLMOGOROFF, 9 Kombinatorik, 20 Komplementärereignis, 8 Konfidenzbereich, 70 Konfidenzintervall, 70 Konsumentenrisiko, 14 Korrelation, 65;77 Kovarianz, 78 L LAPLACE, 46;52 LAPLACE - Experiment, 7 Lineare Transformation, 41 Linearität, 81 lokaler Grenzwertsatz, 46 M m, 4 Mächtigkeit, 7 Maßzahlen, 17 Maximalfehler, 56 Merkmalsausprägung, 4 Merkmalsträger, 4 Merkmalswerte, 4 Merkmalszuordnung, 4 Mittelwert, 5 Mittelwert µ einer diskreten Zufallsvariablen, 17 mittlere quadratische Abweichung, 57 mittlerer Fehler, 56 MOIVRE, 46 Moment, 19 Multiplikationssatz, 12 N n, 4 NEYMANN, 70 Normalverteilung, 37;43;67 Statistik Anhang * Streumaß, 6 Strichliste, 4 STUDENT-Verteilung, 69 Summe der Abweichungsquadrate, 6 Summenereignis, 8 systematische Abweichungen, 54 T t - Verteilung, 69 Taylor-Reihe, 55 Testverteilungen, 67 Transformation, 41 TSCHEBYSCHEFF, 54 U unabhängige Zufallsvariable, 49 unkorreliert, 81 unmögliches Ereignis, 8 Urliste, 4 V Varianz, 6;18 Variationskoeffizient, 18 Verteilungsfunktion, 5;17 Verteilungstest, 76 Vertrauensbereich, 70 Vertrauensintervall, 70 W wahrscheinlicher Fehler, 56 Wahrscheinlichkeit, 7 Wahrscheinlichkeitsdefinition, 9 Wahrscheinlichkeitsdichte, 31 Wahrscheinlichkeitsfunktion, 15;16 Wahrscheinlichkeitsoperationen, 11 Wahrscheinlichkeitspapier, 46 Wahrscheinlichkeitstheorie, 7 Warteschlangenmodelle, 26 X x̄, 5 x i, 4 Z zentraler Grenzwertsatz, 52 Zufallsexperimente, 7 Zufallsvariable, 14 O Operations Charakteristik, 14 P P, 7;19 partielle Ableitung, 56 PASCAL, 64 PEARSON, 76 Permutation, 19 POISSON - Verteilung, 24 Produktereignis, 8 Produzentenrisiko, 13 Prüfverteilungen, 67 Punktdiagramm, 4 Q quadratische Abweichungen, 57 Qualitätskontrolle, 13 R random - Funktion, 36;41;63 Rechteckfunktion, 62 rect, 62 Regression, 78 Regressionskoeffizient, 86 relative Häufigkeit, 4 relativer Fehler, 56 S S, 8 s, 6 s², 6;18 schließende Statistik, 67 seltene Ereignisse, 27 sicheres Ereignis, 8 signifikant, 76 Simulation, 64 Sincfunktion, 62 Standardabweichung, 6;18 Standardform der Normalverteilung, 38 statistischer Fehler, 18 Stetige Verteilung, 29 stetige Zufallsvariable, 29 Stichprobe, 3 Stichproben, 43 Stichprobenmerkmal, 4 Stichprobenumfang, 4 * Literatur , + ERWIN KREYSZIG: Statistische Methoden und ihre Anwendungen, OLAF HEIM: Statistische Verfahren der Ingenieurpraxis HANNIG / KNAPPMANN: Fouriertransformation Skript nach einer Vorlesung von Prof. Dr. B. KLINGEN am Fachbereich Photoingenieurwesen, FH-Köln, 1994 Statistik Seite 105