Organisation der Vorlesung Wochen 1 und 2: Einführung, Wahrscheinlichkeit Vorlesung (Patric Müller): montags 08:15 – 10:00 (variabel, kann auch länger dauern) Übungen (Sonja Gassner & Christoph Buck): montags 10:15 – 11:45 2 Übungsserien pro Woche: I I Patric Müller <[email protected]> Parallel zum Einführungskurs: R-Kurs (Lukas Meier), Montag Nachmittag Alle Übungen verfügbar unter http://stat.ethz.ch/Teaching/WBL/Source-WBL6/02.Uebungen/01.Statistik-Einfuehrung/ “Statistics is learning by doing, not by watching”: versuchen Sie, die Übungen zeitnah zu lösen, fragen Sie bei Problemen nach! Verständnisschwierigkeiten werden oft erst beim Lösen von Aufgaben bemerkt. ETHZ WBL 17/19, 10.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Kursinhalt Themen Wahrscheinlichkeit und Statistik 2 / 40 WBL 2017 Prüfungen Fokus des Kurses Zufall und Wahrscheinlichkeit Mittsemester-Prüfung: 29.05.2017, anstelle der Übungen Grundlagenkurs: Wiederholung (?) der Grundbegriffe aus Wahrscheinlichkeit und Statistik Zufallsvariablen, Verteilungen Deskriptive Statistik Basis für weitere WBL-Kurse Schätzung von Parametern Statistische Tests Schlussprüfung: 10.07.2017, anstelle der Übungen Prüfungen werden bestanden oder nicht bestanden; keine Noten Um den Kurs zu bestehen, müssen Mittsemester- und Schlussprüfung beide bestanden werden Administrative Fragen bitte an Christoph Buck ([email protected]) richten Einfache lineare Regression Wahrscheinlichkeit und Statistik Präsenzserie: “Mindest-Soll” der Woche Zusatzserie: Zusatzaufgaben zur Vertiefung 3 / 40 WBL 2017 Wahrscheinlichkeit und Statistik 4 / 40 WBL 2017 Literatur Teil I Vorlesungsskript: wird von den Autoren für ihre jeweilige Einführungsvorlesung verwendet. Deckt alle im Kurs behandelten Themen ab. Einführung Werner Stahel: Statistische Datenanalyse, Vieweg und Sohn, 2012 Wahrscheinlichkeit und Statistik 5 / 40 WBL 2017 Statistische Probleme: Beispiele Wahrscheinlichkeit und Statistik 6 / 40 WBL 2017 Beispiel 1: Vererbung in Erbsenpflanzen Experimente Gregor Mendels (1822 – 1884): Züchtung reinerbiger Erbsenpflanzen mit nur runden oder kantigen Samen (Erbsen) Zum Einstieg: 6 Beispiele “einfacher” statistischer Fragestellungen Repräsentativ für Inhalte dieses Einführungskurses Vorlesung basiert auf Kapitel 1 des Skripts. Quelle: Van Norman (1971) Wahrscheinlichkeit und Statistik 7 / 40 WBL 2017 Wahrscheinlichkeit und Statistik 8 / 40 WBL 2017 Beispiel 1: Vererbung in Erbsenpflanzen Beispiel 1: Vererbung in Erbsenpflanzen Genetische Erklärung: Bestäubung von Pflanzen der “Parentalgeneration” (P), die aus runden Erbsen gewachsen sind, mit Pollen solcher, die aus kantigen Erbsen gewachsen sind nur runde Erbsen (“Filialgeneration” F1 ) ein Gen steuert Erbsenform; Allel für runde Erbsen (R) ist dominant gegenüber Allel für kantige Erbsen (r) Kreuzung von Pflanzen aus F1 (“Filialgeneration” F2 ) Generation P: homozygot, Genotyp entweder RR oder rr runde und kantige Erbsen Experiment: runde und kantige Samen nach Kreuzung in F1 zählen (Quelle: http://evolpsychology.blogspot.ch/) Generation F1 : heterozygot, Genotyp Rr Generation F2 : Genotypen RR, Rr und rr im Verhältnis 1 : 2 : 1 Wahrscheinlichkeit und Statistik 9 / 40 WBL 2017 Beispiel 1: Vererbung in Erbsenpflanzen 1 45 12 3.8 2 27 8 3.4 3 24 7 3.4 4 19 10 1.9 5 32 11 2.9 6 26 6 4.3 7 88 24 3.7 8 22 10 2.2 9 28 6 4.7 10 25 7 3.6 Quelle: Stahel (2002) 11 / 40 WBL 2017 Milzbrand: tödliche Infektionskrankheit bei Paarhufern Experiment von Louis Pasteur 1881: 24 Schafe gegen Milzbrand impfen, 24 ungeimpfte Schafe als Kontrollgruppe Alle 48 Schafe mit Milzbrand infizieren Resultat: Stützen diese Zahlen Mendels Vererbungsgesetze? Sind die Zahlen bloss zufällige Abweichungen des erwarteten Verhältnisses 3 : 1? Wahrscheinlichkeit und Statistik 10 / 40 Beispiel 2: Impfung gegen Milzbrand Daten aus Mendels Experimenten: Anzahl runde und kantige Erbsen (F2 ) auf 10 Pflanzen der Generation F1 : Pflanze rund kantig Verhältnis: X : 1 Wahrscheinlichkeit und Statistik WBL 2017 Behandlung Tot Überlebt geimpft 0 24 ungeimpft 24 0 Quelle: Samuels et al. (2012) Wahrscheinlichkeit und Statistik 12 / 40 WBL 2017 Experiment mit Mäusen aus Zuchtlinie mit hoher Tumor-Inzidenz Eine Gruppe keimfrei aufgezogen, eine Gruppe Escherichia coli ausgesetzt Resultat: Behandlung Lebertumor Kein Lebertumor Anteil mit Lebertumor E. coli 8 5 62% Monoaminooxidase (MAO): Enzym, das in der Steuerung des Verhaltens eine Rolle spielt Studie: MAO-Aktivität in 42 Patienten mit unterschiedlichen Formen von Schizophrenie gemessen keimfrei 19 30 39% (Potkin et al., 1978) I Quelle: Mizutani and Mitsuoka (1979) Kann man aus diesen Zahlen schliessen, dass E. coli einen Einfluss auf die Tumorhäufigkeit hat? Wahrscheinlichkeit und Statistik 13 / 40 WBL 2017 Beispiel 5: Zeit zwischen zwei Impulsen eines Neurons MAO−Aktivität 10 15 Beispiel 4: Monoaminooxidase und Schizophrenie 5 Beispiel 3: Einfluss von Bakterien auf Tumore II Schizophrenie−Form III Sind unterschiedliche Formen der Schizophrenie mit einem unterschiedlichen Niveau der MAO-Aktivität verknüpft? Wahrscheinlichkeit und Statistik 14 / 40 WBL 2017 Beispiel 6: Verteilung von Panini-Bildern Kollege Markus K. ist leidenschaftlicher Sammler von Panini-Bildern Abbildung rechts: Verteilung der Zeitintervalle zwischen zwei Impulsen eines Neurons (Nurse, 1981) Wahl beim Kauf von Panini-Bildern: einzelne Packung (5 Bilder) oder Box (500 Bilder)? Wie könnte man die Verteilung der Intervalle zwischen Neuron-Impulsen modellieren, um sie vorherzusagen oder zu simulieren? Markus’ Vermutung: Bilder in Box nicht “zufällig” verteilt; doppelte Bilder werden bewusst vermieden. “Experiment”: Box kaufen, Bilder einkleben. Ergebnis: 477 unterschiedliche Bilder aus 661 möglichen. Ist das mit der Annahme “zufälliger” Verpackung vereinbar? Wahrscheinlichkeit und Statistik 15 / 40 WBL 2017 Wahrscheinlichkeit und Statistik 16 / 40 WBL 2017 Beispiel 6: Verteilung von Panini-Bildern Computer-Simulation: zufällige Stichprobe von 500 Elementen aus 661 erzeugen; zählen, wie viele unterschiedliche Elemente in Stichprobe sind. 250000 Teil II Wahrscheinlichkeit 150000 100000 50000 0 in einer Million Simulationen wurde ein so “extremes Resultat” wie 477 nicht-doppelte Bilder nie beobachtet! Bilder werden “ziemlich sicher” nicht “zufällig” in Boxen verteilt. Anzahl Alben 200000 Simulation eine Million mal wiederholen; Verteilung der nicht-doppelten Bilder: 300 350 400 450 500 Anzahl eingeklebter Bilder Wahrscheinlichkeit und Statistik 17 / 40 WBL 2017 Lernziele Wahrscheinlichkeit und Statistik 18 / 40 WBL 2017 Wahrscheinlichkeitstheorie Sie können. . . . . . die grundlegenden Konzepte der Wahrscheinlichkeitstheorie erläutern: Ereignis, Grundraum, (bedingte) Wahrscheinlichkeit, Unabhängigkeit. . . . den Unterschied zwischen frequentistischer und Bayes’scher Interpretation einer Wahrscheinlichkeit erläutern. . . . Venn-Diagramme zeichnen und lesen. . . . Wahrscheinlichkeitsbäume zeichnen und lesen. . . . bedingte Wahrscheinlichkeiten berechnen, z.B. mit Hilfe des Satzes von Bayes. Fast alles, was Daten generiert, ist ein Zufallsexperiment: ein “Experiment” (naturwissenschaftliches Experiment, Befragung, Aggregieren von Geschäftszahlen, etc.), dessen Ausgang nicht vollständig vorhersehbar ist “Experimente” sind zufällig, weil sie bei Wiederholung unter “gleichen Bedingungen” unterschiedlich ausgehen. Ziel der Wahrscheinlichkeitstheorie: Modellierung von Zufall und Zufallsexperimenten Vorlesungen basieren auf Kapitel 2.1 bis 2.4 im Skript. Wahrscheinlichkeit und Statistik 19 / 40 WBL 2017 Wahrscheinlichkeit und Statistik 20 / 40 WBL 2017 Zufallsexperimente Wichtige Begriffe Definition (Grundraum, Ereignis) Ein Elementarereignis ω ist ein möglicher Ausgang eines Zufallsexperiments. Der Grundraum Ω ist die Menge aller Elementarereignisse eines Zufallsexperiments. Ein Ereignis A ⊂ Ω ist eine Teilmenge des Grundraums, d.h. eine Menge gewisser Elementarereignisse. Zufallsexperiment: Experiment, dessen Ausgang nicht exakt vorhersehbar ist Gründe für Zufälligkeit: I I Inhärenter Zufall: gewisse Prozesse in Natur, Technik und Gesellschaft sind grundsätzlich nicht exakt vorhersagbar Unvollständige Kontrolle experimenteller Bedingungen Beispiel: Beim Würfeln von zwei Würfeln besteht die Grundmenge Ω aus 36 Elementarereignisse. n o Ω = (1, 1); (1, 2); (1, 3); . . . ; (6, 6) Das Ereignis A “Augensumme n ist 10” besteht aus o den drei Elementarereignissen A = (4, 6); (5, 5); (6, 4) . Das Ereignis B “Der erste Würfel ist eine 6” besteht n o aus den sechs Elementarereignissen B = (6, 1); (6, 2); . . . ; (6, 6) . Wahrscheinlichkeit und Statistik 21 / 40 WBL 2017 Verknüpfung von Ereignissen Wahrscheinlichkeit und Statistik 22 / 40 WBL 2017 Weitere Begriffe, Verknüpfungen Visualisierung von Ereignissen mit Venn-Diagrammen: Ω A Ω B A B Ereignisse A und B heissen disjunkt, falls A ∩ B = ∅. Schnittmenge A ∩ B Ω A B Vereinigung A ∪ B Komplement Ac Differenz A \ B Wahrscheinlichkeit und Statistik Satz (Regeln von de Morgan.) Für Ereignisse A und B gilt (A ∩ B)c = Ac ∪ B c and (A ∪ B)c = Ac ∩ B c . Ω A 23 / 40 B Übung: Beweisen Sie die Regeln mit Hilfe von Venn-Diagrammen! WBL 2017 Wahrscheinlichkeit und Statistik 24 / 40 WBL 2017 Wahrscheinlichkeit Interpretation von Wahrscheinlichkeiten I Definition (Wahrscheinlichkeitsmass) Sei Ω ein Grundraum. Ein Wahrscheinlichkeitsmass ist eine Funktion P, die jedem Ereignis A ⊂ Ω eine Wahrscheinlichkeit 0 ≤ P(A) ≤ 1 zuordnet mit den folgenden Eigenschaften: Frequentistische Interpretation: wenn das Experiment “häufig” wiederholt wird, tritt Ereignis A in ca. einem Anteil P(A) der Fälle auf. Bayes’sche Interpretation: P(A) ist ein Mass für den subjektiven Glauben an eine Aussage. i) 0 ≤ P(A) ≤ 1 für jedes Ereignis A ⊂ Ω ii) P(Ω) = 1 iii) P(A ∪ B) = P(A) + P(B) für disjunkte Ereignisse A und B. Wahrscheinlichkeit und Statistik 25 / 40 WBL 2017 26 / 40 WBL 2017 Diskrete Wahrscheinlichkeitsmodelle 0.8 1.0 Interpretation von Wahrscheinlichkeiten II Wahrscheinlichkeit und Statistik fn(A) 0.4 0.6 Endlicher (oder “abzählbarer”) Grundraum: Ω = {ω1 , ω2 , . . .} X P({ωi }) Wahrscheinlichkeit eines Ereignisses A ⊂ Ω: P(A) = i:ωi ∈A 0.2 Normierung: P(Ω) = X P({ωi }) = 1 0.0 i≥1 0 50 100 150 n 200 250 300 Falls Ω endlich ist, sind oft alle Elementarereignisse gleich wahrscheinlich; es gilt dann Frequentistische Interpretation: Relative Häufigkeit des Ereignisses A = “Kopf” bei n Münzwürfen Bayes’sche Interpretation speziell nützlich bei nicht-wiederholbarem Experiment: z.B. “Wahrscheinlichkeit, an einer Stelle in der Nordsee Öl zu finden”; “Wahrscheinlichkeit eines Erdbeben Magnitude ≥ 4.6 in der Zentralschweiz”. Wahrscheinlichkeit und Statistik 27 / 40 WBL 2017 P(A) = |A| “günstige” Ausgänge = |Ω| “mögliche” Ausgänge P heisst dann Laplace-Wahrscheinlichkeit Wahrscheinlichkeit und Statistik 28 / 40 WBL 2017 Bedingte Wahrscheinlichkeit Unabhängigkeit Definition (Bedingte Wahrscheinlichkeit) A und B seien Ereignisse mit P(B) > 0. Die bedingte Wahrscheinlichkeit von A gegeben B ist definiert als P(A | B) = Definition (Unabhängigkeit) P(A ∩ B) . P(B) Ereignisse A und B heissen unabhängig, falls P(A ∩ B) = P(A) · P(B). In Worte heisst P(A | B): “Man weiss, dass B eingetreten ist. Wie gross ist jetzt (gemäss dieser Information) die Wahrscheinlichkeit, dass A eintritt?” Ω A 29 / 40 WBL 2017 Rechenregeln für bedingte Wahrscheinlichkeiten Wahrscheinlichkeit und Statistik 30 / 40 WBL 2017 Bedingte Wahrscheinlichkeit und Unabhängigkeit Solange auf dasselbe Ereignis bedingt wird, gelten Rechenregeln für Wahrscheinlichkeiten auch für bedingte Wahrscheinlichkeiten: A, B: Ereignisse mit P(A) > 0, P(B) > 0 Falls A und B unabhängig sind, gilt P(A ∩ B) = P(A) · P(B) Demnach gilt bei Unabhängigkeit 0 ≤ P(A | B) ≤ 1 P(A1 ∪ A2 | B) = P(A1 | B) + P(A2 | B), falls A1 und A2 disjunkt P(Ac | B) = 1 − P(A | B) P(A | B) = P(A) und P(B | A) = P(B) In Worten: A und B sind unabhängig genau dann, wenn wir aus A nichts über B lernen können und umgekehrt. etc. Wahrscheinlichkeit und Statistik Wenn Ereignisse nicht unabhängig sind, können wir aus dem einen etwas über das andere lernen. Achtung: Unabhängig heisst nicht disjunkt! B Wahrscheinlichkeit und Statistik Unabhängigkeit von Ereignissen wird oft auf Grund technischer Überlegungen postuliert 31 / 40 WBL 2017 Wahrscheinlichkeit und Statistik 32 / 40 WBL 2017 Wahrscheinlichkeitsbäume Wahrscheinlichkeitsbaum: 3 Münzwürfe 0.5 Z3 0.5 Z2 0.5 K3 0.5 Z3 Z1 0. 5 Mehrstufiges Zufallsexperiment kann in einem Wahrscheinlichkeitsbaum dargestellt werden 0.5 K2 0.5 K3 0.5 Z 2 0.5 0.5 K1 0.5 0.5 K2 0.5 Z3 Beispiel: faire Münze dreimal werfen Wahrscheinlichkeit und Statistik 33 / 40 5 0. Ereignisse: K1 , K2 , K3 : Kopf im 1., 2., 3. Wurf; Z1 = K1c , Z2 = K2c , Z3 = K3c : Zahl im 1., 2., 3. Wurf WBL 2017 Rechnen mit Wahrscheinlichkeitsbäumen Was ist die Wahrscheinlichkeit, mindestens zweimal in Folge “Kopf” zu werfen? K3 Z3 K3 Wahrscheinlichkeit und Statistik 34 / 40 WBL 2017 Beispiel: medizinischer Test Medizinischer Test für eine seltene Krankheit 1. Pfadregel: Wahrscheinlichkeit eines Elementarereignisses = Produkt der (bedingten) Wahrscheinlichkeiten auf dessen Pfad im Baum 2. Pfadregel: Wahrscheinlichkeit eines Ereignisses = Summe der Wahrscheinlichkeiten aller Pfade (Wahrscheinlichkeiten der Elementarereignisse), die zum Ereignis gehören Bemerkung: Wahrscheinlichkeitsbäume sind besonders nützlich beim Rechnen mit abhängigen Ereignissen Wahrscheinlichkeit und Statistik 35 / 40 WBL 2017 Test scheint ziemlich präzise: erkennt Krankheit mit 95% Wahrscheinlichkeit (Sensitivität des Tests), und stellt das Fehlen der Krankheit mit 90% Wahrscheinlichkeit fest (Spezifizität des Tests). Ereignis K : Person hat Krankheit; T : Test ist positiv (d.h., zeigt Krankheit an) 1% der Bevölkerung ist von Krankheit betroffen: P(K ) = 0.01. Wie gross ist die Wahrscheinlichkeit, dass eine zufällig ausgewählte Person ein positives Testergebnis erhält? Wahrscheinlichkeit und Statistik 36 / 40 WBL 2017 Wahrscheinlichkeitsbaum Satz der totalen Wahrscheinlichkeit Satz (Satz der totalen Wahrscheinlichkeit) K 1 0.0 K 0.9 9 P(T ∩ K ) = 0.01 · 0.95 = 0.0095 K T| .95 T 0c |K 0.0 5 P(A) = P(T c T |K .1 T c0 |Kc 0.9 P(T ) = P(T |K )P(K ) + ∩ K ) = 0.01 · 0.05 = 5e − 04 k X P(A ∩ Bi ) = i=1 P(T ∩ K c ) = 0.99 · 0.1 = 0.099 c c B1 , B2 , . . . , Bk seien disjunkte Ereignisse mit B1 , B2 , . . . , Bk = Ω. Dann ist die Wahrscheinlichkeit eines beliebigen Ereignisses A k X P(A | Bi )P(Bi ) . i=1 Ω B4 B2 B6 A P(T c ∩ K c ) = 0.99 · 0.9 = 0.891 P(T |K c )P(K c ) Wahrscheinlichkeit und Statistik B1 = 0.0095 + 0.099 = 0.1085 37 / 40 WBL 2017 Formel von Bayes B5 B3 Wahrscheinlichkeit und Statistik 38 / 40 WBL 2017 Literatur Satz (Formel von Bayes) Takeo Mizutani and Tomotari Mitsuoka. Effect of intestinal bacteria on incidence of liver tumors in gnotobiotic C3H/He male mice. Journal of the National Cancer Institute, 63(6):1365–1370, 1979. A und B seien Ereignisse mit P(A) > 0 und P(B) > 0. Dann gilt: P(B | A) = P(A | B) · P(B) . P(A) Colin A Nurse. Interactions between dissociated rat sympathetic neurons and skeletal muscle cells developing in cell culture: II. Synaptic mechanisms. Developmental biology, 88(1):71–79, 1981. Im Setting des Satzes der totalen Wahrscheinlichkeit können wir schreiben P(A | Bi ) · P(Bi ) P(Bi | A) = Pk . j=1 P(A | Bj ) · P(Bj ) Myra L Samuels, Jeffrey A Witmer, and Andrew Schaffner. Statistics for the life sciences. Pearson Education, 2012. Beispiel: medizinischer Test (Forts.) Angenommen, der medizinische Test von vorhin gibt Ihnen ein positives Testergebnis. Wie gross ist die Wahrscheinlichkeit, dass Sie die Krankheit tatsächlich haben? Wahrscheinlichkeit und Statistik 39 / 40 Steven G Potkin, H Eleanor Cannon, Dennis L Murphy, and Richard Jed Wyatt. Are paranoid schizophrenics biologically different from other schizophrenics? New England Journal of Medicine, 298(2):61–66, 1978. WBL 2017 Werner Alfred Stahel. Statistische Datenanalyse. Vieweg und Sohn, Braunschweig, 4. edition, 2002. Richard W Van Norman. Experimental biology. Prentice-Hall, 1971. Wahrscheinlichkeit und Statistik 40 / 40 WBL 2017