wst Wahrscheinlichkeitstheorie und Statistik Dr. D. Adams Fachhochschule Nordwestschweiz Hochschule für Technik IMN FS 2017 [email protected] wst 1/119 wst Bibliographie Lothar Papula. Mathematik für Ingenieure und Naturwissenschaftler – Ein Lehr- und ArbeitsBuch für das Grundstudium, volume 2. Vieweg + Teubner, Wiesbaden, 2009. T. Sigg. Grundlagen der Differentialgleichungen für Dummies. Für Dummies Series. Wiley VCH Verlag GmbH, 2012. ISBN 9783527707959. [email protected] wst 2/119 wst Griechisches Alphabet Grossbuchst. A B Γ ∆ E Z H Θ I K Kleinbuchst. α β γ δ , ε ζ η θ, ϑ ι κ, κ [email protected] Λ M N Alpha Ξ Beta O Gamma Π Delta P Epsilon Σ Zeta T Eta Y Theta Φ Iota X Kappa Ψ Ω λ µ ν ξ o π, $ ρ, % σ, ς τ υ φ, ϕ χ ψ ω wst Lambda My Ny Xi Omikron Pi Rho Sigma Tau Ypsilon Phi Chi Psi Omega 3/119 wst Beschreibende Statistik Beschreibende Statistik [email protected] wst 4/119 wst Beschreibende Statistik Was ist Stochastik Definition (Stochastik) Beschreibung und Untersuchung von Ereignissen, die vom Zufall beeinflusst werden. Wahrscheinlichkeitstheorie + Statistik Einsatzgebiete Statistik: Technik, Physik Meteorologie Ökonomie Definition (Statistik) Analyse von Daten, die durch Zufall beeinfluss sind [email protected] wst 5/119 wst Beschreibende Statistik Arbeitsweise Statistik Formulierung Problem Planung Experiment Ausführung Experiment Beschreibung experimentelle Daten Schluss von Stichprobe auf Grundgesamtheit [email protected] wst 6/119 wst Beschreibende Statistik Beispiel Neonröhren Formulierung Problem: Wie gross ist Lebensdauer der Neonröhren, die an FHNW verwendet werden? Planung Experiment: Test einer Röhre genügt nicht. Alle können nicht getestet werden. Wir testen 11 Röhren. Ausführung Experiment: x1 x2 x3 x4 x5 x6 24 39 45 51 55 62 Angaben in Monaten x7 64 x8 65 x9 67 x10 76 x11 123 Beschreibung experimentelle Daten: Lageparameter: Durchschnitt und Standartabweichung x = 61 ± 25.25 Schluss von Stichprobe auf Grundgesamtheit: Durchschnittliche Lebensdauer 61 Monate [email protected] wst 7/119 wst Beschreibende Statistik b x1 b b b b x2 x3 x4 x5 x6 x8 b bb b x7 x9 b b x10 x11 b | | 0 Aunten = 22 | Q0.25 = 45 [email protected] x e = 62 | | Q0.75 = 67 | Aoben = 100 Ausreisser | wst 8/119 wst Beschreibende Statistik Definition (Mittelwert) Pn xi x = i=1 n Stichprobenumfang: n Definition (Standart-Abweichung) sP n 2 i=1 (xi − x) s= n−1 [email protected] Definition (Grundgesamtheit) Menge der Elemente, die untersucht werden soll. Definition (Stichprobe) Teilmenge der Grundgesamtheit, die untersucht wird. wst 9/119 wst Beschreibende Statistik Metrische vs. diskrete Grössen Quantitative Merkmale unterteilt in diskrete und metrische diskrete Merkmale werden meistens von mehreren Merkmalsträgern angenommen bei diskreten Merkmalen ist es sinnvoll zu zählen wie of eine Merkmals-Ausprägung angenommen wird bei metrischen Grössen gibt es zu fast jedem Merkmalsträger eine eine, von anderen verschiedene Merkmal-Ausprägung (sogar bei grossen Stichproben) [email protected] wst 10/119 wst Beschreibende Statistik Metrische (stetige) Grössen (m), diskrete Grössen (d), qualitative Merkmale (q) Ordnen sie zu: Windgeschwindigkeit Sonnenschein-Dauer am letzten Tag im Monat Anzahl Regentage im April Luftdruck Stau-Stunden am Gotthard Anzahl Lastwagen durch Belchentunnnel Zivilstand steuerbares Einkommen abgeschlossene Diplome. [email protected] wst 11/119 wst Beschreibende Statistik Metrische (stetige) Grössen (m), diskrete Grössen (d), qualitative Merkmale (q) Ordnen sie zu: Windgeschwindigkeit (m) Sonnenschein-Dauer am letzten Tag im Monat (m) Anzahl Regentage im April (d) Luftdruck (m) Stau-Stunden am Gotthard (m) Anzahl Lastwagen durch Belchentunnnel (d/m) Zivilstand (q) steuerbares Einkommen (m) abgeschlossene Diplome (q) [email protected] wst 12/119 wst Beschreibende Statistik Darstellung von Daten Häufigkeitstabellen: Graphische Darstellung Häufigkeitstabellen (Tabelle, m/d) Histogramme (Plot, m/d) Kreisdiagramme (q) [email protected] Anzahl Klassen (Richtwert) √ k≈ n Klassenbreite d ≈ xmax −xmin k Intervalle [ai , ai+1 [ (Daten auf Grenzen konsistent zu rechten Klasse gezählt) wst 13/119 wst Beschreibende Statistik Häufigkeitsverteilungen Erstellen Sie ein Histogramm zu den Anzahl Betriebsstörungen an Baumaschinen. i hi 0 48 1 38 2 10 3 4 Erstellen Sie ein Diagramm zum Verhältnis Studentinnen zu Studenten in der Klasse Erstellen Sie eine Häufigkeitstabelle und ein Histogramm zu den Daten der Zugfestigkeit (Walzdraht, S. 6) [email protected] wst 14/119 wst Beschreibende Statistik Lageparameter Definition (Arithmetisches Mittel) n x= 1X xi n i=1 Definition (Harmonisches Mittel) x h = n/ n X 1 xi i=1 Definition (Geometrisches Mittel) x g = (x1 · x2 . . . xn )1/n = [email protected] n Y i=1 xi !1/n wst 15/119 wst Beschreibende Statistik Lageparameter Definition (Median) x n+1 ( 2 )h i x̃ = 1/2 · x n + x n ( ) ( +1) 2 n gerade n ungerade 2 Definition (Quartile Q0.25 , Q0.75 ) Oberhalb von Q0.75 , liegt 1/4 der Messungen, unterhalb von Q0.25 liegt 1/4 der Messungen Definition (Ausreissergrenzen) Aunten = Q0.25 − 1.5 · dQ und Aoben = Q0.75 + 1.5 · dQ Quartilsweite: dQ = Q0.75 − Q0.25 [email protected] wst 16/119 wst Beschreibende Statistik Mittlere Geschwindigkeit? Strecke [km] Geschwindigkeit [km/h] 20 40 20 120 20 80 Pn Pn si i si P P ṽ = n = ni si t i i i vi v h = 65.45 km/h Mittlere Verzinsung? Jahr Zins % 1 8.5 2 12.2 3 -4.5 K = K0 · (1 + r1 ) · (1 + r2 ) · (1 + r3 ) v g = 5.15 % [email protected] wst 17/119 wst Beschreibende Statistik Median/Quartile/Ausreisser 5.3 3.8 4.0 19.5 3.1 3.8 4.0 5.0 4.9 2.2 4.1 3.1 5.5 Ordnen: 2.2 4.1 4.9 5.0 5.3 5.5 19.5 Mittelwert: x = 5.74 Median: x̃ = 12 (4.1 + 4.9) = 4.5 Quartile: Q0.25 = 3.8 und Q0.75 = 5.3 Aussreissergrenzen: Aunten = Q0.25 − 1.5 · dQ = 1.55 und Aoben = Q0.75 + 1.5 · dQ = 7.55 ⇒ 19.5 ist Ausreisser Erstelle Box- und Whiskperplot Ohne Ausreisser (Mittelwert/Median): Mittelwert: x = 4.2 Median: x̃ = 12 (4.1 + 4.9) = 4.1 [email protected] wst 18/119 wst Beschreibende Statistik Mittelwert vs. Median Median ist stabiler gegenüber Ausreissern. [email protected] wst 19/119 wst Zufall und Ereignis Zufall und Ereignis [email protected] wst 20/119 wst Zufall und Ereignis Definition (Zufallsexperiment) Vorgang beliebig oft wiederholbar und Ausgang ungewiss (innerhalb einer Menge möglicher Ergebnisse). Definition (Stichprobenraum ) Menge S aller Ausfallsmöglichkeiten. [email protected] wst 21/119 wst Zufall und Ereignis Geben Sie den Stichprobenraum an Werfen einer Münze Werfen eines Würfels Ziehung einer Lottozahl Kontrolle eines (unangemeldeten) Haushalts durch die Bilag Werfen einer Münze S = {K , Z } Werfen eines Würfels S = {1, 2, 3, 4, 5, 6} Ziehung einer Lottozahl S = {1, 2, 3, . . . , 44, 45} Bilag S = {Fernseher, Radio, 0} [email protected] wst 22/119 wst Zufall und Ereignis S A∩B B A Definition (Verknüpfung von Ereignissen) S und-Verknüpfung A ∩ B A∪B oder-Verknüpfung A ∪ B B A Gegenereignis A S A [email protected] A̅ wst 23/119 wst Zufall und Ereignis Theorem (Morgansche Regeln) A∪B =A∩B A∩B =A∪B [email protected] wst 24/119 wst Zufall und Ereignis Beschreiben Sie in Worten und Mengen S = {1, 2, 3, 4, 5, 6}, A = {1, 3, 5}, B = {2, 4, 6}, C = {3, 6} A= {2, 4, 6} = B, Würfeln einer geraden Zahl B= {1, 3, 5} = A, Würfeln einer ungeraden Zahl A ∪ B ={1, 2, 3, 4, 5, 6} = S, Sicheres Ereignis A ∩ B =∅, unmögliches Ereignis A ∩ C ={3}, Würfeln der 3 [email protected] wst 25/119 wst Zufall und Ereignis Er eignisbaum . 1 . Teilversuch K 2. Teilversuch 3. Teilversuch 4. Teilversuch Z K K K Z Z K Z K K Z K Z Z K Z K Z K Z Z K K Z K Z Z K Z Theorem (Produktregel) Besteht ein zusammengesetzter Versuch aus m unabhängigen Teilversuchen mit jeweils [n1 , n2 , n3 , n4 , . . . , nm Ausfallsmöglichkeiten, dann besitzt der Versuch n1 · n2 . . . · nm Ausfälle. [email protected] wst 26/119 wst Zufall und Ereignis Permutationen der Ziffern 1 bis 5? P(5) = 5 · 4 · 3 · 2 · 1 = 720 Variation 3-ter Ordnung mit Zurücklegen. [email protected] wst 27/119 wst Zufall und Ereignis Anzahl mögliche dreistellige Zahlen? Ziffern 1 bis 9. V (9; 3) = 93 = 729 Variation 3-ter Ordnung mit Zurücklegen. [email protected] wst 28/119 wst Zufall und Ereignis Anzahl mögliche Schaltungen 5 verschiedene Widerstände R1 , . . . , R5 Jeder Widerstand nur ein Mal verwenden 5! 5 C (5; 3) = = = 10 3 3! · 2! Kombination 3-ter Ordnung ohne Zurücklegen. [email protected] wst 29/119 wst Zufall und Ereignis Anzahl mögliche Stichproben einer Lieferung von Batterien? Gelieferte Batterien: 100, Stichprobe: 10 100! 100 C (12; 3) = = = 17 310 309 456 440 10 10! · 90! Kombination 10-ter Ordnung ohne Zurücklegen. [email protected] wst 30/119 wst Zufall und Ereignis Anzahl mögliche dreistellige Zahlen? Ziffern 1 bis 9. Jeder Ziffer nur ein Mal verwenden. (Ziffern 1 bis 9: kein Probleme mit führenden 0) V (9; 3) = 9! = 7 · 8 · 9 = 504 (9 − 3)! Variation 3-ter Ordnung ohne Zurücklegen. [email protected] wst 31/119 wst Zufall und Ereignis Pferdetoto Dreierwette: Zieleinflauf der ersten drei Pferde. Anzahl Möglichkeiten bei 10 Pferden? V (10; 3) = 10! = 720 (10 − 3)! Variation 3-ter Ordnung ohne Wiederholungen. [email protected] wst 32/119 wst Zufall und Ereignis Anzahl mögliche Schaltungen 5 verschiedene Widerstände R1 , . . . , R5 Jeder Widerstand bis zu 3 Mal verwenden 7! 5+3−1 Cw (5; 3) = = = 35 3 4! · 3! Kombination 3-ter Ordnung mit Zurücklegen. [email protected] wst 33/119 wst Zufall und Ereignis Kombination k-ter Ordnung Variation k-ter Ordnung ohne Wiederholung n C (n; k) = k V (n; k) = n! (n−k)! Ziehung ohne Zurücklegen mit Wiederholung n+k −1 Cw (n; k) = k Vw (n; k) = nk ungeordnete Stichproben geordnet Stichproben Ziehung mit Zurücklegen Definition (Binomialkoeffizient) n! n = k k! · (n − k)! [email protected] wst 34/119 wst Wahrscheinlichkeit Definition (Wahrscheinlichkeit (theoretisch)) g p= m g : Anzahl günstige Fälle m: Anzahl mögliche Fälle Wahrscheinlichkeit 6 beim Würfeln? m = 6, g =1 ⇒ p= 1 6 Wahrscheinlichkeit Kopf beim Werfen Münze? m = 2, [email protected] g =1 ⇒ p= 1 2 wst 35/119 wst Wahrscheinlichkeit 6 Richtige Zahlen beim Lotto (6 mal 45 Zahlen)? 45 m= = 8 145 060 6 g =1 ⇒ p= 1 = 0.000 000 123 m Vergleiche Wahrscheinlichkeit mit Strecke Brugg-Paris Strecke: 611 000 m. 0.07 p≈ 611 000 ca. 7 cm! [email protected] wst 36/119 wst Wahrscheinlichkeit 10 Nüsse davon 3 verdorben. Wahrscheinlichkeit mit einem Griff 2 gute Nüsse zu finden. 10 m= = 45 2 7 g= = 21 2 Hier ist es einfacher mit geordneten Stichproben zu rechnen, obwohl eine ungeordnete Stichprobe ! Geordnete Stichprobe vs. ungeordnete Stichprobe Bei vielen Experimenten können geordnete Stichproben betrachtet werden. Das vereinfach oft die Rechnungen. Dabei muss m und g konsequent für geordnete Stichproben berechnet werden [email protected] wst 37/119 wst Wahrscheinlichkeit Definition (Wahrscheinlichkeit (experimentell)) h(si ) = Anz.desAuftretensvonsi ni = Anz.Versuche N Für Wahrscheinlichkeiten p(si ) (oder h(si ) gilt:) Theorem ( Axiome der Wahrscheinlichkeit ) Sei S = {s1 , s2 , . . . sn } der Stichprobenraum des Versuchs (d.h. si ∪ sj = 0 für i 6= j): 0 ≤ p(si ) ≤ 1 p(s1 ) + p(s2 ) + . . . + p(sn ) = 1 Spezielles Ereignis, z.B A = {s1 , s2 , s3 }: p(A) = p(s1 ) + p(s2 ) + p(s3 ) [email protected] wst 38/119 wst Experimentelle Wahrscheinlichkeit Experimentelle Wahrscheinlichkeit (Simulation) Führen Sie mit matlab folgenden Versuch durch: Mit einem Würfel wird 1000 mal gewürfelt. Bei jedem Wurf wird notiert, wie viele mal insgesamt eine 3 gewürfelt wurde. Befehle: for i=1:mmax ... end, r>0, randi([1 3]) mmax=10ˆ3; s t a =(1:mmax+1)∗0; % l e e r e L i s t e f o r i =1:mmax r = randi ([1 6]); % W ü r f e l n s t a ( i +1)=( s t a ( i )+( r ==3)); end initialisieren Berechnen und plotten Sie die Wahrscheinlichkeit, dass eine 3 gewürfelt wird als Funktion der Versuchsnummer. Gegen welchen Wert konvergiert die relative Häufigkeit? Befehle: plot, ./ , end [email protected] wst 39/119 wst Experimentelle Wahrscheinlichkeit Experimentelle Wahrscheinlichkeit forts. r e l h=s t a . / ( 1 : mmax+1); p l o t ( ( 1 : mmax+1) , r e l h ) r e l h ( end −2: end ) [email protected] wst 40/119 wst Experimentelle Wahrscheinlichkeit Theorem (Additionssatz) allgemein: p(A ∪ B) = p(A) + p(B) − p(A ∩ B) also für A und B elementfremd: p(A ∪ B) = p(A) + p(B) Wahrscheinlich Gegenereignis q = p(A) = 1 − p(A) S A∪B A [email protected] B wst 41/119 wst Experimentelle Wahrscheinlichkeit Theorem (Multiplikationssatz) A und B beziehen sich auf Teilversuche: p(A ∩ B) = p(A) · p(B) [email protected] wst 42/119 wst Experimentelle Wahrscheinlichkeit Würfel A = {1, 3, 5} und B = {3, 4, 5, 6}. Berechnen Sie p(A ∪ B). p(A ∪ B) = p(A) + p(B) − p(A ∩ B) 1 1 1 1 1 1 1 1 1 = + + + + + + − + 6 6 6 6 6 6 6 6 6 5 = 6 Wahrscheinlichkeit drei mal hintereinander Sechs zu würfeln. 1 1 1 1 p(A1 ∩ A2 ∩ A3 ) = · · = 3 = 0.00463 6 6 6 6 [email protected] wst 43/119 wst Experimentelle Wahrscheinlichkeit Beispiel Versuch mit p und q p Wahrscheinlichkeit für Erfolg, q = 1 − p Wahrscheinlichkeit für MissErfolg. Für n Versuche berechnen Sie Wahrsch. für n Erfolge p n Wahrsch. für n Misserfolge q n = (1 − p)n Wahrsch. mind. ein Erfolg 1 − q n Wahrsch. erster Erfolg beim letzten Versuch: q n−1 · p [email protected] wst 44/119 wst Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsverteilungen: Münze Versucht: zwei unabhängige Münzwürfe. Erstellen Sie eine Tabelle (Resultat ungeordnet notiert): Ausgang Experiment Wahrscheinlichkeit Aufsummieren [email protected] (K,K) 0.25 0.25 (K,Z) 0.5 0.75 wst (Z,Z) 0.25 1 45/119 wst Wahrscheinlichkeitsverteilungen Definition (Zufallsgrösse) X :S si → R 7→ X (si ) = xi S = {s1 , s2 , . . . }: Stichprobenraum Zufallsgrösse X kann Werte xi annehmen. Definition (Wahrscheinlichkeitsverteilung: ) Jedem Ausfall si wird eine Wahrscheinlichkeit zugeordnet: P(xi ) = pi . Definition (Verteilfunktion) Summe der Wahrscheinlichkeiten von links P P(X ≤ xi ) = kxi P(X = xi ) Synonym: Summenfunktion [email protected] wst 46/119 wst Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsverteilungen: Münze Versucht: zwei unabhängige Münzwürfe. Resultat geordnet notiert. Erstellen Sie eine Tabelle mit dem Stichprobenraum, der Wahrscheinlichkeitsverteilung und Verteilfunktion des Stichprobenraums. Stichprobenraum Wahrscheinlichkeitv. Verteilf. [email protected] (K,K) 0.25 0.25 (K,Z) 0.25 0.5 (Z,K) 0.25 0.75 wst (Z,Z) 0.25 1 47/119 wst Wahrscheinlichkeitsverteilungen Wahrsch.-Vert. Visualisieren Sie für die Beispiele Wahrscheinlichkeitsverteilung und die Verteilfunktion. Geordnet: 0.25 (K,K) (K,Z) (Z,K) (Z,Z) 1.0 0.20 0.8 0.15 0.6 0.10 0.4 0.05 0.00 (K,K) (K,Z) (Z,K) (Z,Z) 0.5 0.4 0.3 0.2 0.1 0.0 0.2 (K,K) (K,Z) (Z,K) (Z,Z) 0.0 (K,K) (K,Z) (Z,K) (Z,Z) (K,K) (K,Z) (Z,K) (Z,Z) (K,K) (K,Z) (Z,K) (Z,Z) 1.0 0.8 0.6 0.4 0.2 0.0 (K,K) (K,Z) (Z,K) (Z,Z) (K,K) (K,Z) (Z,K) (Z,Z) Ungeordnet: 0.5 (K,K) (K,Z) (Z,Z) 1.0 0.4 0.8 0.3 0.6 0.2 0.4 0.1 0.0 (K,K) (K,Z) (Z,Z) 0.5 0.4 0.3 0.2 0.1 0.0 0.2 (K,K) (K,Z) (Z,Z) [email protected] 0.0 (K,K) (K,Z) (Z,Z) (K,K) (K,Z) (Z,Z) (K,K) (K,Z) (Z,Z) wst 1.0 0.8 0.6 0.4 0.2 0.0 (K,K) (K,Z) (Z,Z) (K,K) (K,Z) (Z,Z) 48/119 wst Erwartungswert und Varianz Erwartungswert Münze Max wirft einen Würfel und gewinnt Geld, falls er mehr als 3 würfelt. Wieviel Geld gewinnt er pro Wurf durchschnittlich? Resultat Gewinn (CHF) µ = E (X ) = 1 0 2 0 3 0 4 4 5 5 6 6 1 1 1 · 4 + · 5 + · 6 = 2.5 6 6 6 Streuung des Gewinns? σ 2 = n X i=1 pi (xi − µ)2 = (−2.5)2 · +1.52 · ≈ 6.58 [email protected] 1 1 + (−2.5)2 · + (−2.5)2 6 6 1 1 1 + 2.52 · + 3.52 · 6 6 6 wst 49/119 wst Erwartungswert und Varianz Definition (Erwartungswert) µ = E (X ) = n X i=1 pi · xi Definition (Varianz) 2 2 σ = Var (X ) = E ((X − µ) ) = Standardabweichung: σ = [email protected] √ n X i=1 pi · (xi − µ)2 σ2 wst 50/119 wst Erwartungswert und Varianz Varianz: Zeigen Sie dass gilt σ2 = = = n X i=1 n X i=1 n X i=1 Pn i=1 pi (xi − µ)2 = Pn 2 i=1 pi (xi ) − µ2 n X pi (xi )2 − 2xi µ + µ2 = pi (xi )2 − 2xi pi µ + pi µ2 i=1 pi (xi )2 − 2µ n X i=1 xi · pi + µ2 n X pi i=1 pi (xi )2 − 2µµ + µ2 · 1 σ 2 = −µ2 + [email protected] n X pi (xi )2 i=1 wst 51/119 wst Binomialverteilung Definition ( Binomialverteilung) n x P(X = x) = p · (1 − p)n−x x Oft auch q := (1 − p) p p p q q q p p q p q q p p3 p2q p2q pq2 p2q pq2 pq2 [email protected] q q wst 52/119 wst Binomialverteilung Glücksrad (Simulation) Führen Sie mit matlab folgenden Versuch durch. Am Glücksrad werden 10 zufällige Zahlen zwischen 1 und 3 erzeugt. Der Hellseher gibt vor der Ziehung jeweils seinen Tip ab. Zählen Sie die richtigen Tips. Befehle: 1:10, randi([1 5],1,6), sum n=10 r= r a n d i ( [ 1 3 ] , 1 , n ) % Z a h l e n vom Rad t= r a n d i ( [ 1 3 ] , 1 , n ) % T i p s von H e l l s e h e r i n x=sum ( r==t ) % Anz r i c h t i g e T i p s Notieren Sie in einer Liste (0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0), dass ein richtiger Tipp abgegeben wurde (hier also 2 richtige Tipps). Führen sie dann den Versuch 1000 mal durch (jedes Mal richtige Tips in Liste hinzufügen!). Erstellen Sie so eine Häufigkeitsverteilung. Befehle: for i=1:mmax ... end [email protected] wst 53/119 wst Binomialverteilung Glücksrad forts. n=10 ; mmax=10ˆ3; s t a =(1: n +1)∗0; % f o r i =1:mmax r= r a n d i ( [ 1 3 ] , 1 , n ) ; t= r a n d i ( [ 1 3 ] , 1 , n ) ; i n x=sum ( r==t ) ; s t a ( i n x +1)= s t a ( i n x +1)+1; end [email protected] wst 54/119 wst Binomialverteilung Glücksrad forts. Berechnen Sie die Summenfunktion. Notieren Sie die Wahrscheinlichkeitsverteilung und die Summenfunktion in einer Tabelle und stellen Sie die Daten graphisch dar. Befehle: sum, plot, hold on/off x i =(1: n+1)−1; % Legende f ü r s t a : Anzahl der T r e f f e r pp=s t a /sum ( s t a ) ; % p r o b a b b i l i t y d i s t r i b u t i o n from e p l o t ( x i , pp ) ppv =[ pp ( 1 ) , sum ( pp ( 1 : 2 ) ) , . . . , sum ( pp ( 1 : 1 1 ) ) ] h o l d on p l o t ( x i , ppv ) hold o f f Treffer W.verteil. Summenf. 0 0.014 0.014 1 0.076 0.090 [email protected] 2 0.210 0.300 3 0.265 0.565 4 0.216 0.781 5 0.141 0.922 6 0.054 0.976 wst 7 0.021 0.997 8 0.003 1.0 9 0 1.0 10 0 1.0 55/119 wst Binomialverteilung Glücksrad (Erwartungswert, Varianz) Benutzen Sie das Model für das Glücksrad. Berechnen Sie den Erwartungswert der Anzahl Treffer und die Varianz. Befehle: * ’ mu=x i ∗pp ’ % mean %mu = 3.3120 s i g =( x i −mu ) . ˆ 2 ∗ pp ’ % s t a n d a r d dev %s i g = 2.2707 Ändern Sie nun das Spiel: Am Glücksrad werden n zufällige Zahlen zwischen 1 und 3 erzeugt (mit n=10,20,50,100). Machen Sie wieder 1000 Durchläufe und notieren Sie Erwartungswert und Varianz der Treffer. n µ σ2 10 3.3120 2.2707 20 6.7150 4.3518 50 16.5310 11.2490 100 33.3400 23.9944 [email protected] wst Stellen Sie die Tabelle grafisch dar und formulieren Sie eine 56/119 wst Binomialverteilung Glücksrad (Erwartungswert, Varianz) Vermutung: µ(n) ∝ n und σ 2 (n) ∝ n [email protected] wst 57/119 wst Binomialverteilung Glücksrad (Erwartungswert, Varianz) Ändern Sie nun das Spiel: Am Glücksrad werden 10 zufällige Zahlen zwischen 1 und l erzeugt (mit l=2,3,5,10,20). Machen Sie wieder 1000 Durchläufe und notieren Sie Erwartungswert und Varianz der Treffer. l µ σ2 p 2 2.4133 5.0260 0.5 3 2.1275 3.3500 0.33 5 1.6220 2.0550 0.2 10 0.9160 0.9940 0.1 20 0.4938 0.5140 0.02 Stellen Sie die Tabelle grafisch dar und formulieren Sie eine Vermutung für µ(p) ( und evtl. σ 2 (p) in Abhängigkeit von p · (1 − p)). [email protected] wst 58/119 wst Binomialverteilung Glücksrad (Erwartungswert, Varianz) p*q Vermutung: µ(n, p) ∝ n · p und σ 2 (n, p) ∝ n · p · (1 − p ) | {z } q [email protected] wst 59/119 wst Binomialverteilung Theorem (Binomialverteilung: Erwartungswert und Varianz) µ=n·p 2 σ =n·p·q Berechnen Sie Erwartungswert und Varianz für die Punktesumme bei 3 Würfen mit einem Würfel µ = 3 · 0.5 = 1.5 σ 2 = 3 · 0.25 = 0.75 [email protected] wst 60/119 wst Binomialverteilung Glücksrad (Erwartungswert, Varianz) Berechnen Sie die Wahrscheinlichkeitsverteilung und die Summenfkt. für das Glücksrad (p = 1/3, n = 10) und vergleichen Sie mit den Resultaten aus der Simulation. Befehle : f a c t o r i a l ( n ) , nchoosek (n , x ) .∗ ./ .ˆ Simulation: Treffer W.verteil. Summenf. 0 0.014 0.014 1 0.076 0.090 2 0.210 0.300 3 0.265 0.565 4 0.216 0.781 5 0.141 0.922 6 0.054 0.976 7 0.021 0.997 8 0.003 1.0 9 0 1.0 10 0 1.0 Theorie: Treffer W.verteil. Summenf. 0 0.0173 0.0173 1 0.0867 0.1040 [email protected] 2 0.1951 0.2991 3 0.2601 0.5593 4 0.2276 0.7869 5 0.1366 0.9234 6 0.0569 0.9803 wst 7 0.0163 0.9966 8 0.0030 0.9996 9 0.0003 1.0000 61/119 wst Binomialverteilung Herleitung µ und σ Binomialverteilung: wichtige Ausdrücke Vereinfache: n n−x x P(X = x) = q ·p x n X µ = x · P(X = x) x=1 n X (xi )2 P(X = xi ) = σ 2 + µ2 x=1 p+q = 1 X g 0 (t) = 4k 2 · t k−1 k=1 [email protected] wst 62/119 wst Binomialverteilung Herleitung Erwartungswert µ f (t) = (q + p · t) n = f 0 (t) = n · (q + p · t)n−1 · p = f 0 (1) = n · (q + p)n−1 · p = n · (q + p)n−1 ·p = | {z } =1 n X n x x=0 n X n x x=0 n X n x x=0 n X x=0 | q n−x · p x · x · t x−1 q n−x · p x · x P(X = x) · x µ = n·p [email protected] q n−x · p x · t x {z =µ wst } 63/119 wst Binomialverteilung Herleitung Varianz σ 2 : f (t) = (q + p · t)n = Pn x=0 n x q n−x · p x · t x f 00 (t) = n · (n − 1) · (q + p · t)n−1 · p 2 P n n−x x = nx=0 q · p · x · (x − 1) · t x−2 x f 00 (1) = n · (n − 1) · p 2 = x=0 n2 · p 2 − n · p 2 | {z } | {z } = µ2 − µ · p = n X x=0 =µ·p =µ2 n X n −µ · p + µ = | {z } | x q n−x · p x · x · (x − 1) P(X = x) · x 2 − {z + µ2 | {z } =σ 2 σ 2 + µ2 − µ σ2 } n X x=0 | P(X = x) · x {z =µ } µ·(−p+1) [email protected] wst 64/119 wst Binomialverteilung Glücksrad (Erwartungswert, Varianz) Berechnen Sie Erwartungswert und Varianz das Glücksrad (p = 1/3) und Vergleichen Sie mit den Resultaten aus der Simulation. Simulation: n µ σ2 n Theorie: µ σ2 10 3.3120 2.2707 10 3.33333 2.1 [email protected] 20 6.7150 4.3518 20 6.66667 4.2 50 16.5310 11.2490 50 16.6667 10.5 100 33.3400 23.9944 100 33.3333 21 wst 65/119 wst Binomialverteilung Statitische Tests: Hühner In Versuch kann Huhn Dreiecke oder Kreise picken. Es pickt 15 mal ein Dreieck und 5 mal einen Kreis. Zieht es Dreiecke vor? Nullhypothese H0 : Es kann D/K nicht unterscheiden, p = 0.5. Wahrscheinlichkeit, dass es 15 mal D pickt? P(15 ≤ X ≤ 20) = 2 X x=15 20 x 20−x 0 p ·q = 0.020695 x Signifikanzniveau: 5% 2% < 5% ⇒ Hühner können Dreiecke und Kreise unterscheiden (und ziehen Dreiecke vor). [email protected] wst 66/119 wst Binomialverteilung Definition (Poissonverteilung) µx −µ e x! mit µ > 0 und x ∈ N0 P(X = x) = Für die Poisson-Verteilung benutze µ=n·p Annäherung für diskrete Zufallgrössen und p ≤ 0.1 und n ≥ 100. Theorem (Standart-Abweichung der Poissonverteilung) σ2 = µ = n · p [email protected] wst 67/119 wst Stetige Zufallsgrössen y y = f (x) P a x1 x2 b x Definition (Verteilfunktion) Die Wahrscheinlichkeit für das Eintreten eines Ereignisses einer stetigen Zufallgrösse X ist gegeben durch die Verteilfunktion F (x): Z x f (t)·dt . F (x) = P(X ≤ x) = Definition (Wahrscheinlichkeitsdichte) Die Funktion f (t), mit Z x P(X ≤ x) = f (t) · dt a heisst Wahrscheinlichkeitsdichte a [email protected] wst 68/119 wst Stetige Zufallsgrössen Gleichverteilung ( 1/5 f (x) = 0 wenn 1 ≤ x ≤ 6 sonst Zufallsgenerator für reelle Zahlen zwischen 1 und 6. R∞ −∞ f (x)dx = 1 x <1 0 Rx F (x) = −∞ f (t)dt = (x − 1)/5 1 ≤ x ≤ 6 1 sonst F (−∞) = 0 und F (∞) = 1 d dx F (x) = F 0 (x) = f (x) die Stellen, wo f (x) < 0 oder F 0 (x) < 0 gibt es nicht. Es gilt f (x) ≥ 0 P(x1 ≤ X ≤ x2 ) = F (x2 ) − F (x1 ) [email protected] wst 69/119 wst Stetige Zufallsgrössen y = f (x) 1 1 y = F (x) P x1 [email protected] x2 1 1 wst 70/119 wst Stetige Zufallsgrössen Wahrscheinlichkeitsdichte/Verteilfunktion Die Funktion F ist stetig, monoton wachsend, d.h. f (x) = F 0 (x) ≥ 0 F (−∞) = 0 und F (∞) = 1 Der Gesamtflächeninhalt unter der Wahrscheinlichkeitsdichtekurve ist gleich 1, d.h. R∞ f (x)dx = 1 −∞ d dx F (x) = f (x) Die Wahrscheinlichkeit ein Ereignis zwischen x1 und x2 zu erhalten, beträgt Z x2 P(x1 ≤ X ≤ x2 ) = f (t) · dt = F (x2 ) − F (x1 ) x1 [email protected] wst 71/119 wst Stetige Zufallsgrössen Definition (Erwartungswert) Definition (Varianz) X sei stetige Zufallsgrösse: Z ∞ µ = E (X ) = x · f (x)dx X sei stetige Zufallsgrösse: Z ∞ 2 2 σ = E (X −µ) = (x−µ)2 f (x)dx −∞ −∞ Integrationsgrenzen/praktische Berechnung Bei einem beschränkten Intervall sind die Integrationsgrenzen entsprechend abzuändern: −∞ → a und ∞ → b Ausserdem gilt: 2 σ = Z ∞ −∞ [email protected] x 2 · f (x)dx − µ2 wst 72/119 wst Stetige Zufallsgrössen 1.0 e- 0.8 0.6 0.4 0.2 -1 1 2 3 4 Ein Elektron in einem Potentialkasten (mit unendlich hohen Wänden) [email protected] wst 73/119 wst Stetige Zufallsgrössen Gleichverteilung ( 1/5 f (x) = 0 1 µ= · 5 1 σ = · 5 2 Z 1 [email protected] 6 Z 1 6 wenn 1 ≤ x ≤ 6 sonst 1 1 2 6 7 x · dx = · x = 5 2 2 1 2 1 1 3 6 49 25 7 x · 1dx − = · x = − 2 5 3 4 12 1 2 wst 74/119 wst Normalverteilung Funktionen verschieben und strecken Berechnen Sie die Lage des Scheitelpunktes von f (x) = x 2 , g (x) = (x −2)2 , h(x) = (x +1)2 −3, k(x) = (3+x)2 +1 f 0 (x) = 2x ⇒ f 0 (x) = 0 = 2x ⇒ x = 0 y = 0 g 0 (x) = 2(x − 2) ⇒ g 0 (x) = 0 = 2(x − 2) ⇒ x = 2 y = 0 h0 (x) = 2(x + 1) ⇒ h0 (x) = 0 = 2(x + 1) ⇒ x = −1 y = −3 k 0 (x) = 2(x + 3) ⇒ k 0 (x) = 0 = 2(x + 3) ⇒ x = −3 y = 1 Translationen Die Transformation f (x) → f (x −l) +p verschiebt den Graphen +l der Funktion f (x) um den Vektor in der x − y -Ebene p x x +l → f (x) f (x) + p [email protected] wst 75/119 wst Normalverteilung Funktionen verschieben und strecken 1 Skizzieren Sie die Funktion f (x) = x 21+4 − 16 auf dem Intervall x ∈ [−15, 15] und bestimmen Sie die Schnittpunkte mit der x-Achse. Bestimmen Sie die Schnittpunkt mit der x-Achse der folgenden Funktionen g (x) = 1 2 ( x8 ) +4 − 1 16 , h(x) = 1 (2x)2 +4 − 1 16 , k(x) = 1 ( x2 )+4 − 1 16 g (x) = 0 ⇒ 768 = x 2 ⇒ x = ±27.712 (= 8 · 3.464) h(x) = 0 ⇒ 3 = x 2 ⇒ x = ±1.732 (= 0.5 · 3.464) k(x) = 0 ⇒ 48 = x 2 ⇒ x = ±6.928 (= 2 · 3.464) [email protected] wst 76/119 wst Normalverteilung R 0.15 g(x) f(x) 0.10 0.05 k(x) f(x) 0.00 -0.05 -15 -10 -5 h(x) 0 5 10 15 x Streckung Die Transformation f (x) → f (x/σ) streckt den Graphen der Funktion f (x) um den Faktor σ entlang der x-Achse. [email protected] wst 77/119 wst Normalverteilung f(x) Ordnen Sie zu 3 4 0 5 10 15 f(x) x 1.0 0.8 B 0.6 0.4 0.2 0.0 -0.2 -15 -10 -5 0 5 10 15 x f(x) 2 sin(x) (A) x x+5 2 sin( 2 ) (D) x+5 sin(2x) − 5 (C) 2x sin(3−x) − x−3 (B) -4.0 -4.2 C -4.4 -4.6 -4.8 -5.0 -5.2 -15 -10 -5 0 5 10 15 x f(x) 1 1.0 0.8 A 0.6 0.4 0.2 0.0 -0.2 -15 -10 -5 1.0 0.8 D 0.6 0.4 0.2 0.0 -0.2 -15 -10 -5 0 5 10 15 x [email protected] wst 78/119 wst Normalverteilung Integrieren Berechnen Sie mit der Stammfunktion ϕ(x) = √ 1 x2 +1 Z p 2 Φ(x) = log x + x + 1 = ϕ(x)dx Z 0 6 1 p dx (x/2)2 + 1 [email protected] Z 5 1 p dx = 2 (x/2)2 + 1 0 3 = 2 Φ(x) 0 = 2 Φ(3) − Φ(0) ≈ 3.637 = wst Z 0 3 √ 1 z2 +1 dz 79/119 wst Normalverteilung Integrieren, forts. Z 0 3 1 √ dx 4x 2 + 5 = 3 0 = = = [email protected] Z 1 √ 5 p Z 0 1 5 · (4/5 · x 2 + 1) 3 r 2x √ 5 1 2 dx dx + 1) √ 2·3 Z √ 5 1 5 1 √ √ dz 2 2 5 0 z +1 √6 1 · Φ(x) 0 5 ≈ 0.856615 2 wst 80/119 wst Normalverteilung Drücken Sie mit Hilfe der Stammfunktion aus F (x) = Z b a x −µ )dx f( σ = Z b−µ σ a−µ σ R f (x)dx f (z) · σ · dz b−µ σ = σ F (x) a−µ σ Stammfunktion und Substitution Sei F (x) die Stammfunktion von f (x). Dann gilt Z a b f( b−µ x −µ a−µ )dx = σ F ( ) − F( ) σ σ σ [email protected] wst 81/119 wst Normalverteilung φ(z,0,1) 1 −1 φ(z,0,1) ϕ(z,0,1) 1 0 1 z z 0 z Definition (Standardisierte Normalverteilung) besitzt Wahrscheinlichkeitsdichte z2 1 f (z) = ϕ(z, 0, 1) = √ e − 2 2π und die Verteilungsfunktion 1 P(Z ≤ z) = Φ(z, 0, 1) = √ 2π [email protected] Z z x2 e − 2 dx −∞ wst 82/119 wst Normalverteilung Standardisierte Normalverteilung R∞ −∞ f (z) = 1 Wir nennen die standartisierte Normalverteilung Φ(z, 0, 1) auch N (0, 1) oder 1 1 x + Φ(z, 0, 1) = erf √ 2 2 2 Φ(z, 0, 1) ist die Stammfunktion von ϕ(z, 0, 1), deshalb gilt Z z2 x2 1 P(z1 ≤ Z ≤ z2 ) = √ e − 2 dx = Φ(z2 , 0, 1)−Φ(z1 , 0, 1) 2π z1 ϕ(z, 0, 1) hat keine Elementare Stammfunktion, Φ(z, 0, 1) findet man aufgelistet in Tabellen (z.B. T.1) [email protected] wst 83/119 wst Normalverteilung Z ∼ N (0, 1) Z 3.21 x2 1 √ e − 2 dx 2π 1 = Φ(3.21, 1, 0) − Φ(1, 1, 0) = 0.9993 − 0.8413 P(1 ≤ Z ≤ 3.21) = P(Z ≤ 2) = Φ(2, 1, 0) − Φ(−∞, 1, 0) = 0.97725 − 0 P(0.11 ≤ Z ≤ 0.33) = Φ(0.33, 1, 0) − Φ(0.11, 1, 0) = 0.6293 − 0.5437 P(Z ≥ 0.33) = Φ(∞, 1, 0) − Φ(0.33, 1, 0) = 1 − 0.6293 [email protected] wst 84/119 wst Normalverteilung φ(x,μ, σ2) σ φ(x,μ, σ2 ) σ ϕ(x,μ, σ2) μ-σ μ μ+σ x2 x x Definition (Normalverteilung mit den Parametern µ und σ 2 ) besitzt Wahrscheinlichkeitsdichte (−∞ < x < ∞): f (x) = ϕ(x, µ, σ 2 ) = √ 1 2πσ 2 e− (z−µ)2 2σ 2 und die Verteilungsfunktion 2 P(Z ≤ x) = Φ(x, µ, σ ) = √ 1 2πσ 2 Z x e− (t−µ)2 2σ 2 dt −∞ Kurvendiskussion: Maximum, Symmetrien, Wendepunkt [email protected] wst 85/119 wst Normalverteilung Normalverteilung Maximum von f (x) bei x = µ, f (µ) = √ 1 2πσ 2 Symmetrisch bezüglich Maximum Wendepunkte bei x = µ ± σ Je grösser σ desto breiter f (x) [email protected] wst 86/119 wst Normalverteilung Für Normalverteilung gilt (x−µ)2 R∞ E(X ) = √ 1 2 −∞ xe − 2σ2 dx = µ 2πσ Var(X ) = √ 1 2πσ 2 R∞ 2 − −∞ x e (x−µ)2 2σ 2 dx = σ 2 “Die Parameter der Normalverteilung lassen sich damit leicht deuten: µ ist der Erwartungswert der Zufallsgrösse X und σ 2 die Varianz.” [email protected] wst 87/119 wst Normalverteilung Transformation auf die standardisierte Normalverteilung Führen sie die Transformation z = t−µ σ für das Integral aus und drücken sie den Wert mit der standardisierte Normalverteilung aus: Z x2 (t−µ)2 1 P(x1 ≤ X ≤ x2 ) = √ e − 2σ2 dt 2πσ 2 x1 Wir erhalten dt = dz · σ und also P(x1 ≤ X ≤ x2 ) = √ 1 Z x2 −µ σ −z 2 2 · σ · dz 2πσ 2 x1σ−µ x2 − µ x1 − µ = Φ( , 0, 1) − Φ( , 0, 1) σ σ [email protected] e wst 88/119 wst Normalverteilung Standardisierte Normalverteilung Drücke P mit Φ(z, 0, 1) aus. x2 − µ x2 − µ , 0, 1) − Φ(−∞, 0, 1) = Φ( , 0, 1) σ σ x1 − µ x1 − µ P(x1 ≤ X ) = Φ(∞, 0, 1) − Φ( , 0, 1) = 1 − Φ( , 0, 1) σ σ P(X ≤ x2 ) = Φ( φ(x,μ, σ2 ) φ(x,μ, σ2 ) φ(x,μ, σ2 ) ϕ(x,μ, σ2)=P(X≤x2) x2 [email protected] P (x1 ≤ X) x x1 P (x1 ≤ X ≤ x2 ) x x1 wst x2 x 89/119 wst Normalverteilung Theorem ( Grenzwertsatz von de Moivre und Laplace) Eine binomialverteilte Zufallsgrösse X mit Erwartungswert E (X ) = np und Varianz Var (X ) = np(1 − p) ist näherungsweise normalverteilt mit den Parametern µ = n · p und σ 2 = n · p · (1 − p) Gültigkeit Annäherung nur zulässig für n · p · (1 − p) > 9 [email protected] wst 90/119 wst Normalverteilung Näherung der Binomialverteilung = x) 0.15 P (X = x) p=q=0.5 n=50 p=0.75, q=0.25 n=50 0.15 0.10 0.10 0.05 0.05 5 10 15 20 25 30 35 40 45 50 x 5 10 15 20 25 30 35 40 45 50 x Ist die Näherung durch die Normalverteilung zulässig? n · p · (1 − p) = 12.5 > 9 n · p · (1 − p) = 9.375 > 9 [email protected] wst 91/119 wst Statitische Tests Werden Sechsen bevorzugt gewürfelt? 12000 Würfe, x = 2107 Sechsen. 1 Nullhypothese H0 , und Alternativhypothese H1 2 Näherung durch Normalverteilung? 3 Darstellung mit x, Darstellung mit z, (vorausgesetzt H0 ) 4 Statistischer Schluss (Signifikanzniveau α = 0.01). 5 Irrtumswahrscheinlichkeit H0 : p(X = 6) = 1/6 H1 : p(X = 6) > 1/6 Einseitiger Test (>) n · p · (1 − p) = 1666.6 > 9 Näherung mit Binomialverteilung zulässig [email protected] wst 92/119 wst Statitische Tests Werden Sechsen bevorzugt gewürfelt? (forts.) 12000 Würfe, x = 2107 Sechsen. Näherung mit Binomialverteilung: µ = n · p = 2000, σ 2 = n · p(1 − p) = 1666.6 Annahmebereich für H0 auslesen aus Tabelle T.2: z(P = 0.99) = 2.326 x = 2107 “übersetzen” in z: z= 2107 − 2000 √ = 2.621 1666.6 Liegt ausserhalb Annahmebereich ⇒ H0 verwerfen. Irrtumswahrscheinlichkeit: P(X ≥ 2107) = 1 − Φ(2.621, 0, 1) = 0.0044 [email protected] wst 93/119 wst Statitische Tests Werden Sechsen bevorzugt gewürfelt? (forts.) φ Annahmebereich 1% x μ = 2000 x=2107 φ 1% μ=0 [email protected] z z=2.326 z=2.621 wst 94/119 wst Statitische Tests Weniger/mehr Halbtax-Abos? 2016: 75% 2017: 270 von 350 Befragte 1 Nullhypothese H0 , und Alternativhypothese H1 2 Näherung durch Normalverteilung? 3 Darstellung mit x, Darstellung mit z, (vorausgesetzt H0 ) 4 Statistischer Schluss (Signifikanzniveau α = 0.1). H0 : p(X = HA) = 0.75 H1 : p(X = HA) 6= 0.75 Zweiseitiger Test (6=) n · p · (1 − p) = 218.75 > 9 Näherung mit Binomialverteilung zulässig [email protected] wst 95/119 wst Statitische Tests Weniger/mehr Halbtax-Abos? (forts.) 2016: 75% 2017: 270 von 350 Befragte Näherung mit Binomialverteilung: µ = n · p = 262.5, σ 2 = n · p(1 − p) = 218.75 Annahmebereich für H0 auslesen aus Tabelle T.2 (α, symmetrisch verteilen): z(P = 0.95) = 1.645 x = 270 “übersetzen” in z: z= 270 − 262.5 √ = 0.92582 218.75 Liegt innerhalb Annahmebereich ⇒ H0 annehmen. [email protected] wst 96/119 wst Statitische Tests Weniger/mehr Halbtax-Abos? (forts.) φ 0.5 % 0.5 % x μ = 262.5 x= 270 φ 0.5 % 0.5 % z1= -1.645 μ = 0 z2= 1.645 z= 0.92582 [email protected] wst z 97/119 wst Statitische Tests Weniger/mehr Halbtax-Abos? (forts.) σ 2 = 218.75, µ = 262.5 z1 = −1.645, z2 = 1.645 Annahmebereich ausgedrück in x x1 = z1 · σ + µ = 250, x2 = z2 · σ + µ = 276, [email protected] wst 98/119 wst Statitische Tests Stichproben aus normalverteilten Grundgesamtheit P geschätzer Mittelwert x̄ = N1 N i=1 xi 1 PN 2 geschätze Varianz s = N−1 i=1 (xi − x̄)2 √ N Testgrösse t = x̄−µ s Testgrösse ist verteilt nach Student t-Verteilung mit n = N − 1 Freiheitsgraden. fn (t) 1 −α α 2 α 2 tn, α2 = −tn,1− α2 Ablehnungsbereich [email protected] tn,1− α2 Annahmebereich t Ablehnungsbereich wst 99/119 wst Statitische Tests Stichprobe N = 10, Student-t-Verteilung 5 −5 7 4 15 −7 5 10 18 16 Aus Grundgesamtheit mit µ =P0? Signifikanzniveau α = 0.05. geschätzer Mittelwert x̄ = N1 N i=1 xi = 6.80 1 PN 2 geschätze Varianz s = N−1 i=1 (xi − x̄)2 = 70.18 √ Testgrösse t = x̄−µ N = 2.567 s Krititsche Grösse aus T.3 auslesen (n = N − 1 = 9, zweiseitig: 0.05 symmetrisch verteilen): t9;0.975 = 2.262 Schluss: Abweichung ist grösser als kritische Grösse, d.h. Stichprobe hat µ 6= 0 [email protected] wst 100/119 wst Allgemeine Regression Repetition LinAlg Repetition LinAlg Matrix-Multiplikation, Transponierte Lineares Gleichungssystem geschrieben als erweiterte Koeffizienten-Matrix Lineares Gleichungssystem (LGS) lösen mit Gauss-Elimination LGS lösen mit Cramerschen-Regel Linalg mit Matlab Matlab Funktionen plotten [email protected] wst 101/119 wst Allgemeine Regression Repetition LinAlg Matrix-Multiplikation, berechnen Sie die Matrix-Produkte (falls möglich) 2 −1 M = −3 4 , 6 −5 40 50 32 N= , 39 64 19 0 3 0 P= 1 0 5 N M, P M| ; M M, P N| 122 0 NM= 0 122 150 192 | PN = 200 134 [email protected] wst 102/119 wst Allgemeine Regression Repetition LinAlg Lösungen Sie die linearen Gleichungssysteme mit dem Gauss-Verfahren 2x − y −3x + y = 2 = 1 Schreibe das LGS mit einer erweiterten Koeffizienten-Matrix, eliminiere und setze von unten nach oben ein. x 2 = y 1 [email protected] wst 103/119 wst Allgemeine Regression Repetition LinAlg Lösungen Sie die linearen Gleichungssysteme mit der Cramerschen Regel 2x − y = 2 −3x + y = 1 x 2 = y 1 [email protected] wst 104/119 wst Allgemeine Regression Repetition LinAlg Allgemeine Regression f (x) = a1 · f1 (x) + a2 · f2 (x) soll möglichst nahe durch die gemessenen Punkte verlaufen. x2 x3 x1 y1 , y2 , y3 Stellen sie das überbestimmte Gleichungssystem auf. bei bei bei x1 : x2 : x3 : a1 · f1 (x1 ) a1 · f1 (x2 ) a1 · f1 (x3 ) + + + a2 · f2 (x1 ) a2 · f2 (x2 ) a2 · f2 (x3 ) = = = y1 y2 y3 Bei x1 : quadrieren Sie den Abstand von f (x1 ) von y1 . Fahren Sie mit x2 und x3 fort und addieren Sie die Abstandsquadrate. [a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ]2 + [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ]2 + [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ]2 [email protected] wst 105/119 wst Allgemeine Regression Repetition LinAlg Allgemeine Regression (forts.) Wir benennen den letzten Ausdruck mit S. Leiten Sie S nach a1 ab ∂S ∂a1 = 2 · [a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ] · f1 (x1 ) + 2 · [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ] · f1 (x2 ) + 2 · [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ] · f1 (x3 ) Leiten Sie S nach a2 ab ∂S ∂a2 = 2 · [a1 · f1 (x1 ) + a2 · f2 (x1 ) − y1 ] · f2 (x1 ) + 2 · [a1 · f1 (x2 ) + a2 · f2 (x2 ) − y2 ] · f2 (x2 ) + 2 · [a1 · f1 (x3 ) + a2 · f2 (x3 ) − y3 ] · f2 (x3 ) [email protected] wst 106/119 wst Allgemeine Regression Repetition LinAlg Allgemeine Regression (forts.) ∂S ∂S = 0 und ∂a = 0. Da wir S minimieren wollen, setzen wir ∂a 1 2 Multiplizieren Sie die beiden vorherigen Ausdrücke aus, teilen Sie durch 2 und stellen Sie das lineare Gleichungssystem auf (Koeffizienten a1 und a2 links und Inhomogenität rechts): + + a1 · f1 (x1 ) · f1 (x1 ) + a2 · f2 (x1 ) · f1 (x1 ) − y1 · f1 (x1 ) a1 · f1 (x2 ) · f1 (x2 ) + a2 · f2 (x2 ) · f1 (x2 ) − y2 · f1 (x2 ) a1 · f1 (x3 ) · f1 (x3 ) + a2 · f2 (x3 ) · f1 (x3 ) − y3 · f1 (x3 ) also + a1 · [f1 (x1 ) · f1 (x1 ) + f1 (x2 ) · f1 (x2 ) + f1 (x3 ) · f1 (x3 )] a2 · [f2 (x1 ) · f1 (x1 ) + f2 (x2 ) · f1 (x2 ) + f2 (x3 ) · f1 (x3 )] = y1 · f1 (x1 ) + y2 · f1 (x2 ) + y3 · f1 (x3 ) und genau gleich + a1 · [f1 (x1 ) · f2 (x1 ) + f1 (x2 ) · f2 (x2 ) + f1 (x3 ) · f2 (x3 )] a2 · [f2 (x1 ) · f2 (x1 ) + f2 (x2 ) · f2 (x2 ) + f2 (x3 ) · f2 (x3 )] [email protected] = y1 · f2 (x1 ) + y2 · f2 (x2 ) + y3 · f2 (x3 ) wst 107/119 wst Allgemeine Regression Repetition LinAlg Allgemeine Regression (forts.) Schreiben Sie das lineare Gleichungssystem mit einer Koeffizientenmatrix f1 (x1 ) f1 (x1 ) + f1 (x2 ) f1 (x2 ) + f1 (x3 ) f1 (x3 ) f2 (x1 ) f1 (x1 ) + f2 (x2 ) f1 (x2 ) + f2 (x3 ) f1 (x3 ) a1 f1 (x1 ) f2 (x1 ) + f1 (x2 ) f2 (x2 ) + f1 (x3 ) f2 (x3 ) f2 (x1 )f2 (x1 ) + f2 (x2 ) f2 (x2 ) + f2 (x3 ) f2 (x3 ) a2 y1 f1 (x1 ) + y2 f1 (x2 ) + y3 f1 (x3 ) = y1 f2 (x1 ) + y2 f2 (x2 ) + y3 f2 (x3 ) P Verallgemeinern Sie das Resultat für f (x) = m i=1 ai · fi (x) und die Punkte P1 (x1 , y1 ), . . . , Pn (xn , yn ) Pn Pn " Pn # a1 i=1 f1 (xi ) f1 (xi ) . . . i=1 fm (xi ) f1 (xi ) i=1 yi f1 (xi ) .. .. .. . . = P .. . . n Pn Pn i=1 yi fm (xi ) am i=1 fm (xi ) fm (xi ) i=1 f1 (xi ) fm (xi ) . . . [email protected] wst 108/119 wst Allgemeine Regression Repetition LinAlg Allgemeine Regression (forts.) Multiplizieren Sie die die Transponierte der Koeffizientenmatrix F| mit dem Messvektor ~y x1 : x2 : x3 : f1 (x) f2 (x) f1 (x1 ) f2 (x1 ) f1 (x2 ) f2 (x2 ) f1 (x3 ) f2 (x3 ) y1 ~y = y2 y3 y1 · f1 (x1 ) + y2 · f1 (x2 ) + y3 · f1 (x3 ) F ~y = y1 · f2 (x1 ) + y2 · f2 (x2 ) + y3 · f2 (x3 ) | [email protected] wst 109/119 wst Allgemeine Regression Repetition LinAlg Allgemeine Regression (forts.) Multiplizieren Sie die die Transponierte der Koeffizientenmatrix F| mit der Koeffizientenmatrix F f1 (x1 ) f2 (x1 ) F = f1 (x2 ) f2 (x2 ) f1 (x3 ) f2 (x3 ) F| F = f1 (x1 ) · f1 (x1 ) + f1 (x2 ) · f1 (x2 ) + f1 (x3 ) · f1 (x3 ) f1 (x1 ) · f2 (x1 ) + f1 (x2 ) · f2 (x2 ) + f1 (x3 ) · f2 (x3 ) [email protected] f2 (x1 ) · f1 (x1 ) + f2 (x2 ) · f1 (x2 ) + f2 (x3 ) · f1 (x3 ) f2 (x1 )f2 (x1 ) + f2 (x2 ) · f2 (x2 ) + f2 (x3 ) · f2 (x3 ) wst 110/119 wst Korrelation Theorem (Korrelationskoeffizient) Der Korrelationskoeffizient zwischen den Datensätzen ~x und ~y ist rxy = ~x 00 ~y 00 . Zu seiner Berechnung wird ein Datensatz mit Erwartunswert 0 erzeugt: ~x 0 = ~x − µx und ~y 0 = ~y − µy . Und dieser Datensatz wird normiert: ~x 00 = ~y 0 ~x 0 00 ~ und y = . |~x 0 | |~y 0 | Hinweise Negative Korrelation: rxy < 0, wenn x wächst, nimmt y ab Positive Korrelation: rxy > 0, wenn x wächst, nimmt auch y zu [email protected] wst 111/119 wst Korrelation Theorem (Signifikante Korrelation) Die Korrelation zwischen den Datensätzen ~x und ~y ist signifikant , falls die Testgrösse √ rxy · n − 2 . treg = p 1 − (rxy )2 im Betrag grösser ist als die kritische Grösse tn−2;1−α/2 der Student-t-Verteilung. Korrelation 6= Kausalität Korrelation entsteht nur durch einen kausalen Zusammenhang. Oft besteht eine Korrelation durch einen Zusammenhang mit einer versteckten dritten Grösse. [email protected] wst 112/119 wst Fehlerfortpflanzung Theorem (Fehlerfortpflanzung) Fehler bei funktionaler Abhängigkeit ∂F (a) F (a) ⇒ ∆F = · ∆a ∂a a=a Mehrere Veränderliche F (a, b) s 2 2 ∂F (b) ∂F (a) ∆F = · ∆a + · ∆b ∂a ∂b a=a; b=b [email protected] wst 113/119 wst Fehlerfortpflanzung Theorem (Fehlerfortpflanzung (forts.)) Fehler bei Summe/Differenz S(a, b) = a + b oder S(a, b) = a − b q |∆S| = (∆a)2 + (∆b)2 Relativer Fehler bei Produkt/Quotient P(a, b) = aα · b β und α, β ∈ Z s ∆P ∆a 2 ∆b 2 = α + β P a b [email protected] wst 114/119 wst Fehlerfortpflanzung Oberfläche eines Zylinders r = 10.5 ± 0.2 cm; r = 15.5 ± 0.3 cm Berechne Standardabweichung der Oberfläche A = 2πr 2 + 2πr · h ∂A ∂A = 4πr + 2πh; = 2πr ∂r ∂h Mittelwerte einsetzen: ∂A ∂A = 4πr + 2πh = 226.19 cm; = 2πr = 65.97 cm ∂r ∂h ∆A = q (226.19 cm · 0.2 cm)2 + (65.97 cm · 0.3 cm)2 = 49 cm2 [email protected] wst 115/119 wst Fehlerfortpflanzung Federkonstante c = 4π 2 Tm2 Berechne Standardabweichung der Federkonstante m = 200 ± 0.68 g; T = 2, 00 ± 0.0105 s ∂c ∂m ∂c ∂T m = 9.8696 s−2 T2 m = −8π 2 · 3 = −1973.9 g/s3 T q = 4π 2 · ∆c = (9.8696 s−2 · 0.68 g)2 + (−1973.9 g/s3 · 0.0105 s)2 = 21.79 g/s2 = 0.022 N/m Federkonstante: c = 1.974 ± 0.022 N/m [email protected] wst 116/119 wst Fehlerfortpflanzung Federkonstante (kurzer Weg) c = 4π 2 m T2 m = 200 ± 0.68 g; T = 2, 00 ± 0.0105 s Berechne Standardabweichung der Federkonstante q ∆c = c · (1 · 0.68/200)2 + (−2 · 0.0105/2)2 = 0.022 Federkonstante: c = 1.974 ± 0.022 N/m [email protected] wst 117/119 wst Fehlerfortpflanzung Reihenschaltung Widerstände R1 = 100 ± 2Ω; R2 = 150 ± 2Ω; R3 = 50 ± 1Ω Gesamtwiderstand? Rtot = 100 + 150 + 50 = 300 Fehler: ∆Rtot = [email protected] q (2Ω)2 + (2Ω)2 + (1Ω)2 = 3 Ω Rtot = 300 ± 3 Ω wst 118/119 wst Fehlerfortpflanzung Fehler der Regressions-Koeffizienten Theorem (Fehler der Regressions-Koeffizienten) Für den Datensatz (xi , yi ) mit n Punkten und den linearen Regressions-Koeffizienten a und b (y = a · x + b und i = a · xi − b), sind die Standard-Fehler der Regressions-Koeffizienten v s Pn u n 1 2 u1 X · ( ) i=1 i n−2 t P ; s = s (xi )2 sa = a b n 2 n i=1 (xi − x) i=1 und die Konfidez-Intervalle zur Irrtums-Wahrscheinlichkeit α und dem Quantil tn−2; 1−α/2 sind a ∈ [a − sa · tn−2; 1−α/2 , a + sa · tn−2; 1−α/2 ] b ∈ [b − sb · tn−2; 1−α/2 , b + sb · tn−2; 1−α/2 ] [email protected] wst 119/119