II, 1–75 (2014) c 2014 Mathematik IIIb für IBT Dr. Jürgen Bolik Technische Hochschule Nürnberg P ( x) μ0 u1−α μ1 x TH Nürnberg 2 Inhaltsverzeichnis 1 2 3 Fourier-Reihen und die Fourier- und Laplace-Transformationen 1.1 Funktionenfolgen . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Fourier-Reihen . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Fourier- und Laplace-Transformation . . . . . . . . . . . . . . 1.4 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 5 12 16 Deskriptive Statistik 2.1 Skalen . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Der Begriff der Häufigkeit . . . . . . . . . . . . . . 2.3 Beschreibung von Häufigkeitsverteilungen . . . . . . 2.3.1 Lagemaße . . . . . . . . . . . . . . . . . . . 2.3.2 Streuungsmaße . . . . . . . . . . . . . . . . 2.3.3 Maße der Schiefe und Wölbung . . . . . . . 2.4 Der Begriff der Wahrscheinlichkeit . . . . . . . . . . 2.5 Kombinatorik . . . . . . . . . . . . . . . . . . . . . 2.6 Die bedingte Wahrscheinlichkeit und die Unabhängigkeit von Ereignissen . . . . . . . . . . . 2.7 Bivariate Datenanalyse . . . . . . . . . . . . . . . . 2.8 Das Gaußsche Fehlerfortpflanzungsgesetz . . . . . . 2.9 Lineare Regression . . . . . . . . . . . . . . . . . . 2.10 Zufallsvariable und Wahrscheinlichkeitsverteilungen 2.10.1 Kenngrößen von Zufallsvariablen . . . . . . 2.10.2 Die Binomialverteilung . . . . . . . . . . . . 2.10.3 Die Hypergeometrische Verteilung . . . . . . 2.10.4 Die Poisson-Verteilung . . . . . . . . . . . . 2.10.5 Die Gaußsche Normalverteilung . . . . . . . 2.10.6 Die χ2 -Verteilung . . . . . . . . . . . . . . . 2.11 Grenzwertsätze . . . . . . . . . . . . . . . . . . . . 2.12 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 18 19 20 20 23 24 25 27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 32 38 40 45 46 49 51 51 55 58 59 60 Induktive Statistik 3.1 Schätzen von Parametern . . . . . . . . . . 3.2 Testen von Hypothesen . . . . . . . . . . . 3.2.1 Einseitiger Einstichproben-Gaußtest 3.2.2 Der χ2 -Anpassungstest . . . . . . . 3.3 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 62 67 67 69 72 . . . . . . . . . . . . . . . . . . . . . . . . . TH Nürnberg 1 1.1 3 Fourier-Reihen und die Fourier- und Laplace-Transformationen Funktionenfolgen Gegeben seien eine Menge K und Funktionen fn : K → C, mit n ∈ N0 . K kann beispielsweise R oder C oder ein Intervall in R sein. Dann können wir (fn (x))n∈N0 punktweise als Zahlenfolgen auffassen. Die Folge (fn (x))n∈N0 heißt Funktionenfolge. Punktweise und gleichmäßige Konvergenz von Funktionenfolgen Die Folge (fn (x))n∈N0 konvergiert punktweise gegen einen Funktion f : K → C, falls für alle x ∈ K und für alle > 0 ein N = N (x, ) existiert, so dass |fn (x) − f (x)| < für alle n ≥ N . Bei gleichmäßiger Konvergenz einer Funktionenfolge muss die für die punktweise Konvergenz geforderte Eigenschaft hinsichtlich N = N () gelten, d.h. N darf nicht von x abhängen. Die Folge (fn (x))n∈N0 konvergiert gleichmäßig gegen einen Funktion f : K → C, falls für alle > 0 ein N = N () existiert, so dass |fn (x) − f (x)| < für alle x ∈ K und alle n ≥ N . Konvergiert eine Funktionenfolge gleichmäßig, so konvergiert sie auch punktweise. TH Nürnberg 4 Beispiel zur punktweisen Konvergenz von Funktionenfolgen Sei n ∈ N0 und fn : [0, 1] → R , x 7→ fn (x) = xn . Obwohl die Funktionen fn stetig sind, ist f (x) = lim fn (x) n→∞ unstetig, wobei 0 für f (x) = 1 für 0≤x<1 x = 1. y x2 x 4 x 12 x 100 lim n → ∞ f n ( x) x Abbildung 1.1 Punktweise Konvergenz von Funktionenfolgen Allerdings bietet die gleichmäßige Konvergenz ein Kriterium, das die Stetigkeit des Limes f (x) gewährleistet. Sei fn : K → C, n ∈ N0 und (fn )n∈N0 eine Folge stetiger Funktionen, die gleichmäßig gegen die Funktion f : K → C konvergiere. Dann ist auch f stetig. TH Nürnberg 1.2 5 Fourier-Reihen Die Überlagerung zweier harmonischer Schwingungen gleicher Richtung, deren Kreisfrequenzen ω1 und ω2 kommensurabel sind, deren Verhältnis ωω12 also eine rationale Zahl ist, ergibt eine periodische Bewegung. Nun stellt sich die Frage, ob sich jede periodische Funktion als Reihenentwicklung mittels cosund sin-Funktionen darstellen lässt. Es zeigt sich, dass das möglich ist, wenn die Funktion periodisch und über die Periodenlänge integrierbar ist. Allerdings muss es sich dabei nicht um eine punktweise Identität von Funktion und ihrer Fourier-Reihendarstellung handeln. Im folgenden Abschnitt klären wir hierzu einige grundlegende Begriffe. Periodische Funktionen: Eine Funktion f : R → C heißt periodisch mit der Periode L > 0, falls f (x + L) = f (x) für alle x ∈ R . Da sich einer Funktion der Periode L eine Funktion der Periode 2π zuordnen lässt, können wir uns auf Funktionen der Periode 2π beschränken. Definition: Seien f : R → C und fn : R → C periodische und in [a, b] integrierbare Funktionen. Die Aussage, dass die Folge (fn ) (in [a, b]) im quadratischen Mittel gegen f konvergiert bedeutet, dass 1 |a − b| Zb |f (x) − fn (x)|2 dx a für n → ∞ gegen 0 konvergiert. TH Nürnberg 6 Sei f : R → C eine periodische und in [0, 2π] integrierbare Funktion. Dann konvergiert die Fourier-Reihe von f , ∞ a0 X + (ak cos(kx) + bk sin(kx)) , 2 k=1 im quadratischen Mittel gegen f . Dabei sind die Koeffizienten mittels 1 ak = π Z2π f (x) cos(kx) dx , mit k ∈ N0 , 0 und 1 bk = π Z2π f (x) sin(kx) dx , mit k ∈ N , 0 gegeben. Die Fourier-Reihe (Sn )n∈N0 ist als Reihe eine Folge von Partialsummen. Die Folgeglieder dieser Reihe lauten n a0 X (ak cos(kx) + bk sin(kx)) , für n ∈ N , + Sn (x) := 2 k=1 und S0 (x) := a0 . 2 Die Koeffizienten a0 , ak und bk , mit k ∈ N, lassen sich, wie oben angegeben, bestimmen. Das folgt mittels Z2π cos(kx) sin(lx) dx = 0 für k, l ∈ N , 0 Z2π Z2π sin(kx) sin(lx) dx = 0 für k, l ∈ N : k 6= l , cos(kx) cos(lx) dx = 0 Z2π 0 2 Z2π cos (kx) dx = 0 0 sin2 (kx) dx = π für k ∈ N . TH Nürnberg 7 Statt n a0 X + (ak cos(kx) + bk sin(kx)) , für n ∈ N , 2 k=1 Sn (x) := und a0 2 S0 (x) := können wir auch n X Sn (x) = ck eikx , für n ∈ N0 , k=−n schreiben, wobei wir 1 1 ck := (ak − ibk ) , c−k := (ak + ibk ) , mit k ∈ N0 , 2 2 und b0 := 0 setzen. Ist f : R → C eine periodische und über das Intervall [0, 2π] integrierbare Funktion. Dann heißen die Zahlen 1 ck = 2π Z2π f (x)e−ikx dx , k ∈ Z , 0 Fourier-Koeffizienten von f . Diese Koeffizienten erhalten wir mittels f (x)e −ikx = n X l=−n cl ei(l−k)x . TH Nürnberg 8 Sei f eine reellwertige periodische Funktion. • Dann gilt für die Fourier-Koeffizienten c−k = c̄k , mit k ∈ Z , und a0 ∈ R , ak ∈ R , bk ∈ R , mit k ∈ N . • Ist f gerade, so gilt 2 bk = 0 und ak = π Zπ f (x) cos(kx) dx mit k ∈ N . 0 • Ist f ungerade, so gilt 2 ak = 0 und bk = π Zπ f (x) sin(kx) dx mit k ∈ N . 0 TH Nürnberg 9 Beispiele • Sei f eine periodische Funktion mit 0 f : R → R , x 7→ f (x) = 1 für (π − x) für 2 x=0 0 < x < 2π . f (x) 2π π −6 π −4 π −2 π 2π 0 4π 6π x −π Abbildung 1.2 Eine unstetige periodische Funktion Die Funktion ist ungerade. Daher gilt 2 ak = 0 und bk = π Zπ f (x) sin(kx) dx für k ∈ N0 . 0 Weiterhin erhalten wir für k ∈ N: 2 bk = π Zπ Zπ 1 cos(kx) π cos(kx) f (x) sin(kx) dx = ((π − x) · (− ) − dx) π k k 0 0 0 π 1 1 1 = − 2 sin(kt) = . k πk k 0 Somit gilt Sn (x) = n X sin(kx) k=1 k . TH Nürnberg 10 • Sei f eine periodische Funktion mit 1 für f : R → R , x 7→ f (x) = −1 für 0≤x<π π ≤ x < 2π . Es gilt 1 c0 = 2π Z2π f (x) dx = 0 0 und für k 6= 0 Zπ Z2π 1 −ikx ck = ( e dx − e−ikx dx) 2π 0 = π π 2π i i (e−ikx 0 − e−ikx π ) = (2e−ikπ − 2) . 2πk 2πk Demnach gilt 0 , falls k gerade, ck = 2 , falls k ungerade . iπk Daher erhalten wir für die Fourier-Reihe von f ∞ ∞ 4 X sin((2n + 1)x) 2 X 1 i(2n+1)x −i(2n+1)x (e −e )= . iπ n=0 2n + 1 π n=0 2n + 1 Die Fourier-Reihe von f besteht aus den Partialsummen n 4 X sin((2k + 1)x) Sn (x) = . π k=0 2k + 1 Die ersten Partialsummen sind demnach 4 π 4 S1 (x) = π 4 S2 (x) = π 4 S3 (x) = π S0 (x) = sin(x) , sin(3x) sin(x) + , 3 sin(3x) sin(5x) sin(x) + + , 3 5 sin(3x) sin(5x) sin(7x) sin(x) + + + . 3 5 7 TH Nürnberg 11 y S3 S2 S1 S0 x Abbildung 1.3 Einige Partialsummen einer Fourier-Reihe Die Schwingung a1 cos(ωt) + b1 sin(ωt) ist die Grundschwingung. Die Schwingungen mit den Kreisfrequenzen kω, k > 1, sind die harmonischen Oberschwingungen. Ist f : R → R eine stetige und stückweise stetig differenzierbare periodische Funktion, so konvergiert die Fourier-Reihe von f gleichmäßig gegen f . Anmerkung: Die Koeffizienten ak und bk lassen sich auch folgendermaßen schreiben: 2 ak = T ZT f (t) cos(kωt) dt , mit k ∈ N0 , 0 und 2 bk = T ZT f (t) sin(kωt) dt , mit k ∈ N , 0 wie sich mit Hilfe der Substitution x = ωt und ω = 2π zeigt. T TH Nürnberg 1.3 12 Fourier- und Laplace-Transformation Das Fourier-Integral Ist f : R → C integrierbar, so ist auch die Funktion x 7→ f (x)e−ixξ für jedes ξ ∈ R integrierbar und das Integral 1 F (ξ) := √ 2π Z∞ f (x)e−ixξ dx −∞ existiert. Die Funktion F = Ff : R → C heißt Fourier-Transformierte von f . Die Fourier-Transformation ist eine lineare Abbildung, d.h. F(λf + µg) = λFf + µFg für λ, µ ∈ C . Beispiel Gegeben sei f : R → R mit 1 für |t| ≤ T f (t) := 0 für |t| > T . f (t ) t Abbildung 1.4 Graph von f TH Nürnberg 13 Dann lässt sich der Graph von Ff folgendermaßen darstellen: F (ξ) √ π2 T −8 π −6 π −4 π −2 π 2π 4π 6π 8π 10 π 12 π 14 π ξT Abbildung 1.5 Graph von Ff Das Laplace-Integral Sei f : R+ → C und das Integral Z∞ f (t)e−st dt 0 existiere. Unter dem Konvergenzbereich Kf ⊂ C verstehen wir hier, die Menge aller Werte s, für die dieses Integral konvergiert. Durch Z∞ F : Kf → C, s 7→ F (s) := e−st f (t) dt 0 ist die Laplace-Transformierte F = Lf erklärt. TH Nürnberg 14 In der Elektrotechnik ist die Schreibweise f (t) d tF (s) und F (s) t df (t) gebräuchlich. Die Laplace-Transformation ist eine lineare Abbildung, d.h. L(λf + µg) = λLf + µLg für λ, µ ∈ R . Die inverse Laplace-Transformation wird mit L−1 bezeichnet. Beispiele • Für f (t) = 1 und s > 0 gilt Z∞ ZT 1 −st T −st −st L(1) (s) = e · 1 dt = lim e dt = lim (− e ) T →∞ T →∞ s 0 0 0 1 1 e−sT )= . = lim ( − T →∞ s s s • Für f (t) = eγt , mit γ ∈ R, und s > γ gilt 1 γt L(e ) (s) = . s−γ • Für die Heaviside-Funktion H, gegeben durch 0 für t < 0 H(t) := 1 für t ≥ 0 , und s > 0 gilt Z∞ e−γs L(H(t − γ)) (s) = e−st dt = für festes γ ≥ 0 . s γ Ähnlichkeitssatz: Ist f d tF und γ > 0, so gilt 1 s L(f (γt)) (s) = F , γ γ s L−1 (F ( )) (t) = γf (γt) . γ TH Nürnberg 15 Dämpfungssatz: Ist f d tF , so gilt L(eγt f (t)) (s) = F (s − γ) , L−1 (F (s − γ)) (t) = eγt f (t) . Verschiebungssatz: Ist f d tF und γ > 0, so gilt L(f (t − γ)H(t − γ)) (s) = e−γs F (s) , L−1 (e−γs F (s)) (t) = f (t − γ)H(t − γ) . Faltung von Funktionen Sind f, g : R → C integrierbare Funktionen, so ist die Funktion (x, y) 7→ f (x)g(y − x) über R2 integrierbar. Dann erklären wir die Faltung f ∗ g der Funktionen f und g durch Z (f ∗ g)(y) := f (x)g(y − x) dx , R oder, im Zusammenhang mit der Laplace-Transformation, durch Zt (f ∗ g)(t) := f (τ )g(t − τ ) dτ . 0 Seien f, g : R → C integrierbare Funktionen, so gilt • für die Fourier-Transformation F √ F(f ∗ g) = 2π F(f )F(g) , • für die Laplace-Transformation L L(f ∗ g) = F G , wobei f d tF und g d tG. TH Nürnberg 1.4 Übungsaufgaben Aufgabe 1 Bestimmen Sie die Fourier-Reihe der periodischen Funktion f : R → R mit f (x) = |x| für − π ≤ x < π . Konvergiert die Fourier-Reihe von f gleichmäßig gegen f ? Aufgabe 2 Bestimmen Sie die Fourier-Reihe der Funktion f : R → R , x 7→ f (x) = | sin x| . Aufgabe 3 Bestimmen Sie die Fourier-Reihe der periodischen Funktion f : R → R mit f (x) = x(2π − x) , x ∈ [0, 2π) . Aufgabe 4 Bestimmen Sie die Fourier-Reihe der periodischen Funktion f : R → R mit A · t für t ∈ [0, π) π f (t) := A für t ∈ [π, 2π) . Aufgabe 5 Bestimmen Sie die Fourier-Transformierte von f : R → R mit 1 für |t| ≤ T f (t) := 0 für |t| > T . 16 TH Nürnberg 17 Aufgabe 6 Bestimmen Sie die Laplace-Transformierte folgender Funktionen: a) Sei 1 für 0 < t < 1 0 sonst . t für 0 für f (t) := b) Sei f (t) := t>0 t ≤ 0. Aufgabe 7 Sei f : R → R periodisch und stetig differenzierbar und sei u : R → R periodisch und zweimal stetig differenzierbar. Ferner sei −u00 (x) = f (x) in [0, 2π], u(0) = u(2π) = 0 . Geben Sie mittels Fourier-Reihen eine Lösung dieses Randwertproblems an. TH Nürnberg 2 18 Deskriptive Statistik 2.1 Skalen • Nominalskala Bei Nominalskalen wird lediglich die Gleichheit oder Ungleichheit von Beobachtungen innerhalb eines Merkmals festgestellt. Dabei wird das Merkmal durch verschiedene Begriffe oder Namen (lateinisch: nomen) untergliedert. Beispiel: Das Merkmal ”Familienstand” wird durch Zuweisung eines Begriffs, wie ledig, verheiratet, geschieden, verwitwet, charakterisiert. • Ordinalskala Liegt eine Ordinalskala vor, so kann, über Nominalskalen hinaus, auch die Ordnung (lateinisch: ordo) innerhalb eines Merkmals unterschieden werden. Beispiel: Prüfungsleistungen lassen sich auf einer Ordinalskala anordnen. • Intervallskala Unter einer Intervallskala wird eine Skala verstanden, die bei gleichen Differenzen der Quantitäten gleiche Differenzen der Messwerte impliziert. Beispiel: Die Celsius- und die Fahrenheit-Skalen zur Temperaturmessung • Verhältnisskala Eine Verhältnisskala verfügt, neben den Eigenschafen einer Intervallskala, über einen absoluten Nullpunkt und weist demnach keine negativen Werte auf. Beispiel: Die Kelvin-Skala zur Temperaturmessung TH Nürnberg 2.2 19 Der Begriff der Häufigkeit Seien x1 , ..., xn die beobachteten Merkmalswerte eines Merkmals X mit Ausprägungen a1 , ..., ak , wobei xi = aj (i) , i = 1, ..., n , j = 1, ..., k . Beispiel Bei einer Befragung der Studierenden wird untersucht, welche Verkehrsmittel vorwiegend für den Weg zur Hochschule genutzt werden. Dabei kennzeichne • a1 : die vorwiegende Nutzung öffentlicher Verkehrsmittel • a2 : die vorwiegende Nutzung eines privaten KFZ • a3 : weitere Möglichkeiten. Gibt beispielsweise der fünfte Studierende an, er nutze vorwiegend öffentliche Verkehrsmittel, so kann x5 = a1 (5) geschrieben werden. Als absolute Häufigkeit Hn (aj ) der Ausprägung aj wird die Anzahl der Fälle, in denen aj auftritt, bezeichnet. Es gilt n X Hn (aj ) = n . j=1 Der Wert hn (aj ) = Hn (aj ) n wird als relative Häufigkeit bezeichnet. TH Nürnberg 2.3 2.3.1 20 Beschreibung von Häufigkeitsverteilungen Lagemaße • Das arithmetische Mittel n k 1X 1X x̄ = xi = aj · Hn (aj ) . n i=1 n j=1 Beispiele – Sei h3 (a1 ) = 81 12 7 , h3 (a2 ) = , h3 (a3 ) = 100 100 100 und a1 = 1 , a 2 = 3 , a3 = 5 . 2 Dann gilt x̄ = 81 3 12 7 134 + · +5 = . 100 2 100 100 100 – Ein Bastler bestimmt die Länge der ihm zur Verfügung stehenden Holzleisten. Dabei erhält er für die Holzleisten i, 1 ≤ i ≤ 20, folgende Werte: i 1 2 3 4 5 Länge xi in cm 115 130 150 115 185 i Länge xi in cm 6 145 7 150 8 150 9 145 10 155 i 11 12 13 14 15 Länge xi in cm 125 130 150 155 175 Für das arithmetische Mittel ergibt sich n 1X 1 x̄ = xi = · 2920 cm = 146 cm . n i=1 20 i 16 17 18 19 20 Länge xi in cm 130 175 145 150 145 TH Nürnberg 21 Für die absoluten und relativen Häufigkeiten der verschiedenen Längen gilt Länge ai in cm 115 125 130 145 150 155 175 185 Hn (ai ) hn (ai ) 2 1 3 4 5 2 2 1 0, 10 0, 05 0, 15 0, 20 0, 25 0, 10 0, 10 0, 05 Das arithmetische Mittel lässt sich auch mit Hilfe der absoluten Häufigkeiten Hn (ai ) bestimmen. Es gilt 8 1 X ai Hn (ai ) = 146 cm . x̄ = 20 i • Das geometrische Mittel x̄g = √ n x1 · x2 · .... · xn , wobei xi ≥ 0, i = 1, ..., n, sei. Beispiel: Mittelwert prozentualer Veränderungen. • Das harmonische Mittel n , x̄h = P n 1 i=1 xi wobei xi > 0, für i = 1, ..., n, oder xi < 0, für i = 1, ..., n, sei. Beispiel: Mittelwert der Geschwindigkeiten vi = 4xi , i = 1, 2 , 4ti mit 24xi = 4x und 4t1 + 4t2 = 4t. TH Nürnberg 22 • Der Median x̃0,5 ( x(n+1)/2 falls n ungerade x̃0,5 = 1 (x n2 + x n2 +1 ) falls n gerade 2 und das α-Quantil x̃α , mit 0 < α < 1, ( x[n·α]+1 falls n · α ∈ /Z , x̃α = 1 (x + x ) falls n · α ∈ Z n·α n·α+1 2 wobei x1 ≤ ... ≤ xn vorausgesetzt sei und [r] den ganzzahligen Anteil von r ∈ R bezeichne. Beispiel: Sind 30 Messwerte der Größe nach so geordnet, dass x1 ≤ ... ≤ x30 , dann ist – der Median der Wert von 1 (x15 + x16 ) 2 – und das 0, 1-Quantil der Wert von 1 (x3 + x4 ) , 2 da n · α = 30 · 0, 1 = 3. Hierzu betrachten wir beispielsweise die Lebensdauer xi von 30 Glühbirnen: i 1 2 3 4 5 6 xi i xi in h in h 480 7 511 490 8 514 502 9 521 504 10 535 504 11 598 505 12 602 i 13 14 15 16 17 18 xi in h 612 630 670 805 811 880 i 19 20 21 22 23 24 xi in h 920 945 990 1005 1010 1010 i 25 26 27 28 29 30 xi in h 1045 1065 1103 1208 1280 1350 • Der Modalwert Der Modalwert (oder Modus) xmod ist der häufigste Beobachtungswert. Demnach gilt hn (xmod ) ≥ hn (aj ) für j = 1, ..., k . TH Nürnberg 2.3.2 23 Streuungsmaße • Die Spannweite Sei {x1 , ..., xn }, mit x1 ≤ .. ≤ xn , eine geordnete Menge von Beobachtungswerten. Dann heißt R := xn − x1 Spannweite (Range) R der Häufigkeitsverteilung. • Der Quantilsabstand Der Quantilsabstand R1−α , mit 0 < α < 1, ist definiert als R1−α = x̃1− α2 − x̃ α2 . Anmerkung: Das Intervall [x̃ α2 ; x̃1− α2 ] enthält mindestens (1 − α) · 100% der Beobachtungswerte. • Die mittlere absolute Abweichung vom Median dx̃ ist definiert als n 1X dx̃ := |xi − x̃0,5 | . n i=1 • Die Varianz und die Standardabweichung Seien x1 , ..., xn Merkmalswerte und a1 , ..., ak Ausprägungen des betrachteten Merkmals. Dann wird die (empirische) Varianz der Beobachtungsreihe definiert als n s2 := 1X (xi − x̄)2 . n i=1 Damit ist auch die Standardabweichung s durch √ s = s2 gegeben. Anmerkung: Eine weitere Definition der Varianz ist durch die Stichprobenvarianz n 1 X s = (xi − x̄)2 n − 1 i=1 2 TH Nürnberg 24 gegeben. Diese Definition führt zu einer erwartungstreuen Schätzung der Varianz. Weiterhin gilt n X 2 (xi − x̄) = i=1 n X x2i k k X X 2 − nx̄ = (aj − x̄) Hn (aj ) = a2j Hn (aj ) − nx̄2 i=1 j=1 j=1 Beispiel Für das zweite Beispiel aus Abschnitt 2.3.1 gilt s2 = 8 1 X (aj − 146)2 Hn (aj ) 20 j=1 1 ((115 − 146)2 · 2 + (125 − 146)2 · 1 + ... + (185 − 146)2 · 1) cm2 20 = 329 cm2 = und s = 18 cm . Demnach weisen die Holzleisten eine durchschnittliche Länge von 146 cm mit einer durchschnittlichen Abweichung von 18 cm auf. 2.3.3 Maße der Schiefe und Wölbung Seien x1 , ..., xn die Merkmalswerte einer Beobachtung und x̄ der arithmetische Mittelwert dieser Werte. • Die Schiefe oder das Schiefemaß nach Fischer, γ1 , ist definiert als n−1 γ1 := (n−1 n P (xi − x̄)3 i=1 n P . 3 (xi − x̄)2 ) 2 i=1 • Die Wölbung (Exzeß, Kurtosis) γ2 ist definiert als n−1 n P (xi − x̄)4 i=1 γ2 := (n n P −1 (xi − i=1 − 3. x̄)2 )2 TH Nürnberg 2.4 25 Der Begriff der Wahrscheinlichkeit Mit wachsendem n nähert sich der Wert von h(A) der Wahrscheinlichkeit P (A) an. Der Grundraum oder Ereignisraum Ω ist die Menge aller möglichen Ergebnisse eines Zufallsexperiments und damit die Vereinigungsmenge aller Elementarereignisse. Die Wahrscheinlichkeit P wird durch die Kolmogoroffschen Axiome vollständig beschrieben: • Positivität P (A) ≥ 0 für jedes Ereignis A ⊂ Ω • Normiertheit P (Ω) = 1 • σ-Additivität P( ∞ [ Ai ) = i=1 ∞ X P (Ai ) i=1 für jede Folge paarweise disjunkter Ereignisse Ai ⊂ Ω. Für die Wahrscheinlichkeit der Vereinigung zweier Ereignisse A1 und A2 gilt demnach P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ) . Auch andere bekannte Rechenregeln lassen sich aus obigen Axiomen herleiten, wie z. B. P (Ā) = 1 − P (A) und P (A − B) = P (A) − P (B) , falls B ⊂ A . TH Nürnberg 26 Die Laplace-Wahrscheinlichkeit Für Zufallsexperimente mit endlich vielen, gleichwahrscheinlichen Ereignissen, lässt sich die Wahrscheinlichkeit eines Ereignisses mittels P (A) = |A| |Ω| berechnen. Dabei bezeichnet |A| : die Anzahl der Elemente von A und |Ω| : die Anzahl der Elemente von Ω . Beispiel Wird zweimal mit einem herkömmlichen Spielwürfel gewürfelt, so beträgt die Wahrscheinlichkeit, dabei zweimal die Augenzahl 3 zu erhalten, d.h. die Wahrscheinlichkeit für das Ereignis A = {(3, 3)} P (A) = 1 . 36 Dabei ist die Ereignisraum Ω: Ω = {(1, 1), (1, 2), (1, 3), ..., (6, 6)} . TH Nürnberg 2.5 27 Kombinatorik Permutationen Hierbei werden n ∈ N verschiedene Elemente zu einem n-Tupel angeordnet. Eine solche Anordnung wird als n-stellige Permutation bezeichnet. Gibt es unter den Elementen eines n-Tupels k < n voneinander verschiedene, die mit den jeweiligen Häufigkeiten n1 , n2 , ... , nk auftreten, wobei n1 + n2 + ... + nk = n gilt, so wird die Anordnung zu einem n-Tupel als Permutation mit Wiederholung bezeichnet. • Permutationen ohne Wiederholung Für die Anzahl p(n) aller n-stelligen Permutationen ohne Wiederholung gilt p(n) = n! . • Permutationen mit Wiederholung Für die Anzahl p(n; n1 , ..., nk ) aller n-stelligen Permutationen mit n1 , ... , nk Wiederholungen gilt p(n; n1 , ..., nk ) = n! . n1 ! · ... · nk ! Variationen Hierbei werden k-Tupel (a1 , ..., ak ) mit ai ∈ {a1 , ..., an } betrachtet. Eine solche Anordnung zu einem k-Tupel heißt Variation k-ter Ordnung von n Elementen. Gilt ai 6= aj für i 6= j so wird die Anordnung als Variation k-ter Ordnung von n Elementen ohne Wiederholung bezeichnet. • Variationen ohne Wiederholung Für die Anzahl v(n, k) aller Variationen k-ter Ordnung von n Elementen ohne Wiederholung gilt v(n, k) = n! . (n − k)! Beispiel: Werden aus eine Menge mit n Elementen ohne Zurücklegen/Wiederholung k Elemente ausgewählt und die Reihenfolge dieser Auswahl berücksichtigt, so gibt es v(n, k) Möglichkeiten. TH Nürnberg 28 • Variationen mit Wiederholung Für die Anzahl v ∗ (n, k) aller Variationen k-ter Ordnung von n Elementen mit Wiederholung gilt v ∗ (n, k) = nk . Beispiel: Werden aus eine Menge mit n Elementen mit Zurücklegen/Wiederholung k Elemente ausgewählt und die Reihenfolge dieser Auswahl berücksichtigt, so gibt es v ∗ (n, k) Möglichkeiten. Kombinationen Eine Kombination ist eine Teilmenge mit k Elementen, die aus einer Menge mit n Elementen ausgewählt wird. Eine solche k-elementige Teilmenge heißt Kombination k-ter Ordnung von n Elementen. • Kombinationen ohne Wiederholung Für die Anzahl c(n, k) aller Kombinationen k-ter Ordnung von n Elementen ohne Wiederholung gilt n n! . c(n, k) = = k!(n − k)! k Beispiel: Werden aus eine Menge mit n Elementen ohne Zurücklegen/Wiederholung k Elemente ausgewählt und die Reihenfolge dieser Auswahl nicht berücksichtigt, so gibt es c(n, k) Möglichkeiten. • Kombinationen mit Wiederholung Für die Anzahl c∗ (n, k) aller Kombinationen k-ter Ordnung von n Elementen mit Wiederholung gilt n+k−1 (n + k − 1)! ∗ c (n, k) = = . k k!(n − 1)! Beispiel: Werden aus eine Menge mit n Elementen mit Zurücklegen/Wiederholung k Elemente ausgewählt und die Reihenfolge dieser Auswahl nicht berücksichtigt, so gibt es c∗ (n, k) Möglichkeiten. Beispiele • Es gibt 49 = 13 983 816 6 Möglichkeiten, aus 49 Zahlen, sechs verschiedene Zahlen auszuwählen. TH Nürnberg 29 • Sollen jeweils zehn Gegenstände, von denen es vier verschiedene Sorten gibt, in eine Tüte gefüllt werden, so existieren 4 + 10 − 1 = 286 10 Möglichkeiten, eine Tüte zu befüllen. TH Nürnberg 2.6 30 Die bedingte Wahrscheinlichkeit und die Unabhängigkeit von Ereignissen P (B|A) bezeichnet die Wahrscheinlichkeit für das Eintreten des Ereignisses B unter der Bedingung, dass das Ereignis A bereits eingetreten ist (bedingte Wahrscheinlichkeit). Es gilt P (B|A) = P (B ∩ A) . P (A) Beispiel Ein elektronisches Bauteil kann beispielsweise durch Kurzschluss ausfallen. Beträgt die Wahrscheinlichkeit P (d), dass ein Bauteil defekt ist 5%, und die Wahrscheinlichkeit P (K ∩ d), dass ein Bauteile durch Kurzschluss ausgefallen ist 3%, so beträgt die Wahrscheinlichkeit P (K|d), dass ein defektes Bauteil durch Kurzschluss ausgefallen ist P (K|d) = 0, 03 P (K ∩ d) = = 0, 6 . P (d) 0, 05 Satz von der totalen Wahrscheinlichkeit: Seien A1 , ..., Ak paarweise disjunkte Ereignisse mit k [ Ai = Ω . i=1 Dann gilt für ein beliebiges Ereignis B P (B) = k X P (B|Ai )P (Ai ) . i=1 Beispiel Eine Tierarzpraxis in England beschäftigt drei Ärzte A1 , A2 und A3 . Arzt A1 leitet die Praxis und arbeitet 4h pro Tag im Außendienst, die Ärzte A2 und A3 jeweils 8h pro Tag. Sei B das Ereignis, dass bei einer Anfrage nur ein Hausbesuch notwendig ist. Unter P (B|Ai ) verstehen wir die Wahrscheinlichkeit, dass Arzt Ai für eine Nachfrage nur einen Hausbesuch benötigt. Hier sei P (B|A1 ) = 0, 9 , P (B|A2 ) = 0, 8 , P (B|A3 ) = 0, 75 . Es gilt P (B) = P (B|A1 )P (A1 ) + P (B|A2 )P (A2 ) + P (B|A3 )P (A3 ) , TH Nürnberg 31 wobei P (Ai ) die Wahrscheinlichkeit angibt, dass der Arzt Ai den Hausbesuch abstattet. Demnach erhalten wir P (B) = 0, 9 · 1 2 2 + 0, 8 · + 0, 75 · = 0, 8 . 5 5 5 Zwei Ereignisse A und B werden als (stochastisch) unabhängig bezeichnet, wenn P (A ∩ B) = P (A)P (B) gilt. Das ist gleichbedeutend mit P (B|A) = P (B) bzw. P (A|B) = P (A) . Die Bayessche Formel Für zwei Ereignisse A und B gilt P (B|A) = P (B ∩ A) . P (A) Die Wahrscheinlichkeit P (B ∩ A) wiederum, lässt sich folgendermaßen ausdrücken: P (B ∩ A) = P (A|B)P (B) . Ferner gilt P (A) = P (A|B)P (B) + P (A|B̄)P (B̄) . Zusammengefasst erhalten wir die Bayessche Formel P (B|A) = P (A|B)P (B) . P (A|B)P (B) + P (A|B̄)P (B̄) Diese lautet für paarweise disjunkte Ereignisse A1 , ..., Ak , mit k [ Ai = Ω , i=1 und ein beliebiges Ereignis B: P (Ai |B) = P (B|Ai )P (Ai ) . k P P (B|Aj )P (Aj ) j=1 TH Nürnberg 2.7 32 Bivariate Datenanalyse Seien X und Y Merkmale, die in n Untersuchungen, die Ausprägungen ai , i = 1, ..., l für X und bk , k = 1, ..., m für Y zeigen. Die Werte Hik = H(ai , bk ) , i = 1, ..., l , k = 1, ..., m , geben die absolute Häufigkeit der einzelnen Ausprägungen (ai , bk ) an. Die Zeilensummen Hi· lassen sich mittels Hi· := m X Hik k=1 und die Spaltensummen mittels H·k := l X Hik i=1 berechnen. Satz: Sind die Merkmale X und Y unabhängig, so gilt Hik = Hi· H·k für i = 1, ..., l, k = 1, ..., m . n Beispiel Für das Merkmal (X, Y ) seien folgende Häufigkeitswerte gegeben: x1 x2 x3 x4 H·k y1 y2 Hi· 3 6 12 9 30 7 10 14 20 28 40 21 30 70 100 TH Nürnberg 33 Daher gilt für die bedingten Häufigkeitsfunktionen x1 x2 x3 x4 sonst h(xi |y1 ) h(xi |y2 ) 3 30 6 30 12 30 9 30 7 70 14 70 28 70 21 70 Summe = = = = 0 1 10 2 10 4 10 3 10 1, 0 = = = = 0 1 10 2 10 4 10 3 10 1, 0 Da die bedingten relativen Häufigkeitsfunktionen h(xi |y1 ) und h(xi |y2 ) für das Merkmal X gleich sind, ist das Merkmal X statistisch unabhängig vom Merkmal Y . Für metrisch skalierte Merkmale (X, Y ) ist der Korrelationskoeffizient nach Bravais-Pearson rXY gegeben. Treten die Ausprägungen (ai , bk ), i = 1, ..., l, k = 1, ..., m, mit Häufigkeiten Hik auf, so wird dieser als l P m P (ai − ā)(bk − b̄)Hik i=1 k=1 rXY := s ( l P (ai − ā)2 Hi· )( i=1 m P (bk − b̄)2 H·k ) k=1 definiert. Es gilt l P m P ai bk Hik − n ā b̄ i=1 k=1 rXY = s ( l P i=1 n P xi yi − n x̄ ȳ i=1 a2i Hi· − nā2 )( m P k=1 =r n . n P 2 P 2 2 2 ( xi − n x̄ )( yi − n ȳ ) b2k H·k − n b̄2 ) i=1 i=1 Da die empirische Varianz s2 einer Beobachtungsreihe x1 , ..., xn durch n n 1 X 2 1X 2 (xi − x̄) = ( s := xi − nx̄2 ) n i=1 n i=1 2 und die empirische Kovarianz zwischen X und Y durch sXY n n 1 X 1X (xi − x̄)(yi − ȳ) = ( xi yi − n x̄ ȳ) := n i=1 n i=1 TH Nürnberg 34 gegeben ist, gilt demnach rXY = sXY . sx · sy Beispiel Wir nehmen an, dass bei gleichbleibenden Ausprägungen des Merkmals X, die Ausprägungen des Merkmals Y folgendermaßen variieren: xi 0 2 4 6 8 10 12 14 rXY yi 2 1 4 3 6 5 8 7 0, 905 yi 4 3 2 1 8 7 6 5 0, 52 yi 1 8 2 7 3 6 4 5 0, 19 yi 2 7 5 3 8 4 1 6 0, 00 yi yi 3 8 8 6 5 4 2 2 7 7 4 3 1 5 6 1 −0, 14 −0, 62 Y r XY =0,905 X Abbildung 2.1 Korrelation mit rXY = 0, 905 TH Nürnberg 35 Y r XY =0,52 X Abbildung 2.2 Korrelation mit rXY = 0, 52 Y r XY =0,19 X Abbildung 2.3 Korrelation mit rXY = 0, 19 TH Nürnberg 36 Y r XY =0,00 X Abbildung 2.4 Korrelation mit rXY = 0, 00 Y r XY =−0,14 X Abbildung 2.5 Korrelation mit rXY = −0, 14 TH Nürnberg 37 Y r XY =−0,62 X Abbildung 2.6 Korrelation mit rXY = −0, 62 TH Nürnberg 2.8 38 Das Gaußsche Fehlerfortpflanzungsgesetz Um zu bestimmen, wie sich Fehler von Messungen in einer Meßgröße niederschlagen, betrachten wir die jeweilige funktionale Abhängigkeit und bestimmen neben dem resultierenden Mittelwert auch die resultierende Abweichung der Meßgröße nach dem Fehlerfortpflanzungsgesetz von Gauß. Dabei nehmen wir an, dass die Messgröße f : U → R, x 7→ f (x) , mit U ⊂ Rn , von x = (x1 , ..., xn ) abhängt. Werte der Variablen xi werden durch eine Messung bestimmt. Dabei treten Messfehler auf, so dass wir statt xi die Größe xi ± 4xi betrachten. Für f : U → R mit U ⊂ Rn können wir, bei kleinen, nicht-korrelierten Fehlern p 4xi = Var Xi die Näherung n X ∂f (4z) ≈ ( (x = µ))2 (4xi )2 ∂x i i=1 2 verwenden. Dabei sei µi := E(Xi ) und µ = (µ1 , µ2 , ..., µn ). Beispiel Für den Ohmschen Widerstand gilt R = R(U, I) = U . I Hier erfolgt die Messung des Widerstandes R anhand einer Messung der Spannung U und der Stromstärke I. U0 Sei U0 := µ1 , I0 := µ2 und R0 := . I0 Es gilt ∂R 1 = , ∂U I ∂R U =− 2 ∂I I und (4R)2 ≈ ( 1 2 U0 1 ) (4U )2 + ( 2 )2 (4I)2 = ( )2 ((4U )2 + R02 (4I)2 ) . I0 I0 I0 TH Nürnberg 39 Somit erhalten wir für I = (10 ± 0, 3) A und U = (220 ± 2) V R0 = U0 = 22, 0 Ω I0 und 1 4R ≈ I0 r q 1 9 (4U )2 + R02 (4I)2 = 22 + 222 · Ω ≈ 0, 7 Ω . 10 100 TH Nürnberg 2.9 40 Lineare Regression Lassen sich die Daten der Ausprägungen zweier Merkmale X und Y näherungsweise in Form eines linearen Zusammenhangs darstellen, so verhilft die lineare Regressionsrechnung zu einer genaueren Analyse der funktionalen Abhängigkeit beider Merkmalsausprägungen. Dabei liegen die Daten in Form von Wertepaaren (x1 , y1 ), ...., (xn , yn ), mit xi , yi ∈ R, vor. Es wird davon ausgegangen, dass yi = α + βxi + ci für i = 1, ..., n gilt. Hier sind α, β, ci ∈ R, wobei die Größen ci zufällige Fehler darstellen. Die Methode der kleinsten Quadrate Die Parameter α und β sollen so bestimmt werden, dass durch die Regressionsgerade ŷ = a + bx eine möglichst gute Schätzung ŷ für die Ausprägung y des Merkmals Y bietet. Ein geeignetes Maß für die Güte dieser Schätzung stellt die Summe der Abweichungsquadrate 2 S = n X (yi − ŷi )2 i=1 dar, wobei ŷi := a + bxi sei. Nun sollen die Schätzgrößen a und b für α und β so bestimmt werden, dass S 2 minimal wird. TH Nürnberg 41 y 6 ( xi , yi) 5 ̂y =a +b x 4 3 ( x i , ŷ i ) 2 1 0 0 1 2 3 4 5 6 7 8 x Abbildung 2.7 Methode der kleinsten Quadrate Die Parameter a und b ergeben sich dann als Lösungen des Normalengleichungssystems n X ∂S 2 = −2 (yi − a − bxi ) = 0 ∂a i=1 und n X ∂S 2 = −2 xi (yi − a − bxi ) = 0 . ∂b i=1 Nach der ersten der beiden Gleichungen ist der Schätzwert für α a = ȳ − bx̄ , wobei n n 1X 1X x̄ = xi und ȳ = yi n i=1 n i=1 die Mittelwerte der Größen xi bzw. yi sind. Die zweite Gleichung impliziert n n 1X 1X 2 xi yi − ȳx̄ + bx̄2 − b x = 0. n i=1 n i=1 i Nach dieser Gleichung und mit Hilfe der Identitäten n X i=1 (xi − x̄)(yi − ȳ) = n X i=1 xi yi − nx̄ȳ TH Nürnberg 42 und n X (xi − x̄)2 = i=1 n X x2i − x̄2 n i=1 erhalten wir schließlich n P b= (xi − x̄)(yi − ȳ) i=1 n P , (xi − x̄)2 i=1 den Schätzwert für β. Beispiel Gesucht ist die Regressionsgerade für folgende Daten (xi , yi ): (−4, −3), (−2, 1), (−1, 0), (0, 1), (4, 5) . Die Schätzwerte a und b lassen sich mittels 5 X xi = −4 − 2 − 1 + 0 + 4 = −3 , i=1 5 X 5 X yi = −3 + 1 + 0 + 1 + 5 = 4 , i=1 x2i = 42 + 22 + 1 + 0 + 42 = 37 i=1 und 5 X xi yi = (−4) · (−3) + (−2) · 1 + (−1) · 0 + 0 · 1 + 4 · 5 = 30 i=1 bestimmen. Demnach gilt 30 · 5 + 12 + b(9 − 5 · 37) = 0 und 5a = 4 + 3b . TH Nürnberg 43 Die Parameter der Regressionsgerade y = a + bx sind daher a ≈ 1, 35 , b ≈ 0, 92 . y 6 5 4 3 2 1 0 -5 -4 -3 -2 -1 -1 0 1 2 3 4 5 x -2 -3 -4 Abbildung 2.8 Datenpunkte und die zugehörige Regressionsgerade Treten nicht nur zwei, sondern allgemein m unabhängige Merkmale auf, so verwenden wir bei einem linearen Ansatz als Schätzfunktion ŷi = a0 + a1 x1i + a2 x2i + ... + am xmi . Mit 1 1 . X= . . 1 x11 x12 . . . x1n x21 x22 . . . x2n ... ... . . . ... xm1 xm2 . . . xmn und y1 a0 y2 a1 . . y= . , a = . . . yn am TH Nürnberg 44 folgt a = (X t X)−1 X t y . Beweis Es gilt ŷ = Xa . Gemäß der Methode der kleinsten Quadrate wird 2 S = n X (yi − ŷi )2 i=1 minimiert. Differenzieren wir S 2 nach a0 , a1 , ..., am und beachten, dass grad S 2 = 0 eine notwendige Bedingung für das Vorliegen eines kritischen Punktes ist, so erhalten wir n X y i = a0 n + a1 n X i=1 x1i + a2 i=1 n X i=1 n X yi x1i = a0 yi x2i = a0 n X i=1 n X i=1 x1i + a1 x2i + a1 i=1 .. . n X yi xmi = a0 i=1 n X i=1 n X i=1 n X x21i + a2 i=1 xmi i=1 n X x1i x2i + a2 i=1 xmi + a1 n X x2i x1i + ... + am i=1 .. . n X x2i + ... + am n X i=1 .. . n X i=1 x22i + ... + am x1i xmi + a2 .. . n X n X i=1 n X xmi x1i xmi x2i i=1 x2i xmi + ... + am i=1 .. . n X x2mi . i=1 Demnach gilt X t Xa = X t y und daher a = (X t X)−1 X t y . Anmerkung: Mit Hilfe der euklidischen Norm k.k können wir auch S 2 = ky − Xak2 = (y − Xa)t (y − Xa) = y t y − y t Xa − (Xa)t y + (Xa)t Xa = at X t Xa − 2y t Xa + y t y schreiben. TH Nürnberg 2.10 45 Zufallsvariable und Wahrscheinlichkeitsverteilungen Eine Zufallsgröße oder Zufallsvariable ist eine Funktion X : Ω → R, • deren Werte reelle Zahlen sind, die durch ein Zufallsexperiment bestimmt werden • und deren Ereignissen Wahrscheinlichkeiten zugeordnet sind. Der Wert x, den die Zufallsvariable X annimmt, heißt Realisation von X. Betrachten wir die Ereignisse X ≤ t einer Zufallsvariable X, so erhalten wir mit FX (t) = P (X ≤ t) die Verteilungsfunktion oder Wahrscheinlichkeitsverteilung der Zufallsvariablen X. Die Funktion FX besitzt folgende Eigenschaften: (i) FX ist monoton wachsend. (ii) FX ist rechtsseitig stetig, d.h. lim FX (t + h) = FX (t) . h&0 (iii) FX besitzt die Grenzwerteigenschaften lim FX (t) = 1 t→∞ und lim FX (t) = 0 . t→−∞ Ist die Zufallsvariable X diskret mit den möglichen Realisationen x1 , x2 , ..., so gilt für die Verteilungsfunktion X FX (t) = P (X = xi ) . {i∈N|xi ≤t} Existiert zu einer Verteilungsfunktion FX eine Funktion fX , so dass Zt FX (t) = fX (ξ)dξ −∞ gilt, dann wird die Wahrscheinlichkeitsverteilung als stetige Verteilung bezeichnet. Die Funktion fX heißt Dichtefunktion oder Dichte. TH Nürnberg 2.10.1 46 Kenngrößen von Zufallsvariablen Ist X eine stetige Zufallsvariable mit einer Dichte f , für welche das Integral von xf (x) über R existiert, so gilt für den Erwartungswert oder Mittelwert EX: Z∞ x · f (x) dx . EX = −∞ Ist die Zufallsvariable X diskret mit den möglichen Realisationen x1 , x2 , ..., so gilt EX = ∞ X xi · P (X = xi ) . i=1 Unter der Varianz einer Zufallsgröße X verstehen wir die Größe Var X := E(X − EX)2 . Die Größe σ, definiert durch 2 σ 2 = σX := Var X heißt Standardabweichung. Ungleichung von Tschebyscheff: Ist c ∈ R∗+ , so gilt P (|X − EX| ≥ c) ≤ Var X . c2 Demnach erhalten wir P (|X − EX| ≥ k · σ) ≤ σ2 1 = 2 2 (k · c) k für k · σ ∈ R∗+ . So lässt sich beispielweise herleiten, dass Werten, die mindestens 3σ vom Erwartungswert abweichen, höchstens mit der Wahrscheinlichkeit 19 auftreten. Satz von Steiner: Es gilt Var X = EX 2 − (EX)2 . TH Nürnberg 47 Ist FX eine stetige Verteilung, so gilt für das α-Quantil ξα Zξα FX (ξα ) = fX (x) dx = α . −∞ f (x) α ξα x Abbildung 2.9 Das α-Quantil einer stetigen Verteilung Für α = 1 2 erhalten wir den Median. Sind X und Y Zufallsvariablen, dann ist die Kovarianz definiert durch Cov(X, Y ) := E(X − EX)(Y − EY ) . Ist Cov(X, Y ) = 0, so werden die Zufallsvariablen X und Y als unkorreliert bezeichnet. Sind die Zufallsvariablen X und Y stochastisch unabhängig, so folgt E(X1 · X2 ) = E(X1 ) · E(X2 ) und daher Cov(X, Y ) = 0. Die Umkehrung dieser Schlussfolgerung gilt jedoch nicht allgemein. Weiterhin gilt Cov(X1 , X2 ) = E(X1 · X2 ) − E(X1 )E(X2 ) , Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ) , Cov(X, Y1 + Y2 ) = Cov(X, Y1 ) + Cov(X, Y2 ) , Cov(a0 + a1 X, b0 + b1 Y ) = a1 b1 Cov(X, Y ) für a0 , a1 , b0 , b1 ∈ R . TH Nürnberg 48 Der Korrelationskoeffizient ρ der Zufallsvariablen X und Y nach Bravais-Pearson ist definiert durch ρ = ρ(X, Y ) = Corr(X, Y ) := Cov(X, Y ) . σX · σY Sind Xi , i = 1, ..., n, Zufallszahlen, so gilt Var(X1 + X2 + ... + Xn ) = n X i=1 Var(Xi ) + X Cov(Xi , Xj ) . i,j=1,...,n i6=j Ist n = 2, so können wir Var(X1 + X2 ) = Var(X1 ) + Var(X2 ) + 2 Cov(X1 , X2 ) schreiben. TH Nürnberg 2.10.2 49 Die Binomialverteilung Eine Zufallsvariable X heißt binomialverteilt mit den Parametern n und p, B(n, p), falls n P (X = k) = bn,p (k) := · pk · (1 − p)n−k , k ∈ {0, ..., n} , k gilt. Die zugehörige Verteilungsfunktion lautet X n Bn,p (x) = · pk · (1 − p)n−k . k k≤x b6 ;0,5 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 1 0 2 1 3 2 4 3 5 4 6 5 7 6 8 9 k Abbildung 2.10 Die Dichte bn,p der Binomialverteilung für n = 6 und p = 0, 5 b8; 0,3 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 1 0 2 1 3 2 4 3 5 4 6 5 7 6 8 7 9 k Abbildung 2.11 Die Dichte bn,p der Binomialverteilung für n = 8 und p = 0, 3 TH Nürnberg 50 Solche Histogramme ergeben sich auch durch Häufigkeitsverteilungungen eines sog. GaltonBretts. Dabei werden n Kugeln durch Hindernisse abgelenkt, wobei sie mit einer Wahrscheinlichkeit p in eine Richtung abgelenkt werden und mit der Wahrscheinlichkeit 1 − p in die andere Richtung. Schließlich werden sie in n + 1 Fächern aufgefangen. Für den Erwartungswert erhalten wir n X n k EX = k p (1 − p)n−k k k=0 = np n X k=1 = np n−1 X k=0 (n − 1)! pk−1 (1 − p)n−k (n − k)!(k − 1)! (n − 1)! pk (1 − p)n−(k+1) (n − (k + 1))!k! n−1 X n−1 k = np p · (1 − p)n−k−1 k k=0 und mit dem Binomischen Lehrsatz: EX = np(p + (1 − p))n−1 = np . Für die Varianz gilt V arX = np(1 − p) . TH Nürnberg 2.10.3 51 Die Hypergeometrische Verteilung Eine Zufallsvariable X heißt hypergeometrisch verteilt mit den Parametern N , M und n, H(N, M, n), falls M N −M P (X = k) = hN,M,n (k) := k n−k N n , k = 0, ..., n , gilt. Hypergeometrische Verteilungen treten beispielsweise auf, wenn die Wahrscheinlichkeit berechnet werden soll, aus einer Menge von N Kugeln, mit M weißen und N − M schwarzen, k weiße Kugeln zu ziehen, wobei die Kugeln bei der Ziehung nicht zurückgelegt werden. 2.10.4 Die Poisson-Verteilung Falls µ = np konstant ist, gilt lim bn,p (k) = n→∞ µk e−µ . k! Anmerkung: Nach dem Grenzwertsatz von Poisson gilt das auch unter der schwächeren Voraussetzung, dass Xn B(n, pn )-verteilt sind und lim npn = µ ist. n→∞ Die durch ψµ (k) := µk e−µ , k ∈ N0 , µ ∈ R∗+ , k! definierte Verteilung heißt Poisson-Verteilung P (µ). Die zugehörige Verteilungsfunktion lautet Ψµ (x) = X µk e−µ k≤x k! . TH Nürnberg 52 ψ4( k ) 0,25 0,2 0,15 0,1 0,05 0 01 21 3 2 43 45 65 7 6 78 89 10 9 11 10 k Abbildung 2.12 Die Dichte ψµ der Poisson-Verteilung für µ = 4 ψ 8 (k ) 0,16 0,14 0,12 0,1 0,08 0,06 0,04 0,02 0 01 12 23 43 45 56 67 8 7 98 10 9 11 10 12 11 13 12 14 13 15 14 16 15 k Abbildung 2.13 Die Dichte ψµ der Poisson-Verteilung für µ = 8 Für den Erwartungswert erhalten wir ∞ X ∞ µk−1 −µ µk −µ X EX = k· e = µ· e = µ. k! (k − 1)! k=0 k=1 Für die Varianz gilt Var X = µ . TH Nürnberg 53 Beispiele • Sei p = 0, 01 die Wahrscheinlichkeit, dass ein Produkt fehlerhaft ist. Gesucht wird die Wahrscheinlichkeit, dass unter n = 100 Stück höchstens drei fehlerhafte Erzeugnisse auftreten. Mit Hilfe der Binomialverteilung X n Bn,p (3) = · pk · (1 − p)n−k k k≤3 erhalten wir 100 100 0 100 Bn,p (3) = · (0, 01) · (0, 99) + · (0, 01)1 · (0, 99)99 0 1 100 100 2 98 + · (0, 01) · (0, 99) + · (0, 01)3 · (0, 99)97 = 0, 9816 . 2 3 Die Poisson-Verteilung ist eine gute Näherung für die Binomialverteilung, falls n groß und p, mit p = µn−1 , klein ist. Mittels X µk e−µ Ψµ (3) = k! k≤x erhalten wir 10 e−1 11 e−1 12 e−1 13 e−1 Ψµ (3) = + + + = 0, 9810 . 0! 1! 2! 3! • Wir betrachten die Anzahl von Telefonanrufen in einer Telefonzentrale. Dabei sei k die Anzahl von Telefonanrufen innerhalb eines Zeitintervalls I := [t0 , t1 ] und µ die durchschnittliche Anzahl von Anrufen pro Zeiteinheit. Sei Ii := [t0 + (i − 1) t1 − t0 t1 − t0 ; t0 + i ], 1 ≤ i ≤ n. n n Daher gilt n [ Ii = I mit Ii ∩ Ij = ∅ für i 6= j . i=1 Die Wahrscheinlichkeit für das Auftreten des Ereignisses, dass k Anrufe in einem Intervall Ii stattfinden, ist für jedes dieser Intervalle gleich. Außerdem sind diese Ereignisse in Ii stochastisch unabhängig von jenen in Ij , für j 6= i. Durch Erhöhung von n verfeinern wir die Unterteilung von I so, dass in einem Intervall Ii höchstens ein Anruf auftreten kann. TH Nürnberg 54 Es sei nun pn : Wahrscheinlichkeit für 1 Anruf in einem Intervall Ii 1 − pn : Wahrscheinlichkeit für 0 Anrufe in einem Intervall Ii . Dann beträgt die Wahrscheinlichkeit für k Anrufe im Gesamtintervall I: n k P (X = k) = bn,p (k) = p (1 − pn )n−k . k n Falls lim npn = µ ist, gilt n→∞ lim bn,pn (k) = n→∞ µk e−µ = ψµ (k) . k! Sind zwei jeweils poissonverteilte Zufallsvariable X1 und X2 stochastisch unabhängig mit X1 ∼ ψµ1 und X2 ∼ ψµ2 , so ist auch X := X1 + X2 poissonverteilt und es gilt X ∼ ψµ mit µ := µ1 + µ2 . Beispiel Sei X1 : Anzahl der Telefonanrufen in der ersten Stunde mit X1 ∼ ψµ1 und µ1 = 3, X2 : Anzahl der Telefonanrufen in der zweiten Stunde mit X2 ∼ ψµ2 und µ2 = 1. Die beiden Variablen seien stochastisch unabhängig. Dann kann die Wahrscheinlichkeit, in beiden Stunden insgesamt einen Telefonanruf zu erhalten, folgendermaßen berechnet werden: (i) Es gilt X ∼ ψµ mit µ = µ1 + µ2 = 4 und ψµ (1) = 41 −4 e = 0, 0733 . 1! (ii) Weiterhin gilt ψ4 (1) = ψ3 (0)ψ1 (1) + ψ3 (1)ψ1 (0) = = e−1 + 3 e−1 = 4 e−1 . 30 −0 11 −1 31 −1 10 −0 e · e + e · e 0! 1! 1! 0! TH Nürnberg 2.10.5 55 Die Gaußsche Normalverteilung Ist p fest, so nähert sich die Binomialverteilung bn,p für n → ∞ einer Gaußschen Normalverteilung. Sei µ ∈ R und σ ∈ R∗+ . Die Zufallsgröße X heißt normalverteilt, N (µ, σ 2 ), wenn die Dichtefunktion (x−µ)2 1 ϕµ,σ (x) = √ e− 2σ2 σ 2π lautet. Die Wahrscheinlichkeitsdichte ϕ0,1 ist die Dichte der Standardnormalverteilung N (0, 1) mit der Verteilungsfunktion Zx t2 1 e− 2 dt . φ(x) = √ 2π −∞ y x Abbildung 2.14 Die Dichte ϕ = ϕ0,1 der Standardnormalverteilung Aus der Wahrscheinlichkeitsdichte zu der Verteilung N (µ, σ 2 ) erhalten wir die Dichte zu N (0, 1) durch die lineare Transformation x−µ x 7→ y = . σ Für den Erwartungswert und die Varianz einer Normalverteilung N (µ, σ 2 ) erhalten wir Z∞ (x−µ)2 1 EX = √ xe− 2σ2 dx = µ σ 2π −∞ TH Nürnberg 56 und 1 Var X = √ σ 2π Z∞ (x − µ)2 e− (x−µ)2 2σ 2 dx = σ 2 . −∞ Entsprechend gilt für eine Standardnormalverteilung N (0, 1): EX = 0 und Var X = 1 . Oft sind die Messfehler einer Messgröße N (µ, σ 2 )-verteilt. Die Wahrscheinlichkeit, dass ein Messwert im Intervall [a, b] liegt, ist dann gegeben als 1 P (a ≤ x ≤ b) = √ σ 2π Zb e− (x−µ)2 2σ 2 dx . a Die Integration Z t2 e− 2 dt lässt sich näherungsweise mit Hilfe der Exponential-Reihe durchführen. Gemäß 1 2 e− 2 t = 1 − t4 t6 t8 t2 + − + ∓ ... 2 · 1! 4 · 2! 8 · 3! 16 · 4! erhalten wir 2 P (µ − σ ≤ x ≤ µ + σ) = √ 2π Z1 1 2 e− 2 t dt 0 r Z1 2 t2 t4 t6 t8 (1 − + − + ∓ ...) dt . = π 2 · 1! 4 · 2! 8 · 3! 16 · 4! 0 Nach gliedweiser Integration ergibt sich für P (µ − σ ≤ x ≤ µ + σ) r 1 2 t3 t5 t7 t9 t− + − + ∓ ... π 3 · 2 · 1! 5 · 4 · 2! 7 · 8 · 3! 9 · 16 · 4! 0 r 2 1 1 1 1 = 1− + − + ∓ ... . π 3 · 2 · 1! 5 · 4 · 2! 7 · 8 · 3! 9 · 16 · 4! TH Nürnberg 57 • Sind Xi , i = 1, ..., n, stochastisch unabhängige N (µi , σi2 )-verteilte Zufallsvariable, dann ist die Summe n X Xi i=1 gemäß n X N µi , i=1 n X ! σi2 i=1 verteilt. • Sind Xi , i = 1, ..., n, stochastisch unabhängige N (µ, σ 2 )-verteilte Zufallsvariable, dann ist das arithmetische Mittel n 1X Xi n i=1 gemäß N verteilt. σ2 µ, n TH Nürnberg 58 Die χ2 -Verteilung 2.10.6 Seien X1 , ..., Xn stochastisch unabhängige N (0, 1)-verteilte Zufallsvariablen. Dann wird die Verteilung der Zufallsgröße X := n X (Xi + µi )2 i=1 als χ2 -Verteilung mit n Freiheitsgraden und Nichtzentralitätsparameter δ 2 , χ2n (δ 2 ), 2 δ := n X µ2i i=1 bezeichnet. Ist δ = 0, so heißt die Verteilung zentrale χ2 -Verteilung mit n Freiheitsgraden, χ2n . Die Dichte dieser zentralen χ2n -Verteilung lautet fX (x) = x n 1 x 2 −1 e− 2 . n 2 Γ( 2 ) n 2 Dabei bezeichnet Γ die Gamma-Funktion. f X n=1 n=3 n=5 x Abbildung 2.15 Die Dichte der χ2n -Verteilung für n = 1, 3, 5 Für den Erwartungswert und die Varianz der χ2n -Verteilung gilt EX = n und Var X = 2n . TH Nürnberg 2.11 59 Grenzwertsätze Seien Xi stochastisch unabhängige und identisch verteilte Zufallsvariablen mit Erwartungswert µ und Varianz σ 2 . Dann besagt das Gesetz der großen Zahlen, dass lim P (|X̄n − µ| ≥ ) = 0 für alle > 0 , n→∞ wobei X̄n := n 1 X · Xi . n i=1 Für Zn := √ X̄n − µ n· . σ gilt EZn = 0 und Var Zn = 1. Der zentrale Grenzwertsatz besagt, dass lim P (Zn ≤ z) = φ(z) . n→∞ Demnach ist die Zufallsgröße Zn approximativ N (0, 1)-verteilt. Ist Xn B(n, pn )-verteilt und gilt lim npn = µ, so lässt sich der Grenzwertsatz von Poisson n→∞ anwenden. Dieser besagt, dass lim P (Xn = k) = n→∞ µk e−µ . k! Demnach ist die Zufallsgröße Xn approximativ P (µ)-verteilt. TH Nürnberg 60 2.12 Übungsaufgaben Aufgabe 1 Bestimmen Sie die Anzahl der Möglichkeiten a) beim dreimaligen Würfeln jeweils eine unterschiedliche Augenzahl zu erhalten, b) aus 49 Zahlen sechs Zahlen auszuwählen, c) eine Tüte mit zwölf Bonbons zu füllen, wenn es fünf verschiedene Sorten Bonbons gibt. Aufgabe 2 Herr Meier ist der Aufsichtsratsvorsitzende der Firma X. Neben ihm gehören noch vier Damen und vier Herren dem Aufsichtsrat an. Bei ihren Sitzungen nehmen die Personen jeweils auf einem der neun Stühle an einem runden Tisch Platz. Wie viele verschiedene Möglichkeiten der Sitzordnung gibt es, wenn • keinerlei Einschränkungen gelten, • die vier Damen immer nebeneinander sitzen, • nur nach Damen und Herren unterschieden wird. Bestimmen Sie außerdem die jeweilige Anzahl an Möglichkeiten, wenn Herr Meier immer auf einem ausgezeichneten Platz, dem Chefsessel, sitzt. Aufgabe 3 Berechnen Sie die Wahrscheinlichkeiten für folgende Ereignisse: a) Bei siebenmaligem Würfeln ist die größte Augenzahl eine Fünf. b) Bei viermaligem Würfeln treten keine zwei gleichen Augenzahlen auf. c) Bei einer Ziehung werden aus einer Urne, die Kugeln mit drei unterschiedlichen Farben enthält, blind vier Kugeln entnommen. Die Urne enthält vier grüne, drei gelbe und drei blaue Kugeln. Berechnen Sie die Wahrscheinlichkeit, dass von jeder Farbe eine gezogen wird. Aufgabe 4 Bestimmen Sie die Regressionsgerade für folgende Daten (ti , si ): 3 6 3 7 23 1 ). ( , 1), ( , ), (2, ), ( , 2 2 5 2 2 10 TH Nürnberg 61 Aufgabe 5 Bestimmen Sie die Koeffizienten a0 , a1 , a2 für eine linearen Regression zu folgenden Daten: x1 x2 74 1 67 1 69 2 72 2 77 3 71 3 y 50 48 51 53 58 55 Aufgabe 6 Zwei Bleche werden aufeinander verschweißt. Die Abweichung dieser Bleche von deren gewünschter Dicke wird durch die Zufallsvariablen X1 und X2 beschrieben. Die Zufallsvariablen Xi , i = 1, 2, seinen stochastisch unabhängig und N (0, σi2 )-verteilt. Geben Sie die Verteilungsfunktion der Abweichung der Gesamtdicke X1 + X2 an. Aufgabe 7 Seien X1 und X2 stochastisch unabhängig und N (0, σ 2 )-verteilt mit σ = 2. Weiterhin sei Y1 := X1 und Y2 := µ · X1 + p 1 − µ2 · X2 , mit 0 < µ < 1 . Bestimmen Sie die Korrelation ρ(Y1 , Y2 ). Aufgabe 8 Die Länge von 10 Werkstücken ist N (80, 2)-verteilt. Bestimmen Sie die Wahrscheinlichkeit, dass das arithmetische Mittel der Längen im Intervall [79, 81] liegt. Aufgabe 9 Zwischen dem Hersteller elektronischer Bauteile und einem Produzenten von Fernsehgeräten wurde vereinbart, dass bei der Eingangskontrolle maximal 5% der Bauteile defekt sein darf. Dazu wird aus jeder Lieferung eine Stichprobe von 20 Bauteilen entnommen und überprüft. a) Wie groß ist die Wahrscheinlichkeit, dass eine Lieferung zurückgewiesen wird, wenn 3% der Bauteile defekt sind? b) Wie groß ist die Wahrscheinlichkeit, dass eine Lieferung angenommen wird, obwohl 8% der Bauteile defekt sind? TH Nürnberg 3 62 Induktive Statistik 3.1 Schätzen von Parametern Seien x1 , ..., xn Beobachtungen von Zufallsgrößen X1 , ..., Xn , θ ein unbekannter Parameter der Verteilungen der Xi und θ̂(X1 , ..., Xn ) eine Stichprobenfunktion. Wird θ mittels θ̂ geschätzt, so heißt θ̂ Schätzfunktion für θ. Arten der Schätzung a) Eine Punktschätzung liegt vor, wenn die aus der Stichprobe erhaltene Ausprägung θ̂(X1 , ..., Xn ) Schätzwert für θ ist, d. h. θ̂(X1 , ..., Xn ) = θ . b) Eine Intervallschätzung liegt vor, wenn ein Intervall reeller Zahlen gegeben ist, innerhalb dessen der gesuchte Parameter mit vorausgesetzter Sicherheit liegt. Eigenschaften von Schätzfunktionen a) Erwartungstreue Schätzfunktionen Eine Schätzfunktion θ̂ für θ heißt erwartungstreu, wenn E θ̂(X1 , ..., Xn ) = θ . Beispiel Wird zur Schätzung des Parameters µ einer N (µ, σ 2 )-Verteilung das arithmetische Mittel der Stichprobe x1 , ..., xn verwendet, d. h. θ̂(x1 , ..., xn ) = x̄ , so ist diese Schätzfunktion erwartungstreu, da n n 1X 1 1X Xi ) = EXi = nµ = µ . E θ̂(X1 , ..., Xn ) = E( n i=1 n i=1 n b) Konsistente Schätzfunktionen Eine Schätzfunktion θ̂n für θ, welche auf n Beobachtungen beruht, heißt konsistent, wenn, für jedes > 0, lim P (|θ̂n − θ| > ) = 0 n→∞ gilt. TH Nürnberg 63 Ein Maß für die Güte eines Schätzers bietet der mittlere quadratische Fehler E(θ̂ − θ)2 . Da E(θ̂ − θ)2 = E θ̂2 − 2(E θ̂)θ + θ2 = E θ̂2 − (E θ̂)2 + (E θ̂)2 − 2(E θ̂)θ + θ2 = Var θ̂ + (E θ̂ − θ)2 gilt, erhalten wir für erwartungstreue Schätzer: E(θ̂ − θ)2 = Var θ̂ . Dieser ist demnach genau dann konsistent, wenn lim Var θ̂ = 0 n→∞ ist. Anmerkung: Die Größe E θ̂ − θ wird Bias oder Verzerrung des Schätzers θ̂ genannt. Beispiel Für die Schätzfunktion x̄ für den Mittelwert µ der N (µ, σ 2 )-Verteilung gilt n 1 X σ2 1 E(X̄ − µ) = Var X̄ = ( )2 Var(Xi ) = ( )2 nσ 2 = n i=1 n n 2 und daher lim Var X̄ = 0 . n→∞ Demnach ist dieser erwartungstreue Schätzer x̄ konsistent. TH Nürnberg 64 Konfidenzintervalle Ist die Irrtumswahrscheinlichkeit, dass ein unbekannter Parameter θ in einem zu bestimmenden Bereich liegt, maximal α, mit 0 < α < 1, so beträgt die Wahrscheinlichkeit, dass θ zu diesem Bereich gehört 1 − α. Zur Bestimmung eines solchen Konfidenzbereichs werden oft Punktschätzer θ̂ für den Parameter θ, verwendet, um Zahlen ũ1 , ũ2 ∈ R ∪ {∞} zu finden, so dass P (ũ1 ≤ θ̂ ≤ ũ2 ) = 1 − α gilt. Die so bestimmende Punktmenge heißt Konfidenzbereich zum Niveau 1 − α. Handelt es sich bei dem Bereich um ein Intervall, so wird es Konfidenzintervall zum Niveau 1 − α genannt. Falls die standardisierte Zufallsvariable θ̂ − Eθ √ Var θ unabhängig von Var θ ist, können wir θ̂ − Eθ ≤ u2 ) = 1 − α P (u1 ≤ √ Var θ verwenden, um, statt der Zahlen ũ1 , ũ2 , die Zahlen u1 , u2 ∈ R ∪ {∞} zu bestimmen. Betrachten wir n Realisationen von unabhängigen N (µ, σ 2 )-verteilten Zufallsvariablen, so gilt für die Schätzfunktion X̄ für µ: E X̄ = µ und n 1 2X σ2 1 2 2 Var X̄ = ( ) Var Xi = ( ) n · σ = . n i=1 n n Demnach ist die Zufallsgröße √ X̄ − µ n σ N (0, 1)-verteilt. Somit gilt √ X̄ − µ P −u1− α2 ≤ n ≤ u1− α2 = 1 − α . σ Dabei ist u1− α2 das 1 − α2 -Quantil der N (0, 1)-Verteilung. TH Nürnberg 65 Ein Konfidenzintervall zum Niveau 1 − α für den Parameter µ ist daher durch σ σ x̄ − √ u1− α2 , x̄ + √ u1− α2 n n gegeben. y α 2 α 2 −u 1− α 2 u1− α x 2 Abbildung 3.1 Das 1 − α2 -Quantil der N (0, 1)-Verteilung Beispiel Für α = 0, 05 erhalten wir u1− α2 = u0,975 = 1, 96. Ist x̄ = 11, 05, n = 9 und σ = 0, 3, so lautet das Konfidenzintervall zum Niveau 0, 95: [10, 85; 11, 25] . TH Nürnberg 66 Da √ X̄ − µ √ X̄ − µ P n ≥ −u1−α = P n ≤ u1−α = 1 − α σ σ ist, lauten die einseitigen Konfidenzintervalle σ −∞, x̄ + √ u1−α n und σ x̄ − √ u1−α , ∞ . n y α u1−α x Abbildung 3.2 Das 1 − α-Quantil der N (0, 1)-Verteilung Beispiel Für α = 0, 05 erhalten wir u1−α = u0,95 = 1, 645. Ist x̄ = 11, 05, n = 9 und σ = 0, 3, so lauten die einseitigen Konfidenzintervalle zum Niveau 0, 95: (−∞; 11, 21] und [10, 89; ∞) . TH Nürnberg 3.2 3.2.1 67 Testen von Hypothesen Einseitiger Einstichproben-Gaußtest Zur Bestimmung der einseitigen Konfidenzintervalle betrachten wir √ X̄ − µ √ X̄ − µ n ≥ −u1−α = P n ≤ u1−α = 1 − α . P σ σ Im Rahmen eines statistischen Tests können wir uns beispielsweise die Aufgabe stellen, zu untersuchen, ob ein Parameter µ einer N (µ, σ 2 )-Verteilung größer oder kleiner als ein Wert µ0 ist, und hierzu zwischen Nullhypothese H0 und der Alternativhypothese H1 unterscheiden. Es soll demnach H0 : µ ≤ µ0 gegen H1 : µ > µ0 getestet werden. Dabei können folgende Fehler auftreten: • Fehler 1. Art (α-Fehler): Obwohl die Aussage von H0 wahr ist, wird dem Test zufolge angenommen, die Aussage von H1 sei wahr. • Fehler 2. Art (β-Fehler): Obwohl die Aussage von H1 wahr ist, wird dem Test zufolge angenommen, die Aussage von H0 sei wahr. Führt das Entscheidungsverfahren mit einer Wahrscheinlichkeit von höchstens dem Wert α zu einem Fehler 1. Art, so wird der Test als Test zum Niveau α bezeichnet. Dann wird α auch Signifikanzniveau genannt. TH Nürnberg 68 P ( x) Fehler 2. Art μ0 Fehler 1. Art u1−α μ1 x Abbildung 3.3 Einseitiger Einstichproben-Gaußtest Sei Pµ die Wahrscheinlichkeit bei Vorliegen des Wertes µ. Ist µ = µ0 , so gilt √ X̄ − µ > u1−α ) = α . Pµ ( n σ Ist hingegen µ < µ0 , so gilt √ X̄ − µ Pµ ( n > u1−α ) < α . σ Ein Test zum Niveau α liegt vor, wenn die Entscheidung für die Annahme von • H1 getroffen wird, falls √ x̄ − µ n > u1−α , σ • H0 getroffen wird, falls √ x̄ − µ n ≤ u1−α . σ Ein solcher Test heißt einseitiger Einstichproben-Gaußtest. TH Nürnberg 3.2.2 69 Der χ2 -Anpassungstest Gegeben seien n stochastisch unabhängige Zufallsvariablen X1 , ..., Xn mit den zugehörigen Realisierungen x1 , ..., xn . Um die Hypothesen • H0 : Die Grundgesamtheit ist N (µ0 , σ02 )-verteilt • H1 : Die Grundgesamtheit ist nicht N (µ0 , σ02 )-verteilt zu testen, werden, unter der Annahme, dass H0 wahr ist, berechnete mit beobachteten Wahrscheinlichkeiten für die Zugehörigkeit der Größen xi zu geeigneten Klassen durch eine Testgröße T verglichen. Anhand dieser Testgröße, die unter H0 asymptotisch χ2 -verteilt ist, wird dann entschieden, welche der Hypothesen angenommen wird. Dabei verfahren wir folgendermaßen: • Das uneigentliche Intervall (−∞, ∞) = R wird in k disjunkte Intervalle Ii unterteilt. • Die Anzahl der Beobachtungen ni , i = 1, ..., k, der Messwerte x1 , ..., xn in jedem Ii wird bestimmt. • Unter der Annahme, dass H0 wahr ist, werden die Wahrscheinlichkeiten pi = P (X ∈ Ii ) , i = 1, ..., k , und die Werte Ei := npi , i = 1, ..., k , berechnet. • Die Größe T := k X 1 (ni − Ei )2 E i i=1 wird bestimmt. Dabei gilt die Approximation als hinreichend genau, falls nicht mehr als 20% der Werte Ei kleiner als 5 und kein Wert Ei kleiner als 1 ist. Die Nullhypothese H0 zum Signifikanzniveau α wird verworfen, falls T > χ2k−1;1−α gilt. TH Nürnberg 70 Der χ2 -Anpassungstest für die Poisson-Verteilung Um die Hypothesen • H0 : Die Grundgesamtheit ist P (µ)-verteilt • H1 : Die Grundgesamtheit ist nicht P (µ)-verteilt zu testen, nutzen wir das oben vorgestellte Verfahren. Beispiel Es soll mit Hilfe eines χ2 -Anpassungstests zum Signifikanzniveau α = 0, 05 überprüft werden, ob die Anzahl der Anruf in einer Telefonzentrale innerhalb eines bestimmten Zeitintervalls P (3)-verteilt ist. Hier wird ein Zeitintervall von 15 min vorausgesetzt und die Anzahl der Anrufe in n = 50 Zeitintervallen der Intervalldauer 15 min gezählt. Anzahl l Anzahl ml der Zeitintervalle Anzahl l Anzahl ml der Zeitintervalle der Anrufe mit l Anrufen der Anrufe mit l Anrufen 0 1 6 7 1 6 7 1 2 8 8 1 3 10 9 2 4 6 10 2 5 6 > 10 0 Demnach erhalten wir i Ii ni Ei 1 (−∞, 1] 7 9, 95 2 (1, 2] 8 11, 2 3 (2, 3] 10 11, 2 4 (3, 4] 6 8, 4 5 (4, ∞) 19 9, 25 Daher gilt für die Testgröße 5 X 1 T = (ni − Ei )2 = 12, 88 . Ei i=1 TH Nürnberg Da χ25−1;0,95 = 9, 5 < T gilt, wird die Nullhypothese verworfen. 71 TH Nürnberg 3.3 72 Übungsaufgaben Aufgabe 1 Bei den Bundesjugendspielen wird die Zeit des Siegers bei einem 100 m-Lauf gestoppt. Um die Genauigkeit der Messung zu erhöhen, werden die Messungen eines Laufs von verschiedenen Lehrern gleichzeitig vorgenommen. Dabei ergeben sich folgende Messwerte: Nr. der Messung 1 Messwert in s 11,2 2 10,6 3 11,0 4 10,9 5 11,4 6 11,1 7 10,7 8 11,3 9 10,8 10 11,0 Die Messwerte x1 , ..., x10 werden als Realisationen von 10 unabhängigen N (µ, 0, 09)-verteilten Zufallsvariablen vorausgesetzt. Bestimmen Sie das Konfidenzintervall für den Parameter µ zum Niveau 0, 95. Aufgabe 2 Eine Maschine verpackt Zucker in 500 g-Tüten. Die tatsächliche Füllmenge sei N (µ, σ 2 )-verteilt, wobei σ = 2, 7 g sei. Um zu bestimmen, ob die Maschine eine von der angegebenen Füllmenge µ0 = 500 g abweichende Zuckermengen abfüllt, wird die jeweilige Masse von 9 gefüllten Tüten bestimmt. Die Messwerte lauten Nr. der Messung 1 Messwert in g 505 2 501 3 497 4 503 5 499 6 502 7 497 8 499 9 504 Es soll H0 : µ ≤ µ0 gegen H1 : µ > µ0 getestet werden. Dabei werde ein Test zum Niveau 0, 025 durchgeführt. Welche dieser Hypothesen wird angenommen? TH Nürnberg 73 Aufgabe 3 Ein Verein erzielt Einnahmen vornehmlich aus Mitgliedsbeiträgen, die zu Beginn eines jeden Jahres gezahlt werden und zusätzlich durch eine in jedem III. Tertial durchgeführte Veranstaltung. Die Entwicklung des Kassenbestandes ist in folgender Tabelle angegeben: Jahr 2009 Tertial I II III Bestand in e 7110 5220 5770 2010 I II III 6440 5030 5510 2011 I II III 6810 4890 5240 2012 I II III 6210 4430 5230 a) Zeichnen Sie die Zeitreihe. b) Bestimmen Sie (i) die Regressionsgerade mittels der Methode der kleinsten Quadrate, (ii) die Reihe der gleitenden Durchschnitte der Ordnung 3, wobei als gleitender Durchschnitt yi∗ der Ordnung 2m + 1 zum Beobachtungswert yi , i = 1, ..., n , yi∗ m X 1 := yi+k , für i = m + 1, m + 2, ..., n − m , 2m + 1 k=−m definiert ist, (iii) die empirischen Autokorrelationen der Zeitreihe, wobei als empirische Autokorrelation r(m) := c(m) , c(0) mit n−m 1X c(m) := (yi − ȳ)(yi+m − ȳ) , m = 0, 1, ..., n − 1 n i=1 und n c(0) := 1X (yi − ȳ)2 , n i=1 definiert ist, und stellen Sie Ihre Ergebnisse graphisch dar. c) Bestimmen Sie eine Näherungsfunktion für die Kassenbestände mittels harmonischer Analyse. TH Nürnberg Symbolverzeichnis Allgemeine Notation N = {1, 2, 3, ....} Menge der natürlichen Zahlen N0 = {0, 1, 2, 3, ....} Z = {0, ±1, ±2, ....} Menge der ganzen Zahlen p Q = { | p, q ∈ Z, q 6= 0} Körper der rationalen Zahlen q R Körper der reellen Zahlen R+ := {x ∈ R | x ≥ 0} R∗ := {x ∈ R | x 6= 0} R∗+ := {x ∈ R | x > 0} C Körper der komplexen Zahlen Symbole zur Statistik B(n, p) Binomialverteilung mit den Parametern n und p N (µ, σ 2 ) Normalverteilung mit Mittelwert µ und Varianz σ 2 P (λ) Poisson-Verteilung mit dem Parametern λ χ2n χ2 -Verteilung mit n Freiheitsgraden χ2n;γ γ-Quantil der χ2 -Verteilung mit n Freiheitsgraden 74 TH Nürnberg 75 Literatur [1] C. Blatter, Analysis 3, Springer [2] I. N. Bronstein, K. A. Semendjajew, Taschenbuch der Mathematik, B. G. Teubner, Nauka [3] A. Budó, Theoretische Mechanik, VEB Deutscher Verlag der Wissenschaften [4] G. Buttler, S. Maaß, Aufgabensammlung zur Grundausbildung in Statistik, Teil I: Deskriptive Statistik, Teil II: Induktive Statistik, Verlag der Universitätsbuchhandlung Büttner & Co., Nürnberg, 1992, 1993 [5] O. Forster, Analysis 1, Vieweg [6] J. Hartung, Statistik, Oldenbourg [7] J. Hartung, B. Heine, Statistik-Übungen, Oldenbourg [8] H. Heuser, Gewöhnliche Differentialgleichungen, B. G. Teubner [9] B. Jann, Einführung in die Statistik, Oldenbourg [10] S. Maaß, Statistik I und II, Vorlesungsskripten, Universität Erlangen-Nürnberg, Volkswirtschaftliches Institut, Lehrstuhl Statistik I [11] F. Reinhardt, H. Soeder, dtv-Atlas zur Mathematik, Deutscher Taschenbuch Verlag [12] SMART, Mathematik- und Physikaufgabensammlung, Universität Bayreuth, http://btmdx1.mat.uni-bayreuth.de/smart/wp/